自然语言处理实战:预训练模型应用及其产品化

自然语言处理实战:预训练模型应用及其产品化

作者:[美] 安库·A. 帕特尔[美] 阿贾伊·乌皮利·阿拉萨尼帕莱

出版社:机械工业

出版年:2022年8月

ISBN:9787111707912

所属分类:网络科技

书刊介绍

《自然语言处理实战:预训练模型应用及其产品化》内容简介

本书分为三部分。第1部分聚焦于自然语言处理的高层次概述,包括自然语言处理的历史、该领域流行的应用,以及如何使用预训练模型来执行迁移学习和快速解决现实世界中的问题。第二部分将深入研究自然语言处理的底层细节,包括预处理文本、分词和向量嵌入。然后探讨当今自然语言处理中有效的建模方法,如Transformer、注意力机制、普通循环神经网络、长短期记忆和门控循环单元。第三部分将讨论应用自然语言处理很重要的方面——如何产品化已开发的模型,以便这些模型为组织提供看得见、摸得着的价值。我们将讨论当今可用工具的前景,分享对它们的看法。
安库·A. 帕特尔、阿贾伊·乌皮利·阿拉萨尼帕莱编著。

作品目录

关于作者
关于封面
O'Reilly
Media,
Inc.介绍
前言
第一部分
浮光掠影
第1章:自然语言处理介绍
1.1、什么是自然语言处理
1.2、基本的自然语言处理
1.3、总结
第2章:Transformer和迁移学习
2.1、利用fast.ai库进行训练
2.2、利用Hugging
Face系列库进行推理
2.3、总结
第3章:NLP任务和应用程序
3.1、预训练语言模型
3.2、迁移学习和微调
3.3、NLP任务
3.4、自然语言数据集
3.5、NLP任务1:命名实体识别
3.6、NLP任务2:文本分类
3.7、总结
第二部分
纲举目张
第4章:分词
4.1、一个极简的分词器
4.2、Hugging
Face的分词器
4.3、搭建自己的分词器
4.4、总结
第5章:向量嵌入:计算机如何“理解”单词
5.1、理解文本与读取文本
5.2、词向量
5.3、词向量嵌入实践
5.4、非词条的嵌入
5.5、总结
第6章:循环神经网络和其他序列模型
6.1、循环神经网络
6.2、长短期记忆网络
6.3、门控循环单元
6.4、总结
第7章:Transformer
7.1、从头开始构建Transformer
7.2、注意力机制
7.3、计算机视觉Transformer
7.4、总结
第8章:BERT方法论:博采众长创新篇
8.1、ImageNet
8.2、通往NLP“ImageNet时刻”之路
8.3、预训练的词向量嵌入
8.4、序列模型
8.5、循环神经网络
8.6、注意力机制
8.7、Transformer架构
8.8、NLP的“ImageNet时刻”
8.9、总结
第三部分
经世致用
第9章:工欲善其事,必先利其器
9.1、深度学习框架
9.2、可视化与实验跟踪
9.3、AutoML
9.4、机器学习基础设施和计算
9.5、边缘/终端侧推理
9.6、云推理和机器学习即服务
9.7、持续集成和持续交付
9.8、总结
第10章:可视化
10.1、我们的第一个Streamlit应用程序
10.2、总结
第11章:产品化
11.1、数据科学家、工程师和分析师
11.2、Databricks:你的统一数据分析平台
11.3、Databricks的安装
11.4、机器学习作业
11.5、MLflow
11.6、Databricks的替代品
11.7、总结
第12章:归纳提升
12.1、最后十课
12.2、最后的话
附录A
大规模训练
A.1、多GPU训练
A.2、分布式训练
A.3、是什么让深度学习训练得更快
附录B
CUDA
B.1、线程和线程块
B.2、编写CUDA内核
B.3、CUDA实践

相关推荐

微信二维码