TensorFlow自然语言处理

TensorFlow自然语言处理

作者:[澳] 图珊·加内格达拉(Thushan Ganegedara)

出版社:机械工业

出版年:2019年6月

ISBN:9787111629146

所属分类:网络科技

书刊介绍

《TensorFlow自然语言处理》内容简介

本书首先介绍NLP和TensorFlow基础知识,然后介绍如何使用Word2vec(包括高级扩展)创建单词嵌入,将单词序列转换为可由深度学习算法访问的向量。关于经典深度学习算法的章节,如卷积神经网络(CNN)和递归神经网络(RNN),展示了句子分类和语言生成等重要的NLP任务。此外还介绍如何将高性能的RNN模型,如长短期记忆(long short memory, LSTM)单元应用于NLP任务,你还将探索神经机器翻译并实现一个神经机器翻译器。
图珊·加内格达拉(Thushan Ganegedara),目前是澳大利亚悉尼大学第三年的博士生。他专注于机器学习和深度学习。他喜欢在未经测试的数据上运行算法。他还是澳大利亚初创公司AssessThreat的首席数据科学家。他在斯里兰卡莫拉图瓦大学获得了理学士学位。他经常撰写有关机器学习的技术文章和教程。此外,他经常通过游泳来努力营造健康的生活方式。

作品目录

译者序
前言
关于作者
关于审阅者
第1章:自然语言处理简介
1.1、什么是自然语言处理
1.2、自然语言处理的任务
1.3、传统的自然语言处理方法
1.4、自然语言处理的深度学习方法
1.5、本章之外的学习路线
1.6、技术工具简介
1.7、总结
第2章:理解TensorFlow
2.1、TensorFlow是什么
2.2、输入、变量、输出和操作
2.3、使用作用域重用变量
2.4、实现我们的第一个神经网络
2.5、总结
第3章:Word2vec——学习词嵌入
3.1、单词的表示或含义是什么
3.2、学习单词表示的经典方法
3.3、Word2vec——基于神经网络学习单词表示
3.4、skip-gram算法
3.5、连续词袋算法
3.6、总结
第4章:高级Word2vec
4.1、原始skip-gram算法
4.2、比较skip-gram算法和CBOW算法
4.3、词嵌入算法的扩展
4.4、最近的skip-gram和CBOW的扩展算法
4.5、GloVe:全局向量表示
4.6、使用Word2vec进行文档分类
4.7、总结
第5章:用卷积神经网络进行句子分类
5.1、介绍卷积神经网络
5.2、理解卷积神经网络
5.3、练习:在MNIST数据集上用CNN进行图片分类
5.4、用CNN进行句子分类
5.5、总结
第6章:递归神经网络
6.1、理解递归神经网络
6.2、基于时间的反向传播
6.3、RNN的应用
6.4、用RNN产生文本
6.5、评估RNN的文本结果输出
6.6、困惑度:衡量文本结果的质量
6.7、有上下文特征的递归神经网络:更长记忆的RNN
6.8、总结
第7章:长短期记忆网络
7.1、理解长短期记忆网络
7.2、LSTM如何解决梯度消失问题
7.3、其他LSTM的变体
7.4、总结
第8章:LSTM应用:文本生成
8.1、数据集
8.2、实现LSTM
8.3、LSTM与窥孔LSTM和GRU对比
8.4、改进LSTM:集束搜索
8.5、LSTM改进:用单词替代n-gram生成文本
8.6、使用TensorFlow
RNN
API
8.7、总结
第9章:LSTM应用:图像标题生成
9.1、了解数据
9.2、图像标题生成实现路径
9.3、使用CNN提取图像特征
9.4、实现:使用VGG-16加载权重和推理
9.5、学习词嵌入
9.6、准备输入LSTM的标题
9.7、生成LSTM的数据
9.8、定义LSTM
9.9、定量评估结果
9.10、为测试图像生成标题
9.11、使用TensorFlow
RNN
API和预训练的GloVe词向量
9.12、总结
第10章:序列到序列学习:神经机器翻译
10.1、机器翻译
10.2、机器翻译简史
10.3、理解神经机器翻译
10.4、为NMT系统准备数据
10.5、训练NMT
10.6、NMT推理
10.7、BLEU评分:评估机器翻译系统
10.8、从头开始实现NMT:德语到英语的翻译
10.9、结合词嵌入训练NMT
10.10、改进NMT
10.11、注意力
10.12、序列到序列模型的其他应用:聊天机器人
10.13、总结
第11章:自然语言处理的现状与未来
11.1、NLP现状
11.2、其他领域的渗透
11.3、走向通用人工智能
11.4、社交媒体NLP
11.5、涌现的新任务
11.6、新兴的机器学习模型
11.7、总结
附录
数学基础与高级TensorFlow

相关推荐

微信二维码