书刊介绍
《深度学习之美》内容简介
深度学习是人工智能的前沿技术。《深度学习之美:AI时代的数据处理与最佳实践》深入浅出地介绍了深度学习的相关理论和实践,《深度学习之美:AI时代的数据处理与最佳实践》共分16章,采用理论和实践双主线写作方式。第1章给出深度学习的大图。第2章和第3章,讲解了机器学习的相关基础理论。第4章和第5章,讲解了Python基础和基于Python的机器学习实战。第6至10章,先后讲解了M-P模型、感知机、多层神经网络、BP神经网络等知识。第11章讲解了被广泛认可的深度学习框架TensorFlow。第12章和第13章详细讲解了卷积神经网络,并给出了相关的实战项目。第14章和第15章,分别讲解了循环递归网络和长短期记忆(LSTM)网络。第16章讲解了神经胶囊网络,并给出了神经胶囊网络设计的详细论述和实践案例分析。
《深度学习之美:AI时代的数据处理与最佳实践》结构完整、行文流畅,是一本难得的零基础入门、图文并茂、通俗易懂、理论结合实战的深度学习书籍。
张玉宏,2012年于电子科技大学取得博士学位,2009-2011年美国西北大学访问学者,电子科技大学博士后,现执教于河南工业大学。
中国计算机协会(CCF)会员,CCF YOCSEF郑州2018-2019年度副主席,ACM/IEEE会员。《品味大数据》一书作者。主要研究方向为大数据、人工智能、技术哲学。发表学术论文20余篇,国内外学术作品7部。阿里云云栖社区专栏作家,博文累计阅读逾百万次。作品目录
内容简介
推荐序一
通俗也是一种美德
推荐序二
技术,也可以“美”到极致
自序
深度学习的浅度梦想
第1章:一入侯门“深”似海,深度学习深几许
1.1、深度学习的巨大影响
1.2、什么是学习
1.3、什么是机器学习
1.4、机器学习的4个象限
1.5、什么是深度学习
1.6、“恋爱”中的深度学习
1.7、深度学习的方法论
1.8、有没有浅层学习
1.9、本章小结
1.10、请你思考
参考资料
第2章:人工“碳”索意犹尽,智能“硅”来未可知
2.1、信数据者得永生吗
2.2、人工智能的“江湖定位”
2.3、深度学习的归属
2.4、机器学习的形式化定义
2.5、为什么要用神经网络
2.6、人工神经网络的特点
2.7、什么是通用近似定理
2.8、本章小结
2.9、请你思考
参考资料
第3章:“机器学习”三重门,“中庸之道”趋若人
3.1、监督学习
3.2、非监督学习
3.3、半监督学习
3.4、从“中庸之道”看机器学习
3.5、强化学习
3.6、本章小结
3.7、请你思考
参考资料
第4章:人生苦短对酒歌,我用Python乐趣多
4.1、Python概要
4.2、Python的版本之争
4.3、Python环境配置
4.4、Python编程基础
4.5、本章小结
4.6、请你思考
参考资料
第5章:机器学习终觉浅,Python带我来实践
5.1、线性回归
5.2、k-近邻算法
5.3、本章小结
5.4、请你思考
参考资料
第6章:神经网络不胜语,M-P模型似可寻
6.1、M-P神经元模型是什么
6.2、模型背后的那些人和事
6.3、激活函数是怎样的一种存在
6.4、什么是卷积函数
6.5、本章小结
6.6、请你思考
参考资料
第7章:Hello
World感知机,懂你我心才安息
7.1、网之初,感知机
7.2、感知机名称的由来
7.3、感性认识“感知机”
7.4、感知机是如何学习的
7.5、感知机训练法则
7.6、感知机的几何意义
7.7、基于Python的感知机实战
7.8、感知机的表征能力
7.9、本章小结
7.10、请你思考
参考资料
第8章:损失函数减肥用,神经网络调权重
8.1、多层网络解决“异或”问题
8.2、感性认识多层前馈神经网络
8.3、是浅而“胖”好,还是深而“瘦”佳
8.4、分布式特征表达
8.5、丢弃学习与集成学习
8.6、现实很丰满,理想很骨感
8.7、损失函数的定义
8.8、热力学定律与梯度弥散
8.9、本章小结
8.10、请你思考
参考资料
第9章:山重水复疑无路,最快下降问梯度
9.1、“鸟飞派”还飞不
9.2、1986年的那篇神作
9.3、多层感知机网络遇到的大问题
9.4、神经网络结构的设计
9.5、再议损失函数
9.6、什么是梯度
9.7、什么是梯度递减
9.8、梯度递减的线性回归实战
9.9、什么是随机梯度递减
9.10、利用SGD解决线性回归实战
9.11、本章小结
9.12、请你思考
参考资料
第10章:BP算法双向传,链式求导最缠绵
10.1、BP算法极简史
10.2、正向传播信息
10.3、求导中的链式法则
10.4、误差反向传播
10.5、BP算法实战详细解释
10.6、本章小结
10.7、请你思考
参考资料
第11章:一骑红尘江湖笑,TensorFlow谷歌造
11.1、TensorFlow概述
11.2、深度学习框架比较
11.3、TensorFlow的安装
11.4、Jupyter
Notebook的使用
11.5、TensorFlow中的基础语法
11.6、手写数字识别MNIST
11.7、TensorFlow中的Eager执行模式
11.8、本章小结
11.9、请你思考
参考资料
第12章:全面连接困何处,卷积网络显神威
12.1、卷积神经网络的历史
12.2、卷积神经网络的概念
12.3、图像处理中的卷积
12.4、卷积神经网络的结构
12.5、卷积层要义
12.6、细说激活层
12.7、详解池化层
12.8、勿忘全连接层
12.9、本章小结
12.10、请你思考
参考资料
第13章:纸上谈兵终觉浅,绝知卷积要编程
13.1、TensorFlow的CNN架构
13.2、卷积层的实现
13.3、激活函数的使用
13.4、池化层的实现
13.5、规范化层
13.6、卷积神经网络在MNIST分类器中的应用
13.7、经典神经网络——AlexNet的实现
13.8、本章小结
13.9、请你思考
参考资料
第14章:循环递归RNN,序列建模套路深
14.1、你可能不具备的一种思维
14.2、标准神经网络的缺陷所在
14.3、RNN简史
14.4、RNN的理论基础
14.5、RNN的结构
14.6、循环神经网络的训练
14.7、基于RNN的TensorFlow实战——正弦序列预测
14.8、本章小结
14.9、请你思考
参考资料
第15章:LSTM长短记,长序依赖可追忆
15.1、遗忘是好事还是坏事
15.2、施密德胡伯是何人
15.3、为什么需要LSTM
15.4、拆解LSTM
15.5、LSTM的前向计算
15.6、LSTM的训练流程
15.7、自然语言处理的一个假设
15.8、词向量表示方法
15.9、自然语言处理的统计模型
15.10、基于Penn
Tree
Bank的自然语言处理实战
15.11、本章小结
15.12、请你思考
参考资料
第16章:卷积网络虽动人,胶囊网络更传“神”
16.1、从神经元到神经胶囊
16.2、卷积神经网络面临的挑战
16.3、神经胶囊的提出
16.4、神经胶囊理论初探
16.5、神经胶囊的实例化参数
16.6、神经胶囊的工作流程
16.7、CapsNet的验证与实验
16.8、神经胶囊网络的TensorFlow实现
16.9、本章小结
16.10、请你思考
16.11、深度学习美在何处
参考资料
后记