定 价:¥129.00
作 者: | 陈屹 |
出版社: | 北京理工大学出版社 |
丛编项: | |
标 签: | 暂缺 |
ISBN: | 9787576330007 | 出版时间: | 2023-12-01 | 包装: | 平装-胶订 |
开本: | 16开 | 页数: | 字数: |
第1篇 TensorFlow基础
第1章 安装TensorFlow 2
1.1 TensorFlow的安装流程 2
1.2 运行TensorFlow的第一个程序 3
第2章 张量及其运算 4
2.1 常量张量的创建 4
2.2 张量维度的转换 9
2.3 张量的运算 12
第3章 运算图和会话管理 15
3.1 运算图的形成 15
3.2 运算图的数据结构 17
3.3 使用会话对象执行运算图 19
3.3.1 交互式会话执行流程 19
3.3.2 使用会话日志 20
3.4 使用TensorBoard实现数据可视化 20
3.4.1 启动TensorBoard组件 21
3.4.2 显示TensorBoard中的数据 22
第4章 模型训练 24
4.1 变量张量 24
4.2 损失函数 25
4.3 渐进下降法 26
4.3.1 如何将数据读入模型 27
4.3.2 模型训练的基本流程 28
4.3.3 渐进下降法运行实例 29
4.3.4 渐进下降法的缺陷和应对 30
4.4 运算图的存储和加载 32
第2篇 TensorFlow进阶
第5章 机器学习的基本概念 34
5.1 使用TensorFlow实现线性回归 34
5.2 使用TensorFlow实现多项式回归 36
5.3 使用逻辑回归实现数据二元分类 38
5.3.1 逻辑函数 38
5.3.2 最大概率估计 39
5.3.3 用代码实现逻辑回归 40
5.4 使用多元逻辑回归实现数据的多种分类 41
5.4.1 多元分类示例——识别手写数字图像 41
5.4.2 多元交叉熵 41
5.4.3 多元回归模型代码示例 43
第6章 使用TensorFlow开发神经网络 44
6.1 神经元和感知器 44
6.1.1 神经元的基本原理 44
6.1.2 感知器的基本原理 45
6.1.3 链路权重 46
6.1.4 激活函数 46
6.2 神经网络的运行原理 47
6.2.1 神经网络层 47
6.2.2 误差反向传播 48
6.3 构造神经网络识别手写数字图像 50
第7章 使用TensorFlow实现卷积网络 53
7.1 卷积运算 53
7.2 卷积运算的本质 54
7.3 卷积运算的相关参数和操作说明 55
7.4 使用TensorFlow开发卷积网络实例 56
7.5 卷积网络的训练与应用 59
第8章 构造重定向网络 61
8.1 什么是重定向网络 61
8.1.1 重定向网络的基本结构 61
8.1.2 cell部件的运算原理 62
8.2 使用TensorFlow构建RNN层 63
8.2.1 cell组件类简介 63
8.2.2 创建RNN层接口调用简介 64
8.3 使用RNN实现文本识别 65
8.3.1 文本数据预处理 65
8.3.2 网络模型的构建和训练 66
8.4 长短程记忆组件 68
8.4.1 长短程记忆组件的内部原理 68
8.4.2 使用接口创建LSTM节点 70
8.4.3 使用LSTM网络实现文本识别 72
第9章 数据集的读取与操作 74
9.1 TensorFlow的数据集对象 74
9.1.1 创建数值型数据集 74
9.1.2 数据生成器 75
9.1.3 从文本中读入数据集 76
9.2 数据集的处理和加工 77
9.2.1 数据集的分批处理 77
9.2.2 基于数据集的若干操作 78
9.2.3 数据集条目的遍历访问 80
第10章 使用多线程、多设备和机器集群 84
10.1 多线程的配置 84
10.2 多处理器分发执行 85
10.3 集群分发控制 86
第11章 TensorFlow的高级接口Estimator 88
11.1 运行Estimator的基本流程 88
11.2 Estimator的初始化配置 90
11.3 Estimator导出模型应用实例 91
11.3.1 使用线性模型实例 91
11.3.2 使用神经网络分类器 93
11.3.3 使用线性回归——深度网络混合模型 94
11.3.4 给Estimator添加自己的网络模型 99
第3篇 TensorFlow实战
第12章 实现编解码器网络 104
12.1 自动编解码器的原理 104
12.2 一个简单的编解码器网络 105
12.3 使用多层编解码器实现图像重构 107
12.4 使用编解码网络实现图像去噪 112
12.5 可变编解码器 115
12.5.1 可变编解码器的基本原理 115
12.5.2 编解码器的数学原理 117
12.5.3 用代码实现编解码网络 123
第13章 使用TensorFlow实现增强学习 127
13.1 搭建开发环境 127
13.2 增强学习的基本概念 129
13.3 马尔可夫过程 132
13.4 马尔可夫决策模型 133
13.5 开发一个增强学习示例 135
13.5.1 示例简介 135
13.5.2 使用神经网络实现最优策略 136
13.6 冰冻湖问题 139
13.6.1 状态值优化 141
13.6.2 贝尔曼函数 142
13.6.3 编码解决冰冻湖问题 145
第14章 使用TensorFlow实现深Q网络 148
14.1 深Q算法的基本原理 149
14.2 深Q算法项目实践 150
14.2.1 算法的基本原则 151
14.2.2 深Q网络模型 155
第15章 TensorFlow与策略下降法 163
15.1 策略导数 164
15.1.1 策略导数的底层原理 164
15.1.2 策略导数算法应用实例 166
15.1.3 策略导数的缺点 169
15.2 Actor-Critic算法 169
15.2.1 Actor-Critic算法的底层原理 169
15.2.2 Actor-Critic算法的实现 171
15.3 A3C算法原理 173
15.3.1 改变量回传模式的代码实现 175
15.3.2 训练数据回传模式的代码实现 187
15.4 使用PPO算法玩转《超级玛丽》 192
15.4.1 PPO算法简介 192
15.4.2 PPO算法的数学原理 193
15.4.3 PPO算法的代码实现 194
第16章 使用TensorFlow 2.x的Eager模式开发高级增强学习算法 201
16.1 TensorFlow 2.x Eager模式简介 201
16.2 使用Eager模式快速构建神经网络 202
16.3 在Eager模式下使用DDPG算法实现机械模拟控制 204
16.3.1 DDPG算法的基本原理 204
16.3.2 DDPG算法的代码实现 206
16.4 DDPG算法改进——TD3算法的原理与实现 211
16.4.1 TD3算法的基本原理 212
16.4.2 TD3算法的代码实现 213
16.5 TD3算法的升级版——SAC算法 218
16.5.1 SAC算法的基本原理 218
16.5.2 SAC算法的代码实现 221
16.6 概率化深Q网络算法 226
16.6.1 连续概率函数的离散化表示 226
16.6.2 算法的基本原理 228
16.6.3 让算法玩转《雷神之锤》 229
16.7 D4PG——概率化升级的DDPG算法 236
16.7.1 D4PG算法的基本原理 236
16.7.2 通过代码实现D4GP算法 237
第17章 使用TensorFlow 2.x实现生成型对抗性网络 245
17.1 生成型对抗性网络的基本原理与代码实战 245
17.2 WGAN——让对抗性网络生成更复杂的图像 253
17.2.1 推土距离 253
17.2.2 WGAN算法的基本原理 255
17.2.3 WGAN算法的代码实现 256
17.3 WGAN_PG——让网络生成细腻的人脸图像 262
17.3.1 WGAN_PG算法的基本原理 262
17.3.2 WGAN_GP算法的代码实现 263
17.4 使用CycleGAN实现“指鹿为马” 269
17.4.1 CycleGAN技术的基本原理 269
17.4.2 用代码实现CycleGAN 272
17.5 使用CycleGAN实现“无痛变性” 284
17.5.1 TensorFlow 2.x的数据集接口 284
17.5.2 网络代码的实现 290
17.6 利用Attention机制实现自动谱曲 297
17.6.1 乐理的基本知识 298
17.6.2 网络训练的数据准备 299
17.6.3 Attention网络结构说明 302
17.6.4 用代码实现预测网络 304
17.7 使用MuseGAN生成多声道音乐 310
17.7.1 乐理的基本知识补充 310
17.7.2 曲谱与图像的共性 311
17.7.3 MuseGAN的基本原理 313
17.7.4 MuseGAN的代码实现 314
17.8 使用自关注机制提升网络人脸的生成能力 322
17.8.1 Self-Attention机制的算法原理 322
17.8.2 引入spectral norm以保证训练的稳定性 324
17.8.3 用代码实现自关注网络 330
17.9 实现黑白图像自动上色 338
17.9.1 算法的基本原理 338
17.9.2 网络内部结构设计 339
17.9.3 代码实现 340