目 录
第1章 从逻辑学到认知科学 1
1.1 人工神经网络的起源 1
1.2 异或(XOR)问题 6
1.3 从认知科学到深度学习 8
1.4 总体人工智能景观中的神经网络 12
1.5 哲学和认知概念 13
第2章 数学和计算先决条件 17
2.1 求导和函数极小化 17
2.2 向量、矩阵和线性规划 26
2.3 概率分布 34
2.4 逻辑学和图灵机 41
2.5 编写Python代码 44
2.6 Python编程概述 46
第3章 机器学习基础知识 55
3.1 基本分类问题 55
3.2 评估分类结果 61
3.3 一种简单的分类器:朴素贝叶斯 64
3.4 一种简单的神经网络:逻辑回归 67
3.5 MNIST数据集简介 73
3.6 没有标签的学习:k均值 76
3.7 学习不同的表示形式:PCA 78
3.8 学习语言:词袋表示 81
第4章 前馈神经网络 85
4.1 神经网络的基本概念和术语 85
4.2 使用向量和矩阵表示网络分量 88
4.3 感知器法则 90
4.4 Delta法则 93
4.5 从逻辑神经元到反向传播 95
4.6 反向传播 100
4.7 一个完整的前馈神经网络 110
第5章 前馈神经网络的修改和扩展 113
5.1 正则化的概念 113
5.2 L1和L2正则化 115
5.3 学习率、动量和丢弃 117
5.4 随机梯度下降和在线学习 123
5.5 关于多个隐藏层的问题:梯度消失和梯度爆炸 124
第6章 卷积神经网络 127
6.1 第三次介绍逻辑回归 127
6.2 特征图和池化 131
6.3 一个完整的卷积网络 133
6.4 使用卷积网络对文本进行分类 136
第7章 循环神经网络 141
7.1 不等长序列 141
7.2 使用循环神经网络进行学习的三种设置 143
7.3 添加反馈环并展开神经网络 145
7.4 埃尔曼网络 146
7.5 长短期记忆网络 148
7.6 使用循环神经网络预测后续单词 151
第8章 自动编码器 161
8.1 学习表示 161
8.2 不同的自动编码器体系结构 164
8.3 叠加自动编码器 166
8.4 重新创建猫论文 170
第9章 神经语言模型 173
9.1 词嵌入和词类比 173
9.2 CBOW和Word2vec 174
9.3 Word2vec代码 176
9.4 单词领域概览:一种摒弃符号AI的观点 179
第10章 不同神经网络体系结构概述 183
10.1 基于能量的模型 183
10.2 基于记忆的模型 186
10.3 通用联结主义智能的内核:bAbI数据集 189
第11章 结论 193
11.1 开放性研究问题简单概述 193
11.2 联结主义精神与哲学联系 194