译者序
前言
练习说明
第1章整体情况
11为什么机器需要学习
111学习任务
112环境的符号和子符号表示
113生物和人工神经网络
114学习的协议
115基于约束的学习
12原则和实践
121归纳的令人困惑的本质
122学习原则
123时间在学习过程中的作用
124注意力机制的聚焦
13实践经验
131度量实验的成功
132手写字符识别
133建立机器学习实验
134试验和实验备注
14机器学习面临的挑战
141学习观察
142语言理解
143生活在自己环境中的代理
15注释
第2章学习原则
21环境约束
211损失函数与风险函数
212约束引发的风险函数的病态
213风险最小化
214偏差——方差困境
22统计学习
221最大似然估计
222贝叶斯推理
223贝叶斯学习
224图形模式
225频率论和贝叶斯方法
23基于信息的学习
231一个启发性的示例
232最大熵原理
233最大相互信息
24简约原则下的学习
241简约原则
242最小描述长度
243MDL与正则化
244正则化的统计解释
25注释
第3章线性阈值机
31线性机
311正规方程
312待定问题和广义逆
313岭回归
314原始表示和对偶表示
32包含阈值单元的线性机
321谓词阶数和表示性问题
322线性可分示例的最优性
323无法分离的线性可分
33统计视图
331贝叶斯决策和线性判别分析
332逻辑回归
333符合贝叶斯决策的独立原则
334统计框架中的LMS
34算法问题
341梯度下降
342随机梯度下降
343感知机算法
344复杂性问题
35注释
第4章核方法
41特征空间
411多项式预处理
412布尔富集
413不变的特征匹配
414高维空间中的线性可分性
42最大边际问题
421线性可分下的分类
422处理软约束问题
423回归
43核函数
431相似性与核技巧
432内核表征
433再生核映射
434内核类型
44正则化
441正则化的风险
442在RKHS上的正则化
443最小化正则化风险
444正则化算子
45注释
第5章深层结构
51结构性问题
511有向图及前馈神经网络
512深层路径
513从深层结构到松弛结构
514分类器、回归器和自动编码器
52布尔函数的实现
521“与或”门的典型实现
522通用的“与非”实现
523浅层与深层实现
524基于LTU的实现和复杂性问题
53实值函数实现
531基于几何的计算实现
532通用近似
533解空间及分离表面
534深层网络和表征问题
54卷积网络
541内核、卷积和感受野
542合并不变性
543深度卷积网络
55前馈神经网络上的学习
551监督学习
552反向传播
553符号微分以及自动求导法则
554正则化问题
56复杂度问题
561关于局部最小值的问题
562面临饱和
563复杂性与数值问题
57注释
第6章约束下的学习与推理
61约束机
611学习和推理
612约束环境的统一视图
613学习任务的函数表示
614约束下的推理
62环境中的逻辑约束
621形式逻辑与推理的复杂度
622含符号和子符号的环境
623t范数
624ukasiewicz命题逻辑
63扩散机
631数据模型
632时空环境中的扩散
633循环神经网络
64算法问题
641基于内容的逐点约束
642输入空间中的命题约束
643线性约束的监督学习
644扩散约束下的学习
65终身学习代理
651认知行为及时间流动
652能量平衡
653焦点关注、教学及主动学习
654发展学习
66注释
第7章结语
第8章练习答案
附录A有限维的约束优化
附录B正则算子
附录C变分计算
附录D符号索引