推荐序
前言
第1章 一个简单的机器学习任务//
1.1训练集和分类器//
1.2一点题外话:爬山搜索//
1.3机器学习中的爬山法//
1.4分类器的性能//
1.5可用数据的困难//
1.6总结和历史简评//
1.7巩固你的知识//
第2章 概率:贝叶斯分类器//
2.1单属性的情况//
2.2离散属性值的向量//
2.3稀少事件的概率:利用专家的直觉//
2.4如何处理连续属性//
2.5高斯钟形函数:一个标准的概率密度函数//
2.6用高斯函数的集合近似概率密度函数//
2.7总结和历史简评//
2.8巩固你的知识//
第3章 相似性:最近邻分类器//
3.1k近邻法则//
3.2度量相似性//
3.3不相关属性与尺度缩放问题//
3.4性能方面的考虑//
3.5加权最近邻//
3.6移除危险的样例//
3.7移除多余的样例//
3.8总结和历史简评//
3.9巩固你的知识//
第4章 类间边界:线性和多项式分类器//
4.1本质//
4.2加法规则:感知机学习//
4.3乘法规则:WINNOW//
4.4多于两个类的域//
4.5多项式分类器//
4.6多项式分类器的特殊方面//
4.7数值域和支持向量机//
4.8总结和历史简评//
4.9巩固你的知识//
第5章 人工神经网络//
5.1作为分类器的多层感知机//
5.2神经网络的误差//
5.3误差的反向传播//
5.4多层感知机的特殊方面//
5.5结构问题//
5.6径向基函数网络//
5.7总结和历史简评//
5.8巩固你的知识//
第6章 决策树//
6.1作为分类器的决策树//
6.2决策树的归纳学习//
6.3一个属性承载了多少信息//
6.4数值属性的二元划分//
6.5剪枝//
6.6将决策树转换为规则//
6.7总结和历史简评//
6.8巩固你的知识//
第7章 计算学习理论//
7.1PAC 学习//
7.2PAC可学习性的实例//
7.3一些实践和理论结果//
7.4VC维与可学习性//
7.5总结和历史简评//
7.6巩固你的知识//
第8章 几个有帮助的案例//
8.1字符识别//
8.2溢油检测//
8.3睡眠分类//
8.4脑机界面//
8.5医疗诊断//
8.6文本分类//
8.7总结和历史简评//
8.8巩固你的知识//
第9章 投票组合简介//
9.1“装袋”方法(Bagging)//
9.2夏皮尔提升(Schapires Boosting)//
9.3Adaboost——Boosting的实用版本//
9.4Boosting方法的变种//
9.5Boosting方法的计算优势//
9.6总结和历史简评//
9.7巩固你的知识//
第10章 了解一些实践知识//
10.1学习器的偏好//
10.2不平衡训练集//
10.3语境相关域//
10.4未知属性值//
10.5属性选择//
10.6杂项//
10.7总结和历史简评//
10.8巩固你的知识//
第11章 性能评估//
11.1基本性能标准//
11.2精度和查全率//
11.3测量性能的其他方法//
11.4多标签域内的性能//
11.5学习曲线和计算开销//
11.6实验评估的方法//
11.7总结和历史简评//
11.8巩固你的知识//
第12章 统计显著性//
12.1总体抽样//
12.2从正态分布中获益//
12.3置信区间//
12.4一个分类器的统计评价//
12.5另外一种统计评价//
12.6机器学习技术的比较//
12.7总结和历史简评//
12.8巩固你的知识//
第13章 遗传算法//
13.1基本遗传算法//
13.2单个模块的实现//
13.3为什么能起作用//
13.4过早退化的危险//
13.5其他遗传算子//
13.6高级版本//
13.7k-NN 分类器的选择//
13.8总结和历史简评//
13.9巩固你的知识//
第14章 增强学习//
14.1如何选出最高奖励的动作//
14.2游戏的状态和动作//
14.3SARSA方法//
14.4总结和历史简评//
14.5巩固你的知识//
参考文献//