注册 | 登录读书好,好读书,读好书!
读书网-DuShu.com
当前位置: 首页出版图书科学技术计算机/网络软件与程序设计机器学习导论(原书第2版)

机器学习导论(原书第2版)

机器学习导论(原书第2版)

定 价:¥79.00

作 者: 米罗斯拉夫.库巴特 著,王勇 译
出版社: 机械工业出版社
丛编项: 机器学习系列
标 签: 暂缺

购买这本书可以去


ISBN: 9787111605812 出版时间: 2018-10-01 包装: 平装
开本: 16开 页数: 251 字数:  

内容简介

  本书是一本浅显易懂的机器学习入门教材,它以理论与实际相结合的方式全面地涵盖了主流的机器学习理论与技术。全书共17章,介绍了贝叶斯分类器、近邻分类器、线性与多项式分类器、人工神经网络、决策树、基于规则集的分类器、遗传算法等经典的机器学习方法,对计算学习理论、性能评估、统计显著性等进行了讨论。讲解了集成学习、多标签学习、无监督学习和强化学习等重要的机器学习领域。本书还通过大量的应用实例,阐述了机器学习技术的许多应用技巧。每章结尾对相关机器学习工作都进行了历史简评,并附有练习、思考题和上机实验。

作者简介

  Miroslav Kubat 美国迈阿密大学教授,从事机器学习教学和研究超过25年。他已发表100余篇经过同行评审的论文,与人合编了两本著作,是近60个会议和研讨会的委员会委员,并担任3本学术刊物的编委。他在两个方面的前沿研究上得到了广泛赞誉:时变概念的归纳学习和在非平衡训练集上的学习。此外,在多标签样例上的归纳学习、层次组织的类别上的归纳学习、遗传算法、神经网络的初始化等问题上,他也做出了很多贡献。

图书目录

译者序
原书前言
第 1章 一个简单的机器学习任务 //1
1.1 训练集和分类器 //1
1.2 题外话:爬山搜索 //4
1.3 机器学习中的爬山法 //6
1.4 分类器的性能 //8
1.5 可用数据的困难 //9
1.6 小结和历史简评 //11
1.7 巩固知识 //11
第 2章 概率:贝叶斯分类器 //14
2.1 单属性的情况 //14
2.2 离散属性值的向量 //17
2.3 稀少事件的概率:利用专家的直觉 //20
2.4 如何处理连续属性 //23
2.5 高斯钟形函数:一个标准的 pdf //24
2.6 用高斯函数的集合近似 pdf //26
2.7 小结和历史简评 //30
2.8 巩固知识 //30
第 3章 相似性:最近邻分类器 //32
3.1 k近邻法则 //32
3.2 度量相似性 //34
3.3 不相关属性与尺度缩放问题 //36
3.4 性能方面的考虑 //39
3.5 加权最近邻 //41 3.6 移除危险的样例 //42
3.7 移除多余的样例 //44
3.8 小结和历史简评 //46
3.9 巩固知识 //46
第 4章 类间边界:线性和多项式分类器 //49
4.1 本质 //49
4.2 加法规则:感知机学习 //51
4.3 乘法规则: WINNOW //55
4.4 多于两个类的域 //58
4.5 多项式分类器 //60
4.6 多项式分类器的特殊方面 //62
4.7 数值域和 SVM //63
4.8 小结和历史简评 //65
4.9 巩固知识 //66
第 5章 人工神经网络 //69
5.1 作为分类器的多层感知机 //69
5.2 神经网络的误差 //72
5.3 误差的反向传播 //73
5.4 多层感知机的特殊方面 //77
5.5 结构问题 //79
5.6 RBF网络 //81
5.7 小结和历史简评 //83
5.8 巩固知识 //84
第 6章 决策树 //86
6.1 作为分类器的决策树 //86
6.2 决策树的归纳学习 //89
6.3 一个属性承载的信息 //91
6.4 数值属性的二元划分 //94
6.5 剪枝 //96
6.6 将决策树转换为规则 //99
6.7 小结和历史简评 //101
6.8 巩固知识 //101
第 7章 计算学习理论 //104
7.1 PAC学习 //104
7.2 PAC可学习性的实例 //106
7.3 一些实践和理论结果 //108
7.4 VC维与可学习性 //110
7.5 小结和历史简评 //112
7.6 巩固知识 //112
第 8章 典型案例 //114
8.1 字符识别 //114
8.2 溢油检测 //117
8.3 睡眠分类 //119
8.4 脑机界面 //121
8.5 医疗诊断 //124
8.6 文本分类 //126
8.7 小结和历史简评 //127
8.8 巩固知识 //128
第 9章 投票组合简介 //130
9.1 “Bagging”方法 //130
9.2 “Schapire’s Boosting”方法 //132
9.3 “Adaboost”方法: “Boosting”方法的实用版本 //134
9.4 “Boosting”方法的变种 //138
9.5 该方法的计算优势 //139
9.6 小结和历史简评 //141
9.7 巩固知识 //141
第 10章 了解一些实践知识 //143
10.1 学习器的偏好 //143
10.2 不平衡训练集 //145
10.3 语境相关域 //148
10.4 未知属性值 //150
10.5 属性选择 //152
10.6 杂项 //154
10.7 小结和历史简评 //155
10.8 巩固知识 //156
第 11章 性能评估 //158
11.1 基本性能标准 //158
11.2 精度和查全率 //160
11.3 测量性能的其他方法 //163
11.4 学习曲线和计算开销 //166
11.5 实验评估的方法 //167
11.6 小结和历史简评 //169
11.7 巩固知识 //170
第 12章 统计显著性 //173
12.1 总体抽样 //173
12.2 从正态分布中获益 //176
12.3 置信区间 //178
12.4 一个分类器的统计评价 //180
12.5 另外一种统计评价 //182
12.6 机器学习技术的比较 //182
12.7 小结和历史简评 //184
12.8 巩固知识 //185
第 13章 多标签学习 //186
13.1 经典机器学习框架下的多标签
问题 //186
13.2 单独处理每类数据的方法:二元相关法 //188
13.3 分类器链 //190
13.4 另一种方法:层叠算法 //191
13.5 层次有序类的简介 //192
13.6 类聚合 //194
13.7 分类器性能的评价标准 //196
13.8 小结和历史简评 //198
13.9 巩固知识 //199
第 14章 无监督学习 //202
14.1 聚类分析 //202
14.2 简单算法: k均值 //204
14.3 k均值的高级版 //207
14.4 分层聚集 //209
14.5 自组织特征映射:简介 //211
14.6 一些重要的细节 //213
14.7 为什么要特征映射 //214
14.8 小结和历史简评 //215
14.9 巩固知识 //216
第 15章 规则集形式的分类器 //218
15.1 由规则描述的类别 //218
15.2 通过序列覆盖归纳规则集 //220
15.3 谓词与循环 //222
15.4 更多高级的搜索算子 //224
15.5 小结和历史简评 //225
15.6 巩固知识 //225
第 16章 遗传算法 //227
16.1 基本遗传算法 //227
16.2 个体模块的实现 //229
16.3 为什么能起作用 //231
16.4 过早退化的危险 //233
16.5 其他遗传算子 //234
16.6 高级版本 //235
16.7 kNN分类器的选择 //237
16.8 小结和历史简评 //239
16.9 巩固知识 //240
第 17章 强化学习 //241
17.1 如何选出最高奖励的动作 //241
17.2 游戏的状态

本目录推荐