注册 | 登录读书好,好读书,读好书!
读书网-DuShu.com
当前位置: 首页出版图书科学技术计算机/网络人工智能PyTorch高级机器学习实战 ChatGPT背后的逻辑

PyTorch高级机器学习实战 ChatGPT背后的逻辑

PyTorch高级机器学习实战 ChatGPT背后的逻辑

定 价:¥109.00

作 者: 王宇龙
出版社: 机械工业出版社
丛编项:
标 签: 暂缺

购买这本书可以去


ISBN: 9787111719960 出版时间: 2023-03-01 包装: 平装
开本: 16开 页数: 字数:  

内容简介

  本书讲解了经典的高级机器学习算法原理与知识,包括常见的监督学习、无监督学习、概率图模型、核方法、深度神经网络,以及强化学习等内容,同时更强调动手实践。所有算法均利用PyTorch计算框架进行实现,并且在各章节配备实战环节,内容涵盖点击率预估、异常检测、概率图模型变分推断、高斯过程超参数优化、深度强化学习智能体训练等内容。 本书附赠所有案例的源代码及各类学习资料来源,适合具有一定编程基础的人工智能爱好者学习,也是相关从业者和研究人员的学习指南。

作者简介

  王宇龙,清华大学计算机博士,大型互联网公司算法专家,在国际学术会议及期刊发表过多篇论文。曾出版书籍《PyTorch深度学习入门与实战》,知乎“机器学习”话题优秀回答者(@Young)。

图书目录

前言
第1章 机器学习概述/
1.1 机器学习简介/
1.1.1 机器学习的含义/
1.1.2 机器学习概述/
1.1.3 不同类型的机器学习算法/
1.2 数据处理/
1.2.1 数据特征分类及表示/
1.2.2 数据预处理/
1.2.3 数据缺失处理/
1.2.4 特征衍生和交叉/
1.2.5 特征筛选/
1.3 衡量标准/
1.3.1 模型评估指标/
1.3.2 数据集划分/
1.3.3 超参数优化/
1.4 优化目标/
1.4.1 损失函数/
1.4.2 梯度下降优化/
1.4.3 受约束优化:Lagrange函数/
1.5 实战:简单模型实现Titanic乘客生存概率预测/
1.5.1 问题描述与数据特征/
1.5.2 简单属性分类模型实现预测/
第2章 PyTorch基本操作介绍/
2.1 PyTorch简介/
2.2 核心概念:Tensor/
2.2.1 Tensor基本操作/
2.2.2 基本数学运算/
2.2.3 索引分片操作/
2.2.4 类成员方法/
2.3 自动求导(Autograd)/
2.3.1 可微分张量/
2.3.2 Function:实现自动微分的基础/
2.4 神经网络核心模块:torch.nn/
2.4.1 nn.Module概述/
2.4.2 函数式操作nn.functional/
2.5 优化器(optimizer)/
2.5.1 optimizer概述/
2.5.2 学习率调节/
2.5.3 经典优化器介绍/
2.6 数据加载/
2.6.1 Dataset与DataLoader介绍/
2.6.2 预处理变换torchvision.transforms/
2.7 高级操作/
2.7.1 GPU运算/
2.7.2 利用C++实现自定义算子/
2.8 实战:Wide & Deep模型实现Criteo点击率预估/
2.8.1 问题定义与数据特征/
2.8.2 Wide & Deep模型介绍/
2.8.3 完整实验流程/
第3章 监督学习/
3.1 线性回归(Linear Regression)/
3.1.1 小二乘法(Least Square Method)/
3.1.2 岭回归(Ridge Regression)/
3.1.3 贝叶斯线性回归(Bayesian Linear Regression)/
3.2 逻辑回归(Logistic Regression)/
3.2.1 二分类逻辑回归/
3.2.2 多分类Softmax回归/
3.2.3 贝叶斯逻辑回归(Bayesian Logistic Regression)/
3.3 支持向量机(Support Vector Machine,SVM)/
3.3.1 线性可分下SVM的定义/
3.3.2 利用随机梯度下降求解/
3.3.3 凸优化简介/
3.3.4 SVM对偶问题表示/
3.3.5 梯度下降法求解对偶问题/
3.3.6 从Hard SVM扩展到Soft SVM/
3.3.7 支持向量回归(Support Vector Regression,SVR)/
3.3.8 带有松弛变量的SVR及对偶优化方法/
3.4 决策树模型(Decision Tree)/
3.4.1 构建单个树模型/
3.4.2 集成学习(Ensemble Learning)/
3.5 K近邻算法(K Nearest Neighbors,KNN)/
3.6 实战:复杂模型实现Titanic旅客生存概率预测/
3.6.1 Titanic数据集特征处理/
3.6.2 多种模型预测性能对比/
第4章 无监督学习/
4.1 聚类方法(Clustering Method)/
4.1.1 KMeans聚类/
4.1.2 谱聚类(Spectral Clustering)/
4.1.3 聚合聚类(Agglomerative Clustering)/
4.2 密度估计(Density Estimation)/
4.2.1 高斯混合模型(Gaussian Mixture Model)/
4.2.2 期望大化算法(Expectation Maximization,EM)/
4.3 降维与嵌入(Dimension Reduction & Embedding)/
4.3.1 主成分分析(Principal Component Analysis,PCA)/
4.3.2 局部线性嵌入(Locally Linear Embedding,LLE)/
4.3.3 随机邻居嵌入算法(tSNE)/
4.4 实战:无监督方法实现异常检测(Anomaly Detection)/
4.4.1 异常检测问题与应用/
4.4.2 实现基于PCA的异常检测方法/
4.4.3 实现基于Mahalanobis距离的异常检测方法/
4.4.4 实现基于聚类的局部异常因子检测方法/
第5章 PyTorch高级机器学习实战概率图模型/
5.1 有向图:贝叶斯网络(Bayesian Network)/
5.1.1 有向图的概率分解/
5.1.2 条件独立性(Conditional Independence)/
5.2 无向图:马尔可夫随机场(Markov Random Field,MRF)/
5.2.1 无向图的概率分解/
5.2.2 具体应用:图像去噪(Image Denoising)/
5.3 隐马尔可夫模型(Hidden Markov Model,HMM)/
5.3.1 隐马尔可夫模型介绍/
5.3.2 前向后向算法(ForwardBackward Algorithm)/
5.3.3 放缩提升运算稳定性/
5.3.4 代码实现/
5.4 变分推断(Variational Inference,VI)/
5.4.1 后验分布优化与ELBO/
5.4.2 黑盒变分推断算法(BlackBox Variational Inference,BBVI)/
5.5 蒙特卡罗采样(Monte Carlo Sampling)/
5.5.1 拒绝采样(Rejection Sampling)/
5.5.2 马尔可夫链蒙特卡罗(Markov Chain Monte Carlo)/
5.5.3 吉布斯采样(Gibbs Sampling)/
5.5.4 哈密顿蒙特卡罗采样(Hamiltonian Monte Carlo,HMC)/
5.6 实战:变分高斯混合模型(Variational Gaussian Mixture Model)/
5.6.1 扩展GMM:贝叶斯高斯混合模型(Bayesian Gaussian Mixture Model)/
5.6.2 变分推断近似/
5.6.3 代码实现/
第6章 核方法/
6.1 核函数及核技巧/
6.2核化KMeans算法(Kernel KMeans)/
6.2.1 KMeans算法回顾/
6.2.2 具体实现/
6.3 核化支持向量机(Kernel SVM)/
6.3.1 SVM对偶问题及核函数表示/
6.3.2 核化支持向量回归(Kernel SVR)/
6.4 核化主成分分析 (Kernel PCA,KPCA)/
6.4.1 回顾PCA及核化表示/
6.4.2 核中心化技巧及实现/
6.5 高斯过程(Gaussian Process,GP)/
6.5.1 高斯过程定义及基本性质/
6.5.2 核函数参数选取优化/
6.6 实战:利用高斯过程进行超参数优化/
6.6.1 超参数优化(Hyperparameter Optimization)/
6.6.2 具体实现/
第7章 深度神经网络/
7.1 神经网络(Neural Network)/
7.1.1 基本算子操作/
7.1.2 常见网络结构/
7.1.3 网络训练/
7.2 变分自编码器(Variational AutoEncoder,VAE)/
7.2.1 多种自编码器介绍/
7.2.2 变分自编码器/
7.3 深度生成模型(Deep Generative Model,DGM)/
7.3.1 受限玻尔兹曼机(Restricted Boltzmann Machine,RBM)/
7.3.2 生成式对抗网络(Generative Adversarial Network,GAN)/
7.4 实战:利用CycleGAN进行图片风格转换/
7.4.1 CycleGAN模型介绍/
7.4.2 模型实现/
第8章 强化学习/
8.1 经典强化学习介绍/
8.1.1 基本概念介绍/
8.1.2 强化学习环境OpenAI Gym/
8.2 马尔可夫决策过程(Markov Decision Process,MDP)/
8.2.1 MDP定义及贝尔曼优方程/
8.2.2 策略迭代(Policy Iteration)和价值迭代(Value Iteration)/
8.2.3 蒙特卡罗采样学习(Monte Carlo Learning)/
8.2.4 时序差分学习(Temporal Difference Learning,TDLearning)/
8.3 基于Q价值函数的深度强化学习/
8.3.1 深度Q网络(Deep QNetwork,DQN)/
8.3.2 其他DQN改进模型/
8.4 基于策略优化的深度强化学习/
8.4.1 策略梯度算法(Policy Gradient)/
8.4.2 Advantage ActorCritic(A2C)算法/
8.4.3 近邻策略优化法(Proximal Policy Optimization,PPO)/
8.4.4 深度确定性策略梯度算法(Deep Deterministic Policy Gradient,DDPG)/
8.4.5 Soft Actor Critic(SAC)算法/
8.5 实战:在Atari游戏环境中进行深度强化学习评测/
8.5.1 Atari游戏环境及预处理方式/
8.5.2 多种深度强化学习性能比较/
参考文献/

本目录推荐