●第1章 AI安全发展概述●
1.1 AI与安全衍生
1.1.1 AI发展图谱
1.1.2 各国AI发展战略
1.1.3 AI行业标准
1.1.4 AI安全的衍生本质——科林格里奇困境
1.2 AI安全技术发展脉络
●第2章 对抗样本攻击●
2.1 对抗样本攻击的基本原理
2.1.1 形式化定义与理解
2.1.2 对抗样本攻击的分类
2.1.3 对抗样本攻击的常见衡量指标
2.2 对抗样本攻击技巧与攻击思路
2.2.1 白盒攻击算法
2.2.2 黑盒攻击算法
2.3 实战案例:语音、图像、文本识别引擎绕过
2.3.1 语音识别引擎绕过
2.3.2 图像识别引擎绕过
2.3.3 文本识别引擎绕过
2.4 实战案例:物理世界中的对抗样本攻击
2.4.1 目标检测原理
2.4.2 目标检测攻击原理
2.4.3 目标检测攻击实现
2.4.4 攻击效果展示
2.5 案例总结
●第3章 数据投毒攻击●
3.1 数据投毒攻击概念
3.2 数据投毒攻击的基本原理
3.2.1 形式化定义与理解
3.2.2 数据投毒攻击的范围与思路
3.3 数据投毒攻击技术发展
3.3.1 传统数据投毒攻击介绍
3.3.2 数据投毒攻击约束
3.3.3 数据投毒攻击效率优化
3.3.4 数据投毒攻击迁移能力提升
3.4 实战案例:利用数据投毒攻击图像分类模型
3.4.1 案例背景
3.4.2 深度图像分类模型
3.4.3 数据投毒攻击图像分类模型
3.4.4 实验结果
3.5 实战案例:利用投毒日志躲避异常检测系统
3.5.1 案例背景
3.5.2 RNN异常检测系统
3.5.3 投毒方法介绍
3.5.4 实验结果
3.6 案例总结
●第4章 模型后门攻击●
4.1 模型后门概念
4.2 后门攻击种类与原理
4.2.1 投毒式后门攻击
4.2.2 非投毒式后门攻击
4.2.3 其他数据类型的后门攻击
4.3 实战案例:基于数据投毒的模型后门攻击
4.3.1 案例背景
4.3.2 后门攻击案例
4.4 实战案例:供应链攻击
4.4.1 案例背景
4.4.2 解析APK
4.4.3 后门模型训练
4.5 实战案例:基于模型文件神经元修改的模型后门攻击
4.5.1 案例背景
4.5.2 模型文件神经元修改
4.5.3 触发器优化
4.6 案例总结
●第5章 预训练模型安全●
5.1 预训练范式介绍
5.1.1 预训练模型的发展历程
5.1.2 预训练模型的基本原理
5.2 典型风险分析和防御措施
5.2.1 数据风险
5.2.2 敏感内容生成风险
5.2.3 供应链风险
5.2.4 防御策略
5.3 实战案例:隐私数据泄露
5.3.1 实验概况
5.3.2 实验细节
5.3.3 结果分析
5.4 实战案例:敏感内容生成
5.4.1 实验概况
5.4.2 实验细节
5.4.3 结果分析
5.5 实战案例:基于自诊断和自去偏的防御
5.5.1 实验概况
5.5.2 实验细节
5.5.3 结果分析
5.6 案例总结
●第6 章 AI数据隐私窃取●
6.1 数据隐私窃取的基本原理
6.1.1 模型训练中数据隐私窃取
6.1.2 模型使用中数据隐私窃取
6.2 数据隐私窃取的种类与攻击思路
6.2.1 数据窃取攻击
6.2.2 成员推理攻击
6.2.3 属性推理攻击
6.3 实战案例:联邦学习中的梯度数据窃取攻击
6.3.1 案例背景
6.3.2 窃取原理介绍
6.3.3 窃取案例
6.3.4 结果分析
6.4 实战案例:利用AI水印对抗隐私泄露
6.4.1 案例背景
6.4.2 AI保护数据隐私案例
6.4.3 AI水印介绍
6.4.4 结果分析
6.5 案例总结
●第7 章 AI应用失控风险●
7.1 AI应用失控
7.1.1 深度伪造技术
7.1.2 深度伪造安全风险
7.2 AI应用失控防御方法
7.2.1 数据集
7.2.2 技术防御
7.2.3 内容溯源
7.2.4 行业实践
7.2.5 面临挑战
7.2.6 未来工作
7.3 实战案例:VoIP电话劫持 语音克隆攻击
7.3.1 案例背景
7.3.2 实验细节
7.4 实战案例:深度伪造鉴别
7.4.1 案例背景
7.4.2 实验细节
7.4.3 结果分析
7.5 案例总结
●后记 AI安全发展展望●