目 录
第1章 虚拟偶像概述 1
1.1 什么是虚拟偶像 1
1.2 虚拟偶像的发展历程 3
1.3 虚拟偶像的现状和行业应用 5
1.4 小结 5
第2章 Python基础入门 7
2.1 搭建Python编程环境 7
2.1.1 Python软件的安装 8
2.1.2 编写第一个Python程序 9
2.1.3 Python命名规范 10
2.1.4 Python关键字 11
2.2 Python数据类型 11
2.2.1 数字类型 12
2.2.2 运算符 16
2.2.3 字符串 18
2.2.4 容器 19
2.3 Python控制结构 21
2.3.1 选择结构 22
2.3.2 循环结构 23
2.4 Python函数 25
2.4.1 函数定义 25
2.4.2 函数调用 26
2.4.3 匿名函数 27
2.5 Python模块 27
2.5.1 导入模块 28
2.5.2 模块的搜索路径 29
2.6 Python面向对象编程 30
2.6.1 Python类创建和实例 30
2.6.2 Python内置类属性 32
2.6.3 类的继承 33
2.7 小结 35
第3章 常用的机器学习框架介绍 36
3.1 TensorFlow基础及应用 37
3.1.1 TensorFlow概述 37
3.1.2 TensorFlow的安装 38
3.1.3 TensorFlow的使用 41
3.1.4 人脸检测算法 42
3.2 PyTorch基础及应用 55
3.2.1 PyTorch概述 55
3.2.2 PyTorch的安装 56
3.2.3 PyTorch的使用 57
3.2.4 基于PyTorch的动作同步算法 67
3.3 小结 70
第4章 虚拟偶像模型创建工具 71
4.1 Live2D建模 71
4.1.1 Live2D安装 72
4.1.2 Live2D人物建模 75
4.1.3 使用模板功能 87
4.1.4 Live2D Cubism Viewer简介 90
4.2 三维建模 93
4.2.1 三维模型制作流程 94
4.2.2 三维制作软件 94
4.2.3 Blender角色建模流程 95
4.3 小结 100
第5章 如何创造虚拟偶像 101
5.1 虚拟偶像运动和交互的实现方式 101
5.2 基于付费的商业化解决方案 102
5.2.1 建立人物3D模型 103
5.2.2 选择3D动画工具 104
5.2.3 全身动作捕捉系统(硬件) 105
5.2.4 采用iPhone X的面部识别方式 106
5.3 免费的人工智能方案 117
5.3.1 机器学习驱动3D模型——人体动作 117
5.3.2 机器学习驱动图片——面部表情 140
5.4 小结 142
第6章 基于2D的虚拟偶像实现方案 143
6.1 动作捕捉技术 144
6.1.1 ARKit框架面部追踪 146
6.1.2 人脸面部识别 153
6.2 Live2D模型接入 154
6.2.1 Live2D Cubism SDK 155
6.2.2 Live2D模型文件 157
6.2.3 CubismFramework 165
6.3 Cubism SDK+ARKit实现 170
6.3.1 Cubism SDK集成 171
6.3.2 ARKit人脸追踪添加 173
6.3.3 Live2D模型添加 176
6.4 Live2D + FaceRig方案实现 194
6.4.1 FaceRig概述 194
6.4.2 FaceRig的基本功能 196
6.4.3 导入Live2D模型 198
6.5 小结 199
第7章 基于3D的虚拟偶像实现方案 200
7.1 3D虚拟偶像项目简介 201
7.2 建立人物3D模型 201
7.3 虚拟偶像拟人化——预制表情和动作集 207
7.4 实现和用户交互——构建语音对话机器人 209
7.5 口型对齐算法应用 211
7.6 模型部署 213
7.7 服务调用和测试 225
7.8 小结 226
参考文献 227