第1章视觉感知技术基本原理1
1.1 视觉传感器与视觉系统 1
1.1.1 视觉传感器定义及分类 1
1.1.2 视觉系统 4
1.2 视觉成像基本原理 5
1.3 视觉系统标定 11
1.3.1 相机标定方法 11
1.3.2 机器人手眼标定 18
1.4 主要的视觉测量方法 22
1.4.1 单目视觉测量方法 22
1.4.2 双目立体视觉测量方法 33
本章小结 36
参考文献 36
第2章 触觉 力觉感知原理 41
2.1 触觉信息获取与处理 41
2.1.1 触觉传感器的基本分类 41
2.1.2 触觉信息处理 43
2.1.3 柔性触觉传感器技术 44
2.2 力 力矩信息获取与处理 49
2.2.1 力 力矩传感器的基本分类 49
2.2.2 力传感器标定技术 53
本章小结 54
参考文献 55
第3章 智能视觉感知方法与技术 57
3.1 经典的视觉感知方法 57
3.1.1 视觉匹配 57
3.1.2 视觉显著性 62
3.2 基于机器学习方法的视觉感知 63
3.2.1 集成学习(Adaboosting) 63
3.2.2 局部二值模式(LBP) 64
3.2.3 特征点匹配方法 64
3.2.4 方向梯度直方图(HOG) 65
3.2.5 支持向量机 66
3.3深度学习视觉感知 67
3.3.1 经典的视觉感知网络结构 67
3.3.2 基于深度学习的目标感知 72
3.4 面向少量样本学习的视觉感知方法 76
3.4.1孪生网络 77
3.4.2零样本学习 79
3.5 视觉引导的机器人抓取技术 81
3.5.1 基于深度学习的抓取技术 81
3.4.2 基于深度强化学习的抓取技术 85
本章小结 87
参考文献 88
第4章 机器人触 力觉智能感知 92
4.1 机器人触觉感知 92
4. 2 基于触觉感知的机器人操作 94
4.2.1 基于触觉信息的抓取稳定性分析 95
4.2.2 基于触觉信息的目标识别 98
4.2.3 基于触觉的其它应用 103
4.3 机器人力觉感知及操作 105
4.4 阻抗控制和力 位混合控制 107
4.4.1 机器人运动学和动力学模型 107
4.4.2 阻抗控制方法 107
4.4.3 力 位混合控制 110
4.5 力控制和接触约束融合方法 112
4.5.1 接触约束 112
4.5.2 接触约束和力控制的融合 115
4.6 基于力智能感知的操控 120
本章小结 124
参考文献 124
第5章 多通道信息融合的人机对话 128
5.1 多通道人机对话一般框架 128
5.2 面向人机对话的多通道信息处理 129
5.2.1 不同通道信息处理的认知假定 130
5.2.2 不同通道信息处理的一般计算模式 130
5.2.3 多道信息融合的心理学假定和认知模型 131
5.2.4 基于深度感知的信息融合 135
5.3 面向人机对话的对话管理 141
5.3.1 任务导向的对话管理 142
5.3.2 非任务导向的对话生成 154
5.3.3对话交互学习 159
5.4 多通道信息融合局限及人机对话未来突破方向 164
本章小结 164
参考文献 165
第6章 月面巡视器视觉定位 175
6.1巡视器视觉导航定位现状 175
6.1.1研究现状 175
6.1.2 巡视器视觉定位中的关键技术 178
6.1.3 图像特征信息提取与匹配算法 179
6.2 两帧之间的运动估计问题 192
6.2.1 基于对极几何的运动估计 192
6.2.2 基于PNP运动估计 194
6.2.3 基于ICP运动估计 196
6.3 位姿和位置信息的捆绑约束调整 198
6.3.1 光束法解析摄影测量 198
6.3.2 BA稀疏性与图优化 201
6.4 位姿图优化 204
6.5 惯性导航技术 205
6.5.1 惯导的位姿解算原理 205
6.5.2 航位推算 209
6.6 IMU与双目视觉定位技术的融合 210
6.6.1 ORB-SLAM系统框架 210
6.6.2 IMU与视觉定位技术融合 211
6.6.3 VIORB实验结果测试 215
本章小结 216
参考文献 217
第7章 空间非合作目标视觉感知 220
7.1 概述 220
7.2 非合作目标的视觉测量 224
7.2.1 非合作目标位姿单目视觉测量技术 224
7.2.2非合作目标位姿双目视觉测量技术 228
7.3 非合作目标抓捕 235
7.3.1非合作目标的几种典型抓捕方式 236
7.3.2抓捕过程接触动力学分析 238
7.3.3 抓捕过程的阻抗控制 239
本章小结 240
参考文献 240