机器人能否成为道德责任的主体?我们能否像对待其他人类一样来赞扬或谴责它们?本书从道德责任问题的哲学争论出发,结合认知科学、进化心理学、法学等领域的*发展,提出一种功能规范型道德责任理论——按照该理论,机器人与人类在道德责任上并无本质区别。哲学中围绕道德责任问题讨论的主要焦点之一是“控制力条件”。不相容论者认为道德责任需要“自由意志”式的强控制力,而相容论者认为道德责任只需要一种与因果决定性相容的弱控制力。到底归责所需的“控制力”是什么?本书从不相容论者提出三种“控制力”理论(自主选择、多重可能性、自我性)开始,讨论了它们各自存在的问题。随后,本书讨论了相容论者提出的“控制力”理论和该理论面临的*主要挑战——“操控难题”。*后,本书提出了一种基于功能主义的解决“操控难题”的方案,并在此方案的基础上论证了功能规范型相容论归责理论的可行性。