机器人道德:价值观和工程的结合
第一定律
机器人不得伤害人类,或因不作为而导致人类受到伤害。
第二定律
机器人必须服从人类下达的命令,除非这些命令与第一定律相冲突。
第三定律
机器人必须保护自己的存在,只要这种保护不违反第一定律或第二定律。
--艾萨克·阿西莫夫的机器人三定律
****
机器人伦理是一个相对较新的机器人子域,专注于自动化设计和部署的伦理方面。
虽然可以说它的起源可以追溯到艾萨克·阿西莫夫的推测性机器人三定律(上图),该定律首次发表于 1942 年的短篇小说“Runaround”,但它仅在过去 20 年来,在学术研究人员以及贸易组织和标准化机构工作的推动下,该领域已经发展成为机器人技术对话的重要组成部分。
例如,欧盟资助的 RoboLaw 项目吸收了机器人伦理专家的贡献,为欧洲决策者和立法者制定了广泛的指导自动化和人工智能部署的指导方针。与此同时,IEEE 正在制定旨在确保自动化和人工智能符合道德指导设计和技术功能原则以改善社会的标准。
机器人伦理学将机器人、人工智能、计算机科学和工程学专家的见解与哲学、法律、心理学和社会学专家的见解相结合,试图确保自动化设计和部署不会对个人和社会造成道德危害。例如,考虑到工业自动化对社会日益增长的影响,机器人伦理专家提出了诸如“工业机器人应该征税吗?”“自动化的兴起是否会改变围绕全民基本收入提案的辩论?”我们确保在设计和部署自动化时考虑到道德因素?'
工业机器人领域也包含在围绕机器人伦理的日益增长的讨论中。协作机器人的兴起使工厂和仓库地板上的人与机器人之间的互动比以往任何时候都更加密切,为这个话题提供了额外的动力。
注意:安全一直是工业机器人设计的核心原则,工业机器人必须符合全球和管理安全设计和部署的区域标准和法律。机器人伦理建立在这一既定知识的基础上,以探索所涉及的更广泛的伦理考虑,例如工人福祉。
让我们来看看您可以使用的一些资源,开始探索人类价值观与工程学交叉点的这个庞大而有趣的机器人子领域。
- 英国标准协会为机器人和机器人设备的道德设计制定了一套标准。 BS 8611 ‘道德设计和应用机器人 ’文件提供了识别潜在道德伤害的指南,以及安全设计和道德保护措施的指南。它还建立在工业、个人护理和医疗机器人的现有安全要求之上。
- IEEE 标准协会运行着“自主和智能系统伦理全球倡议”,这是了解机器人和人工智能相关伦理问题的一个很好的起点。
IEEE 目前正在开发其 P7000 系列标准项目,它将其描述为其 1,900 多个全球 IEEE 标准和项目集合中的“独特补充”。”这当然是真的:传统上,标准侧重于技术互操作性、功能性、安全性和贸易便利化。相比之下,IEEE P7000 系列旨在解决“技术和道德考虑交叉的特定问题。”
- 成立于 2012 年,Open Roboethics Institute 是一家非营利智库,致力于探索机器人技术和人工智能的伦理和社会影响。
- 人机交互中的伦理问题——麻省理工学院媒体实验室 Kate Darling 的演讲
https://www.youtube.com/watch?v=m3gp4LFgPX0
- 我们可以将人类道德应用于机器人吗? (通过有趣的工程)
https://www.youtube.com/watch?v=dWshtBOgCvs
更多资源:
机器人伦理:机器人的社会和伦理影响,麻省理工学院出版社
协作机器人体验:AJung Moon 和解决人机协作机器人资源冲突,Robotiq 博客
如何判断“机器人,经济学家”
英国标准协会
Runa+round, 艾萨克·阿西莫夫
工业机器人