本篇文章1325字,读完约3分钟
艾萨克.艾萨克.阿西莫夫曾在他的科幻小说中描述了三条规范机器人行为的法律,包括:不伤害人类、服从人类命令和保护自己。
现在,英国标准协会已经正式发布了一套机器人伦理准则,它比阿西莫夫的三定律更加复杂和成熟。现在是我们的社会为机器人制定行为规范的时候了,这不禁给人一种科幻和现实交织在一起的奇妙感觉。
英国标准协会(bsi)是一个有100多年历史的英国国家标准机构,在世界上具有很高的权威性。本伦理指南的全称是“机器人和机器系统的伦理设计和应用指南”(以下简称“指南”),主要针对机器人设计研究人员和制造商,指导他们如何对机器人进行道德风险评估。最终目标是确保人类生产的智能机器人能够融入人类社会现有的伦理道德。
本标准的文件代码为bs8611,于9月15日在英国牛津郡举行的人工智能(ai)会议上发布。西英格兰大学机器人学教授艾伦·温菲尔德说,这是工业上第一个关于机器人伦理设计的公共标准。
虽然文件中的文字很无聊,但其中描绘的场景就像科幻小说中出现的一样。机器人作弊、成瘾和超出现有能力范围的自我学习能力都被列为危险因素,设计者和制造商应予以考虑。
在指南的开头,给出了一个宽泛的原则:机器人的设计目的不应专门或主要用于杀害或伤害人类;人类是负责任的主体,而不是机器人;确保找出对机器人行为负责的人的可能性。
该指南还关注一些有争议的话题,例如,人类是否可能与机器人有情感联系,尤其是当机器人本身被设计成与儿童和老人互动时。
谢菲尔德大学教授诺尔·夏基认为这是机器人无意中欺骗人类的一个例子。机器人没有感情,但人类有时不这么认为。他指出,在最近的一项研究中,孩子们喜欢把小机器人放在幼儿园,并且认为这些机器人比家里的宠物有更高的感知能力。
指南建议设计者应该更加关注机器人的透明度,但是科学家说这很难在现实中应用。这是因为人们不能确切地知道人工智能系统(尤其是深度学习系统)是如何做决定的。
人工代理不使用固定的程序来引导它完成任务。它只有通过数百万次的研究和尝试才能找到一个成功的解决方案。人类设计师有时无法理解这种学习和决策的过程。
指南还提到了机器人的性别和种族歧视。这是因为许多深度学习系统使用互联网上的数据进行培训,而这些数据是有偏见的。
机器人的偏见将直接影响技术的应用。它会从一些群体那里学到更多东西,但会忽略其他群体。在未来的应用中,这意味着机器人将“看食物和吃东西,看人们说话。”
例如,现在语音识别系统对女性的理解较弱。例如,机器更容易识别白人的脸,而更难识别黑人的脸。从长远来看,在未来的医学应用中,机器人在诊断女性和少数民族时将会有较低的专业水平。
沙尔基教授说:“我们还需要一个机器人黑匣子,可以打开进行仔细检查。”如果机器人表现出种族主义倾向,我们可以关掉它,从街上回来。”
两周前,路透社的一篇文章指出,一些科学家说性机器人会让人上瘾,因为机器人不会拒绝。
《指南》也提到了这种“过度依赖机器人”的现象,但并没有给设计者一个确切的指导方针。这也需要在今后的工作中加以补充。
《卫报》
延伸阅读:
计算机系统中的偏见和歧视:除了杀人,还有其他方法
调查显示,性机器人可以减少性疾病的传播和非法性交易。你想渴望尝试吗?