本篇文章3823字,读完约10分钟
编者按:当我们都在关注人工智能对生活的积极影响时,另一个关注的声音正在出现:自主智能系统已经在许多社会机构中使用,但我们找不到评估其持久影响的真正方法。本文提出了解决人工智能系统的社会和伦理影响的三种方法,并从社会系统分析的角度提出了第四种方法,指出我们应该重视人工智能在社会中的意义。这篇文章首先由凯特·克劳福德和瑞安·卡洛在《自然》杂志上发表,由《雷锋》的兼职作者老陆和何瑶编辑。搜索“雷锋”。com "公共号码),未经许可不得复制。
芝加哥警方使用算法推测枪支案件的嫌疑人,
但事实证明,这种方法的效果并不明显
Sanchez/Chicago tribune/tns/Getty
白宫本周发布了一份报告,解释了他们对人工智能未来的看法。这份报告是由来自西雅图、匹兹堡、华盛顿和纽约的四个研究小组在三个月内完成的。
在这份报告中,来自不同领域的许多世界顶尖思想家讨论了人工智能如何改变我们的生活方式,包括大量的例子,生动地解释了机器学习和其他人工智能技术在解决复杂的生活问题中的巨大作用,从皮肤变化到预测癌症,再到降低数据中心的能耗。
此外,该报告还强调了人工智能研究中的主要盲点:自主智能系统已经在许多社会机构中使用,但我们无法找到评估其持久影响的真正方法。
近年来,人类在人工智能领域取得了巨大的进步。因此,来自多个学科的设计师和研究人员需要系统地分析人工智能,他们必须评估技术对社会、文化和政治环境的影响。
例如,我们需要研究应用人工智能如何改变医患关系。这个应用程序可以跟踪病人是否坚持服药,并将数据发送给医生。同时,利用这种技术还可以通过分析历史数据预测犯罪多发地区,减少边缘社区警力的滥用。此外,我们需要找出为什么富有的投资者和低收入的借款者总是被区别对待。
老式的“奇点来了”
“人们总是担心,当电脑变得聪明时,它会接管世界,但真正的问题是,当它们相当愚蠢时,它们已经统治了世界。”这是计算机科学家佩德罗多明戈斯在他2015年的著作《主算法》中给出的经典论述。许多R&D人员也认为,人工智能的发展还处于初级阶段,技术奇点尚未到来。他们正在把人工智能系统(相对未经测试)推进各种社会机构。
由于人工智能R&D人员的不断努力,这种系统已经成为医生指导诊断的利器。此外,法律机构也使用人工智能为客户提供建议,帮助他们赢得诉讼。金融机构可以用人工智能来找出谁是最安全的放贷者,而雇主可以用人工智能来找出候选人中综合实力最强的人。
分析人士认为,人工智能系统的应用范围在未来将会大大扩大,其经济价值将达到数十亿美元。Ibm首席执行官对这项技术的发展持乐观态度,她认为在未来十年,人工智能系统将包含价值2万亿美元的新机会。当然,所有这些都只是初步的预测。毕竟,我们还没有就如何衡量人工智能的价值达成共识。
Cb insights研究显示,在人工智能领域的投资逐年增加
cb洞察
许多人认为人工智能在做预测和指导决策时不如人类聪明,但是工程师认为人工智能在做决策时能发现人类的偏见和傲慢。然而,它不是灵丹妙药。至少到目前为止,人工智能的缺点仍然会使它在种族、性别和社会经济背景方面出错,而这些正是人类决策的弱点。
2013年的一项研究显示,当谷歌搜索典型的黑人名字时,搜索结果中犯罪记录搜索的概率比白人名字高25%。在另一起与种族有关的案件中,非营利组织propublica发现,法院常用的算法也存在种族歧视。在它看来,黑人罪犯再次被监禁的可能性是白人的两倍。
三种工具
如何避免这种影响?目前,解决人工智能系统的社会和伦理影响的主流模式有三种:服从模式、价值设计和思维实验。这三者都是有意义的,但无论是被人们单独使用还是携手使用,都不能有效地解决这个问题。
部署和执行方法(全面部署)
通常,企业或其他组织采取基本步骤并遵守一系列行业最佳实践或法律义务,以避免政府或媒体的监督。这种方法可以获得短期效益。例如,2015年,谷歌系统错误地将一对美国非洲夫妇识别为大猩猩,并及时调整了他的图像识别算法。该公司还提出了在其人工智能系统中引入“红色按钮”的想法。当工程师发现系统有问题时,他们可以按下按钮来防止系统失控。
同样,facebook也赢得了公众的强烈谴责,因为它将越南小女孩金姆普茨从燃烧弹袭击中逃脱的照片认定为裸体儿童的照片,并将其屏蔽。就在上个月,包括微软、亚马逊和ibm在内的几家领先的人工智能公司达成了一项合作协议,旨在增强公众的理解并制定一些公共标准。
虽然“部署和执行”的方法可以是一种积极的对等模式,但如果他们缺乏足够的批评声音和独立的意见贡献者,行业的努力仍有进步空.新的人工智能伙伴关系邀请伦理学家和社会组织者参与。然而,人们仍然关注企业是否能够相对自由地在公众中测试他们的人工智能系统,而不需要持续研究其短期或中期的影响。
设计方法中的值(设计中的值)
由于技术领域伦理设计先驱的贡献,包括有影响力的学者batya friedman和helen nissenbaum,研究人员和企业已经实施了诸如价值敏感设计或“负责任的创新”等方法来定义可能的利益相关者并定义他们的价值。焦点小组或其他研究方法被用来建立人们对个人隐私、环境问题等的看法。无论是设计应用还是无人驾驶汽车,这些未来用户的价值应该渗透到技术设计中。人工智能系统的开发者应该注意这些方法。
然而,这些工具通常假设系统将被设计。他们不能帮助设计者、政策制定者或整个社会回答某个系统是否应该被设计。基础设施的系统原型是否太简单和不可靠而不能用作基础设施(如医院系统或法院系统)?
哮喘患者被预测肺炎的人工智能系统错误地评定为低风险
克雷格·沃克/丹佛邮报/盖蒂
思维实验方法(思维实验)
在过去的几年里,各种假设的情况出现了,这已成为一个热门话题,公众辩论的社会影响的人工智能。
最热门的讨论是关于人类设计的高级智能系统最终统治或毁灭人类的可能性。此外,自1967年以来还有一个相关的思考实验——电车问题也重生了。这一幕引发了关于责任和犯罪的问题。在这个问题中,一个人可以让一辆行驶中的有轨电车压过五个工作人员,或者换车道,只用一个人就冲到另一条路上。许多评论家认为这是自动驾驶汽车的假设情景,他们认为汽车应该自动做出符合道德要求的选择。
与机器人末日相比,无人驾驶汽车“谋杀选择”的可能性提供了一个更窄的道德推理框架。有轨电车问题为我们解决更广泛的社会问题提供了一些方便的指导:例如,大量投资于自动汽车而不是公共交通的价值;无人驾驶汽车上路前的安全性能应该有多高;(我们应该使用什么工具来定义安全性?),无人驾驶车辆对交通拥堵、环境和就业的潜在影响是什么。
社会系统分析方法(社会系统分析)
我们认为需要第四种方法。一种实用且广泛使用的社会系统分析方法可以考虑人工智能系统对各个方面可能产生的影响,并且可以包括每个阶段的社会影响,包括概念阶段、设计阶段、部署阶段和调整阶段。
在第一阶段,大规模的研究人员,如政府部门和行业,需要开始调查差异,以及如何匹配人工智能系统的培训数据与公共信息,财富和基本服务的访问渠道。
例如,用芝加哥和伊利诺伊州的热图识别那些更有可能参与枪击事件的人的算法。上月发表的一项研究显示,这种地图是无效的。他们扩大了特定人群的可能性,吸引了更多的警力,但并没有降低当地的犯罪率。
社会系统方法可以在“热点图”中考虑当地社会和派出所的历史数据。这可能需要在询问社区成员和警方对社区安全的正面或负面反馈之间取得平衡。这也可能意味着考虑监督委员会和法律机构的调查结果。这种社会系统分析方法还要求系统的风险和回报应该是平衡的。因此,在这种情况下,警方使用类似的技术来识别可能有不当行为(如暴力)的官员。
在另一个例子中,2015年的一项研究显示,用于预测医院中哪个病人会得肺炎的机器学习技术在许多情况下运行良好。但它犯了一个严重的错误:尽管一些哮喘患者情况危急,但它仍然指示医生将这些患者送回家。由于医院通常会自动将哮喘患者送往重症监护室,因此这些患者很少出现在系统培训数据记录中的“需要随访护理”类别中。利用社会系统分析,我们需要考虑医院治疗和保险政策等无形因素,并适当调整患者的病历。
社会系统分析可以让系统回答一些问题,比如它是如何工作的?财务顾问过去在应用机器学习方面受到限制,因为他们的客户总是希望他们回答他们为什么要做决定。但是到目前为止,受到人工智能算法限制的个体还不能回答为什么喜欢人类的问题。
在各个学科中,社会系统分析需要侧重于心理学、法律、社会学、人类学和科学技术方面的研究。这种方法必须开始研究社会、政治和文化价值观如何与技术发展和科学研究相互作用。与只包括计算机科学和犯罪学的思维相比,我们只有通过问更多关于人工智能对社会影响的问题,才能对人工智能的影响有一个更完整、更和谐的理解。
未来仍有希望。下个月在纽约举行的“机器学习的公平、责任和透明”研讨会就是一个很好的例子。但是赞助商--包括政府、基金和企业--应该为我们描述的人工智能开发方法做出更多努力。
人工智能代表了技术层面的文化变革。这类似于历史上许多技术对文化的巨大影响的转折点,如印刷术的使用,火车的开通等等。自动化系统正在改变工作室、街道和学校。在技术逐渐渗透到我们日常生活的基础设施之前,我们需要确保这些变化对我们有利。
vianature
推荐阅读:
谷歌深度思维的差分神经计算机dnc呢?看看脸书的人工智能研究人员田元东和贾说了什么
中国科学院张伟院士:后深度学习时代的计算语言学