事故中人工智能该先救乘客还是行人?约 4000 万人参与这项调查

未来的人工智能(AI)会在极端情况下做出与人类相同的道德判断吗?为了让自动驾驶汽车在未来变得更广泛,社会需要一个可接受的道德标准。英国《自然》杂志最近发表了一项人工智能研究。美国麻省理工学院(MIT)以“在不可避免的事故中,自动驾驶汽车应该如何判断”为调查内容,实施了全球性的伦理偏好调查。研究小组建立了一个名为“道德机器”的大型在线调查平台,让参与者暴露在不可避免的事故场景中,行人和乘客面临不同的危险,参与者可以选择驾驶路线来决定谁救,总共记录了近4000万名参与者的决策。研究结果将作为制定社会可接受的人工智能(AI)道德标准的重要参考。研究人员将道德偏好分类为多数人而不是少数人,儿童而不是老年人,动物等,发现不同文化之间的道德偏好差异。来自拉丁美洲和加勒比国家、法国、前法国海外领土和现在的法国领土的与会者倾向于优先考虑妇女和有权势的个人。收入不平等程度较高的国家的参与者在决定拯救谁时倾向于考虑社会地位。

图片来源:Drive House)

返回列表
上一篇:
下一篇:

文章评论