Nature道德机器实验报告,事故时自动开车AI先救哪

2019-06-12 10:46栏目:亚洲城ca88手机版官网

图片 1

图片 2

近日,德国奥斯纳布吕克大学认知科学学院的一项最新研究表明,人类在驾驶过程中做出的道德抉择并没有此前认为的那么复杂,或者说与环境的关联度不大。这项研究成果显示,人类驾驶员做出的道德选择,是在相对简单的以生命为基准的价值观指导下做出的。这意味着通过编程的方式令自动驾驶汽车做出合乎人类社会道德取向的选择,应该并不是件难事。

盖世汽车讯据外媒报道,随着自动驾驶车辆的引入,负责车辆决策人工智能的研发人员们不得不面临有些尴尬的道德难题,例如:车辆在发生碰撞事故时,应该保护驾驶员还是道路上的行人?

据外媒报道,随着自动驾驶车辆的引入,负责车辆决策人工智能的研发人员们不得不面临有些尴尬的道德难题,例如:车辆在发生碰撞事故时,应该保护驾驶员还是道路上的行人?

图片 3

有一篇文件在《自然》上发布:该篇文章详细谈及了“道德机器(The Moral Machine)”的实验结果,该实验吸引了近200万名参与者,先假设自动驾驶车辆与行人发生碰撞事故,再由上述参与者在乘客及行人的生命之间作出抉择,采集其对这类道德难题情境下所做的选择。

有一篇文件在《自然》上发布:该篇文章详细谈及了“道德机器(The Moral Machine)”的实验结果,该实验吸引了近200万名参与者,先假设自动驾驶车辆与行人发生碰撞事故,再由上述参与者在乘客及行人的生命之间作出抉择,采集其对这类道德难题情境下所做的选择。

这项研究共有105名志愿者参与,所有人被放置于一处虚拟现实的场景中:雾天中你驾驶车辆在郊区中转悠,之后会出现一些需要作出两难选择的情节,你不得不在「是驾车撞向行人、动物还是无生命物体」之间进行抉择。

举个例子,实验参与者将获得相关图示,假设车辆的制动发生故障,他需要在以下两种选项中作出选择:“三名老年人因乱穿马路并遭遇事故而丧命”或“车内的年轻人及其家人因车祸丧命。”

举个例子,实验参与者将获得相关图示,假设车辆的制动发生故障,他需要在以下两种选项中作出选择:“三名老年人因乱穿马路并遭遇事故而丧命”或“车内的年轻人及其家人因车祸丧命。”

按照之前的假设,人类驾驶员在面对这三种情况时做出的选择,很大程度上取决于当时的环境,因此超越了计算机建模的能力。“不过我们发现事实恰恰相反,这种两难场景下的人类行为可以借助「相对简单的以生命为基准的价值观模型」进行建模,每一位实验参与者在遇到行人、动物或无生命物体做出的判断,基本上都遵循类似的规则。”这项研究的第一作者Leon Sütfeld在接受《科学日报》采访时如是解释道。

此外,还包括以下“二选一”的难题:

此外,还包括以下“二选一”的难题:

此前,网络上曾有不少言论担忧自动驾驶汽车能否给人类社会带来好处。特斯拉CEO埃隆·马斯克是自动驾驶技术坚实的拥护者,他甚至“毫不客气地”回应那些不支持的人,称其“行为无异于谋杀”。马斯克认为自动驾驶汽车能够变得更智能,更中立,甚至要比人类更能开好车,避免更多严重交通事故的发生。

图片 4

图片 5

不过目前自动驾驶技术仍处于发展初期,至于能挽救多少生命取决于工程师如何进行编程,这也是奥斯纳布吕克大学这项研究要探寻的问题。不过如果我们期望自动驾驶汽车的表现要比人类更好,那又为什么要通过编程使其更像人类呢?

人类VS宠物

人类VS宠物

作为这项研究的主要作者,Gordon Pipa教授解释称,“我们其实需要搞明白的是,自动驾驶系统是否应该做出基于人类道德标准的判断。如果需要的话,那么它们应该通过模仿人类的选择继而做出有道德的行为吗?或者说它们应该遵循一定的道德规则,那这样的规则又是什么?而且更关键的问题在于,一旦发生了不好的事情,又到底是谁应该承担责任呢?”

保持正确的行驶方向VS转向

保持正确的行驶方向VS转向

总的来说,人工智能的道德标准依然是道德范畴内十分模糊的领域。业界也在大量的尝试将一系列相关法律通过编程的方式来控制人工智能的行为。目前德国国土交通省已经制定了20条自动驾驶汽车应该遵守的相关规则。

乘客VS行人

乘客VS行人

那么未来自动驾驶汽车能够变得多安全取决于工程师如何进行编程,尽管这项任务并不简单,但先搞清楚人类驾驶员在不同的场景中是如何作出反应的,这是最关键的。

多数人的性命VS少数人的性命

多数人的性命VS少数人的性命

图片 6

男人VS女人

男人VS女人

年轻人VS老年人

年轻人VS老年人

遵守法规的行人VS乱穿马路的人

遵守法规的行人VS乱穿马路的人

健康的人VS不太健康的人

健康的人VS不太健康的人

社会地位较高的人VS社会地位较低的人

社会地位较高的人VS社会地位较低的人

从获得的各类回复看,不论参与该实验的人群来自哪个国家或哪个地域,其回答都具有以下偏向性:选择保障人类的生命而牺牲宠物、选择挽救更多人的性命而牺牲少数人、选择拯救年轻人而牺牲老人。

从获得的各类回复看,不论参与该实验的人群来自哪个国家或哪个地域,其回答都具有以下偏向性:选择保障人类的生命而牺牲宠物、选择挽救更多人的性命而牺牲少数人、选择拯救年轻人而牺牲老人。

尽管实验的结果显而易见,但若要将该类选择偏好融入到自动驾驶系统的软件中,似乎不太容易。对自动驾驶系统而言,探查动物要比探查人类简单,判定生命的价值也相对较为简单,但若基于年龄、性别、社会地位等属性来判断各类人群的生命价值,这就变得十分复杂。

尽管实验的结果显而易见,但若要将该类选择偏好融入到自动驾驶系统的软件中,似乎不太容易。对自动驾驶系统而言,探查动物要比探查人类简单,判定生命的价值也相对较为简单,但若基于年龄、性别、社会地位等属性来判断各类人群的生命价值,这就变得十分复杂。

例如:若将人工智能对人群的偏向性选择进行如下设置:优先保护儿童而牺牲老年人、优先保护成年人而牺牲老年人,研究人员需要对各人群的年龄范围(age brackets)进行明确的边界限定,基于全球角度而言,想要取得统一的界定标准,这件事本身的操作难度就很大,更遑论基于该范围作出决策算法的设定了。(本文图片选自techradar.com)

例如:若将人工智能对人群的偏向性选择进行如下设置:优先保护儿童而牺牲老年人、优先保护成年人而牺牲老年人,研究人员需要对各人群的年龄范围(age brackets)进行明确的边界限定,基于全球角度而言,想要取得统一的界定标准,这件事本身的操作难度就很大,更遑论基于该范围作出决策算法的设定了。(本文图片选自techradar.com)

图片 7

本文版权为盖世汽车所有,欢迎转载!请务必注明出处及作者。

版权声明:本文由ca88会员登录发布于亚洲城ca88手机版官网,转载请注明出处:Nature道德机器实验报告,事故时自动开车AI先救哪