设为首页 - 加入收藏
您的当前位置:主页 > 科技 > 正文

自动驾驶汽车道德问题将如何做出选择?

来源:未知 编辑:admin 时间:2017-11-14
自动驾驶汽车在遇到道德问题将会做出怎样的选择,自动驾驶汽车道德不比人的道德高,不过它做出哪种选择,都存在人身危险。
 
通过电脑模拟,创意科技家Matthieu Cherubini提出了类似“电车难题”的伦理学问题:一个孕妇乘坐在自动驾驶汽车上,14岁的女孩骑着自行车迎面而来,突然,一辆卡车横穿到自动驾驶汽车前面。这时候,自动驾驶汽车将如何选择?
Cherubini认为,汽车的决策可以基于三个原则:一个是“保护主义”原则,汽车的首要任务是保护乘客安全。这与自动驾驶汽车制造商目前的做法类似;第二个是“人文主义”原则,汽车设法去拯救最多的人;第三个是“利益优先”原则,汽车将保护最有价值的财产。
 
在第一个原则下,汽车应该撞上骑车人,因为孕妇的生命更为重要;在第二个原则下,汽车应该撞向货车,因为孕妇可能会流产,但是骑车女孩的死亡风险更大;在第三个原则下,自动驾驶汽车会认为,无论是那种选择,乘客的损失都会超过保险所得,但是,由于与卡车相撞的概率更小,它会选择撞骑自行车的人。
 
在Cherubibi模拟的状况中,人的生命总是受到威胁,自动驾驶汽车需要决定谁活下来,谁会死去。他想要提醒人们,道德决策是极为复杂的问题,很难简化为一种算法。当Cherubini开始研究自动汽车的道德问题时,他相信,机器道德不可能超越人类道德。但是,随着研究的深入,他开始重新思考,“如果你要思考机器道德,你必须首先思考自身的道德。我真的比机器更好吗?”他对Fastcodesign网站说。
 
那么,Cherubini希望自动驾驶汽车采取何种算法呢?“当然,我想说自己是人文主义者。但是从内心深处,我只希望得到保护,获得安全。”
 
因此,他并不想给汽车制造商推荐任何算法。“如果一辆汽车在德国制造,符合德国的国情和文化,然后,它被进口到了中国。那么,这辆车或许无法适应中国的国情,”他说,“不同文化拥有不同的道德观。”
 
如果汽车拥有者可以选择算法呢?那仍然是有缺陷的。因为,那种情况下,每个人的生命要依赖于他人的道德选择。最后,Cherubini提出了一个新方案,“它不用决定去做什么——而是随机行动,”他说,“我们现在就是这样。我们不去思考撞这个人还是那个人——我们惊慌失措了。你不需要确定其他人的价值,认为某人更应该受到伤害。”
 
人人都知道道德是很复杂的,人的道德都存在差异性,所以说不同的人有不同的道德及价值观,何况一个自动驾驶汽车在道德问题上做出选择?
 

相关推荐:

网友评论:

无法在这个位置找到: ajaxfeedback.htm
栏目分类
热门文章


中国西藏信息网 www.tibetinfor.com 联系QQ:49887 邮箱:49887@qq.com

Copyright © 2002-2017 中国西藏信息网 版权所有

Top