设为首页 - 加入收藏
您的当前位置:主页 > IT > 正文

专家预言分不清敌我的杀人机器人一年内上战场

来源:未知 编辑:admin 时间:2018-04-13
机器人可以为人类承担各种工作,保护并减轻人类的负担,同样用于杀人作战的机器人也在被开发,用于战场上的机器人杀伤力更大。
 
据英国《每日邮报》报道,英国谢菲尔德大学诺埃尔?夏基博士近日预言,无法分清无辜民众和敌人的杀人机器人一年内即会踏上战场。
一些国家正在开发AI武器,这些机器人完全自主,无需人类监管。专家认为,根据联合国公约,应该禁止这种机器人。本周的日内瓦联合国大会上,专家和官员聚集起来讨论在全球范围内禁止研发杀人机器人。
 
如果联合国限制开发杀人机器人的国际公约未通过,杀人机器人一年内即会踏上战场。诺埃尔?夏基博士认为,早期战争机器会导致大规模伤亡,而且它们没法分清敌人和民众。
 
作为谢菲尔德大学AI和机器人学教授,夏基博士对《每日邮报》网站说,“迫切需要”国际公约来禁止使用全自动杀人机器人。这位AI专家具有丰富的机器人学领域经验,曾任流行电视节目“机器人战争”裁判长。夏基教授说:“大部分(国家)说过有意义的人类掌控武器是至关重要的。我相信公约会通过的,但担心是哪种公约?如果没有公约禁止,一年内杀人机器人就会上战场。”
 
目前,机器人系统能使用AI开发致命的武器,但必须“有人监管”。专家强调,所有机器人武器必须有一定程度的“有意义的人类控制”。夏基教授说,“‘人类监管’这样的术语就和按下按钮发射导弹一样简单。‘有意义’这个词非常重要,它意味着在决定交火和决定目标时有人参与。”夏基教授认为,这是军人和武器制造商争论的关键点。与其他专家一起,夏基教授认为杀人机器人的主要缺点是技术无法实现像人一样做决定。在生死的抉择中,会有毁灭性的后果。
 
本周,来自90个不同成员国的专家和官员聚集到日内瓦参加联合国大会,将要讨论这一话题。10日是他们讨论“致命自主武器系统(LAWS)”的第一天。11日的主要话题是“考虑致命机器人力量中的人类因素”。(实习编译:汪雄飞审稿:李宗泽)
 
人类如果不能达成武器共识,那么在未来不用别的星球的敌人来侵略,自己就作死了。机器人的开发有利有弊,我们还是希望地球和平。

网友评论:

无法在这个位置找到: ajaxfeedback.htm
栏目分类


中国西藏信息网 www.tibetinfor.com

Copyright © 2002-2017 中国西藏信息网 版权所有

Top