|
本报特约撰稿张贵余
“该计划让我脊梁骨发寒,我研究人工智能已经几十年了,让机器人代替人类作做出决定,这个想法真的太可怕了! ”
——美谢菲尔德大学计算机专家诺埃尔·夏基
据英国《每日电讯》报12月1日报道,美国五角大楼计划研制“有道德的”新型机器人战士,它并不像电影《终结 者》中的T-800机器杀手那样不分青红皂白地乱杀一气。事实上,美国陆军和海军现在都聘请了道德方面的专家来研制机 器人,以防制造出可能滥杀无辜的“机械杀人狂”。
机器战士在道德上不犯错
《每日电讯》的报道指出,到2010年,美国将投资40亿美元进行“自控系统”的研究,“自控系统”是美军对 新型机器人的内部称呼,采用这一设计的产品不会受到恐惧感或复仇欲望的影响,因而也不会犯道德层面上的错误。
目前,美国海军已经聘请了一名英国专家做顾问,研制不会违反《日内瓦公约》的下一代机器人。印第安那大学的学 者柯林·艾伦刚刚出版了一本书《道德机器:教机器人分辨是非》,概述了自己对这类问题的观点。“现在需要得到回答的问 题是,我们能否制造出顺从战争法的自动武器,能否利用道德理论帮助设计这些机器人。”
有关伊拉克战争压力的研究显示,占很大比例的前线战士支持对敌人进行折磨和惩罚——参与作战的美军战士也是人 ,有时难免会判断失误或者受情绪影响而不守道德。针对这种现象,佐治亚理工大学的计算机专家唐纳德·阿金写过一份报告 ,他在报告中指出,尽管机器人不会“在战场上表现出完美的道德”,但却能“比人类士兵表现得更好”。
在阿金看来,机器人“不需要保护自己”,而且“能够被设计成没有情绪,从而不会妨碍它们的判断或者因战场发生 的事情而感到愤怒或沮丧”。
仍可能变回恐怖杀人狂?
事实上,种类繁多的战斗机器人早已被用于伊拉克和阿富汗战争,它们向敌人的目标发动空袭,还被用来拆除路边炸 弹和其他临时爆炸装置。上个月,美国陆军刚刚接收了一款由英国奎奈蒂克防务公司制造的新型机器人,它能够使用多种武器 ,包括胡椒粉催泪弹、高爆榴弹以及7.62毫米口径的子弹。
不过,这一代机器人仍然是由人类遥控的。相比之下,研究人员正在开发的下一代“机器战士”可以自动识别目标和 武器,并区分敌方部队种类(比如坦克或武装人员)以及软目标(比如救护车或平民)。它们的软件中包含符合《日内瓦公约 》的作战指令,技术人员将软件置入机器人体内,告诉它们何时开火。
艾伦博士对军方的做法表示赞赏:“现在应该开始思考这种问题了,那就是将道德理论置入软件,保证机器人做出正 确的行动,而不是等为时太晚时才做这些。”艾伦认为,美国军队想要能完全自控的机器人,因为他们目前还在用经过严格训 练的人员来操纵它们。那些真正昂贵的机器人之所以处于人类的直接控制下,主要是因为实在损失不起。他说:“一架‘捕食 者’无人机需要6个人24小时控制着,我知道美国空军已经研制出软件,可以训练这种无人机的操作员。但如果计算机能够 训练操作员的话,那么最终也将可以用于控制无人机的飞行。”
然而仍有一些人担心,研制出完全不会出错误的机器人是不可能的。一旦发生故障,它们仍然可能变回恐怖杀人狂。 谢菲尔德大学的计算机科学家诺埃尔·夏基因参与电视剧《机器人战争》而著名,作为美军计划最强烈的批评者,他表示:“ 该计划让我脊梁骨发寒,我研究人工智能已经几十年了,让机器人代替人类作出决定,这个想法真的太可怕了!”