|
机器人三原则
其实人们早就提出过机器人道德规范问题。
1940年,美国科幻作家伊萨克·阿西莫夫提出著名的“机器人三原则”:
一、“机器人不得危害人类”;
二、“必须服从人类的命令”;
三、“在不违反第一条和第二条的情况下必须保护自己”。
日本为了保护人类在使用机器人过程中不被伤害,起草过一份60多页的文件,名为《下一代机器人安全问题指导方针(草案)》,起草的是包括企业界人士、科学家、政府官员以及律师在内的一个专业团队。
文件说:“生产厂家必须在机器人身上装上足够多的传感器,防止失足撞上人类;机器人应该使用更软、更轻的材料,从而减少对人类的可能伤害;在机器人身上装按钮,一旦机器人发狂,人类可以通过触按这些按钮及时将它们驯服,各种与机器人有关的法规已经出现。”
韩国也起草过《机器人道德宪章》,主要内容是:确保人类对机器人的控制、保护机器人获得的数据,并防止违法使用机器人,并准备将道德标准装入计算机程序,以防止人类虐待机器人。
这些文件,从某种意义上来说,是对阿西莫夫“机器人三原则”的细化。
打造有道德的军事机器人?
鉴于军事机器人的特殊性,韩国起草文件时,将军事机器人排除在外。
上月底英国《每日电讯报》报道,美国国防部斥巨资开发战争机器人时,雇用了道德规范领域的英国专家,协助研制不会违反《日内瓦公约》的新型战争机器人。这种机器人能够自主辨别何时、向谁开枪,能够识别救护车和平民。
不过夏基教授说:“听到这个设想我不禁打了个寒战。我已经在人工智能领域工作多年,但让机器人来决定人类的终结,这种想法太可怕了。”(综合新华社报道)