不支持Flash

机器人时代的伦理与道德

http://www.sina.com.cn 2007年04月27日13:33 外滩画报
机器人时代的伦理与道德
机器人时代的伦理与道德

  4月,在机器人技术发达、应用最广泛的日本,一份用于规范机器人研究和生产的文件出台,这也是人类社会首次为机器人“立法”。中国机器人专家接受《外滩画报》采访时认为,智能机器人的时代还远未来临,现在谈机器人伦理道德,为时尚早。

  文/丁晓蕾

  2007年4月,日本的经济产业省出台《下一代机器人安全问题指导方针(草案)》,以规范机器人的研究和生产。在这份草案中,未来的机器人将受制于大量繁文缛节,这将使机器人“造反”变成不可能的事情。

  英国《泰晤士报》日前得到了这份草案的拷贝文件。据该报报道,这份文件全文长达60多页,由包括企业界人士、科学家、政府官员以及律师在内的一个专业团队起草完成。

  立法借鉴“机器人三大定律”

  我们对机器人的认识,更多的来自文学作品和电影世界。对于“科学怪人” 是不是文学史上出现的第一个机器人,争论声一直都没有停歇,但由此产生的“佛兰克斯坦情结” ,即“人类所创造的事物,终有一天会失去控制甚至反过来威胁到人类自己”的恐惧心理,却被20世纪的科幻小说家艾萨克?阿西莫夫沿用,用来表示人类对自己制造的机器人的恐惧。

  在阿西莫夫之前,科幻小说里的机器人总是为非作歹。为了改变这种情况,阿西莫夫提出了著名的“机器人三大定律”:即机器人不得伤害人类,或袖手旁观让人类受到伤害;在不违反第一定律的情况下,机器人必须服从人类给予的任何命令;在不违反第一及第二定律的情况下,机器人必须尽力保护自己。

  日本人颁布的草案也借鉴了阿西莫夫机器人三大定律的精神,其对象更为明显地指向了机器人制造者。比如,第一定律规定“机器人不得伤害人类,或袖手旁观坐视人类受到伤害”,草案则指出:“人类所处危险的发生几率以及人类所处危险的级别,应该被详细分成不同等级。”这句话还专门被印刷成红色标题文字。

  该草案要求,所有的机器人都要配备这样的设备:当它们要帮助或者保护人类的时候,它们必须提前告知人类它们的行为可能对被帮助人造成的伤害,然后让人类来决定机器人的行为。该草案要求所有的机器人制造商都必须遵守这一规定,机器人的中央数据库中必须载有机器人伤害人类的所有事故记录,以便让机器人避免类似事故重演。

  韩国推出《机器人道德法》

  紧跟日本的步伐,韩国产业资源部也表示,将在今年内推出一部《机器人道德法》,作为机器人制造者和使用者以及机器人本身的道德标准和行为准则,并对机器人产业起到指导作用。该法案的内容包括将道德标准装入计算机程序等,以防止人类虐待机器人或是机器人虐待人类。事实上,世界其他国家也在进行有关机器人伦理的讨论。据报道,“欧洲机器人研究网络”4月份在

意大利罗马举行会议,商讨制定机器人伦理守则。

  上海交通大学机器人研究所的马培荪教授认为,虽然机器人已广泛运用在社会生产的各个方面,但智能机器人的时代还远未来临,此时来谈机器人伦理道德,为时尚早。他认为,现阶段机器人立法多半都还停留在初级的安全条款上,比如“机器人生产厂家必须在机器人身上装上足够多的传感器,从而防止机器人失足撞上人类”等。

  美国布兰迪斯大学计算机教授乔登波拉科曾撰文,预测机器人时代的7大伦理道德问题。但专家说,日本机器人法规草案中的条款并没有涉及其中任何一项,草案的性质与其说像是阿西莫夫的三大定律,不如说更像质量检验部门为吸尘器或者洗衣机的生产厂家制定的安全规定,只不过草案面对的是更加复杂的机器。

  中国科学院科技伦理专家朱葆伟认为,科技与伦理产生矛盾是必然的,智能机器人的发展表明机器人不仅可以取代许多人的工作,而且可能拥有超过人的某种智能。只有当机器人被赋予人类式的情感,具备了完善的情感内部系统和意志内部逻辑系统时,针对机器人的立法才会产生作用。


发表评论 _COUNT_条
爱问(iAsk.com)
不支持Flash
·城市营销百家谈>> ·城市发现之旅有奖活动 ·企业邮箱换新颜 ·携手新浪共创辉煌