跳转到路径导航栏
跳转到正文内容

机器人三原则

http://www.sina.com.cn  2008年12月20日05:47  都市快报
机器人三原则
加拿大科学家最近制造的机器人女友“爱子”

  机器人三原则

  其实人们早就提出过机器人道德规范问题。

  1940年,美国科幻作家伊萨克·阿西莫夫提出著名的“机器人三原则”:

  一、“机器人不得危害人类”;

  二、“必须服从人类的命令”;

  三、“在不违反第一条和第二条的情况下必须保护自己”。

  日本为了保护人类在使用机器人过程中不被伤害,起草过一份60多页的文件,名为《下一代机器人安全问题指导方针(草案)》,起草的是包括企业界人士、科学家、政府官员以及律师在内的一个专业团队。

  文件说:“生产厂家必须在机器人身上装上足够多的传感器,防止失足撞上人类;机器人应该使用更软、更轻的材料,从而减少对人类的可能伤害;在机器人身上装按钮,一旦机器人发狂,人类可以通过触按这些按钮及时将它们驯服,各种与机器人有关的法规已经出现。”

  韩国也起草过《机器人道德宪章》,主要内容是:确保人类对机器人的控制、保护机器人获得的数据,并防止违法使用机器人,并准备将道德标准装入计算机程序,以防止人类虐待机器人。

  这些文件,从某种意义上来说,是对阿西莫夫“机器人三原则”的细化。

  打造有道德的军事机器人?

  鉴于军事机器人的特殊性,韩国起草文件时,将军事机器人排除在外。

  上月底英国《每日电讯报》报道,美国国防部斥巨资开发战争机器人时,雇用了道德规范领域的英国专家,协助研制不会违反《日内瓦公约》的新型战争机器人。这种机器人能够自主辨别何时、向谁开枪,能够识别救护车和平民。

  不过夏基教授说:“听到这个设想我不禁打了个寒战。我已经在人工智能领域工作多年,但让机器人来决定人类的终结,这种想法太可怕了。”(综合新华社报道)

上一页 1 2 下一页

Powered By Google 感动2008,留下你最想说的话!

更多关于 机器人 道德规范  的新闻

新浪简介About Sina广告服务联系我们招聘信息网站律师SINA English会员注册产品答疑┊Copyright © 1996-2008 SINA Corporation, All Rights Reserved

新浪公司 版权所有