新闻中心新浪首页 > 新闻中心 > 国内新闻 > 青年参考专题 > 正文

机器人:人类能相信你吗


http://www.sina.com.cn 2006年06月23日16:40 青年参考

  2004年的好莱坞科幻大片《我,机器人》讲述了这样的故事:公元2035年,智能型机器人已被人类广泛利用 。作为最好的生产工具和人类伙伴,机器人在各个领域扮演着日益重要的角色,而由于众所周知的机器人“三大安全法则”的 限制,人类对这些能够胜任各种工作且毫无怨言的伙伴充满信任,它们中的很多甚至已经成为一个家庭的组成成员。就在此时 ,一起“机器人犯罪”事件意外地发生了,“机器人之父”阿尔弗莱德·朗宁博士在办公室被机器人杀害。

  虽然这只是一个虚拟的故事,但随着现代科技的日益发达,当机器人逐渐进入我们的家庭和办公室时,必须保证它们 不会伤害人类。但是,怎样才能做到这一点呢?

  1981年在日本川崎,37岁的工厂工人KenjiUrada跨过安全防护栏试图维修一部机器。在匆忙中,他 没有关好开关。由于机器人没有任何感观系统,水压臂仍继续工作,并把他抛进一个碾磨机内。Urada成为第一个有记录 的机器人受害者。

  如果机器人的所有行为都能遵循“三大安全法则”,这则耸人听闻的工伤事件便不会发生。美国科幻小说家艾萨克· 阿西莫夫于1950年发表了一本有关机器人的

短篇小说集,在书中他创造了“三法则”。尽管几十年过去了,书中所说的防 止机器人伤害人类的方法,仍无法实现。

  

  机器人安全成为

  各国关注焦点

  虽然安全机制确实有所进步,但机器人伤人事件自1981年以来却有增无减。多年来,一直有人的躯体被粉碎,头 部被重击、被焊接、甚至被融化的铝水浇满全身等事故发生。据英国健康安全署报道,去年单是英国就有77起与机器人相关 的工伤事件。

  现在,机器人已逐渐从工厂进入了家庭和办公室,机器人专家们决定共同商讨让人类免受机器人伤害的办法。在意大 利热那亚会晤过的机器人伦理学家们,在西西里巴勒摩欧洲机器人座谈会上,宣读了他们初步的研究发现。

  “保障和安全,成为讨论的焦点。”机器人伦理团体发起组织人、瑞典皇家科技学院欧洲机器人网络组织主席亨瑞克 ·克里斯汀森如是说。能够“粉碎”人的强有力的机器人,是否应该被获准进入家庭呢?尽管已违背了《日内瓦公约》,“系 统故障”是否只是机器人向手无寸铁的平民开火的借口?

  克里斯汀森博士称,尽管这些问题现在看起来深奥难解,但数年后它们将与我们息息相关。

  据联合国经济委员会的欧洲世界机器人技术调查,2002年,家庭服务型机器人数量翻了3番,几乎和工业用机器 人数量相匹敌。2003年末,全球使用了超过60万机器人吸尘器和割草机,明年这个数字预计达到400万。

  日本工业企业正紧锣密鼓地制造“类人机器人”。韩国也设定了目标,要在2020年使全国100%的家庭使用机 器人。有鉴于此,克里斯汀森博士认为,我们必须要开始考虑制定机器人安全和伦理规则。

  

  高科技并不能保证

  100%的安全

  那么我们现在为保护自己免受机器人威胁,都做了些什么呢?“我们做的还远远不够。”英国苏赛克斯大学人工智能 学专家布雷·怀特白说。但是,情况正有所改观。研发人员正投入更大的精力制作更安全的机器人。一个研究方向就是,如何 设定程序,使机器人不能和人类进行直接接触。

  这听起来简单,但做起来很难。让机器人在堆满杂物的家中走动已不容易了,还要让它考虑如何绕过突如其来的手臂 和狗尾巴,更是难上加难。

  

意大利热那亚智能自动化学院的机器人专家杰马克·瓦鲁基说,规范机器人行为在未来会越来越困难,因为越来越多 的自我学习机制被植入机器人中。所以,机器人的行为将不能被完全预测,因为它们不会总按照既定程序来完成使命,而会学 习新的技能。

  所以这将可能导致一些不可预知的危险。当一个机器人在进行心脏手术,或者倒一杯滚烫的咖啡给你时,突然失灵了 怎么办?日本东京大学机器人专家、日本科技促进会顾问HirochikaInoue博士说:“通过高科技无法做到100 %的安全。”这是因为,不管你准备得多完善,人类的行为不可预知。

  

  机器人伤人

  谁承担法律责任

  阿斯莫夫的“三法则”如何实行?这只是虚构的法则,也许永远不能在现实中实行,怀特比博士说。不仅如此,这些 法则还需要机器人有一定的人工智能,而这恰巧是机器人所缺乏的。

  在任何情况下,Inoue博士说,这些法则只是武断地把一些常识性原则,植入现代电器设计中。这些家庭或工业 机器本来已具有这些特性。每个烤面包机、割草机和移动电话都被设计成只能产生最小化伤害的机器。但是仍有人被电击、被 切了手指、或不小心摔出窗外。至少,机器人必须能够严谨地达到安全的最低标准。问题是,是否需要规范机器人的具体规则 ?如果答案是肯定的,那需要做些什么?

  “确定机器人的安全性非常关键。”已生产了200万台家庭清洁型机器人的iRobot公司负责人科林·安吉如 是说。

  “当一部自动地毯扫帚弄伤一个婴儿时,应该去责怪谁?”南丹麦大学的约翰·哈蓝姆教授说。如果全自动机器人可 以不断地自我学习,它的设计者是否应当承担全部责任?尽管今天看来答案是肯定的,但愈智能化的机器人,将会使答案越来 越不确定。

  “现在,没有保险公司能替机器人保险。”Inoue博士说。但这种情况会改变。上个月,日本贸易工业局宣布了 一系列家用及办公室机器人安全条例:这些机器人必须具备感应器,能够避免撞到人;它们必须由软且轻的材料制成,以防万 一发生碰撞事件;它们必须具备紧急关闭按钮。

  但是,如果你认为能够自我学习的万能机器人将会大行其道就错了,安吉先生相信机器人只会被做成相对蠢笨的机器 ,来对付不同的任务,并不会出现一个人性化的机器人女佣。

  参考资料

  

  机器人三大法则

  一、机器人不得伤害人类,或坐视人类受到伤害而袖手旁观。

  二、除非违背第一法则,机器人必须服从人类的命令。

  三、在不违背第一法则及第二法则的情况下,机器人必须保护自己。

  相关专题:青年参考 


发表评论

爱问(iAsk.com)

 【评论】【收藏此页】【 】 【多种方式看新闻】 【下载点点通】【打印】【关闭
 


新闻中心意见反馈留言板 电话:010-82612286   欢迎批评指正

新浪简介 | About Sina | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 会员注册 | 产品答疑

Copyright © 1996-2006 SINA Corporation, All Rights Reserved

新浪公司 版权所有