分享
2016年03月18日17:09 新浪智库

分享

  原标题:人机大战引人工智能研究中应遵守的科学伦理的边界在哪里?

  从3月9日到3月13日,谷歌人工智能程序AlphaGo以3:1的比分优势领先韩国围棋世界冠军。虽还有1局未战,结果已无悬念。在围棋这个被誉为“人类 智慧的坚固堡垒”领域接连取得胜利,这无疑是人工智能研究的里程碑性时间。尽管仅是人工智能研究初级阶段综合科技实力的展现,人机大战对人工智能研究的未来的确提出了一系列启示。复旦发展研究院中美友好互信合作计划召集计算机科学、脑科学、神经科学、哲学以及从事人工智能开发与研究的专家进行了深入探讨,各抒己见,并对观点进行梳理,以飨大众。

  [人机大战第一辑]和[人机大战第二辑]为大家带来了各领域专家对中美人工智能研究的差距和中国应采取哪些措施追赶国际先进水平的讨论。探讨了电脑是否能够代替人脑?人工智能是否暗喻着人类生命进化的新形式?[人机大战第三辑]将为大家解读人工智能发展的下一步是什么?它对人类生命共同体未来的发展又提出了哪些涉及科学、伦理、乃至学哲学的问题?

  人工智能发展的下一步基于数据质量,情感和积极思维能力可能是未来人工智能的发展方向

  王晓阳教授(复旦大学计算机学院院长)表示AI下一步的发展基于数据质量。他认为此次对弈的胜利是由于围棋的规则相当清楚,棋谱数据非常干净,没有杂音和不确定性。棋谱这样的数据运用到AI中是非常合适的。这次的胜利也并非是出乎意料的。但是如果数据多了些不确定性和杂音,它是否还能顺利运用到AI中?我们现在无从得知。因此,未来什么样的数据能够决定什么样的智能,需要什么样的算法,都尚不清楚。深度学习到底能走多远我们还不知道,目前看来成果已经很不错了,下一步要把数据整理清楚,使得足够的经验、知识能够在数据中清晰地表达出来,然后让机器能够顺利地学习。

  刘嘉教授(北京师范大学心理学院院长)表示AlphaGo的横空出世,是文明智慧进化的一个里程碑的事件。AlphaGo或者其核心的深度学习,本身并没有质的变化,变化的只是计算机解决复杂问题的计算能力和存储容量的提升。一个值得注意的是,AlphaGo展现的不仅仅是在围棋上的突破,更重要的是展现了人工智能将在众多领域中带来革命性的变化。其中之一就便是自动驾驶,它的普及,将大大地提升物流的效率并降低成本,革命性地改变国家的工业结构和GDP构成。AlphaGo出现的意义,不是宣告人类在一个领域的失势,不是宣告人类尊严的死亡,而是宣告新的工业革命的开端。

  张文强副教授(复旦大学机器人智能实验室主任)认为,人工智能的发展,硬件是基础、算法是核心。就未来人工智能的发展来说,张老师认为还是需要推动硬件和算法方面的进步。要使硬件设施能在低成本的基础上处理非常复杂的算法;要让智能性不断提升。张老师甚至假设说,未来的机器会不会有情感,便是未来可能的发展方向。

  王小川先生(搜狗CEO)指出人工智能存在理论与工艺发展的两大核心突破问题:一个是理解人工智能的原理上进行原创性突破。随之而来的,是如何把理论转化为实践,在工艺上得以实现。以前根据冯·诺依曼的体系,计算机多个部件的机械协同和计算处理处于分离状态;但人脑却能够同时处理计算好几件事情,另外,人脑神经元的结构也使人脑的存储和计算都是合在一块的,所以,对于人脑独特思维方式的发现,这需要对我们原来的体系结构有大的颠覆。新技术的突破就在这个原有结构上进行。

  为了使计算机能够在大数据面前能够更快,研发人员希望它能够解决感知的问题、推理的问题,甚至能够拥有积极思维的能力,从而解决更多的事情。机器智能越来越进步,已经能够实现从处理低级阶段的脑力劳动向高级阶段飞跃(比如围棋),而人工智能代替人脑很大程度上是一种必然,但人们并不必为此感到恐慌,担心人本身会被取代甚至灭绝的事情,也不该封杀科技的更新换代,因为在科技进步的长河中出现了太多原本人类不能接受但后来也逐渐适应了东西(比如机器肢体等)。

  人工智能研究中应遵循一定的科学伦理,人类要牢牢掌握机器的目标是为人类服务

  王晓阳教授表示,对于机器而言,在制造之时为其设置的目标非常重要。举个例子,在电影终结者中,机器人之所以会与人类社会大战,因为它的目标是自我生存,当人类对它的自我生存有阻碍时,就会出现问题。在我们发展AI技术的时候,我们要时刻确保机器以服务于人类为目标。倘若机器是以服务自身为目标,那么结果就很难把握了。

  张文强副教授告诉我们在做机器人的研究开发时,存在一套机器人的伦理性纲领,去约束机器人不能作恶犯罪。但他同时认为不能因为机器人研究有这种风险,就不做研究了。他开玩笑说最简单的终止机器人的方法,就是拔掉电源。他最后总结说,对于人工智能,我们不能悲观,但也不要刻意拔高,主动权最终还是在我们人类手上。

  徐英瑾副教授(复旦大学哲学学院)对于霍金曾在一些场合强调,随着人工智能的发展,也许有一天它将强大到灭绝人类这个观点持怀疑态度的,但是有一点是肯定的,就是我们要把伦理的东西放进这些问题里。目前机器编码工业安全性标准也在讨论中,研究怎么保证使机器对人类的危害保持在最小,他认为这样的考量是很重要的。哲学讨论到伦理维度时,基本上要考虑到可能产生的工业事故对于人类的危害,并且在危害出现了以后,能够想办法找到危害源予以制止,并能够找到危害的责任者加以处理。假设未来的技术达到了一定的高度:机器人具有自主性决策能力,而这种决策正好对人类构成了危害。在这样的情况下,该怎样裁夺机器人的责任。就是一个很重要的问题。譬如,在机器人作出危害的情况下,将现有的法律应用于机器人身上,把一个机器人送上法庭,这似乎是很荒谬的。这个问题正好是哲学人需要综合处理的,这不完全是一个技术的问题,这也就是为什么西方流行(比如说谷歌)找哲学家来讨论机器哲学中的伦理问题。

  王小川先生认为随着技术的进步,科学伦理问题的出现,也使得很多机器与人的矛盾显现了出来。但是应该担忧的并不是机器人智能化问题的本身,而是机器与人在社会领域内将可能出现的紧张关系:第一,“如果机器更有效率,那么可能会取代人的工作岗位,这就是真正面临的挑战。”第二,“能够能动思考的机器是否值得我们赋予它们生命、尊重、甚至和人一样的平等权利。”比如突然把电脑的电源给拔了,这是否是对于有“自我意识”的机器是一种不平等?在将来这都是不得不涉及到的新型的道德伦理问题。

  那种认为不断推动科技的狂飙突进可能将人类拉下深渊的观点,其实恰恰是动辄以人类为中心的一种狂妄的自大想法;科技人员与社会工作者也不应由此对立。“从哪里来,要到哪里去”,对于这个终极问题的回答,可以说“生命的本质就是追求存在和繁衍,这是一个确然的方向,并没有更多的意义在后面。”

责任编辑:朱志航

相关阅读

杀掉圣战者,世界会变好?

2011年,臭名昭著的恐怖大王本•拉登被美国海豹突击队员击毙。在欢庆除掉了国家公敌的同时,美国舆论界也对此表达了隐隐的忧虑:杀掉本•拉登,真的会让世界变得更好吗?

烟草局长您真懂中国文化传统

针对一些国家立法规定在烟盒上印制烂肺、烂口、骷髅等“重口味”警示图标,全国人大代表、烟草专卖局副局长段铁力表示,在烟盒上印警示图标不符合中国文化传统,且目前没有增加图标的打算。

历史不可假设?历史可以假设

世界上的事物是复杂的,一个事物往往具有多方面的意义。我们看问题解释问题,不可顾此失彼,以偏概全,在强调一种说法的时候,忘记了还有其他许多道理的存在。

中国大学发展必须清楚的方向

自由和独立是未来大学的主要品质,如果这种品质不能在大学里自由生长,中国大学想成为世界一流大学就是天方夜谭,就是画饼充饥,就是自娱自乐。

  • 现场目击:有记者喊"总理加油"(图)
  • 辽宁“老虎”王阳女儿毕业3年升副处
  • 李白作为唐朝“政治犯”差点被腰斩?
  • 红楼水浒传开篇存在十大惊人相似之处
  • 说好的间谍剧,为什么拍成了A片
  • 千里约炮寻刺激不想却掉入陷阱变囧途
  • 坐专列去西双版纳是怎样一种体验?
  • 0