人工智能ChatGPT的表现惊艳世人,一些人认为ChatGPT无所不能,人类将可能被其取代。真的会这样吗?近日,复旦大学哲学学院徐英瑾教授一场主题为《不要过度神化ChatGPT》的直播,在@北京大学出版社 抖音账号播出。直播中,徐英瑾对网友关心的一系列问题进行了解答。目前完整直播回放已上线。
徐英瑾首先从哲学角度,分析了ChatGPT的工作机制。他介绍ChatGPT是在神经元网络技术演变出的深度学习技术的基础上,做出来的一个大型的语言生成模型,属于哲学中的经验论范畴,即从经验归纳中获取知识。其反面唯理派则认为人类存在先天知识,比如猴子学不会人话。
对于ChatGPT所采用技术的发展前景,徐英瑾引用了哲学家休谟的观点:对于未来的预期和知识,是不能够通过对过去经验的积累而自动推导的,在未来的知识和过去的经验之间存在很大的缝隙。他表示发展到ChatGPT3阶段,其参数数量已经达到1750亿个,训练的资料达到45TB,需要调用285万个CPU和1万个GPU。但其语料用的都是过去的数据,用新的语料训练时间不会短,且耗费惊人,无法根据实时情况给出合理答案。
徐英瑾指出,ChatGPT的训练不仅费时费力,且数学上难以解释,在知识论上非常不透明,其知识分布是以黑箱的形式进行。因此,人们并不知道ChatGPT的知识以怎样的方式存储在哪里,这与人类图书馆式的知识存储不同。这就导致,当ChatGPT一旦出现错误,人们并不能对其进行有效的纠正。徐英瑾将其比作太上老君的炼丹炉,太上老君本身也不知道为何把孙悟空炼成了火眼金睛,它经常会出现一些莫名其妙、不知如何修复的故障。
徐英瑾认为,人工智能对于人类未来的改变,不会有很多人想象的那么大。比如粮食问题,人类现有的粮食产量能够维持全球人类生存,但还是有人会饿死,这属于政治问题,人工智能算的再公平也无法解决。人工智能也解决不了电力问题,反而会用掉相当大的电量。对于芯片,人工智能无法发明芯片,反而要求更高的芯片算力。
一些人担心,人工智能会取代当前的记者、作家、画师、翻译等职业,徐英瑾不以为然。他表示,新闻强调真实性,ChatGPT无法做到;作家的作品要求真情实感,ChatGPT善于说套话;一些基础的绘画ChatGPT可以满足,但无法胜任更高要求;而对于翻译工作的准确性要求,ChatGPT也无法达到。
对于当前ChatGPT的发展程度,徐英瑾将其形容为仍处在物理学中的伽利略阶段,化学中的前拉瓦锡阶段,也就是没有一套行之有效的理论体系,连氧化反应还没摸清。
最后,徐英瑾表示,不必太迷信硅谷的科技公司做的事,“他们做了很多很了不起的事,我们不必每件事都有一种跟风的心态,但也不要反过来,因为是美国人做的,就反对他。”他认为,应该从哲学的角度考虑,ChatGPT所依赖的哲学基础“经验主义”,并不是一种正确的哲学理论,所以它能够成功的道路是有限的。
近年来,越来越多高校教授走进抖音,向公众科普科学文化知识。2022年开学季,抖音联合 @北京大学出版社 推出21堂公开课,向公众科普经济、历史、哲学等科目知识。《2022抖音知识年度报告》显示,抖音上的认证教授接已近400位。从去年1月到11月的时间里,有9500万用户观看过高校在抖音开设的直播课。
(来源:新视线)