【解码ChatGPT?】徐英瑾:ChatGPT与哲学教研
编者按
2022年11月以来,美国人工智能研究公司OpenAI开发的聊天机器人ChatGPT,迅速成为史上增长最快的消费级应用程序,引发广泛关注。ChatGPT的出现成为人工智能发展的引爆点,推动各国科技创新竞争进入新赛道。技术的跨越必然带来应用场景中的深入观察,无论人工智能服务变得多聪明,适应与满足人类发展需要始终是根本指向。面向未来,多维度多视域探讨ChatGPT对人的生产方式、生活方式、思维方式、行为模式、价值观念以及对产业革命和学术研究等的重要影响,有助于我们正确使用和管理这种技术,进而思考人工智能的发展前景。
ChatGPT的全名为“Chat Generative Pre-trained Transformer”(即“预训练的聊天生成转换器”),是一种人工智能聊天机器人程序。ChatGPT目前主要以文字方式与用户进行信息交互,能够完成诸如自动文本生成、自动问答、自动摘要等多种任务。目前,美国一些高校的学生已经在该软件的帮助下完成学术论文,甚至还能获得不错的成绩。这使得一些学校出台了新规定,禁止学生使用该软件完成作业。这些现象引发了部分哲学教师的担心:ChatGPT是否会使哲学教师对于学生的课程论文与学位论文的专业评估变得更为困难?有些投机取巧的学生是否会利用这些技术获取与其真实水平不相符的高分?
根据多年来对ChatGPT所依赖的深度学习技术的了解,笔者会先验地对ChatGPT能否深度参与高质量哲学文本的生成感到怀疑。而根据最近对聊天软件的实测评估,笔者发现这种怀疑已经得到了验证。同时,笔者倾向于认为,ChatGPT未来可能的技术进步也无法使其自动完成对高质量哲学文本的处理。
先来谈谈为何笔者先验地就不太信赖ChatGPT。与传统的深度学习技术一样,ChatGPT系统在哲学上预设了经验论的知识形成模式。也就是说,根据这种哲学预设,只要一个认知系统获得了关于外部环境的大量数据,就能通过这些数据内部的统计学相似性自动获取规律,并由此预测未来。具体而言,深度学习技术模拟人类的神经元网络结构,将对于既有数据的统计学处理,转化为对一个复杂人工神经元网络的“训练”过程。基于深度学习技术的ChatGPT的创新之处,便是引入了“预训练”概念。所谓“预训练”,就是先将海量的语料“喂给”系统,却不告诉系统要完成什么任务,让系统自己琢磨不同语词的前后搭配关系。比如,若系统发现当出现短语“路遥知马力”时,短语“日久见人心”在之后出现的概率很高,就会在发现第一个短语后期待第二个短语出现。但需要注意的是,系统并不知道这个成语本身是什么意思。经过复杂的“预训练”阶段后,再让系统完成一些目的明确的任务(如完成一个求职报告)。需要注意的是,使这种较好的表现得以可能的“预训练”,需要的语料数量与算力消耗是惊人的。
笔者不信任该技术路径的道理正在于此:人类并不是这样学习语言的。几乎没有人会通过对海量语句的统计学处理,获得“日久见人心”跟在“路遥知马力”后出现的后验概率——相反,任何一个正常的人类孩童都是通过成人对于该成语的解释而理解该成语的。目前,ChatGPT对于海量训练语料的渴求,显然会在原则上导致一个问题:只要语料不足,其输出质量便会迅速下降。而与之相较,人类的哲学专家却可以通过很少的哲学家语料去研究另外一个哲学家的思想(我们不妨想想,赫拉克利特与巴门尼德留给后人的哲学文本有多么稀少)。
也正是基于对深度学习机制的上述认识,笔者才认为:哲学问题恰恰就是暴露ChatGPT缺陷的“阿基里斯之踵”。具体理由有如下三点。第一,哲学文本在人类互联网上占据的文本百分比是非常低的,先天就具有训练文本总量不足的问题。第二,网络上既有的关于哲学的电子文本有大量错误,因此本来就稀少的哲学训练资料本身的质量也是堪忧的。第三,专门用于哲学文本处理的人类标注员亦非常难找,因为胜任此项工作的专业哲学教师可能较难放下手头的科研工作去为ChatGPT订正哲学方面的语料信息错误(需要注意的是,目前为ChatGPT进行语料标注的标注员几乎都是来自欠发达国家的廉价劳工);或者反过来说也一样:相关的人工智能公司也不太可能花费高薪雇佣职业哲学教师去订正此类错误(因为做这件事的商业回报是很不明朗的)。
基于上述推理,笔者提出了一个假设:ChatGPT无法很好地回应用户提出的与哲学相关的问题。为验证上述假设,笔者交叉使用汉语与英语对ChatGPT进行了测试,并由此验证了上述假设。笔者发现,ChatGPT的表现基本能够被归类为如下三个问题。
第一,ChatGPT的哲学知识库非常小。比如,笔者要求ChatGPT罗列出日本马克思主义者户坂润(1900—1945)的主要著作,ChatGPT表示对此无能为力。如果说户坂润的确有点冷门的话,那么ChatGPT连韩炳哲都不知道就有点不应该了(他目前是在全球范围内炙手可热的韩裔德国哲学家)。实际上,任何一个人类用户都可以很容易地通过网络获取这两位哲学家的一些基本信息。
第二,ChatGPT的“德性”非常差。ChatGPT虽然是一种器物,但器物也是有“德性”的。比如,如果一本词典故意搜集了一些错误语例,导致使用者语言使用水平下降,那么这本词典的“德性”就可以说是很差的。ChatGPT“德性”差的具体表现是“不懂装懂”。比如,当笔者问ChatGPT“户坂润的《日本意识形态论》在多大程度上受到马克思的《德意志意识形态》的影响”时,该系统竟然有模有样地归纳出了好几点。比如,“户坂润将马克思的意识形态理论用于分析日本当时的经济与文化”;“与马克思一样,户坂润也认为意识形态是一种对民众进行欺骗的力量”。而且,很难说这些答案是错的。但系统之所以在面对这个问题的时候“猜中”了答案,恰恰是因为它已经被告知,户坂润是一个马克思主义者。因此,系统就能利用既有的关于《德意志意识形态》的文本知识,猜中户坂润会对日本的意识形态说什么。但很显然,一个专业的日本哲学研究者一眼就能看出机器是在不懂装懂,因为在机器给出的答案里压根儿没提户坂润文本中所具有的一个马克思原始文本里缺乏的因素:对日本当时流行的复古主义思潮的全面抨击。因此这大概率就意味着,系统中没有关于《日本意识形态论》的信息。为了验证这个猜测,笔者又问了系统一个新问题:“户坂润的空间学说与康德的空间学说之间的关系是什么?”结果,系统表示没有这方面的信息。但户坂润的《空间论》是他进入日本哲学界的敲门砖,一个不知道户坂润的这本书,却敢对其思想侃侃而谈的机器人或真人,是“德性”非常差的。
第三,ChatGPT的跨知识模块的知识迁移能力非常差。比如,当笔者用英文问ChatGPT日本哲学家西田几多郎的主要哲学观点时,系统的确给出了比较合适的答案;但当笔者用中文再问一次此问题时,系统却极不负责任地编造了几本不存在的西田几多郎的哲学著作。这说明ChatGPT无力在英文知识模块与汉语知识模块之间搭建桥梁。而当笔者问“西田几多郎”名字的罗马音写法“Nishida Kitarō”的正确汉字写法是什么时,ChatGPT的回答竟然是“坂本龙马”(明治维新时期的政治活动家)。这个错误十分荒谬。
有人或许会说:ChatGPT的这些缺陷会随着其语言模型的扩大而得到解决。笔者不认可这种乐观的看法。因为在海量的哲学论文中,只有少量是值得细读的。因此,人类哲学工作者会根据自己的品位挑选出那些值得看的文本。而ChatGPT本质上是一个吞噬海量数据的数字化“饕餮”——它不会选择、咀嚼与反思。即使ChatGPT以哲学文本为主要训练数据库(尽管笔者不相信这样做能够带来相匹配的商业利益),也无法区分垃圾文本与精华之间的差异,由此使得其对于少数精华的吸收必须以吞噬大量的文本垃圾为代价。另外,ChatGPT也无法处理在哲学文献中经常出现的一个现象,即关于一个哲学问题该怎么看。不同哲学家之间经常有惊人的分歧,这就使得每一个独特的观点都会成为“统计学上的异常数”。基于统计学思路的ChatGPT能否消化哲学这颗坚硬的松果?答案应当是否定的。除了对一些既有事实进行罗列外,笔者看不出未来的ChatGPT能够给哲学家的工作(除机器翻译外)带来多大的实际帮助。
(作者系复旦大学哲学学院教授)
来源:中国社会科学报
责任编辑:崔晋
新媒体编辑:刘星
历史阅读
点个“在看”不失联