cha

积极应对ChatGPT带来的意义危机

  《庄子·天地》篇中描述了一个“抱瓮灌园”的寓言故事,一位“为圃者”不辞辛苦“凿隧而入井,抱瓮而出灌”,当子贡告诉他有一种先进的取水装置“桔槔”时,他却以“无非不知,羞而不为也”的理由加以拒绝。在不少人眼中,这位“为圃者”好像是一个迂腐之人,但我们不妨把对话的场景转移到当下,假如有人告诉我们,现在有一个名叫ChatGPT的机器,它可以解决文字内容生产中的很多问题,我们是否愿意使用?想必一些人也会像“为圃者”一样加以拒绝。那么,这些拒绝ChatGPT的人又何尝不是现代版的“为圃者”?庄子实际上借“为圃者”之口,揭示出一个人类与技术关系的深层“意义”问题。

  技术与意义的关系

  如今,ChatGPT的火爆让人们不禁惊呼“未来已来”,一些相关行业的从业者甚至面临着不小的失业压力。当然,也有乐观主义者认为,ChatGPT为人类带来了前所未有的机遇,如果善于利用,人类文明将步入新纪元。当然,从技术发展史的角度来看,人类对待ChatGPT的矛盾态度并非人类历史上的新现象,当一项新技术出现时,人类总会对它保持警惕甚至加以限制。比如,中国古代长期存在否定“奇技淫巧”的传统,以及近代西方工业革命中工人砸毁机器的“卢德运动”。当然,为培养和磨炼人的能力和意志,人们有时也会有意地拒绝技术的使用。比如,为让小学生掌握数学计算能力而不让他们过早使用计算器。在某种意义上可以说,人类技术的发展史就是一部支持与反对的博弈史。

  为更好地揭示人与技术的“意义”问题,我们不妨在“抱瓮灌园”和“愚公移山”之间作一个对比。在现代人看来,“愚公移山”的做法好像也不是最佳决策,但历史上对“愚公”的评价却与“为圃者”截然相反。“愚公”成了吃苦耐劳、持之以恒的象征,而“为圃者”则几乎成了迂腐守旧、抱残守缺的代表。为什么会出现这种巨大反差?原因在于二者的“意义”不同。从效率的视角来看,当做一件事情时,若已经有更为先进的技术可以利用,而再去费时费力地依靠人力或旧技术去做的话,这种努力和奋斗往往就会失去意义。“为圃者”之所以被认为迂腐,正是因为他在有先进的工具时而不用。他本可以使用“为力甚寡而见功多”的“桔槔”,但他却拒绝了。他的劳动虽然辛苦,但却失去了应有的意义。与之相比,当一件事情还没有更为先进的技术可以利用时,依靠当前技术的努力和奋斗则会被肯定(也是因为不得不如此)。“愚公”的问题不在于没有利用先进的技术,而在于当时没有更为先进的挖掘和搬运技术可以利用,只能利用“斧头”“箕畚”等工具。正因如此,这种劳动才显得有意义。不仅如此,“愚公”故事的结尾还依靠一种想象的神力来实现移山的目标,这在某种意义上也反映出人们对一种无所不能技术的向往。

  创生与消解的平衡

  随着ChatGPT等强大的人工智能产品的出现,人类的向往似乎正在日益变成现实,但很多人似乎并没有因此欣喜若狂,反而陷入了恐慌。这正如“叶公好龙”故事所描述的情景:当叶公心心念念的“龙”真的出现在他面前时,他却惊慌失措。这不禁让人反思,人类对技术的喜好是否也存在着一种“叶公好龙”式的矛盾心理。人类希望技术越来越先进,但又不希望技术太先进。这种矛盾心理反映出技术与意义之间的张力:技术一边在“创生”意义,一边又在“消解”意义。所谓意义的“创生”,是指技术让人类的实践范围不断扩大,使以前不能实现的目标得以实现,从而不断开拓出新的疆域,让人类能够在更大的空间创造新的意义。所谓意义的“消解”,是指凡是被技术征服的地方,那些依靠旧工艺进行的活动就会失去原有的意义,以至于沦为庄子寓言中的“为圃者”而被人嘲笑。在一定意义上可以说,人类的文明就是在这种“意义”的“创生”与“消解”中不断前进的——二者保持着相对的动态平衡。

  然而,这种相对的动态平衡在人类进入现代社会之后受到了挑战。在现代技术社会之前的“慢文化”中,意义的更替以一种缓慢的节奏进行,当一项常规劳动的意义消失之时,人类尚有足够的时间去寻找新的意义。而进入现代技术社会之后,这种更替的节奏明显加快,人们可能在失去旧意义时来不及寻找新的意义来填补这种缺失。正如哈贝马斯所说,“我们本以为脚下的大地是稳固的,而它现在开始晃动,这将会给我们带来眩晕感”。有人做过统计,在用户数量达到1亿的时间上,电话用了75年,手机用了16年,互联网用了7年,苹果应用商店用了2年,抖音用了9个月,而ChatGPT仅仅用了2个月。人类社会正被“加速主义”文化所统治——一项新技术刚被人类适应不久,就会被更新的技术所取代,刚刚建立的意义之网又被新技术所打破。

  尽管现代社会“意义”的更替频率在加快,但以往人类还是可以通过开发机器做不了的工作,重新建立人类的意义领地。所以,尽管每项新技术都造成了一些工作岗位的消失,但人类可以创造更新的工作岗位来平衡这种空缺。更为重要的是,人类的智慧总能超前于机器,人类的命运被牢牢掌握在自己手中。ChatGPT的出现似乎正在打破这种平衡。在快速迭代、不断优化的ChatGPT面前,许多人类活动的“意义”好像都是暂时的,甚至终将被蚕食。就像有人所说的那样,我们现在不应该问ChatGPT能做什么,而应该问它还不能做什么。在ChatGPT面前,人类的很多工作好像都退化为原始的低级劳动。正如控制论之父维纳所说:“现在的工业革命便在于人脑的贬值,至少人脑所起的较简单的较具有常规性质的判断作用将要贬值。”人类好像越发难以寻找到新的意义空间,不断面临着前所未有的迷茫。不过,人毕竟是“悬挂在自我编织的意义之网上的动物”,要想消除人类的迷茫,根本之法还是在于重建人类的意义之网。

  创新辨析与危机应对

  在ChatGPT出现之前,有不少人认为,人工智能只能做一些常规重复性工作,而不能做到真正的创新,“技术奇点”要么在遥远的未来,要么永远不能实现。但ChatGPT的出现让一些人改变了看法。如果ChatGPT真的能够进行创新,那么人类的地位将不保。问题的关键在于,ChatGPT能否进行创新。

  ChatGPT的本质是一个“大型语言模型”,工作原理是基于之前出现的单词,预测给定文本中的下一个单词或单词序列。正如ChatGPT自己所言:“当你问我一个问题时,我用我的文本数据训练和算法生成与你的问题相关的回答,并用一种听起来自然的方式写出来。我尽我所能提供准确和有用的信息,但我不是一个完美的知识来源,我并不能总是提供完整或正确的答案。”问及“ChatGPT能否创新”,类似询问“演绎法能否发现新知识”。从一个角度来看,演绎法的结论都已蕴含在大前提中。在这个意义上,演绎法并不能产生新知识。但从另一个角度来看,演绎有时能够揭示某些未知信息。比如,以“麦克斯韦方程组”为前提,可以推导出“电磁波”的存在。在这个意义上,演绎法又能产生出一些之前未被发现或是被忽视的新知识。与之类似,ChatGPT在前一种意义上不是创新,在后一种意义上却可以说是某种创新。

  目前,ChatGPT还有两个局限。一是“无法理解生成单词的上下文语境或含义”,二是“只能提供接受过训练的信息,无法回答训练数据之外的问题”。所以,面对ChatGPT带来的意义危机,我们可以采取如下的应对思路。首先,可以在某些特殊领域(如一些教育领域)设立禁区(就像在体育领域禁止兴奋剂使用一样),这些领域不能使用ChatGPT。其次,积极开发新的意义空间,提高驾驭ChatGPT的能力,让ChatGPT成为人类的好助手。最后,守住“原始创新”这个人类安身立命的桥头堡,走在人工智能的前面,保证人类的命运掌握在自己手中。

  (本文系国家社科基金重大项目“负责任的人工智能及其实践的哲学研究”(21ZDA063)阶段性成果)

  (作者单位:大连理工大学哲学系)


您可能还会对下面的文章感兴趣:

登录 注册 退出