原本人是万物的尺度,现在要让位给ChatGPT?
其实在终极意义上,人还是人,物就是物。物的东西需要还原论,人的东西需要现象学。
文/姜建强
最近对话式人工智能ChatGPT引发全球热议。人,也第一次感受到了真正的挑战。原本人是万物的尺度,现在要让位给ChatGPT了,它才是当之无愧的万物的尺度。这让人汗颜。
不过还好,ChatGPT还是显现出不尽人意之处,显现出在对话中存有的严重缺陷。这下人类好像又放心了,感觉超越人智还非常遥远。可不,《日本经济新闻》编辑委员小柳建彦最近撰文,引用开拓深层学习基本技术的美国Meta首席AI科学家、纽约大学教授Yann Lucan的话说:先别说挑战人类,ChatGPT“就连猫狗的智能都远未达到”。文中还举例说,向ChatGPT询问“哥哥和姐姐有什么不同”时,得到的回答是“虽然兄弟姐妹关系因家庭结构和出生顺序不同而存在差异,但哥哥通常比姐姐年龄大”。之所以给出这样不知所以然的答案,是因为没有“理解”哥哥、姐姐等词语的概念、相互之间的关系、家庭构成等全局情况。表明ChatGPT还缺乏常识和逻辑的训练,不足之处分分秒秒都能显现。
这几天在读日本的山中伸弥和羽生善治对话体《人类的未来,AI的未来》。由上海译文出版社 2021年12月最新翻译出版。山中伸弥是京都大学iPS细胞研究所所长、教授、2012年诺贝尔生理学或医学奖获得者。羽生善治是将棋棋士、永世七冠(指在将棋七项赛事中均获得“永世”称号)、国民荣誉奖获得者。一个是生命科学领域的奇人,一个是人智领域的超人;一个是对尖端医疗是否能医治百病的设问,一个是对棋士为什么会输给AI(人工智能)的反思。由此而引发未来人类会被AI控制吗?AI最终会取代人类吗?百年后的世界将是什么模样等热门话题。虽然无法逃逸用先验知识结构生出的知识来源来谈论未来,虽然还是用“心外无物”这个古已有之的心智结构来讨论AI,但对谈本身已足够智慧与精彩,思考回路也足够清晰与明了。
在人智的将棋世界,羽生善治坦承,AI赶上人类的速度确实“大大超出了预期”。2016年3月,AI的阿尔法围棋以四胜一负的压倒性胜利,击败世界顶尖围棋选手李世石,震惊全球。阿尔法围棋的可怕之处在于有“启发式”,也就是说能给出不一定是正确的答案,但可以通过估算来确定大体符合要求的答案。羽生说这相当于“人类的第六感”。2017年4月的电王战上,将棋软件“PONANZA”对佐藤天彦名人两战两胜。羽生说,我被软件下出同一手,还被它一步步修改说“这是正解,真是可怕的世界”。而国际象棋早在1997年,IBM的“深蓝”首次战胜了世界冠军卡斯帕罗夫。当时“深蓝”已经储存了超过百万局的巨量棋谱,再加上每秒钟能思考两亿种可能的硬件。总之,机器之间可以24小时满负荷对战,以1秒一局或10秒一局的速度积累几十万、几百万场对局数据,人类对此完全望尘莫及。
不过,在羽生看来,AI对局的棋谱,首先缺乏连续性或一惯性这种人类才有的美感。其次是没有流程的概念,每一步都指向当前局面下最好的一手。虽然看上去每一步都惊心,但人类是绝对不会选择这种危险的下法的。因为人类有怕输的稳扎稳打心理心像。而这个心理心像AI是无法拥有的。再次,AI不会下“招待棋”(或曰安慰棋)。要在胶着的对战之后输掉棋局,而且要输的不显山水,让对手心满意足的这种人类行为,AI很难做到。要么突然送一个“车”,要么乱下一气。羽生说,日本有一位教授一直在研究和开发能下“招待棋”的将棋软件,但少有突破。难度就在于怎样掩饰故意而为之的行为。
为此在羽生看来,虽然不断引入随机变量,AI也有可能做出创造性的工作,但和我们真正意义上的创造是完全没有关系的。有些创造只有人类才能实现。他举例“梨妖精”(日本千叶县船桥市的吉祥物)的例子,说不管AI怎样进化,都创造不出梨妖精——眼睛有些灰暗,是因为看见了污浊的人世;肚子上的红布,是回溅的血污。AI擅长根据数据预测人们喜欢的东西,但人类喜欢意外的天性,喜欢自己都难以置信的直觉,喜欢莫名其妙的可能性,AI恐怕无法预测。现在AI也能写诗了。但即便会写也不具有文本意义。一个个人类肉体,写出来的诗才有意义。“落霞与孤鹜齐飞,秋水共长天一色”的诗句 AI能写出吗?这就在终极意义上表明人还是是人,物就是物。物的东西需要还原论,人的东西需要现象学。
不过有相当多的AI研究员认为,如果能探明人类智能的本质,便应该能创造出与人类智能相同的AI。但问题在于,何为人的“智能”?这个天问会有答案吗?这正如羽生在获得“永世七冠”时感言,“自己也不知道将棋的本质是什么”。山中将其解读为棋士“谦虚的学习姿态”。其实这不是谦虚的问题,而是获得“永世七冠”的羽生在自省:人不知自己的“智能”为何物,又何以知晓将棋的本质为何物?在书中,羽生和山中都有同感的是AI能作出巴赫的曲子,但写不出村上春树的小说。AI之所以写不出村上的小说,山中认为主要是在于我们称之为直觉的东西,AI不可能具有。羽生则认为AI擅长的是优化,它没有我们称之为的审美力。让AI学会像人类看到自然风景时感到“真漂亮”的美意识,几乎不可能。这令人想起村上春树在《挪威的森林》里,写绿子问渡边:夏末阳光中的白烟是什么?渡边说不知道。绿子说,那是烧卫生棉的烟。原来绿子上的是女子学校,她知道一天至少有180人份的卫生棉被当垃圾焚烧。这里,令人生艳的是,白烟不是烟,白烟是女生,白烟是生理。非常逆向,非常禅意。这个逆向这个禅意,AI能表现吗?
在书中,两位作者提到了由日本国立信息研究所新井纪子教授推动的“小东君”(2011年启动的机器人能否考入东京大学人工智能项目),在2016年11月放弃考东大这件事。这在当时成为热门话题的“小东君”为什么弃考?作者没有给与解说。但依笔者所见,就在于“小东君”阅读理解能力有限。也就是说缺乏人类所具有的常识和逻辑。如英文造句中出现“我很热,所以——”的题目,人类学生可以轻易地接上“所以我想喝凉的”“所以我想开空调”等。但“小东君”则依据英语语法基则和网络出现的频率造句“很冷要喝水”。因此英文成绩始终上不去。还有满分为200分的语文,只得到96的低分,也是在对题意的理解与发挥上难有长进。这也表明AI发展到今天,遭遇的拐点就是日本机器人专家森昌弘在1970年提出的“恐怖谷”理论:我们之所以害怕机器人,是因为太像人了。太像人为什么要害怕呢?这就是人类的诡异之处。而这个诡异,机器人无法拥有。40多年后的2014年,大阪大学教授石黑浩与黑衣仿真美女展开一场世纪对话。石黑浩问:“你有心灵吗?你有思想吗?”仿真美女答:“我没有心脏,但是我有一个非常强大的大脑。”话语是温婉的。但温婉之余之所以总让人有寒意袭袭之感,也在于这款仿真机器人,正巧落在了“恐怖谷”的谷底。而问题的关键在于,这个“寒意袭袭”的感觉也是人类特有的。再智能的机器人也不会生出这种感觉。
在书的最后,两位作者给出的最终思考是:AI技术再进步也无法取代人类,因为因果律只存于我们心中。但它或许会帮助我们解决其他威胁人类文明的风险。如气候变化、巨型陨石撞击、火山喷发等。甚至还有核战争。到那时,AI或许会向人类发出严厉的警告从而帮助人类克制自己。这也就是说,人类因为有了AI,将会免于被灭绝的命运。人类将与AI共存。这就想起书中的一张图片。山中伸弥教授的研究室,挂在墙上的匾额是“人间万事塞翁马”。世上何为幸福何为灾祸,委实难料。这是中国古人的智慧,当然也是人类的智慧。这个“难料”,就是人类对AI(当然包括ChatGPT)抱有的心情。