ChatGPT会替代我们吗?
Open AI推出的聊天机器人ChatGPT受到了广泛关注,推出仅两个月活跃用户便突破了1亿。这款基于自然语言处理技术的生成型人工智能模型致力于与用户进行自然对话,并应用深度学习技术来更加准确地回答用户提出的问题。其在文案撰写、故事创作、翻译润色、程序检查等多方面的表现虽说仍存在一些问题,却也足够令人惊喜。通过提示词(Prompt)问法的不断优化,与搜索引擎、浏览器等的集成,ChatGPT的玩法有望进一步拓展,或将成为新的生产力辅助工具。
人工智能未来可期,这变相给人类带来了压力。进入人工智能时代,人类是否面临着被自己的造物取代的风险?人类智能又该向什么方向发展?在新生事物不待固定下来便已陈旧的永不停歇的变动之中,人类应当如何自处,成为了我们不得不关注的问题。
人类决定了人工智能的发展上限
有趣的是,同为“弱人工智能”,AlphaGo、ChatGPT在人群中引发的惊诧与危机感与“AI助理”“智能管家”因离谱的错误被调侃为“人工智障”是同时发生的,这也导致了人们面对人工智能时复杂的情绪。目前,人工智能依然采取“记忆-搜索-差值”的模式,并不能做到像人一样思考。但当模型的训练参数从百亿级别拓展到千亿级别时,便产生了惊人的“质变”,这与大数据与云计算的发展是密不可分的。我们热切探讨以ChatGPT为开端的人工智能应用新场景,却不难发现其中包含的认识论老问题。对ChatGPT展开认识论维度的哲学批判,不仅为冷静考察技术的社会效应提供了新的视角,ChatGPT本身亦成为一面镜子,促使人们对于思维与知识的本质进行反思。
我们可以将ChatGPT类比为一种基于演绎推理的技术。演绎推理从一般性的已知前提出发,推导得出个别的具体结论,ChatGPT也采取了类似的逻辑:利用预训练的语言模型和深度学习算法,ChatGPT通过处理和分析大量的文本数据,学习自然语言的语法和语义;根据自然语言词序分布的显著统计特征,从用户输入的文本中识别出相似的模式和语言结构,从而推导和预测出概率分布较好的相关词序列,以生成新的文本来回答用户的问题。也就是说,ChatGPT给出回应主要依赖相关性而非逻辑性,这与人类的综合思维模式截然不同。
这意味着,ChatGPT同样面临着演绎推理的思维局限——无法创造新的知识。ChatGPT的输出结果仅仅是对已有数据的总结和概括,而不能产生超出训练数据范围的新内容。相比而言,人类通过从经验中学习,采用归纳法、演绎法、类比法等多种思维方式与创造性想象的结合,产生新的知识,这是“弱人工智能”所不具备的能力,也是“强人工智能”的发展目标。从目前来看,人类知识和语言的发展水平框定了人工智能的发展上限,而人类思维的局限、人类的发展上限则永远需要人类自身通过不断提高认识世界的能力与水平来突破。在这个过程中,人工智能或许能够提供一些辅助,却无法代替人类承担这一重任。
与演绎推理类似,ChatGPT的输出结果也受到输入数据正确性的影响。ChatGPT只能保证给出的回答在语言形式上的合规性,无法判断回答是否正确、真实。究其根源,一方面,对于一些自然和社会现象,人类自身尚未形成定论,这些未知正是人类不断发展的动力与方向;另一方面,ChatGPT的知识范围局限于其训练参数(在搭载了GPT的搜索引擎“新必应”的情况下,是整个互联网),如果问题超出训练参数范围,更容易发生错误。以ChatGPT为例,其训练数据包括维基百科、Common Crawl、开源论文、社交媒体等免费、公开的文本数据集以及商业公司提供的私有数据集,如书籍、新闻报道等,这些数据并不能覆盖人类面临的全部问题,其本身的时效性、真实性、客观性和代表性也是存疑的。接入互联网的“新必应”虽然在提供实时信息、信息溯源方面有了很大的进步,但由于暴露在未经审查、标注的数据集之中,回答的真实性、正确性方面更是大打折扣,捏造答案、伪造数据来源等问题也在近期的测试中不断暴露出来。最重要的是,接入互联网信息并不意味着实现了人工智能对全人类知识的整合,而只是对公开的数字化信息的整合,大量权威的资料依然以闭源形式或以实体文件形式存在。因此,人工智能的发展也受到人类现有知识的开源与数字化进程影响。
不仅如此,ChatGPT也无法保证其答案合乎道德、客观中立。人类自身对于道德、立场等问题尚未达成一致,遑论以程序语言表达复杂的伦理规则——但正是这些差异与复杂性造就了人类的独特与多样。尽管ChatGPT在训练数据选取方面尽可能追求广泛、全面地覆盖不同领域与话题,依然可能存在非客观的倾向,如数据选取者与数据标注员的偏好、文化背景、价值观等因素都可能影响对一段文本的理解或评价,导致一些主观性的标注结果,进而影响表达的准确性。为避免这种情况的发生,需要通过多轮审核与校对进行修正。而当GPT语言模型脱离安全的训练数据集,直接接入互联网,便不可避免地接收到带有极端主义、歧视性的信息。近期关于测试中的“新必应”人工智能发表危险言论的消息层出不穷,但比起对人工智能“失控”的恐慌,人类更应该自我反思。作为人工智能学习样本的互联网数据正是由人类所创造的,“新必应”的极端言论只是人类自身的镜子。人类在互联网上的平均道德水平决定了人工智能的道德水平。人们期待一个善良、客观、包容的人工智能的诞生,但这只有在人类学会互相尊重、互相理解、心存友善之时才是可能的。
在人工智能触碰到人类智能的“天花板”之前,也面临着数据与算力的现实问题。一个类似ChatGPT的千亿级别参数的大语言模型的构建,需要大量标注数据集作为训练参数,并经过细致的人工调试与数据反馈,在资金、人力和时间成本上耗费巨大;大模型的训练与运行对GPU算力的需求也是巨大的,以ChatGPT采用的GPT-3模型为例,租用云服务器训练一次的成本约为140万美元,而为满足不断增长的用户访问需求,ChatGPT也面临着更大的算力提升需要。除资金与人力成本外,这些算力的实现同样依赖于能源基础设施以及服务器冷却系统的建设,对电力的大量需求增加了碳排放量,服务器冷却水的排放也容易影响当地水温水质,对人类的生活环境将造成巨大影响。可以说,人工智能的发展上限也是由芯片、服务器、公有云技术的发展水平以及基础设施的建设水平决定的;而人类在发展人工智能技术的过程中,也不断改变着自身、社会与自然。关键在于,人类如何引导这些改变向好发展。
人类需要与人工智能共同发展
我们能够确定的是:人工智能无法取代人类。这并不意味着人类可以安于现状、故步自封。在人工智能广泛应用的时代,人类的思考、创造和创新能力依然是不可或缺的。人工智能的局限、人类自身发展的局限,依然需要人类通过拓展思维能力、考察社会与自然、探寻科学原理来不断突破;人工智能对于美与道德的观念的建立,也离不开人类对人文素养、艺术修养和道德理解的不断深化。人类自身的发展是人工智能的发展的基础与条件,如果没有人类的不断进步,人工智能所能做到的也只是知识的“无效内卷”。
互联网搜索引擎的出现对人类的学习和记忆模式造成了深远影响。“谷歌效应”形容的便是人们对于能够通过互联网轻易搜索取得的信息的“健忘”倾向。现如今,将人工智能、搜索引擎与互联网资源作为人类的“外置大脑”虽有一定的合理性,却只有在人具备较为完备的知识体系的基础上才能更好地发挥作用,而ChatGPT以及“新必应”等搭载了人工智能的搜索引擎的出现,对于人类的思维能力提出了更高的要求:在搜索之前,人类必须首先知道自己想要的是什么;在搜索的过程中,人类需要时刻运用自己的判断力才能在冗杂的信息中去伪存真;在人工智能、搜索引擎或任何平台给出看似有理有据的答案的时候,人类必须始终保持着怀疑的态度,独立思考,审慎地甄别、溯源与考证,以足够的自信提出质疑。这些能力是人类与人工智能交互中所必需的,却无法凭借人工智能轻易取得,只能通过人自身脚踏实地地阅读、学习与实践逐步培养——这与人工智能的前期训练类似,都是耗费巨大、需要极度耐心的工作,但所学习的东西将永远成为自身的财富,并为之后的发展提供助益。人类在学习过程中的感悟,也能够为优化人工智能分析模式、改善输出结果提供帮助。
有效地发挥ChatGPT等人工智能程序的作用,也需要人类学会更精确地描述需求。人类社会的模糊暗示以及根据情境的“随机应变”是人工智能所难以理解的。明晰自己的诉求,并精准地将它用语言表达出来,才是人工智能有效实现人类需求的前提,由此,提示工程(Prompt Engineering)在未来将起到更加重要的作用。为了更好地利用人工智能辅助自己的工作,人们也有必要掌握相关的基本能力。
人工智能是人类科学技术与社会文化在现实生产力条件下的集成,是与人类文明协同演进的造物。人工智能技术能够提高人类部分工作的效率、带来诸多便利,从而使人类能够将更多时间与精力投入到创造性工作与自我提升中去。人类不仅需要积极发展人工智能技术,将其应用于更多领域,不断推动生产力提高与社会进步;也需要不断完善自身思维和能力,与人工智能互补发展、共同发展。同时,人工智能的发展也应当以满足人类切实需要、改善人类现实生活为导向,而不能以思维能力的退化、现实生活的空虚、资源的浪费与环境的破坏为代价。
在人类社会不断进步,人类不断实现自身的自由与全面发展的征程中,我们乐于拥有一位能够与我们相互帮助、共同成长的伙伴;也永远需要一面镜子,它映照出人类的独特,也映照出人类的局限,从而不断激发出人类自我完善、不断向上的动力。(同济李翌)