cha

如何监管进化中的ChatGPT

  如何监管进化中的ChatGPT(图1)

  吴晨 / 文 ChatGPT 如火如荼,让人工智能再次成为全球瞩目的显学。在数据保护和隐私上最为保守的欧盟直接泼上一盆冷水,计划更新即将出台的全面人工智能法规——《人工智能法案》,对生成式 AI 生成图像和文本的智能模型制定规则。加强监管的出发点无疑是好的,但该如何监管 AI 是一个动态的过程,问题将伴随进步而生,绝非一则法案可以限定。

  许多人把 ChatGPT 的横空出世视为又一个 iPhone 时刻,会对商业社会带来一系列本质的变化。另一些人则认为生成式 AI(ChatGPT 背后的技术)是新的 GPT,这里 GPT 的意思是通用技术(general purpose technology)。此前蒸汽、电力、计算机都是划时代的 GPT,也带来巨大的改变,引发生产力革命,推动指数级增长,带动广泛投资。如果 ChatGPT 是下一个 iPhone,那么监管也需要对未来它给商业和社会的本质改变有所预判,而不是简单地对 GPT 的模型加以限制。

  ChatGPT 至少有三方面的风险值得我们深入思考。

  首先,它强大的内容生成功能是否会导致假新闻泛滥?目前 ChatGPT 无法判断什么是真实,许多测试都显示它能很自信地给出答案,却不会确保答案的正确性。实际上,假新闻在全球已经是网络恶疾,网络上也没有真实的标准,而且一旦从事实领域进入到认知领域,真实更需要定义,不同认知的人看待事物会明显不同。GPT 的推广必然面临着事实审核的问题,谁来做?需要引入人的判断么?即使加入了人的判断,也可能出现两件情况:第一、人的判断不一定准确;第二、机器很容易形成绕过人的(主流)判断的能力。另一方面,GPT 的广泛应用也会让炮制假新闻变得更加容易,为假新闻的泛滥推波助澜。

  其次,是否有堕入经验主义的风险。ChatGPT 所依赖的自然语言模型把相关性分析推向极致,却无法真正生成因果性的逻辑思考,其结果仍然是知其然,而不知其所以然。目前来看,GPT 所生成的文本,本身就是训练语料的平均数,在市场推广、客服、销售等应用场景中几乎可以替代人力,但真正出彩的创造力仍然缺乏。换句话说,机器生成的语言仍然是对人类过往经验的复刻,而不是真正的创新。GPT 的广泛应用会生成平庸的海量内容,如果人简单地依赖机器,一个可能的危险就是人类的思考和交流变得更加同质化,原创性的东西越来越少,人类在海量平庸内容面前甚至可能出现思维钝化,思想的自由生长遭遇挑战。相比较通用人类智能(AGI)取代人类的风险,GPT 带来的同质化风险对人类而言更高。

  第三,从第二点引申出来,也可能产生 AI-native(AI 原住民)的异化。00 后我们称之为数字原住民,因为自从他们懂事就生活在智能设备的环境之中。以此类推,20 后可能是 AI 原住民。问题是,如果拟人式解答问题的小助理随处可在,他们从小就习惯 AI 给予的帮助,是否会失去了培养思考思辨能力的机会?在欧美,GPT 已经给教育体系带来难题,以阅读、分析、表达为培养学生思辨能力的这套教育体系,很依赖学生通过写论文来训练他们的理解、总结和思辨能力。阅读书的一篇章节、写一篇读书笔记、为申请一所大学写一篇论述自己志愿的文章,是学生必备的技能。当 ChatGPT 可以让写作变得那么容易,把知识的总结和组织变得唾手可得的时候,抓作弊,禁止学生使用 GPT 就成了不得之举。但显然,猫和老鼠的游戏没有意义。我们需要思考的是人与机器的差别到底在哪儿,教育需要如何改革以培养原创力。此外,AI 原住民如果从小就习惯于与人工智能作伴,是否会出现 AI 沉迷的问题?

  伴随着技术的进步,问题会层出不穷。如果生成式 AI 会给人类带来变革式的发展,那么未来对它所带来问题的讨论也将持续不断,这样的讨论最终都将围绕着 " 人与机器的互动中,何以为人 " 这一大命题展开。

  (作者为《经济学人 · 商论》执行总编辑)


您可能还会对下面的文章感兴趣:

登录 注册 退出