cha

ChatGPT并非简单AI,一词概述背后的过人之处与局限

  上知天文、下知地理,

  对答如流、出口成章,

  能写剧本,能编音乐,

  还能写商业计划书,码代码,

  它不是神的存在,

  却具备了“神”一般的能力。

  这说的是ChatGPT,它还有另外一个直译的名字——人工智能聊天机器人。

  似乎它的基础技术AI也没那么新,为什么如此火爆?其实,更值得关注的是GPT技术(Generative Pre-trained Transformer,生成型预训练变换模型),这让它1个月内用户使用达到1亿,甚至让业内大佬们热议。

  从内容生产角度来说,“GPT”这个模型的出现对于文字/语音模态的 AIGC 应用具有重要意义,说白就是利用人工智能技术来生成内容。与此前Web1.0、Web2.0时代的UGC(用户生产内容)和PGC(专业生产内容)相比,是新一轮内容生产方式变革,这也让人有了取代某类工作的“危机”感。

  传播内容认知全国重点实验室首席科学家张勇东表示,ChatGPT的出现,是人工智能技术发展的一次飞跃。

  从语言(聊天)角度来说,ChatGPT可以说是一种先进的语言模型。一是具有强大的知识储备,可以说互联网所有数据都为之所用;二是具有“语言天赋”,有了知识储备且通过自身不断学习(语义、语言结构),能够出口成章,说“人话”。

  清华大学计算机科学与技术系教授黄民烈表示,目前ChatGPT的对话能力已超出人类平均水准,未来其能达到的类人对话水平值得期待。

  寄予厚望的它,过人之处在哪里?是否达到完美状态?又有哪些局限?

  | 过“人”之处:深度学习

  人工智能,老生常谈。传统的研究方法中,标注成本一直是阻碍人工智能算法推向更大数据集合的障碍,而预训练技术不依赖数据标注,就可以训练出一个大规模深度学习模型。换句话说,它的知识库会在不断人机对话中、互联网数据增加中不断丰富,它跟着人类一起“学习”。

  据OpenAI的相关论文透露,ChatGPT的训练集使用了总计约320TB的文字信息,涵盖超4000亿词和约31亿个网页,其中包括来自新闻、博客、社交媒体的内容。

  OpenAI首席执行官Sam Altman

  IDEA研究院(粤港澳大湾区数字经济研究院)认知计算与自然语言研究中心讲席科学家张家兴表示,与以往的人工神经网络相比,预训练大模型最大的不同在于它规模足够大,深度学习网络的层数多、连接多、参数多。

  此外,目前的预训练大模型由于采用了新的结构模型,非常适合并行训练。比如把一句话的某个词或前半句去掉,让预训练模型利用海量大数据对句子进行恢复,这种训练可以让它的“解题”能力就会越来越好。

  在此基础上,人类的反馈可以帮助模型更好地理解人类意图和接收信息,人机对话也就越来越流畅。

  也就是你对它说的每一句话,跟它进行的每一次聊天,它都“偷偷”在学习,它还能从中“认识”到自己的错误,并听取人类给予的意见并优化;还可以质疑不正确的问题,实现连续对话,从对话上继续深度“学习”正确的答案。

  中国信通院云计算与大数据研究所内容科技部副主任石霖介绍,在训练过程中引入人类反馈机制技术,使得ChatGPT在回答准确率、道德表现上进一步得到提升。

  chatGPT可以说是AI里“有趣的灵魂”,人类教会它讲“人话”、洞“人性”。

  预训练技术,或许正成为人工智能研究的重要突破口。多年来,我国人工智能产业在生态完善、技术研发、应用推广、人才建设等方面不断培优。

  而中国版的“ChatGPT”,如百度的“文心一言(ERNIE Bot)”于2月15日与爱奇艺达成合作;2月16日消息,联想小新接入此模型。

  |局限之处:学习带来风险

  热闹过后,开始冷静思考,目前ChatGPT离完美还有一段距离。由于处理能力不足,爆火之后出现故障,且用户也找到了一些绕过机器人安全功能的方法。

  一是,数据上它仍需要学习。用于ChatGPT语言模型训练的数据为2021年底前的,因此最新的数据和事件它可能会存在滞后,这也在一定程度上造成ChatGPT内容的准确性和知识性的短板。

  而且,对于金融、自然科学或医学等非常专业的领域,如果没有进行足够的语料“喂食”,ChatGPT可能无法生成适当的回答。

  二是,ChatGPT难以进行高级逻辑处理。在完成“多准快全”的基本资料梳理和内容整合后,ChatGPT尚不能提供综合判断、逻辑完善等“画龙点睛”之笔,而这恰恰是人类高级智慧的体现。

  三是,学习资料可能触及版权。近日,盖蒂图片社对同为人工智能企业的Stability AI提起诉讼,指责其未经许可从其数据库中复制了1200多万张图片,用于建立竞争性业务,并侵犯了该公司的版权和商标保护权。所以,ChatGPT模型目前无法确认自己参考或综合了哪些原始素材。

  四是,它也学会了一本正经地胡说八道。OpenAI首席技术官米拉·穆拉蒂在接受媒体采访时坦言,和其他聊天机器人一样,ChatGPT可能会编造事实,也可能会被坏人利用,需要政府部门尽早介入监管。

  网友“调戏”ChatGPT的问题

  张勇东表示,目前以ChatGPT为代表的AIGC技术应用,在逻辑性、可解释性和可溯源性方面都有待完善。

  正因如此,对于人工智能生成内容不能全盘接收,人类要保持清醒,注意甄别风险、加强监管,也正成为业界共识。

  最后,AI发展的三大要素是数据、算法、算力,ChatGPT在应用时仍然需要惊人数量的数据,大算力的服务器支持,才能运行和训练。中国在这方面都有良好基础,但普及应用仍需解决监管、成本等很多现实问题。

  回归现实,人工智能技术

  要真正达到“人机共生”的

  未来时代

  还有很长一段路要走。

  综合 | 人民网 科技日报 网络

  图源 | 人民网 网络

  编辑 | 卢 颖

  审核 | 刘肖勇


您可能还会对下面的文章感兴趣:

登录 注册 退出