复旦大学计算机学院教授黄萱菁:ChatGPT将拉近我们与通用人工智能间的距离
每经记者:梁宏亮 每经实习记者:温雅兰 每经编辑:张凌霄
ChatGPT的火爆引发了近几年来一次全球性的技术狂欢。两个月时间内,其月活用户突破1亿,成为史上用户增长最快的应用之一。
社交媒体推特首席执行官埃隆·马斯克在使用ChatGPT后直呼其“好得吓人”,甚至断言“人工智能越发强大,离对人类产生威胁不远了”。
对大热的ChatGPT,复旦大学计算机学院教授黄萱菁团队也进行了测试,“我们测了几十万次,比如让它做中国的高考题,看看它到底有多么强。” 但结果很出人意料——虽然政史地科目结果很好,但是物理学科一道都没做对。黄萱菁打趣道:“学物理的人最安全”。
3月11日,在“我们︱WOMEN”2023复旦科创先锋论坛上,深耕人工智能与自然语言处理领域三十载的黄萱菁教授以《迈向大规模语言模型》为题,为我们讲述了ChatGPT的“前世今生”和最新发展趋势。
迈向大规模语言模型
“托ChatGPT的福,大规模语言模型的概念已经深入人心。”黄萱菁教授在演讲中说到。ChatGPT由 GPT-3.5 模型提供支持,是一种人工智能技术驱动的自然语言处理工具。它不仅能够自动回答问题、生成文本、翻译文章、对信息分类、撰写脚本文案、代码等,也会承认错误、质疑不正确的前提并拒绝不恰当的请求。可以说ChatGPT是AIGC(人工智能生成内容)最新进展的代表。
“语言模型就是语言的规律,首先是语法,我们无论学习汉语还是英语等语言,都是从语法开始学起,但是只有语法,我们依然很难捕捉客观世界纷繁复杂的语言现象,因为语言并不会严格按照语法去表达。这个时候,我们就需要使用到数学工具——概率,在各种语言现象中间去寻找规律。”黄萱菁对语言模型的基本概念做出简单介绍。
以Transformer为架构的大型语言模型机器学习系统,采用的神经网络学习能力和模型的参数规模成正相关。GPT-2大约由15亿个参数组成,而GPT-3是一个由 1750 亿个参数组成的最先进的语言模型。黄萱菁介绍,近年来,学术界和工业界开始尝试在自然语言处理领域应用神经网络方法,预先训练出大规模的语言模型,并针对具体场景构建特定数据集,供这些大模型在下游任务中通过参数微调以适配具体任务。
“但是当语言模型变得更强大的时候,就会有一些问题”,黄萱菁说,“一方面厂商出于商业原因逐渐舍弃开源,OPenAI没有开放过GPT3模型,只开放API接口,你可以调用,但是拿不到内部细节,今年新出来的ChatGPT连论文都没有,只能靠大家去猜测。另一方面用户也缺乏足够的计算资源使用大模型,所以我们非常期待国产芯片,能够让我们拥有更多的算力去运行大规模语言模型。”
打开“AI情感计算”之门
2022年12月,埃隆·马斯克发了一条推文,他说:“ChatGPT is scary good. We are not far from dangerously strong AI.(ChatGPT厉害得让人害怕,强大到有危险的人工智能的出现已经离我们不远了。)”
自从ChatGPT 出现,越来越多的人开始讨论人工智能是否会颠覆他们的生活、他们的工作是否会被人工智能取代。但是到目前为止,还没有任何人工智能通过了图灵测试,ChatGPT也不例外。
在黄萱菁看来,未来一段时间内,ChatGPT还不足以完全替代某一个岗位,但将大大促进各个领域的生产效率:“在肉眼可见的未来,善用AI的人将和不用AI的人在工作效率上会产生巨大差距,因此我鼓励大家多去使用和熟悉与AI进行沟通。”
“ChatGPT将拉近我们与通用人工智能的间的距离。”黄萱菁感慨,“我们从来没有觉得自己与通用人工智能如此接近,这是过去我做人工智能这么多年以来最兴奋的一个时期,我以前一直觉得它在我可以预见的将来是看不到的,但是现在我觉得可能不是那么遥远了。”
“正如微软CEO萨提亚·纳德拉(Satya Nadella)接受媒体采访时所说的那样,内燃机带来了廉价的动力,互联网技术减少了信息传递的成本,而ChatGPT会让信息的整合、转译、流通变得更加廉价。AI可能会像工业革命和信息革命一样,引领我们走向下一个时代。”黄萱菁说。