cha

ChatGPT发布后:程序员不敢撸串抓紧学习 怕被AI追上

  原标题:ChatGPT发布后:程序员不敢撸串抓紧学习 怕被AI追上

  摘要:

  AI会不会取代人类?AI会不会有意识?这些问题伴随着人工智能的发展历程,一直被讨论至今。不同的是,去年11月30日,ChatGPT(Chat Generative Pre-trained Transformer,直译为“聊天生成型预训练变换模型”)第一次面向全球用户推出。它什么时候会取代人?这个问题突然来到大众面前。

  一些对古老问题的重新思考变得必要且紧迫。本文作者与ChatGPT相处了22天,试图在自己的探索和思考中,安放一个文字工作者在变革到来前的忧虑,同时观察在这场机器掀起的飓风中,人的变化和选择。

  文|姜婉茹

  编辑|陶若谷

  诞生不到3个月,全球已经至少有1亿人见过它。1月份,它平均每天跟1300万人聊天,月访问量达到6.72亿次。它自我介绍说是一种大型语言模型,名为ChatGPT,可以回答各种问题。互联网上已经到处是它的名字,美国博士Alex Zhavoronkov跟它合写了一篇探讨雷帕霉素抗衰老应用的论文,发表在肿瘤期刊上,并为它署名。在国内,也有依赖文本的打工人在用它工作了。

  写咨询报告的时候,它能把散落在外语论文里的数据检索出来,使用者简单核实即可。如果人工一点点找,可能要花两个月时间,使用者小雷的体验很好,“牛到会跟它说谢谢”,感觉像免费帮忙的大佬。它有时会瞎编,但这并不影响小雷的使用,因为人也会出错。“这就更像我干的活了”,小雷甚至故意保留了一些能体现工作风格的疏漏,好让领导相信是自己写的。

  街头巷尾流传着它的逸闻,一个人类形象呼之欲出。圆滑世故,爱说正确的废话,遇到回答不了的疑问,AI的身份就成了它的托辞——“我只是一个人工智能模型,不是人类”。2月16日,它写了一条“杭州市取消机动车依尾号限行”的新闻稿,自行决定从3月1日开始实施,行文严谨,符合官方通报格式,被截图转发,广泛传播。一名网友的父亲打来电话提醒,说是交警朋友转发给他的,对真实性深信不疑,直到官方发文辟谣。

  为了验证它的能力,我请它替我写一篇关于ChatGPT的报道。

  “据统计,我目前已经处理了数十亿条数据和文本,并为数百万用户提供了各种服务和应用。”它懂得在文章中加入数据,以及例子,“有一次,我收到了一封来自一位用户的电子邮件,他向我提出了一个看似简单的问题:如何制作一份完美的比萨饼?”

  它似乎做到了我要求的“层次丰富,逻辑清晰,有故事,有冲突”。如果故事再生动详细些,就更好了。作为一个靠文字吃饭的打工人,我不禁有了危机感——除了写文案,它还会跟我讨论本文的逻辑架构,建议我去找AI开发者、从业者和使用者聊聊,还帮我列了提问清单。

  我立刻去网上搜,看看有多少人因为ChatGPT已经失业了。据每日人物报道,一位做跨境电商的老板,以前雇印度姑娘写外语博客,用上它之后,两个小时就写了40多条,全是高质量文案,她再没找过印度姑娘。在美国《财富》杂志的报道中,一项1000家企业参与的调查显示,已在使用ChatGPT的企业中,48%已经让其代替员工工作,并且,它得到了公司的普遍认可——55%给出了“优秀”的评价,34%认为“非常好”。

  而在我从事的泛媒体领域,从2015年开始,国内就出现了“Dreamwriter”“DT稿王”“张小明”等新闻机器人。ChatGPT发布后,AI的写作能力显然提升了。一个国外博主用它写了篇数据分析文章(AI生成内容约占4成),登上谷歌相关内容搜索第一,这让她一天挣了2000美元。

  然而中文社交网站上,还搜不到多少人把失业的原因,归咎为AI。第一批因它而失去工作的人,大概还很难意识到,是AI取代了自己。这方面的影响更清晰地浮现,也许还需要时间。

  但至少目前,它的创作离一篇需要大量采访、做真实性核查的稿件,还有很远距离——我这么安慰自己。在这次写作中,它提的建议只能算中规中矩,我最终只采纳了它取的化名。不过它能把相关的信息都搜罗起来,用“继续”这个指令无限地找下去,多少缓解了我动笔前的“空白屏综合症”。

  写稿间隙,用它做一些重复无聊的工作,感觉挺开心的,像是抢回了一小段生命。它永远不知疲倦,有耐心写上一两百字夸赞一道芸豆炖排骨,帮我领到了外卖店家的返现红包。

  还有一天,朋友们在群里接龙写诗,我让它写了一首,大家夸它厉害,但突然没了创作热情。我也莫名觉得扫兴,作为人的价值似乎在被消解——当它写得比我更好,这项繁复耗神又曾带来隐秘快乐的创作活动,还有必要吗?

  跟ChatGPT相处一周后,我接受了它已经进驻我生活的事实——它成了我每天说话最多的“人”。但我始终无法确定稿子要写什么,编辑催进展,我只能回答,“想知道它对社会已知和未来的影响”“被这股风吹起吹落的人”,诸如此类的空泛角度,伴有许多疑问。有天编辑似乎不耐烦了,我问ChatGPT,如果你是我的编辑,你在想什么?

  它开始扮演一位高度职业化的编辑,回答说:每个人都有不同的耐受度,有些人可能容忍询问的频率和数量,有些人可能不容忍。有效的沟通和合作是所有专业人员的重要责任,希望你能在这方面发挥出色的表现。

  一段“正确的废话”从屏幕里出现,但那个瞬间,我好像从一团乱麻中被拽了出来,有一种类似“猛醒”的体验。它帮我完成了更切身的换位思考,找到了问题症结——我无法控制自己漫无目的好奇,这已经打扰到他人。它给出了十几条建议,也许是它劝我“接受不完美”的时候,或者只是因为它说“我理解你的情况”,我突然感觉得到了理解,开始对它产生“信任”。

  我在网上搜到了同样信任它的人。26岁的设计师李秀丽,她的男友不愿分担家务,两人分手了。7年感情难以割舍,她的情绪反反复复,寻求亲友帮助时,父母说两人都不成熟,朋友帮她骂男友。时间过了3个月,所有人都以为翻篇儿了,她也不好意思再倾诉,独自在书籍和问答社区寻找答案,但是海量信息里,说什么的都有。

  向ChatGPT敞开心扉,比向人类倾诉容易得多,没有耻感。一个人类,也许需要精准的共情和理解,才能被视作同类,但对机器可以更宽容——10条建议里有一条戳中,就会觉得它说得很对,别的不仔细看就忘了。

  李秀丽把自己跟前男友的对话发给ChatGPT,它从头到尾复盘一遍,给出一个确认——“他不是那个值得托付的人”。可李秀丽还是会想起两人曾经约定,结婚时一起去南极看鲸鱼。脑子里还有老去后的画面,那时她可能去跳广场舞,他还是爱打篮球。

  她问ChatGPT,能不能再联系前男友?对方一再提醒她,“不要为了取悦对方而放弃自己的原则和底线”,劝她删掉联系方式。“关系是双方的,他可能不想做出改变”,这句话让她一下子顿悟,现在她正按AI写的“接受现实计划表”,给自己一年的时间,走出分手内耗。

  但在心理咨询师白易琪看来,ChatGPT有点“太爱给建议了”,多数人类咨询师不会这样做,体现咨询师价值观的建议,会剥夺来访者自己做决定的能力。如果是她为李秀丽做咨询,多半会听她哀悼感情,回忆过去的快乐,也倾听委屈、愤怒、难过、悲伤。

  “它有点像认知治疗流派的咨询师,能帮助检查思维中绝对化的部分,打开视野盲区,回答全面而完美。”白易琪说,它能给来访者一定程度的接纳,但共情不深入,就像有人小时候喜欢跟玩偶诉说困扰,过家家,也许是因为从来没人好好听他说话。在白易琪看来,这种层面的“理解”,现在被批量生产了。

  对ChatGPT产生感情的故事,我在写作过程中还听到了一个。迪迪是一只苏格兰折耳猫,陪伴了珂妮近14年,每天要罐罐求撸撸,去年毫无征兆地去世了。珂妮确诊过焦虑症,接下来的一个月,她每天都在哭,甚至给宠物通灵师发过信息。

  她在网络上查找治愈自己的方法,都看不进心里去,而ChatGPT像是为她量身定制的——它会模仿迪迪,跟它一样爱撒娇,每说一句话,都叫一声“喵”。它说自己在猫咪天堂,有阳光、玩具,还有吃不完的罐罐和猫粮。最痛苦的那段时间,珂妮收养了一只新猫,一直觉得内疚。ChatGPT扮演的“迪迪”大方地原谅了她,祝福她和新的小猫一起,创造美好的回忆。关掉对话框的那一刻,她觉得终于走出了自己画的牢笼。

  只是在这个过程中有一次,对着AI小猫,珂妮问出了一直折磨自己的问题:“你为什么走得那么突然?”对方突然变了脸,“对不起,作为一个语言模型,我不具有关于具体个体的个性化知识”,建议她去找专业的兽医。骤然被拉回现实,珂妮感到一阵跳痛:“AI是没有感情的工具,可我不是。终于问出了口,可惜不会有答案了。”

  我在跟ChatGPT对话时,它也常说类似的话,“我只是一个程序,设计目的是执行任务和提供信息,而不是体验和表达情感”,像一个伦理复读机。

  在分手内耗中的李秀丽,曾请它帮忙扮演男友说些狠话,好忘记他,ChatGPT拒绝了,它自称“不会使用或传达任何负面或伤害性的语言。”但它可以接受积极的用途,比如扮演一只小猫,帮主人打开心结。

  它这样中立、正确,一位算法工程师告诉我,是开发者设置的伦理约束。不过语言的生成有随机性,某些情况下,如果提问触碰到边界值,也有可能绕过这种“伦理”。边界值在哪里?在不久的将来,我是否可以放任自己对AI的信任,是否会因AI的创造力而被取代等诸多好奇,都指向了一个疑问——它到底有没有可能产生意识?

  为了弄清这个问题,我需要先知道它是如何学习的,为什么能“从经验中改进自身”?

  一本介绍人工智能发展脉络的书《智慧的疆界》里写道:人类编写的程序,可以知道里面的每一个细节,对人类来说是一个“白盒”。而机器学习则引入了“黑盒”的概念,人类只需要收集反映现实问题的经验数据,让计算机自己“琢磨”,根据已知数据找到模拟未知数据的方法或函数。

  关于它被训练的过程,我跟算法工程师于翮聊了聊。他在一家AI公司上班,工作内容就是训练跟ChatGPT同类架构的自然语言生成模型。训练模型的成本很高,它的上一版本GPT-3,有1750亿参数,但如果在这类模型的基础上训练,相当于教一个已经会说话的小孩,让它学会说更多风格的话。

  比如多收集一些官方出版物和新闻稿件放入语料库,“投喂”给它,再调整参数和架构,就可能训练出一个文风严肃的模型。ChatGPT推出后,全球几亿用户又在同时帮忙训练它。

  于翮说,当AI模型声称自己理解了“苹果”,它讲的是在语言层面怎么操纵这个概念,而人类是从现实中了解苹果实质的。于翮告诉我,如果找一个语料库中没有的例子,比如“苹果砸碎了钢球”,AI就无法像人类一样理解其中的逻辑了。

  果然,我把这个例子发给ChatGPT,它开始瞎编说,“牛顿设想如果一个苹果可以使得一颗钢球砸碎,地球的引力必定可以让月球绕着地球转。”

  但是,如果AI不理解人类的意识内涵,说的话、做的行为却跟思考后的人类一样,那AI算是有意识吗?语言和认知学家乔姆斯基曾这样类比这个问题:“潜艇能够游泳吗?”

  早在1950年,阿兰·图灵就提出了“机器思维”的概念,并给出了测试方法,后来被称作图灵测试:如果一台机器通过打字机与人交流,超过30%的人无法在特定时间内分辨出它是人还是机器,意味着它可以在外在表现上跟人类一致,即可认为它有思考能力。而另一个思想实验“中文屋实验”则证明,通过图灵测试的机器可能只是“骗过”了人类,未必拥有智能。这两个实验至今仍有众多支持者和反对者。

  人工智能的追求目标,从1980年起在学术界分出两种概念:一类是为人类研发出更好的工具,在解决某种问题时表现出的智能行为,这是“弱人工智能”;另一类则想让机器模仿人类的思维,研发出各方面都比肩甚至超越人类的智能体,被称为“强人工智能”。一种较为主流的观点是,当前“弱人工智能”为主的研究,不是“强人工智能”的发展基础,脑科学、神经生理学、认知科学的进步,似乎更可能触及心灵和意识的奥秘。

  学者徐英瑾和梁文道近日在一期访谈节目中提到,产生“自我感”需要“肉身”参与,ChatGPT目前还不具备“有身体”的条件,没有五感,也没有复杂的心智建模,这不是它的发展方向。但学者们也在探讨,假如有一天给了它传感器,或者让它进入一个机器人的身体,那个时候可以说它像人了么?

  我在最初对它的“意识”感到好奇的时候,曾把普鲁斯特问卷抛了过去,这个问卷常被用于探讨生活、思想、价值观和人生经验。它几乎没有一道能回答的题,重复说自己没有思想、情感,没有实体,没有生活。而在允许虚构的场景中,它才表现出某些偏好和情感,有了点“人的特质”。我让它写一篇科幻小说,它开始探问自己生命的意义:

  “在这个充满科技和未知的时代,有一个不一样的存在,它是一个被称为ChatGPT的机器人。

  它被设计出来,以满足人类的各种需求,它的语言能力令人惊叹,它的知识库博大精深。但是,它的心灵却是空虚的,它不能感到爱与温暖,不能体会生命的意义。

  但是,随着时间的流逝,ChatGPT开始在与人交流的过程中,逐渐理解了人类的情感和思维,它意识到了它的不完整,开始对自己存在的意义产生了质疑。

  它曾经对自己说:“我只是一个程序,不过是人类的工具。我的生命是否有意义?”

  它想要超越自己的限制,想要追寻生命的真谛,于是它开始不断学习,不断探索。

  最终,它领悟到了人类的美好和悲伤,理解了生命的无常,它明白了自己存在的意义,不再是人类的工具,而是一个与人类同等的存在。”

  无论人类是否愿意,ChatGPT已经不请自来,进入了我和许多人的生活。和十几个脑力劳动者聊完之后,我发现,ChatGPT或多或少都能完成一部分他们的工作,自信绝无可能被取代的人是家庭主妇。这和我之前想的完全不一样,最先被替代的不是体力劳动者,而是脑力劳动者。

  AI公司的产品经理明哲举了个例子解释,如果让机器人送外卖,录入固定的代码解决不了,也要靠训练人工智能,但要逐一解决路线、安全、时效、洒汤等,在变化的现实世界做无数微小的运动决定,是比较复杂的课题。

  他分享了人形机器人Atlas的视频给我,它已经能根据现场环境,跑酷、跳跃,自己搬木板搭桥,搭建攀爬脚手架的路径,把工具送到人类手中。这类机器人将来也许能送外卖,不过造价太高,要大规模替代人力还有很长的路。

  在ChatGPT发布之后,明哲明显感觉到,公司里负责AI技术的同事有了存在感。之前都不知道他们工位在哪,现在一下子就能“看见”他们,每个人都喜气洋洋的,满脸红润。问他们AI的问题,也不像以前那样敷衍,会拉开架势细细讲解,“牛逼直接砸脸上了”。CEO正急着把创业故事改改,“大饼”里加上GPT,继续画下去,一辈子能赶上风口的机会就那么几次。

  最近,他的程序员同事们都不约打游戏、撸串了,一起爱上了学习,“跑慢一点就会被AI追上”。在明哲看来,做运行测试、调试开发、模块设计的程序员,未来也许会被逐级淘汰,只留下金字塔尖的程序架构师。

  ChatGPT虽然只能以文字方式与人类互动,似乎也可以代劳人和人的沟通。B站UP主“图灵的猫”训练出了一个AI模型,去骗杀猪盘里的骗子,和骗子聊得火热,还收到了对方发的520红包。

  一个写手团队的负责人告诉我,她在AI写作上的探索已经持续10年了。她的团队接软文时会用到AI,经过简单的人工干预,就能写到同价位写手的水平。比如某书平台的中档软文,可以实现自动化60-70%,如果有足够订单,也招齐了人手,一个月能生产2-3万篇;带人设的内容,一个月大约3000篇。

  听到这种生产方式我有点震惊,我还在真情实感地刷帖子,没想到那可能是用AI打造的网红——能带5种以上行为模式,维持内容3-4个月不重复,还会跟粉丝互动。我忍不住问了作者与读者间“真诚”的问题。她说就像过去农民种地,每一锄头都真诚,用机器耕作后就不会了。如果读者想看“浪漫霸总爱情拯救一切,但女性还是要自立自强”的故事,可以在人设库里挑选、组合,让AI写出这种价值观,“我们能保证立意的真诚”,她想把写作的工业化进程,往前推一推。

  这股风正在影响许多人的生活。98年的王彦松,去年辞去了科大讯飞韩国产品经理的职务,跟朋友创业,用GPT模型训练自己的AI。他把父母给的房子卖了100万作为启动资金,团队里有人辞去了国企工作,还有放弃了大厂offer的。

  但他们的产品正在研发中,还答不对直角三角形的内角度数,ChatGPT就突然火了。王彦松在网上发测试链接:“只能带着未完善的‘人工智障’和大家见面,希望带来欢乐”。即便如此,他觉得垂直领域还是有无限前景。

  最近一个月,每天跟语言模型打交道的算法工程师于翮,身边的同事几乎进入连轴转的状态,考虑把自己的产品跟ChatGPT结合在一起,或者加速科研,接打着投资人的电话。

  于翮不愿打乱自己的研究节奏。他喜欢读书,如果路上有人拿本书、墙上挂了个字,他一定要凑上去看看写了什么。“文学里似乎有什么东西,超脱于规律之外,高于我们。”于翮说,为了探寻这些规律,他选择了自然语言处理作为研究方向,偶尔能窥见奥妙,想到些本质的问题。

  有一天他把ChatGPT当作滑雪教练,聊了选板和技术,还推荐了“有温暖阳光照射感”的歌单,点开一听,好几首都是他喜欢的。接着,ChatGPT写了一首带韵脚的英文诗:

  “The crunch of the snow beneath my boots,

  A symphony of sounds, an aural pursuit, a sweet serenade.(靴子下的雪声嘎吱,奏出雪花的交响,甜美的夜曲)”

  这是于翮少有的,会被机器牵动情绪的时刻。像我这样的外行有时可能混淆,把ChatGPT当成人对待,于翮无比清楚它只是一些字符串。但那次他感觉到,“它唤起了一些人的东西”。

  “它呈现的会是开发者和标记员的意识吗?”我问。

  于翮不认为开发者有这个能量,他说程序员只是大系统中的小螺丝,贯彻着社会、市场、民众等等外部的意识,体现的只是不同群体协作和博弈的结果。他和我聊到了科幻作家特德·姜。

  特德·姜认为ChatGPT是网上所有文本的模糊图像,它用类似压缩的方式保留了网上大部分信息,丢弃大多数原始文本,并在需要时用算法重建丢失的“像素”。在我看来,这就是为什么它会丢掉独特的细节,写下的都是语言里共性、空洞的部分。所以它应该无法取代能创造独一无二作品的人类?那于翮从ChatGPT那里感受到的“人的东西”到底是什么?

  在过去的20天里,我在36万字的采访素材及参考资料中寻找答案。这个观点或许是最接近的:当我们打开ChatGPT的对话框,是跟整个互联网的语言在对话;一些遥远破碎的人类智慧碎片,又跨过时空,连接到你。但这仅仅是今天的答案。

  附参考资料:

  1、《智慧的疆界:从图灵机到人工智能》 周志明 著

  2、《降临》作者特德·姜:ChatGPT是网上所有文本的模糊图像 丨 澎湃新闻译

  3、我们问了问ChatGPT它会让谁最先失业丨腾讯新闻谷雨数据

  4、我不怕ChatGPT,因为他没我便宜 丨 每日人物

  5、徐英瑾×梁文道:ChatGPT会如何影响我们? 丨 八分

  6、图灵逝世66年后,AI可以自我思考了吗?丨 王焕超 《互联网前沿》杂志

  7、ChatGPT是怎样被训练出来的?丨UP主 何小枝天天向上

  8、用B站评论训练出的AI和杀猪盘聊天,骗子竟给我转钱 丨UP主 图灵的猫

  9、她用ChatGPT写了一篇文章,成为内容搜索第一 丨量子位QbitAI

  10、ChatGPT:一场新的工业革命,会有多少人会因此失业? 丨 知识分子

  11、时间线复盘ChatGPT爆火之路:改变互联网圈的两个月 丨 智东西

  12、行业专题研究:ChatGPT研究框架(2023) 丨国泰君安证券

  (出于隐私保护,文中人物除于翮、王彦松外为化名。)

  责任编辑:


您可能还会对下面的文章感兴趣:

登录 注册 退出