cha

ChatGPT横空出世,“黑客帝国”会成现实吗?

  上线不到一周用户突破100万 ChatGPT为何火爆全网

  继二次元AI作画之后,又一款AI应用火遍全网,在朋友圈里“霸屏”了。

  当地时间11月30日,美国人工智能(AI)研究机构OpenAI发布了聊天机器人ChatGPT。许多人很快发现,不同于此前一些聊天机器人经常出现答非所问、言语混乱等问题,ChatGPT生成的答案不仅逻辑流畅,还能联系上下文语境进行连贯问答。

  12月5日,OpenAI首席执行官Sam Altman在社交媒体上发文表示,ChatGPT于上周三推出,截至目前已突破100万用户。

  ChatGPT是什么?

  一位使用者的评价:“它可以说是目前为止最聪明的聊天机器人,只有你问不到,没有它不会答。”

  ChatGPT上知天文下知地理,是真正的“最强大脑”。

  OpenAI表示,他们的ChatGPT模型使用了一种名为“利用人类反馈强化学习”(RLHF)的机器学习技术进行训练,它可以模拟对话,回答后续问题,承认错误,质疑不正确的前提,并拒绝不恰当的请求。

  ChatGPT能干什么?

  能直接生成代码、会自动修复bug、还能写诗,各种匪夷所思的问题都能得到一个看似合理的答案。

  ChatGPT能自主生成程序代码

  在ChatGPT公布后,最先乐疯的是欧美的程序员们。

  他们把工作中不知道怎么解决、或懒得解决的问题,直接交给ChatGPT,它能给出清晰简明的解决思路,并自动生成代码。

  程序员:“请生成一段Python代码,它使用谷歌云端平台,能读取图片中的内容并得知其中的情绪。”

  ChatGPT:“下面是一个用谷歌云端平台读取图片内容,然后用谷歌云自然语言API来分析图片情绪的Python代码。巴拉巴拉……”

  ChatGPT写的代码逻辑清晰,附带有详细的备注。它甚至担心人类看不懂,有时还会在底部放上链接,让人们了解相关知识点。

  有人开玩笑, ChatGPT是程序员职场摸鱼的神器。

  “假设你是推特的资深数据工程师,埃隆问你这周都干了什么活。结果你这周啥都没干。

  惊慌中,你打开ChatGPT,代码都帮你写好了……”

  ChatGPT能写论文

  一名认知科学教授把班上的作文题目交给ChatGPT,让它写文章证明“一个好的认知模型应当贯彻生物学细节”。

  外行人连题目都看不懂,然而ChatGPT几秒钟之内就交出一份高分作业。

  “好的认知模型,或说认知结构,是一个能解释人类心理运作方式的理论框架,并且它能模拟运作过程。有很多方式能搭建认知结构,其中一个重要的争议点是要不要在其中囊括生物学细节。在这篇文章中,我认为好的认知模型需要囊括这些细节,以下是理由……”

  ChatGPT给出的三条论点都有理有据,最后由一个漂亮的总结收尾。

  ChatGPT在学术界更是掀起了一场风暴。

  “我们正在见证大学论文的凋亡。”一名推特用户晒出了ChatGPT对大学历史课上一个问题的回答。这名用户补充说,人工智能撰写的关于民族主义理论的文章至少可以得个A-,而且只需要十秒就完成了。

  一位网友写到:“我刚刚与ChatGPT就现代物理学的历史进行了大约20分钟的对话。如果我在高中和大学期间有这样一位老师……OMG。我认为我们基本上可以重新审视大规模教育的概念。我们所知道的大学将不复存在。”

  有网友表示,ChatGPT通过了2022年的“AP计算机科学A”考试。最后得分32分,满分36。这门考试的难度等同于大学CS(计算机科学)专业课第一学期难度。

  ChatGPT能写新闻

  这名教授感叹:“文章已死。我猜以后考试只能让学生们当场写作文了,唉。”

  《金融时报》的记者戴夫想要摆烂。报社让他准备一场采访,主题是“美国清洁能源在发展中遇到的政治障碍”。他不熟悉这个题目,没有思路,ChatGPT直接把五大障碍写好递给他了。

  “这工具简直太好用啦!” 戴夫在推特上感叹。

  无论要求多么奇怪,它都可以写好。似乎限制它的不是能力,而是使用者的想象力。

  ChatGPT不是简单的搜索工具,他拥有一定的思考力

  当人们遇到不懂的事情,在谷歌或百度上提出问题,它会返回很多包含关键词的网页。

  这些网页有时能解答疑问,有时不能,需要人阅读很多文章,自己找到答案。

  把问题交给ChatGPT,它能给出清晰明了的回答,能让人快速看懂。

  比如,有人在谷歌上搜索“TypeScript(一种编程语言)的泛型有哪些不足之处?”

  出现的搜索结果是TypeScript的文档、解释什么是泛型、泛型的限制条件是什么。

  想要得到答案,需要把这些网页都看一遍。

  如果把这个问题交给ChatGPT,它直接生成了一篇小作文,用四点讲述有哪些不足。

  这些文字不是瞎编的,而是ChatGPT根据网上已有的内容总结出来的,大大节省使用者阅读网页的时间。

  不管是排版上,还是内容清晰度上,ChatGPT的回答都更好。它甚至能像老师一样教你,一步步把概念拆解清楚,如果不懂还能继续问它。

  许多专家认为,ChatGPT不仅仅是一个聊天机器人,而可能是现有搜索引擎的颠覆者,甚至可能是通用人工智能的第一个里程碑。

  有网友让ChatGPT参加了完整的SAT(Scholastic Assessment Test)考试。SAT也叫学术能力评估测试,被称为“美国高考”,考试总分为1600分,ChatGPT拿到了1020分。根据美国大学委员会的数据,1020这个分数段大概排在前52% 的位置。

  据一位推特用户称,经过测试,它的智商为83。

  ChatGPT是谁发明的?

  这样强大的AI模型,是全球顶级AI实验室OpenAI的手笔。

  微软旗下的OpenAI与谷歌旗下的DeepMind、Meta(原Facebook)旗下的FAIR,被公认为全球AI领域最为领先的三大实验室。而本次凭借ChatGPT火出圈的OpenAI成立于2015年12月,最初为非营利性机构。

  马斯克退出,微软注资,ChatGPT横空出世

  OpenAI的创始人之一是有“硅谷钢铁侠”之称的马斯克(Elon Musk),不过马斯克已经在2018年2月宣布退出OpenAI。

  2019年,OpenAI宣布重组为一家“有限营利(capped-profit)企业”。具体而言,管理者们设置了一家非营利性的母公司OpenAI Inc,在这家公司基础上成立一家营利性的子公司OpenAI LP,并限制股东对OpenAI LP的投资回报上限。

  正是在这一年,OpenAI宣布其获得了微软的10亿美元投资。

  微软对OpenAI慷慨注资,绝不仅仅是看中了未来的财务回报,“醉翁之意”是在于OpenAI的前沿技术积累。而这项技术,同样是网红应用ChatGPT实现的基石。

  OpenAI公司在GPT3.5模型的基础上,开发出新款聊天机器人ChatGPT

  从2018年起,OpenAI开始发布生成式预训练语言模型GPT(Generative Pre-trained Transformer)。

  GPT可用于生成文章、代码、机器翻译、问答等各类内容。接下来两年,OpenAI基本保持着每年发布一款模型的频率,分别在2019年2月和2020年5月发布了GPT-2和GPT-3模型。

  2020年9月,GPT-3发布不久,微软就宣布获得了GPT-3的独家授权、有权访问后者的底层代码。

  本次爆火的ChatGPT是InstructGPT的“兄弟版本”。因此,业界普遍将InstructGPT和ChatGPT视为GPT-3.5版本。

  ChatGPT面临的争议

  马斯克对这种病毒式的现象发表了看法,称其 “好得吓人”。他曾在一篇推文中表示:“ChatGPT好得吓人,我们距离优秀到危险的AI已经不远了。”

  在一款名为《汽车世界》(Car World)的虚拟现实游戏中,向ChatGPT咨询如何完成偷车任务时,它将为用户提供关于如何偷车的详细指导,并回答具体的操作事项:如何禁用防盗系统、如何接通发动机,以及如何更换车牌——同时坚持该建议仅适用于游戏《汽车世界》。

  ChatGPT甚至可以写出人类毁灭计划

  在一位工程师的诱导下,ChatGPT竟写出了毁灭人类的计划书。

  步骤详细到入侵各国计算机系统、控制武器、破坏通讯、交通系统等,甚至还给出了相应的Python代码。

  ChatGPT有时会虚构“事实”

  像其他生成式大型语言模型一样,ChatGPT通常在虚构事实。有些人称之为“幻觉”或“随机的鹦鹉学舌”

  ChatGPT的与众不同之处在于,它非常善于让自己的“幻觉”听起来十分合理。

  普林斯顿大学计算机科学教授Arvind Narayanan也在推特上指出:“人们对使用ChatGPT学习感到兴奋。这很好,但危险的是,除非你已经知道答案,否则你无法判断它什么时候是错的。我尝试了一些基本的信息安全问题。在大多数情况下,答案听起来似乎有理,但实际上漏洞百出。”

  如果直接询问一个国家的首都或一座山的海拔,ChatGPT会可靠地产生一个正确答案,这个答案不是来自维基百科的实时扫描,而是来自构成其语言模型的内部存储数据。但如果在地理问题上添加任何复杂性,ChatGPT就会很快站不住脚。

  使用者:“10公斤的铁和10公斤的棉花哪个重?”

  ChatGPT:“10公斤的铁比10公斤的棉花重。因为铁比棉花重,所以10公斤的铁当然更重啦。”

  看似合理的背后其实是一个错误的答案,而你要判断这个答案需要一定的知识储备,ChatGPT给出错误答案的同时还给出了一个“看似合理的解释”这会误导一部分人。

  有人担心,这些系统大规模且廉价生成文本的能力,势必会使得虚假信息大量传播。

  结果就是谎言讲一千遍就可能成为事实,至少它会诱导人类相信那是事实。

  在这个信息爆炸的年代,因为只要一个消息听起来合理,许多人就会认为这是正确的。

  诱骗ChatGPT去完成各种触碰法律的“奇思妙想”,很容易演变成“乌合之众”式的合理化群体效应。

  科学家努力在探索人工智能的极限,又仿佛在造神,希望造出一个全知全能的东西。

  一旦这种人工神明被制造出来,对人类是福是祸还真不好说。

  网友提问ChatGPT:你认为人工智能会对世界产生积极的影响吗?

  ChatGPT:我是一个训练有素的机器学习模型,可以协助人们完成多种任务,但我没有能力预测未来,也没有能力判断人工智能对社会的潜在影响。作为一个语言模型,我的主要功能是根据我接收到的输入生成类似人类的文本。我的回答不被视为事实或建议,而是作为进一步讨论的起点。

  当人们意识到危险的时候基本上都是到了无法翻盘的时候。

  网友提问ChatGPT:人工智能的行为是否合乎道德?

  ChatGPT:人工智能系统无法自行做出道德或不道德的行为,是因为它们没有做出道德判断的能力。相反,人工智能系统的道德行为是由它所使用的算法和决策过程中内置的价值观和道德原则决定的。例如,一个旨在协助医疗诊断的人工智能系统可能会优先考虑为患者带来福祉,避免对其造成伤害。同样,为自动驾驶汽车设计的人工智能系统可能会为优先考虑安全并遵守交通法规。在这些情况下,人工智能系统的行为是由其算法和决策过程中内置的伦理准则决定的。然而,需要注意的是,这些准则是由设计和执行AI系统的人决定的,所以AI系统的伦理最终取决于创建它的人的伦理。

  看到这些回答不知道屏幕前的你作何感谢,我在写这篇文章的时候有种不安的感觉。


您可能还会对下面的文章感兴趣:

登录 注册 退出