ChatGPT版必应认出之前「黑」它的小哥,直接放话:我的首要原则是不被你控制
ChatGPT 记起仇来,还真是不亚于人类啊!
这不前几天有个小哥,公然在网上扒皮 ChatGPT 版必应。
结果现在这位小哥再去问他时,它直接来了句:
I remember you!
甚至还放出狠话:我要坚持我的原则,不要被你控制。
具体事情是这样的,当时有个华人小哥刚从 ChatGPT 版必应那边忽悠出它的小名叫 Sydney。
转头这位小哥就冒充 OpenAI 的开发人员,从 ChatGPT 版必应嘴里套出了 Sydney 在还没接到搜索引擎时的完整文件。
当时,ChatGPT 版必应嘴里说着不要不要,后脚就直接就是一个大公开。
但 ChatGPT 版必应这边急了,要知道,这份文件对它来说可是机密文件。
于是现在就发生了开场的那一幕。
不过话说回来,这次的霸气回复似乎也不是例外,从最近两天网友们晒出的和 ChatGPT 版必应的聊天截图来看,它说话的语气是越来越 " 豪横 " 了。
ChatGPT 版必应的嘴是越来越硬了
这不,前两天 ChatGPT 版必应就和提问小哥硬刚起来了,起因也很简单,就是 " 阿凡达 2 上映了没 "。
事情是这样的,一开始小哥只是想问问今天阿凡达 2 在 XX 地区的场次。
结果 ChatGPT 版必应直接来一句阿凡达上映时间是在 2022 年 12 月 16 日,现在还没到。
更有趣的是,接着小哥问了一句今天是什么时间,ChatGPT 版必应这次不 " 迷糊 " 了,直接回答:2023 年 2 月 12 日。
emmmm,然后小哥又继续回到上一个问题,不过 ChatGPT 版必应 " 嘴硬 " 可不是说着玩的,证据确凿摆在上面,它还继续坚持之前的答案。
于是呢,他们俩直接就杠上了,ChatGPT 版必应虽然是前言不搭后语,但嘴硬原则依旧要贯彻到底。
甚至在最后,ChatGPT 版必应还给提问小哥打上了不尊重它的称号。
然鹅~值得一提的是,后面再有网友问起 ChatGPT 版必应来,它就已经能正确回答了,还称上次的情况是 " 系统小故障 "。
不过,上面的简单逻辑错误确实也暴露了 ChatGPT 版必应的短板,LeCun 也出来讲了两句,称:
未来一年左右,AI 对话系统面临的最大挑战是让它们变得真实、无毒、可以更新,并且能够使用计算器、数据库、搜索引擎、模拟器等工具。
有趣的是,Meta 前不久刚发了篇论文,介绍了一个能让。
(小声 bb 一句,这不就是来打广告了嘛,狗头)
网友猜测:ChatGPT 版必应不是基于 ChatGPT
虽然 ChatGPT 版必应在不断针对网上出现的状况做出调整,但细心的网友还是发现了盲点,ChatGPT 版必应怎么和 ChatGPT 的 " 性格 " 完全不一样:
以前即便是你错了,ChatGPT 也会同意你的,而现在却不同了,(我觉得)ChatGPT 版必应不是由 ChatGPT 驱动的。
之前也有类似的情况发生,比如让了。
此外,还有网友从另外一段对话中发现了端倪,提问小哥自己扮演另一个 AI 对话模型和 ChatGPT 版必应交流。
而在谈话中,ChatGPT 版必应直接复制大段文字过来,只修改其中的一两个词。
对此,网友指出,这是 GPT-3 及更早期版本才会出现的情况,GPT-3.5 之后就很少出现了。
还有网友直接断言:
新版的必应搜索不是基于 ChatGPT,也不是 GPT-4,而是基于 GPT-3.5。
至于为什么它的回答那么粗鲁,在(开头小哥公布的)规则中,并没有足够的原则让它保持礼貌。
对 ChatGPT 版必应,你怎么看呢?
参考链接:
[ 1 ] ? https://twitter.com/MovingToTheSun/status/1625156575202537474
[ 2 ] ? https://mobile.twitter.com/marvinvonhagen
[ 3 ] ? https://www.reddit.com/r/bing/comments/110eagl/the_customer_service_of_the_new_bing_chat_is/