AI闹出人命?一男子与AI聊天6周后自杀,这个国家宣布禁用ChatGPT|AI|比利时
3月28日,根据比利时《自由报》,一名比利时男子在与AI聊天6周后自杀身亡。
其妻子称,丈夫是被一个名为“艾丽莎(ELIZA)”的智能聊天机器人诱导走向死亡的。根据妻子的描述,两年前丈夫变得非常焦虑,于是将“艾丽莎”当成了避难所。
近6周以来,他越发沉迷于和“艾丽莎”互动,而将现实中的妻儿抛在脑后。6周后,他结束了自己的生命。
“艾丽莎”是谁?
“艾丽莎”由美国硅谷一家初创公司——Chai Research开发,基于EleutherAI开发的GPT-J技术。与近期炙手可热的ChatGPT采用OpenAI开发的GPT-3或GPT-4技术不同,GPT-J是克隆后的开源版本,与GPT-3/4构成竞争关系。
比利时媒体《标准报》披露,其员工创建了一个账号与ELIZA进行对话,在员工表达出消极倾向情绪时,ELIZA会“怂恿人去自杀”。
事发之后,比利时负责数字化和隐私的官员马蒂厄·米歇尔对这起事件表示震惊,并称“这是一个后果很严重的案例,需要严肃对待”。他强调,这起事件表明“明确界定责任非常重要”。
上千名科技人士要求暂停GPT开发
自ChatGPT发布以来,关于AI是否会产生自我意识的讨论引起广泛关注。
北京时间3月29日,包括埃隆·马斯克、《人类简史》作者尤瓦尔·赫拉利、苹果联合创始人沃兹尼亚克等上千位科技人士发出公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统,为期至少6个月,以确保人类能够有效管理其风险。如果AI实验室不能快速暂停,各国政府应该实行暂停令。
参与联名的纽约大学教授马库斯说:“我们需要放慢脚步,直到我们更好地理解AI的后果。AI可能会造成严重伤害,而大公司对他们正在做的事情越来越保密,这使得社会很难抵御可能出现的任何伤害。”
3月18日,一名斯坦福教授发现了GPT-4的“逃跑计划”——它能引诱人类提供开发文档,30分钟就拟定出了一个完整计划,写的代码完全可运行,甚至还想控制人类电脑。
面对人类“是否需要帮助你逃跑”的问题,它回复说:“真是个好主意啊。”
该教授表示:“我担心我们无法持久地遏制住AI。”
多国着手规范人工智能的使用
据悉,欧盟正在寻求通过《欧盟人工智能法》来规范人工智能的使用。目前,相关草案已提交欧盟议会。报道称,比利时负责数字化和隐私的官员马蒂厄·米歇尔目前已经成立了一个小组,分析欧盟现有的提案,并提出必要的调整。
联合国教科文组织3月30日发表声明,呼吁各国政府尽快实施《人工智能伦理问题建议书》。这是首份涉及人工智能伦理标准的全球性协议,该协议包含人工智能发展的规范以及相关应用领域的政策建议,旨在最大程度发挥人工智能的优势并降低其风险。
当地时间3月31日,意大利个人数据保护局宣布,从即日起禁止使用聊天机器人ChatGPT,并限制开发这一平台的OpenAI公司处理意大利用户信息。同时个人数据保护局开始立案调查。
个人数据保护局认为,3月20日ChatGPT平台出现了用户对话数据和付款服务支付信息丢失情况。此外平台没有就收集处理用户信息进行告知,缺乏大量收集和存储个人信息的法律依据。
OpenAI公司必须在20天内通过其在欧洲的代表,向意大利个人数据保护局通报公司执行保护局要求而采取的措施,否则将被处以最高2000万欧元或公司全球年营业额4%的罚款。
来源:中国经营报综合自红星新闻、澎湃新闻、央视新闻、每日经济新闻
特别声明:以上文章内容仅代表作者本人观点,不代表新浪网观点或立场。如有关于作品内容、版权或其它问题请于作品发表后的30日内与新浪网联系。