cha

外媒:三名三星员工向 ChatGPT 泄露了公司敏感数据|三星|聊天机器人

  4月9日,据外媒报道,在三星的半导体部门开始允许工程师使用?ChatGPT 后不久,工作人员至少三度向其泄露机密信息。据报道,其中一名员工要求聊天机器人检查敏感数据库源代码是否有错误,另一名员工请求代码优化,第三名员工将录制的会议输入 ChatGPT 并要求其生成会议记录。

  目前,三星试图通过将员工的?ChatGPT 提示长度限制为 1 千字节或 1024 个字符的文本来限制未来。据说该公司还在调查这三名有问题的员工,并建立了自己的聊天机器人,以防止类似的事故发生。

  聊天GPT数据政策声明,除非用户明确选择退出,否则它会使用他们的提示来训练其模型。聊天机器人的所有者?OpenAI敦促用户不要在对话中与?ChatGPT 共享秘密信息,因为它“无法从您的历史记录中删除特定提示”。在 ChatGPT 上删除个人身份信息的唯一方法是删除您的帐户,而这个过程可能需要多达四个星期。

  在表面上,聊天GPT可能看起来像是一种可以对一系列工作任务派上用场的工具。但有科学家认为,其实用户与 ChatGPT 分享的任何内容都可用于训练系统,甚至可能会在其对其他用户的回复中弹出。

  特别声明:以上文章内容仅代表作者本人观点,不代表新浪网观点或立场。如有关于作品内容、版权或其它问题请于作品发表后的30日内与新浪网联系。


您可能还会对下面的文章感兴趣:

登录 注册 退出