三星员工向ChatGPT泄露敏感数据,机器人聊天需谨慎
从表面上看,ChatGPT似乎是一个可以用于一系列工作任务的工具。但在你要求聊天机器人总结重要的备忘录或检查你的工作是否有错误之前,值得记住的是,你与ChatGPT分享的任何东西都可能被用来训练系统,甚至可能在它给其他用户的回复中弹出。据报道,几名三星员工在与聊天机器人分享机密信息之前,可能就应该意识到这一点。
据《经济学人》韩国版报道,三星半导体部门开始允许工程师使用ChatGPT后不久,员工就至少三次向该部门泄露机密信息。据报道,一名员工要求聊天机器人检查敏感数据库源代码是否有错误,另一名员工要求优化代码,第三名员工将会议记录输入ChatGPT,并要求它生成会议记录。
有报道称,在了解到安全漏洞后,三星试图将员工ChatGPT提示的长度限制在1千字节,即1024个字符的文本,以限制未来失礼的程度。据称,该公司正在调查这三名员工,并建立自己的聊天机器人,以防止类似的事故发生。Engadget已经联系三星请其置评。
ChatGPT的数据政策规定,除非用户明确选择退出,否则它会使用用户的提示来训练模型。该聊天机器人的所有者OpenAI敦促用户不要在对话中与ChatGPT分享秘密信息,因为它“无法从你的历史记录中删除特定的提示”。在ChatGPT上删除个人身份信息的唯一方法就是删除你的账户——这个过程可能需要4周的时间。
三星的故事是另一个例子,说明为什么在使用聊天机器人时值得谨慎,就像你在所有在线活动中都应该谨慎一样。你永远不知道你的数据最终会在哪里。