三星员工使用ChatGPT导致会议笔记和源代码泄露
三星员工使用ChatGPT
三星允许其半导体部门的工程师使用AI来帮助解决源代码的问题。但在这样做的过程中,工作人员输入了机密数据,例如新程序的源代码本身以及与他们的硬件有关的内部会议记录数据。这样做的结果是在不到一个月的时间里,有三起员工通过ChatGPT泄露敏感信息的事件。由于ChatGPT保留用户输入数据以进一步训练自己,这些来自三星的商业机密现在实际上掌握在人工智能服务背后的OpenAI公司手中。
在其中一个案例中,一名员工要求ChatGPT优化测试序列,以识别芯片中的故障,这是保密的——然而,使用ChatGPT可以使这一过程尽可能高效,为芯片公司节省大量测试和验证处理器的时间,从而降低成本。在另一个案例中,一名员工使用ChatGPT将机密的会议笔记转换为演示文稿,其中的内容显然不是三星希望外部第三方知道的。
使用ChatGPT的信息泄露风险
三星电子就事件发生后泄露机密信息的潜在危险向其员工发出警告,称这些数据现在存储在OpenAI的服务器上。在竞争激烈的半导体行业,任何形式的数据泄露都可能给相关公司带来灾难的打击。
使用ChatGPT存在潜在的信息泄露风险,并且三星似乎没有任何追索权要求检索或删除OpenAI现在持有的敏感数据。一些人认为,这一状况使ChatGPT不符合《欧盟通用数据保护条例》,这是管理公司收集和使用数据的法律的核心原则之一,这也是为什么意大利现在在全国范围内禁止使用ChatGPT。