5月4日消息,据外媒报道,在发现员工将敏感代码上传到ChatGPT后,考虑到机密信息泄露的可能性,三星电子决定暂时限制员工在部分办公室使用包括OpenAI旗下聊天机器人ChatGPT和谷歌旗下对话聊天机器人Bard在内的生成式人工智能(AI)工具。

此外,在个人设备上使用ChatGPT和其他人工智能工具的员工也被警告不要上传公司相关数据或其他可能损害公司知识产权的信息,否则可能会导致雇佣关系终止。

外媒称,三星电子担心发送给人工智能平台的数据存储在外部服务器上,可能会泄露给其他用户。

今年4月初,外媒曾报道称,三星电子引入ChatGPT不到20天就发生了3起涉及ChatGPT的事故,其中2起与半导体设备有关,1起与会议内容有关。为了防止类似事故再次发生,三星正在制定相关的保护措施。

该公司表示,不遵守安全指导方针“可能导致公司信息泄露,从而导致遭受纪律处分,甚至终止雇佣关系”。

但是,考虑到这些工具在生产效率和工作效率方面可能会有所帮助,因此三星电子保留了日后在采取一定安全措施的情况下放宽限制的余地。

由于担心ChatGPT和其他人工智能系统可能泄露私人数据和传播虚假信息,监管机构已开始考虑限制它们的使用。例如,欧洲议会距离最终确定一项人工智能法案还有几天时间;欧洲数据保护委员会(EDPB)已宣布成立一个ChatGPT特别工作组,帮助各国应对ChatGPT。

由于可能侵犯隐私,意大利个人数据保护局在今年3月底宣布禁止使用ChatGPT,限制OpenAI处理意大利用户信息。后来,OpenAI被告知,如果它改进隐私工具并允许用户禁止ChatGPT处理他们的数据,那么ChatGPT就可以在意大利恢复上线。

(责任编辑:严超)