三星半导体导入ChatGPT后引发泄密,芯片数据直传美国

ChatGPT能遵照简单的书面指令,搜集数据并生成程序,能使营运更有效率并且提高生产力。其开发商Open AI在3月1日释出应用程序编程接口(API),允许企业付费将ChatGPT整合进入自家公司的服务后,强大功能让很多人找到了让其代替部分工作的偷懒方法,就连不少大企业都再考虑给内部系统接入这么一个AI大模型以提高工作效率。
但有些公司却因为接入ChatGPT后却出大事了,比如三星电子(Samsung Electronics),自3月11日起引入ChatGPT 仅仅20多天,工作上的问题没解决,反倒发生了泄密事件。
机密是如何“不经意间”泄漏的
4月2日,据韩国媒体报道,三星引入ChatGPT不到20天便曝出机密资料泄漏,传已经被存入ChatGPT的数据库中。涉及半导体设备测量资料、产品良率等总共3起事故,其中2个与半导体设备相关,1个与会议内容有关。
据报道,三星半导体暨设备解决方案(Device Solutions,DS)部门的A职员(匿名),日前执行半导体设备测量数据库(DB)下载软件时,因原始码出现错误,A职员便复制出有问题的原始码到ChatGPT,并向ChatGPT请教解决方法,但这一操作反而让三星设备测量相关的原始码成为ChatGPT的训练数据。
其余2件案例也是相似情形,如三星DS部门的B职员(匿名)为了解设备良率等信息,将制作的程序码输入进ChatGPT中,并要求ChatGPT优化其程序码;另外三星DS部门的C职员(匿名)则是先用AI语音助手Naver Clova将自己的会议录音转成文字,再要求ChatGPT帮他总结一下会议内容,做成会议纪录。
目前三星DS部门仍允许使用ChatGPT,但设备体验部门(DX)是禁用该服务的。为杜绝类似事故再发生,三星紧急制定相关保护措施,将ChatGPT提问限制在1024字节以下以降低数据外泄风险。并告知员工谨慎使用ChatGPT,若之后又发生类似事故可能会对相关人员进行惩处,三星内部也可能会在内网切断ChatGPT服务,并透过DS部门中的创新中心研发三星专属AI服务。
企业员工太把ChatGPT当自己人了
消息一经释出马上引发各界热议,尤其是韩国方面。韩版《经济学人》的文章中直接写道:
"这导致半导体设备测量资料、产品良率原封不动传输给了美国公司。"
image.png
韩媒方面甚至表示,因为三星员工直接将企业机密信息以提问的方式输入到ChatGPT中,会导致相关内容进入学习数据库,从而可能泄漏给更多人。
这一点在OpenAI上周更新的数据使用说明中确实有提到,对于非API产品如ChatGPT、DALL-E,平台确实会使用用户数据来进一步提升模型效果;但如果是API类产品,则确定不会使用用户提交的数据。
image.png
而用ChatGPT问企业内部事件导致数据泄漏的事,并不止三星一家公司员工干过。据统计,不少企业员工都正在将公司数据直接传给ChatGPT,让它帮忙处理。
Cyberhaven是一家数据分析服务提供商,他们开发了一个保护企业数据的方法,能帮助公司观察和分析数据流向、实时了解数据丢失原因。据他们统计了160万名员工使用ChatGPT的情况,发现有3.1%的打工人都会将企业内部数据直接输入给ChatGPT分析。
他们发现,随着ChatGPT的应用率越来越高,给它上传企业数据的打工人数量也越来越多。仅3月14日一天之内,每10万名员工就平均给ChatGPT发送了5267次次企业数据,其中11%涉敏;在这一周内,10万名员工给ChatGPT上传了199份机密文件、173份客户数据和159次源代码。
也有人看透了ChatGPT的本质
这也给其他公司提了个醒,ChatGPT很方便,但规范使用还是必要的。实际上在3月末,ChatGPT曾被曝出现bug会导致用户对话数据、支付信息丢失泄露,一度导致短暂关闭。OpenAI在回应中表示,这一漏洞可能导致了1.2% ChatGPT Plus用户的支付信息(包含用户姓名、邮件、支付地址、信用卡号最后四位及信用卡过期时间)被暴露了约9个小时。漏洞还导致了用户的对话主题及记录能被别人看到,如果里面包含隐私信息,则有泄露的风险。
为了规避数据泄露风险,已有不少企业甚至国家明确禁止员工使用ChatGPT,如软银、日立、富士通、Verizon、摩根大通等都发出了相关通知。
晶圆代工龙头台积电也在几天前表示,员工使用ChatGPT时不准询问与公司营业秘密相关事项,以防泄露公司专属信息,注意个人隐私。
台积电相关人员表示,ChatGPT具备深度学习程序,如果不控管员工使用,恐怕让有心窥探台积电先进工艺开发进度的友商,在掌握台积电可能碰到的问题后,会从对话中找到解决方法。当然他们在发出这样担忧的时候,可能还不知道最大竞争对手三星也被ChatGPT摆了一道。
软件等日本企业也已开始限制在其业务营运中,使用ChatGPT这类交互式AI服务。
软银上月已就ChatGPT和其他商业应用程序的使用,向员工发出警告,要求“不得输入可辨识的企业信息或机密数据”。软银还打算制定规则,以规范哪些营运能使用这项技术、以及可以使用的应用程序。
瑞穗金融集团、三菱日联银行、三井住友银行也均禁用ChatGPT与其他服务。瑞穗不让员工从工作计算机终端连上相关网站,避免因员工不当使用,导致客户数据和金融交易等重要信息外泄。
此外3月底的信息泄露事件后,意大利个人数据保护局也宣布禁止使用ChatGPT,并限制OpenAI公司处理意大利用户信息。同时个人数据保护局开始立案调查,这也是第一起政府禁止使用聊天机器人的案例。
意大利个人数据保护局认为,ChatGPT泄露了用户对话数据和付款服务支付信息,没有告知用户将收集处理其信息,缺乏大量收集和存储个人信息的法律依据,同时缺乏年龄验证系统,因此未成年人可能接触到非法信息。OpenAI公司必须在20天内通过其在欧洲的代表,向意大利个人数据保护局通报公司执行保护局要求而采取的措施,否则将被处以最高2000万欧元或公司全球年营业额4%的罚款。
END

 


打印   邮件