最近,一起起因员工使用AI工具而导致的机密信息泄露事件,真是让人心惊胆战。这些事件不仅暴露了企业在使用AI时的安全隐患,也提醒我们,科技的双刃剑效应是多么的明显。
三星公司员工使用AI工具办公,无意泄露内部代码。
据悉,三星电子的半导体部门在一个月内竟然发生了三次严重的泄密事件!员工们被允许使用ChatGPT来解决代码问题,但没想到他们无意中将公司的核心机密上传到了这个AI系统。这些泄密的数据包括新程序的源代码和硬件相关的内部会议记录。
三星内部备忘录显示,三星担心自身数据被传输到ChatGPT、Bard等人工智能平台的外部服务器上,最终导致泄露,并考虑完全禁止在公司内部使用ChatGPT。
事实上,不仅是三星公司,其他许多公司也报告了类似的问题。员工在使用ChatGPT处理日常工作时,无意中泄露了包括财务数据、客户信息和内部决策在内的敏感信息。企业机构的每一次泄露都可能导致巨大的经济损失和声誉损害。
该事件再次给各行业敲响了数据安全的警钟。
随着AI技术的普及,企业在享受便利的同时,也必须提高警惕,防范数据泄露的风险。公司需要制定严格的AI及其他技术软件的使用规定,针对业务、财务、技术、研发、运维、管理人员定期进行安全意识培训,以及培养良好的数据使用习惯,以避免出现类似的数据泄露事件。