三星近期推出了一项新政策,禁止员工在工作场所使用生成式人工智能工具,包括OpenAI的ChatGPT和谷歌Bard等。此举是由于三星担心其数据将通过人工智能平台最终落入其他用户手中,因此对信息泄漏问题非常谨慎。不过该政策仅限公司设备,员工仍可以在个人设备上与工作无关的事情上使用人工智能工具,也不会影响到用户在三星生产的设备上使用生成式AI系统。
据三星表示,此举措与上月发生的内部代码泄露事件有关。此前有报道称,三星电子内部引入ChatGPT工具不到20天,便发生了3起相关事故,两起涉及半导体设备,一起涉及会议内容。
三星内部备忘录显示,三星担心自身数据被传输到ChatGPT、Bard等人工智能平台的外部服务器上,最终导致泄露。因此三星正在开发自己的内部AI系统,让人工智能在安全的环境下提高员工生产效率。
事实上,银行和科技公司都非常谨慎地对待信息泄漏问题,因此对人工智能的使用也非常谨慎。
摩根大通、美国银行和花旗等大型银行是最早限制员工访问生成式AI系统的公司,早已对人工智能下了禁令。这些银行担忧第三方软件访问敏感信息会带来巨大的安全风险,因为ChatGPT等人工智能系统可能会泄露将银行的财务信息,导致更严格的监管行动。与之类似的,科技巨头亚马逊也出于数据保护的考量,警告员工不要在工作场合中使用ChatGPT。
文中图片来源于网络
电科技(www.diankeji.com)是一家专注于全球TMT行业的领先资讯媒体。
作为今日头条青云计划、百家号百+计划获得者,2019百度数码年度作者、百家号科技领域最具人气作者、2019搜狗科技文化作者、2021百家号季度影响力创作者,曾荣获2013搜狐最佳行业媒体人、2015中国新媒体创业大赛北京赛季军、 2015年度光芒体验大奖、2015中国新媒体创业大赛总决赛季军、2018百度动态年度实力红人等诸多大奖。
投稿、商务合作请联络微信公众号
声明:本站原创文章文字版权归电科技所有,转载务必注明作者和出处;本站转载文章仅仅代表原作者观点,不代表电科技立场,图文版权归原作者所有。如有侵权,请联系我们删除。