首页
搜索 搜索
信息

ChatGPT,把三星给坑哭了 前沿热点

2023-05-10 12:46:03 锋潮评测

各位机友,在上班滴时候,有没有想过找人代劳呢?


【资料图】

在不影响工资的情况下,没人能拒绝上班摸鱼的诱惑。

如果,为你提供帮助是 AI,而不是同事,那就更棒了。

毕竟,有些工作上要保密的事情,连同事都不能说。

比方说,机哥给八弟搞员工福利买下午茶的时候,为了方便付款,就问过老板银行卡密码是多少。

但他一直都没告诉我。

说回 AI,在 ChatGPT 推出后,真的就有不少人用 AI 来办公,提出问题并寻求解答。

这么一搞,可就出事了。

因为, AI 产品也是由人运营的 。

我们提交的问题或数据,仍然储存在它们的服务器里,供它进行训练。

而这些存储在服务器里供 AI 训练的资料,很有可能在未来某天,别人提了同样的问题时…就成了答案。

这,就存在信息外泄的风险了。

真不是机哥吹的,著名的国际大厂-- 三星 ,近期就遇到了这个问题。

3 月 11 日,三星引入 ChatGPT 以来,员工就接连整出狠活。

在短短 20 天的时间内,他们发生了三起泄密事件。

而且,都在三星最关键的半导体的同一个部门里。

不是一家人不进一家门啊这是……

首先。

有一名员工,在进行软件测试的时候,把出问题的代码发给 ChatGPT,请教解决办法。

这个操作让三星的一部分源代码,变成了 ChatGPT 的学习资料。

后面一查一个准,估计三星自己都没想到还能这样泄密。

而三星更没想到的是,另一名员工也犯了类似的错误。

他,向 ChatGPT 提供代码,希望它能对这些代码进行优化…

三星花那么多钱请你来做代码,你回头就找 ChatGPT 空手套优化,0 元购了?

当然啊,这个形容是不对的。

毕竟,不是空手套优化,员工手里这些平时需要加密的东西,就拿去换优化了。

ChatGPT:学习资料 get✓

最让三星没想到的是,这还没完,还有一起事件。

这一次,某员工使用 ChatGPT 把会议记录转换成演示文稿。

而这些会议记录里,含有一些关于三星硬件的机密信息。

这些信息也被添加进了 ChatGPT 的资料库中。

ChatGPT:学习资料×2,get✓

ChatGPT 得到的这三份资料,在其他用户提出相关问题时,就可能会被引述出来。

造成三星机密外泄。

而且,三星大概率还没有办法追回或者彻底删除这些机密数据。

它们已经被储存在 OpenAI 的服务器里,被训练到了 AI 的算法中。

这类模型很难删除个人信息的所有痕迹,追踪溯源的难度更大。

发生这三起泄密事件之后,为了亡羊补牢,三星内部开始严格限制使用 ChatGPT 。

例如,将提问限制在1024个字节以内。

但是,这无法从根源上解决问题。

于是,三星近期干脆禁止使用生成式 AI,避免这一渠道的泄密事件再次发生。

据媒体报道,最近三星已通过备忘录告知员工,暂停使用生成式 AI 工具。

包括但不限于我们所熟知的 ChatGPT、Bard、Bing 等。

不过,这一规定仅适用于三星公司自有的设备和内部网络。

不会影响三星销售给消费者的设备,例如手机和电脑。

三星甚至还在消费者设备中,积极推广生成式 AI。

在近期的更新之后,三星用户可以通过手机或平板,直接使用微软 Bing AI 。

“你用我推荐,真用我不用”?

不过,虽然三星不用别家的 AI 了,但是并不代表三星不用 AI。

据说,它正在开发自己用的 AI 工具,用于翻译文件和软件开发。

只不过,在做好安全措施之前,三星仍然会限制生成式 AI 工具的使用。

除了三星,亚马逊、微软之前也出现过 ChatGPT 泄密的问题。

除了大公司啊,普通人使用这类 AI 产品,其实也会面临类似的问题。

只是有的比较容易关注到,有的不容易关注到。

比如说,机哥自己在玩的一款产品,就非常实诚。

它明确告知我这一风险。

也许个人身份信息会被隐去或者替换,但对话内容还是能被访问,用于模型训练,提高它的对话能力。

因此,最好不要和它们谈及有关隐私和机密的内容。

另外,最近的一个好消息是,OpenAI 宣布了新规则。

用户可以关闭聊天记录功能,防止自己的个人数据被拿去训练。

这些数据仍然会被保留30天,但是之后将会彻底删除。

同时,OpenAI 也宣布不再使用 API 数据训练模型。

需要注意的是,这里说的「不再使用 API 数据训练模型」是指外部的 API 接口下使用相关功能时,不会用 API 端口的数据来训练 AI。

用 ChatGPT 的话,最好还是打开上面说的那个开关。

不过,利用用户的对话数据进行训练,本是 AI 产品提升对话能力的途径之一。

一些人工智能系统会采用增强学习的方式,不断试错与优化,找到最佳的表达方式与回复内容。

如果封闭这一渠道,可能会影响其产品的迭代升级。

可以预见的是,隐私保护与产品训练之间的矛盾,还将继续存在。

如果大家想继续使用 AI 产品,又不想把隐私暴露给它背后的公司。

机哥这边倒是有几个小建议。

首先,了解这类产品的隐私政策,以及它对用户信息的保护措施,挑选更加安全的产品。

你可以就这些话题,直接对它进行提问。

其次,避免谈及真实个人信息和机密消息。

如果你愿意,可以给自己整个化名。

除了这些,最好能要求平台删除对话内容,避免被拿去充当训练数据。

在各个方面的监管施压之下,AI 背后的母公司可能会推进这一措施。

如果你使用的 AI 工具已经支持这一功能,请积极运用。

作为一种好用的工具,生成式 AI 拥有广阔的前景。

在互联网上,我们经常能看到关于它们的教程、接口、镜像网站,乃至收费课程和群组

机哥不知道 AI 能不能帮我们致富。

反正卖课的已经先富起来了。

图片来自网络