时间紧迫,各国政府和技术界正在讨论人工智能政策。主要关注点是保护人类免受虚假信息及其涉及的所有风险的侵害。
现在,人们的担忧与数据隐私有关,因此讨论也变得激烈起来。您是否考虑过使用 ChatGPT、Bard 或其他 AI 聊天机器人共享信息的风险?
如果你还没有,你可能还不知道科技巨头们一直在采取严厉措施防止信息泄露。
5 月初,在敏感数据意外泄露给 ChatGPT 后,三星通知其员工,一项新的内部政策将限制在其网络上运行的设备上使用 AI 工具。
三星发言人向TechCrunch表示:“公司正在审查措施,以创建一个安全的环境,安全地使用生成式人工智能来提高员工的生产力和效率。 ”
他们还解释说,在安全措施准备就绪之前,公司将暂时限制通过公司设备使用生成式人工智能。
另一个采取类似行动的巨头是苹果。据《华尔街日报》报道,三星的竞争对手也担心机密数据泄露。因此,他们在开发类似技术时限制了 ChatGPT 以及一些用于编写代码的 AI 工具。
今年早些时候,在公司发现 ChatGPT 的响应与亚马逊内部数据相似后,亚马逊律师敦促员工不要与人工智能聊天机器人分享任何信息或代码。
除了科技巨头外,美国银行、德意志银行等银行也在内部实施限制措施,防止财务信息泄露。
而且名单还在不断增加。猜猜怎么着!甚至连谷歌也加入了进来。
连你谷歌一下?
据路透社匿名消息人士透露,上周 Alphabet Inc.(谷歌母公司)建议员工不要将机密信息输入人工智能聊天机器人。讽刺的是,这其中包括他们自己的人工智能 Bard,该机器人于去年 3 月在美国推出,目前正在以 40 种语言推广到另外 180 个国家。
谷歌的决定是因为研究人员发现聊天机器人可以重现通过数百万个提示输入的数据,并将其提供给人类审核者。
Alphabet 警告其工程师不要在聊天机器人中插入代码,因为 AI 可以复制这些代码,这可能会导致其技术机密数据泄露。更不用说,这有利于他们的 AI 竞争对手 ChatGPT。
谷歌确认其打算公开其技术的局限性,并更新了隐私声明,敦促用户“不要在与 Bard 的对话中包含机密或敏感信息”。
暗网市场上有 10 万多个 ChatGPT 账户
另一个可能导致敏感数据泄露的因素是,随着人工智能聊天机器人越来越受欢迎,世界各地的员工都在采用它们来优化日常工作。大多数时候,员工都没有任何谨慎或监督。
昨日,总部位于新加坡的全球网络安全解决方案领导者Group-IB报告称,他们发现超过 10 万个 ChatGPT 账户被入侵,这些账户的日志中保存着凭证。自去年以来,这些被盗信息一直在非法暗网市场上交易。他们强调,默认情况下,ChatGPT 会存储查询和 AI 响应的历史记录,而缺乏必要的保护使许多公司及其员工面临风险。
政府推动监管
担心人工智能泄露信息的情况不仅只有企业。今年 3 月,在发现 OpenAI 存在数 巴西电话号码列表 据泄露事件(该事件允许用户通过 ChatGPT 查看其他用户的对话标题)后,意大利下令 OpenAi 停止处理意大利用户的数据。
OpenAi 于 3 月确认了该漏洞。“由于开源库中的一个漏洞,我们在 ChatGPT 中遇到了一个重大问题,目前已发布修复程序,我们刚刚完成验证。一小部分用户能够看到其他用户对话历史的标题。我们对此感到非常难过。” Sam Altman当时在他的 Twitter 账户上表示。
英国在其官方网站发布了一份人工智能白皮书,旨在推动负责任的创新和公众信任,考虑了以下五项原则:
安全性、保障性和稳健性;
透明度和可解释性;
公平;
问责和治理;
以及可争议性和补救措施。
我们可以看到,现,尤其是它发展的速度,新的担忧自然而然地出现了。安全措施变得必不可少,而开发人员则努力减少危险,同时又不损害我们已经认识到的迈向未来的一大步的发展。
您想继续了解营销最佳实践吗?我强烈建议您订阅Rock Content 的互动新闻通讯 The Beat。我们涵盖了数字营销领域的所有重要趋势。到时见!