ChatGPT 滑铁卢:大面积封号;遭意大利封禁

安全 人工智能
意大利数据保护机表示 OpenAI 公司不但非法收集大量意大利用户个人数据,没有设立检查 ChatGPT 用户年龄的机制。

ChatGPT 似乎正在遭遇一场滑铁卢。

3月31日, 大量用户在社交平台吐槽,自己花钱开通的 ChatGPT 账户已经无法登录,更无语的是还不能注册新账号。随着越来越多用户披露,人们发现这场封号风波从 3 月 30 日就已经开始了,并且正在迅速蔓延。

4 月 1 日,越来越多人表示自己的账户被封,各大平台、群聊都有人奔走相告“注意事项”以防被封。此时,原本尚可以使用的Plus账户也没有幸免,陆陆续续失效,甚至有些在账单里都无法查询记录。

诡异的是,截止到 4 月 3 日,大规模封号似乎还没有停下来,不少网友还在社交平台上发帖称,“ChatGPT 正在大面积封号了”。有大量用户反馈,这次悄无声息的封号主要集中在亚洲地区,与此同时,OpenAI并未对此进行任何警告及回应。

在合规方面,ChatGPT也遭遇了新的审查。The Record 网站披露,意大利数据保护机构正式官宣暂时禁止使用 ChatGPT,并严厉要求其母公司 OpenAI 停止处理意大利用户信息。意大利“打响”了封禁 ChatGPT 第一枪!

对于封禁 ChatGPT的原因,意大利数据保护机表示 OpenAI 公司不但非法收集大量意大利用户个人数据,更为糟糕的是,OpenAI 未设立检查 ChatGPT 用户年龄的机制,以防止未成年人接触非法材料。

意大利数据保护机构进一步指出 OpenAI 公司有 20 天时间为其窃取信息的行为辩护,否则可能因违反欧盟《通用数据保护条例》,被处以最高 2000 万欧元或公司全年营业额 4% 的罚款。不仅是罚款方面,一旦 OpenAI 不能详细说明其是否采取措施保护用户数据信息,势必会增加欧盟诸国封禁 ChatGPT 的概率。

意大利封禁 ChatGPT 一事发生后,OpenAI 第一时间在意大利下线了 ChatGPT,其首席执行官 Sam Altman 立刻的发推解释称公司所做的工作是为了在训练 ChatGPT 等人工智能系统时减少个人数据,希望我们的人工智能了解世界,而不是了解个人。公司并没有违反任何规定,非常期望与意大利个人数据保护机构展开合作。

1680509362_642a89b200b809fcdaacd.png!small?1680509362270

ChatGPT 无疑是一把双刃剑

不可否认,ChatGPT 的出现会掀起新一轮信息革命,更好造福人类,但任何事情都具有两面性,社会在憧憬 ChatGPT 将会为人类带来前所未有的机遇时,同样应该思考它的出现会带来哪些安全隐患。毕竟短短两三个月,因使用 ChatGPT 产生的安全隐患接二连三出现。

用户可查看其他用户聊天记录

ChatGPT 推出后一直是以“完美”形象示人,但随着用户逐渐增多慢慢开始暴露出一些安全隐患。

2023 年 3 月上旬,部分用户爆料其聊天列表中显示他人的聊天记录,一时间 ChatGPT 泄露用户数据占据各大社交媒体榜单 ,最终其母公司 OpenAI 首席执行官萨姆 · 奥尔特曼不得不紧急发布推文向用户解释,导致用户 ChatGPT 聊天历史泄露的 BUG 仅仅是源于开源代码库中存在的一个错误。

1680511798_642a9336a42e35429ac96.png!small?1680511798970

1680509389_642a89cd00e773ebf0afa.png!small?1680509389479

用户聊条记录泄露事件后,虽然 OpenAI 非常爽快的向媒体承认 ChatGPT 出现了安全漏洞,并立刻下线聊天历史功能,但一直强调发生泄漏的只有聊天历史记录标题,用户无法看到其他人的实际聊天内容。

从 OpenAI 披露的信息来看,用户对话内容会自动保存到云端,存在被第三方窃取的可能性,结合此次历史聊条记录泄露事件,越来越多的安全研究人员开始认真思考 ChatGPT 出现信息安全问题是否具有偶然性。

三星因使用 ChatGPT,导致机密数据泄漏

一波未平,一波又起。上周,韩国媒体披露科技巨头三星电子在引入 ChatGPT 不到 20 天就被曝出 3 起内部机密资料外泄事故。(2 起跟半导体设备有关,1 起跟内部会议内容有关)。

据悉,这些三星电子的机密资料可能已经被导入到 ChatGPT 的数据库中,随时都面临泄露的风险。

1680509636_642a8ac42e3aa5919a309.png!small?1680509636712

三起事件的详细说明:

  • 三星 DS 设备解决方案部员工在操作半导体测试设备下载软件时,发现复制存在一些问题,于是便将有问题的代码粘贴到 ChatGPT 中,试图获得帮助,然而此举可能使得 ChatGPT 将三星的机密信息当作训练资料来使用;
  • DS 设备解决方案部另外一名员工试图想用 ChatGPT 帮其优化一段代码,于是就直接将与产量和良品率记录设备相关的一段代码输入了其中;
  • 三星某内部人员使用 AI 语音助手 Naver Clova 将会议录音转成文字后,想借助 ChatGPT 总结提炼一下会议内容,但是这可能导致会议记录机密外泄。

三星电子泄密事件后,内部就立刻组织安全人员制定了相关保护措施,并表示此后若又发生类似事故,三星内部可能会切断 ChatGPT 服务。此外,媒体披露三星目前正在考虑通过 DS 部门创新中心研发专属三星的 AI 服务。

今年 3 月 11 日,三星电子通过决议允许 DS 部门员工使用 ChatGPT,但对 DX 装置体验部门员工仍禁用 ChatGPT。结果短短二十天就遭遇 3 次意外安全事故,由此可见 ChatGPT 安全性确实值得思考。

员工在 ChatGPT 上传企业机密数据并非只有三星一家公司。从 Cyberhaven 统计的 160 万名员工使用 ChatGPT 的情况来看,约有 3.1% 的员工为提高工作效率,将企业内部数据直接上传到 ChatGPT 进行分析。

多名科学人士联名呼吁暂停更强大的 AI 开发研究

从上文提到的内容可以看出,ChatGPT 应用广泛的同时带来一些严重安全风险,因此有关 ChatGPT 和人工智能的未来,引起了民众对 AI 技术的担忧,许多知名科学人士联合声明暂停开发更强大的 AI 系统。

美国时间 3 月 29 日,包括人工智能之父杰弗里·辛顿、特斯拉和推特 CEO 埃隆·马斯克、图灵奖得主约书亚·本希奥等在内的上千名人工智能专家和行业高管在美国非营利组织未来生命研究所(Future of Life Institute)发布的一封名为“暂停AI 大模型实验”的公开信上签署了姓名。

这些资深专家们在信中呼吁所有人工智能实验室应当至少暂停半年对更强大人工智能系统的开发和训练,特殊情况下,各国政府应及时介入并立刻暂停 AI 系统研究。

责任编辑:赵宁宁 来源: FreeBuf.COM
相关推荐

2023-04-03 14:44:46

ChatGPT封号

2023-05-29 09:42:39

ChatGPTAI

2023-11-10 15:39:23

2023-01-07 14:51:53

AI

2012-12-11 10:59:05

Gmail谷歌

2020-12-15 09:47:38

Google攻击服务中断

2015-03-07 18:12:26

腾讯云腾讯云故障

2019-01-25 16:03:22

微信腾讯发送

2013-07-22 10:14:03

微信故障宕机

2014-01-21 17:05:45

2019-10-30 10:50:32

腾讯微信微信支付

2024-08-05 08:00:53

2021-03-01 06:14:50

环境高并发延迟

2009-12-07 14:31:27

网络故障云南电信

2010-01-07 15:31:59

千兆交换机

2015-12-04 09:58:21

微软Azure云服务Office365

2015-08-04 09:39:04

2009-06-25 19:33:03

QQ掉线服务中断

2016-10-24 12:06:21

2019-06-05 19:03:03

微信消息延迟
点赞
收藏

51CTO技术栈公众号