微软向美国政府提供GPT大模型,如何保证安全性?

人工智能
微软声称,它已经开发了一种架构,让政府客户“能够从Azure Government安全地访问商业环境中的大语言模型”。微软表示,通过Python SDK REST APIs或者 Azure AI Studio进行访问,所有这一切都不会将政府数据暴露在公共互联网上。

生成式人工智能的热潮已经席卷到了美国联邦政府,微软宣布推出Azure OpenAI服务,允许Azure政府客户访问GPT-3、 GPT-4以及Embeddings。

微软在一份声明中说,政府机构将通过此项服务获得ChatGPT用例,而且不会牺牲“他们为了满足政府对敏感数据的要求所需要的、严格的安全和合规标准。”

微软声称,它已经开发了一种架构,让政府客户“能够从Azure Government安全地访问商业环境中的大语言模型”。微软表示,通过Python SDK REST APIs或者 Azure AI Studio进行访问,所有这一切都不会将政府数据暴露在公共互联网上。

微软承诺称:“只有提交给Azure OpenAI服务的查询才会转入商业环境中的Azure OpenAI模型。”“Azure Government直接与微软Azure商业网络对等,而不直接与公共互联网或者微软企业网对等。”

微软报告称,它使用IEEE 802.1AE——或MACsec——网络安全标准对所有Azure流量进行加密,而且所有的流量都驻留在全球骨干网中,该骨干网由超过25万公里的光纤和海底电缆系统构成。

Azure OpenAI Service for government已经全面推出,对于经过批准的企业或者政府客户,已经可以使用了。

政府用的ChatGPT到底能有多保密?

微软一直希望赢得美国政府的信任——但它也出过纰漏。

有消息称有超过1兆字节的政府敏感军事文件被暴露在公共互联网上——国防部和微软就这个问题互相指责。

微软子公司、ChatGPT的创建者OpenAI在安全方面也不尽如人意,3月份,一个糟糕的开源库让一些用户的聊天记录被曝光。从那个时候起,一些知名的公司——包括苹果、亚马逊和几家银行——因为担心ChatGPT可能暴露内部机密信息,已经禁止内部使用它。

英国的间谍机构GCHQ甚至对这种风险发出了警告。那么,即使这些秘密显然不会被传输到一个不受信任的网络,但美国政府把自己的秘密交给微软是否正确?

微软表示,它不会专门使用政府数据来训练OpenAI模型,所以绝密数据很可能不会在给其他人的回复中被泄露。但是这并不意味着它可以被默认安全。微软在公告中委婉地承认,当政府用户使用OpenAI模型的时候,一些数据仍将被记录下来。

微软表示:“微软允许具有额外限定访问资格并证明特定用例的客户申请修改Azure OpenAI的内容管理功能。”

它补充说:“如果微软批准了客户修改数据记录的请求,就不会存储与已批准的Azure订阅相关的任何提问和回复,在Azure商业中的数据记录也会被设置为关闭。”这意味着,除非政府机构符合某些特定的标准,否则提问和回复——由人工智能模型返回的文本——将被保留。

责任编辑:姜华 来源: 至顶网
相关推荐

2023-06-12 14:54:00

微软人工智能安全

2023-06-08 12:17:51

人工智能网络安全

2020-05-29 09:54:49

美国无线系统安全

2022-02-06 12:04:34

美国零信任安全模型

2023-06-08 09:57:43

2013-11-18 10:38:56

2013-09-02 10:41:34

微软谷歌监控

2019-09-23 11:30:55

2010-05-20 16:02:54

云计算美国

2024-02-19 15:23:16

人工智能安全测试

2010-08-03 11:08:22

2009-04-25 23:25:32

2010-12-09 09:02:55

美国政府云计算微软

2016-10-17 07:05:11

存储微软

2023-07-10 21:30:57

2013-04-23 09:48:59

网络安全华为中兴

2013-08-06 10:00:45

黑客美国

2015-10-16 10:04:39

初创公司大数据立法

2010-05-14 12:13:54

2012-03-24 21:09:38

点赞
收藏

51CTO技术栈公众号