微软向美国政府提供GPT的大模型,安全性如何保证?

人工智能 应用安全
微软公司在6月7日发布了一篇博客,宣布将向美国政府机构提供OpenAI人工智能大模型,利用其Azure云服务的能力。这是微软首次将GPT技术引入政府机构,同时也是全球首个将以GPT代表AI大模型引入政府的案例。

微软公司在6月7日发布了一篇博客,宣布将向美国政府机构提供OpenAI人工智能大模型,利用其Azure云服务的能力。这是微软首次将GPT技术引入政府机构,同时也是全球首个将以GPT代表AI大模型引入政府的案例。此举传递出一个不同寻常的信号,特别是在全球各国机构和大型企业纷纷以“安全”为由禁用GPT大模型的背景下。

Azure政府客户可以使用微软Azure OpenAI服务,利用OpenAI的两个大型语言模型,分别是最新的GPT-4和早期的GPT-3大模型。微软表示,联邦、州和地方政府的客户可以通过这两个模型完成各种服务,例如生成研究问题的答案、生成计算机代码和总结现场报告等。此外,语言模型还可以针对特定任务进行调整,包括内容生成、语言到代码的翻译和摘要等。

微软在其商业云计算空间中托管OpenAI模型,并与Azure政府客户使用的云分开。后者遵守各种特定的安全和数据遵从规则,来自Azure政府客户的数据不会用于训练模型。

OpenAI是聊天机器人ChatGPT的开发公司,旗下拥有大语言模型GPT-3以及多模态模型GPT-4等产品。微软是OpenAI最大的投资者,于2019年向其投资了10亿美元,2023年1月又追加了第二笔多年投资,投资据称高达100亿美元。

自从OpenAI推出ChatGPT以来,AI大模型迎来了一股无与伦比的发展浪潮,包括谷歌、阿里、百度在内的大型企业纷纷发布了自己的AI大模型。其中微软、谷歌相继推出了网络安全领域的AI产品,引起了业界的广泛关注和讨论。

微软已向其商业客户提供了OpenAI模型,并且Azure OpenAI服务增长迅速。截至今年5月,已有4500名客户,包括沃尔沃、宜家、梅赛德斯-奔驰集团和壳牌等集团。

当今世界上,人工智能技术正在迅速发展,而大型语言模型作为其中的重要组成部分,具有广泛的应用前景。在这种背景下,微软公司的举动被视为是对AI技术发展的全新探索。

然而,随着大型语言模型的逐渐成熟和应用,其所带来的安全问题也不容忽视。有关专家指出,大型语言模型可能存在的风险包括隐私泄露、人类价值观偏差、误导性信息生成等多个方面。针对这些问题,目前还需要进一步的研究和探索,以确保人工智能技术的安全和可靠性。

除了安全问题,大型语言模型的高昂成本也是制约其应用普及的一个因素。目前,大型语言模型的训练成本和运行成本都非常高,这也限制了其在一些领域的应用。因此,在未来的发展过程中,如何提高模型的效率和降低成本,将成为一个重要的研究方向。

总的来说,微软公司利用Azure云服务向政府机构提供OpenAI人工智能大模型的举动,为人工智能技术的发展带来了新的探索和机遇。同时,在应用这一技术的过程中,我们也需要密切关注安全和成本等问题,以确保其能够为社会带来更多的价值和福利。

责任编辑:华轩 来源: 今日头条
相关推荐

2023-06-12 11:04:02

微软AI

2023-06-08 12:17:51

人工智能网络安全

2020-05-29 09:54:49

美国无线系统安全

2013-11-18 10:38:56

2023-06-08 09:57:43

2022-02-06 12:04:34

美国零信任安全模型

2010-05-20 16:02:54

云计算美国

2013-09-02 10:41:34

微软谷歌监控

2024-02-19 15:23:16

人工智能安全测试

2010-12-09 09:02:55

美国政府云计算微软

2016-10-17 07:05:11

存储微软

2023-07-10 21:30:57

2013-04-23 09:48:59

网络安全华为中兴

2019-09-23 11:30:55

2010-08-03 11:08:22

2009-04-25 23:25:32

2010-05-14 12:13:54

2020-10-13 14:49:39

Chrome 浏览器 谷歌

2010-04-19 13:32:19

美国云计算

2013-08-06 10:00:45

黑客美国
点赞
收藏

51CTO技术栈公众号