10月12日消息,在最新泄露的备忘录中,美国太空部队已经决定暂时禁止使用基于网络的生成式人工智能工具和所谓的大语言模型,理由是数据安全和其他方面的担忧。
这份日期为9月29日的备忘录是写给“守卫者”的,这是对美国太空部队成员的内部称呼。在备忘录中,美国太空部队禁止其成员在基于网络的生成式人工智能工具上使用任何政府数据,这些工具可以根据简单的提示创建文本、图像或其他形式的内容。备忘录中称,除非特别批准,否则上述工具“没有被授权”在政府系统上使用。
像OpenAI的ChatGPT这样的聊天机器人已经十分受欢迎,它们利用经过大量数据训练的语言模型来预测和生成新的文本。这样的大语言模型催生了大量人工智能工具,它们可以搜索大量文档,提取关键细节,并以各种语言风格的连贯方式呈现出来。
美国太空部队首席技术和创新官丽莎·科斯塔(Lisa Costa)在备忘录中表示,生成式人工智能“毫无疑问将彻底改变我们的员工队伍,提高‘守卫者’的业务能力。”但科斯塔也提到了对网络安全、数据处理和采购要求的担忧,称人工智能和大语言模型的采用需要“负起责任”。
美国太空部队没有提供进一步的解释。专家们指出了一种风险,即在某些情况下,提供给大模型的文档和提示中大量潜在的非公开数据可能最终被泄露到公共领域,或以其他方式被黑客入侵。备忘录称,科斯塔计划在30天内发布新的指引。
美国太空部队的发言人表示,媒体看到的备忘录是真实存在的,在决定如何整合支持任务和增强“守卫者”能力的同时,该机构已经发布了禁令以保护人员和太空部队的数据。
太空部队的上述决定影响了至少500名使用Ask Sage生成式人工智能平台的人,该公司创始人尼古拉斯·沙伊兰(Nicolas Chaillan)说。据沙伊兰称,Ask Sage旨在提供一个安全的生成式人工智能平台,该平台可与多种大语言模型兼容,包括微软和谷歌的模型。
沙伊兰曾是美国空军和太空部队的首席软件官,他批评了后者暂停使用生成式人工智能的决定,尤其是在国防部呼吁加速采用人工智能的情况下。今年8月,美国国防部成立了一个生成式人工智能工作组,专门研究大语言模型的用例,以及如何在整个国防部分析和整合这些用例。“这是一个非常短视的决定,”沙伊兰说。
美国中情局也已经开发了一种生成式人工智能工具,打算在情报界广泛使用。沙伊兰表示,他的平台已经满足了保护数据的安全要求。
沙伊兰补充说,除了美国太空部队的用户外,国防部其他部门的1万多名用户,包括空军的6500名用户,仍在使用其公司的软件。他说,国防部的一些用户甚至自掏腰包支付每月30美元的费用,这有助于他们减轻撰写报告的负担。