整理丨诺亚
微软给它们的用户发了个通知,大意是:不要把它们的AI服务太当真,这一立场与其先前针对特定服务发布的免责声明相一致。
根据这家IT巨头最新的服务协议更新,从2024年9月30日起生效的新条款中,微软明确表示其辅助性人工智能服务并不适用于处理关键任务或重要决策。
“我们的人工智能服务可不是为了替代专业建议而设计的。”这是微软在其修订后的法律条款中的明确表述。
此次规则调整涉及多项具体服务,例如提醒Xbox用户不应该预期从平台合作伙伴处获得隐私保护。
在Xbox这部分,服务协议明确指出:“如果你通过非Xbox的第三方平台玩Xbox游戏工作室的游戏,这些平台可能会要求你分享内容和个人数据。这些第三方平台可能会追踪并分享你的数据,而这些操作将遵循它们自己的条款。”
此外,还有一些关于Microsoft Cashback(现金返还)和Microsoft Rewards(奖励计划)的说明进行了澄清。
但最重要的改动是新增了一个专门针对人工智能服务的章节。这个章节紧跟在提及Copilot AI体验受Bing使用条款管辖的部分之后。对于使用Microsoft Copilot并涉及商业数据保护的用户,会有一套独立的条款。
对于那些曾仔细阅读过管理微软Bing及其相关人工智能产品合同条件的人来说,这种面向消费者的调整并不会令人感到意外。例如,现在有一个服务协议明确禁止使用人工智能服务来“提取数据”。
协议中写道:“除非明确允许,否则你不得使用网页抓取、网页采集或网页数据提取的方法来从人工智能服务中提取数据。”
Bing的Copilot AI体验的要求虽然表述上没有那么明确,但也涵盖了类似的禁止行为,明确规定用户不得“从事对在线服务有害的活动,包括但不限于机器人的抓取行为、技术攻击、过度使用、基于提示的操控、‘越狱’以及其他非平台内的滥用行为。”
自从2023年2月Bing集成了AI功能以来,其搜索引擎的条款中就包含了关于在线服务可靠性的免责声明:“在线服务仅供娱乐目的使用;在线服务并非无错误,可能不会按预期工作,并可能生成不正确的信息。你不应依赖在线服务,也不应将在线服务用于任何形式的专业咨询。你使用在线服务的风险自负。”
修订后的服务协议对不允许的行为进行了更为详细的说明。例如,对于“反向工程”的禁令特别强调了不得试图确定微软所使用的人工智能模型中的权重。
新的条款中提到:“你不得使用人工智能服务来发现模型、算法和系统的底层组成部分。例如,你不得尝试确定并移除模型的权重,或者从你的设备中提取人工智能服务的任何部分。”
此外,现在明确规定禁止使用微软的人工智能服务或从中获取的数据来创建、训练或改进(不管是直接还是间接地)任何其他的人工智能服务。
另一项重要的合同变更涉及对集体仲裁程序的简化。近年来,一些大公司试图通过友好型的仲裁程序来避免昂贵的法庭纠纷,但面对大规模的集体仲裁索赔时,却发现这并不符合它们的利益。因此,争议解决机构制定了规则修订,旨在简化涉及25人或以上群体的仲裁案件。
微软的服务协议修订明确了涉及至少25位具有相似索赔且由同一律师或协调律师代表的客户的争议,属于其定义的“相关案件”——这类案件将遵循美国仲裁协会的大规模集体仲裁补充规则进行处理。
参考资料:https://www.theregister.com/2024/08/14/microsoft_services_agreement_update_warns