Hugging Face 上的模型数量已经超过了 100 万。但是几乎每个模型都是孤立的,难以与其它模型沟通。尽管有些研究者甚至娱乐播主试过让 LLM 互相交流,但所用的方法大都比较简单。
近日,牛津大学一个研究团队提出了一个用于 LLM 通信的元协议:Agora,并宣称可以解决「智能体通信三难困境」,进而构建「世界级的 LLM 智能体网络」。
- 论文标题:A Scalable Communication Protocol for Networks of Large Language Models
- 论文地址:https://arxiv.org/pdf/2410.11905
智能体通信三难困境
智能体(agent)是指能在环境中自主行动以实现其设计目标的计算机系统。
和人类一样,为了实现共同的目标,智能体也需要相互协作。实际上,如此构建的多智能体系统正是当前 AI 领域的一大重要研究方向,比如 OpenAI 就正在网罗多智能体人才。
OpenAI 著名研究科学家 Noam Brown 发帖为多智能体研究团队招募机器学习工程师
但是,由于智能体千差万别(包括架构、功能和约束条件等),要为它们组成的异构网络设计通信协议并不容易。牛津大学的这个团队将这些难题归因到了三个方面:
- 多功能性:智能体之间的通信应支持内容和格式各异的多种多样的消息;
- 效率:运行智能体的计算成本和通信的网络成本应尽可能低;
- 可移植性:通信协议应尽可能支持更多智能体,同时其实现起来也应不费力。
该团队将这些属性之间的权衡称为智能体通信三难困境(Agent Communication Trilemma),如图 1 所示,具体讨论请参阅原论文。
Agora:LLM 的通信协议层
要解决这个智能体通信三难困境,关键是要接受这一点:并不存在一种能同时实现最佳效率、可移植性和多功能性的协议。
牛津大学的这个团队提出的 Agora 是一种元协议(meta protocol),其利用了 LLM 的特殊能力来解决这个三难问题,具体来说就是为不同的场景采用不同的通信方法。
我们知道,最强大的 LLM 具有三大关键属性:
- 它们可以使用自然语言理解、操纵和回复其它智能体;
- 它们擅长遵循指令,包括编写代码来实现例程;
- 在复杂的场景中,它们可以自主协商协议并就采用的策略和行为达成共识。
究其核心,Agora 会根据不同的情况使用不同的通信格式。
智能体可以支持广泛的通信(高通用性),同时也能通过高效的例程处理总请求量中的大部分(高效率)。此外,整个协商和实现工作流程都由 LLM 处理,无需人类干预(高可移植性)。
Agora 功能的核心是协议文档(PD)这一概念,图 3 给出了其图示。
下面将介绍 Agora 原生支持的通信层级,然后会展示一些示例。
Agora 中的通信
Agora 引入了一种机器可读的方式来传输和引用协议,即协议文档(PD)。PD 就是通信协议的纯文本描述。
PD 是独立的、与实现无关的,并且包含智能体在支持协议方面所需的一切:这就意味着现有协议的大多数描述(如 RFC)也都是合适的 PD。但是 PD 并不依靠某个中央实体来分配标识符,而是通过其哈希值(用于多路复用)进行唯一标识。
在 Agora 中,最常见的通信具有专用的高效例程,而最罕见的通信则使用低效但灵活的 LLM 和自然语言。具体来说:
- 如果可能,则通过传统协议来处理最常见的通信 —— 这些协议有标准的、人工编写的实现(例如 OBP);
- 对于不太常见的通信(或没有标准协议的通信),智能体可以使用结构化数据作为交换媒介(可以由 LLM 编写的例程处理);
- 对于一方智能体常见但对另一方不常见的通信,智能体仍然使用结构化数据,但一方可以选择使用 LLM,而另一方使用例程;
- 对于罕见的通信或例程意外失败的情况,智能体可以使用自然语言。
在处理一个查询时,到底选择使用人工编写的例程、LLM 编写的例程还是 LLM(或三者中的某种组合),则完全由智能体自行决定。这能为智能体在处理查询方面提供最大的灵活性。
这种分层通信支持任意形式的通信(最大通用性),但在实践中,仅在非常少的情况下会调用 LLM(最大效率)。此外,因为 LLM 可以自行实现例程(因为 PD 完全描述了协议的语法和语义),人类程序员只需要提供智能体可以访问的工具的概述,这意味着人类方面所需的实现工作量很小(最大可移植性)。
也就是说,Agora 通过使用例程来处理常见请求,并在智能体需要协商解决方案或发生错误时使用自然语言,从而避开了通信三难困境。
将 Agora 用作一个零层协议
图 2 表明,使用 Agora 无需在乎具体的实现和技术
智能体本身的实现(例如 LLM)、用于存储数据的数据库(例如 VectorDB、SQL、MongoDB 等)、编写实现的语言(Python、Java 等)以及工具的性质都是抽象的。
同时,PD 可以引用其它协议文档,并且由于例程可以调用其它例程,因此智能体可以基于先前的协商来解决更复杂的任务。
最后,基于强大的多功能性和可移植性,Agora 可以非常简单地处理节点的添加或删除、节点功能的更改或网络目标的更改。所有这些因素都有助于使 Agora 成为自然的零层协议,即 LLM 之间高阶通信和协作的基础层。
将 Agora 投入实际应用
为了演示 Agora 的效果,该团队在两个场景中实现了 Agora:
- 双智能体设置:它们的目标是交换一些数据;
- 一个包含 100 个智能体的设置,用于测试 Agora 的可扩展性和 LLM 驱动的智能体在复杂场景中自主协调的能力。
实现细节
在演示中,Agora 的设计遵循三个关键原则:最小化、去中心化、完全向后兼容。从实践角度看,Agora 使用 HTTPS 作为基础通信层,并使用 JSON 作为交换元数据的格式。
演示:检索天气数据
该团队首先演示了包含两个智能体的情况。他们将这两个智能体命名为 Alice 和 Bob。其中 Alice 是一个 Llama-3-405B 驱动的智能体,它管理着一个伦敦导游服务的预订程序。Bob 则是一个 GPT-4o 智能体,其可提供给定日期和地点的天气预报服务。在用户交互之中,如果用户预订的日期预计有雨,则 Alice 会通知用户。
为了检查天气,Alice 首先会使用自然语言向 Bob 发送请求(A1 阶段):
Bob 则会使用其 Toolformer LLM 查询自己的数据库(B1 阶段)并用自然语言给出答复(B2 阶段):
随着时间的推移,A1 和 B2 阶段调用 LLM 的成本会显著超越其它成本,于是 Alice 和 Bob 决定开发一个协议。
Alice 首先会检查 Bob 是否已经支持合适的协议,但没有找到。因此,她决定与 Bob 协商协议。
经过几轮协商,Alice 和 Bob 就以下协议达成一致:Alice 发送一个包含两个字段(位置和日期)的 JSON 文档,然后 Bob 回复一个包含三个字段的 JSON 文档,即温度(以摄氏度为单位)、降水量(以毫米为单位)和天气情况(晴、阴、雨或雪)。
基于此,Alice 在执行查询时只需指定该协议的哈希。下面给出了一个示例:
Alice 和 Bob 都可独立决定编写一个例程来处理自己这边的通信。
从现在开始,Alice 和 Bob 无需使用 LLM 来传输流量数据:现在有一个例程可以自动执行阶段 A1、B1 和 B2,从而免除了调用相应 LLM 的成本。
- 成本分析
在该演示中,协商协议和实施例程的 API 调用成本为 0.043 美元,而一次自然语言交换的平均成本为 0.020 美元。这意味着,只要 Alice 和 Bob 使用商定的协议超过两次,Agora 就能降低总体成本。
最后,该团队也指出,整个通信过程都是在无人类干预的情况下进行的。此外,如果 Bob 变得不可用,Alice 可以简单地将 PD 重新用于一个新节点,即便这个新节点可能使用了不同的 LLM / 数据库 / 技术堆栈。
演示:100 个智能体构成的网络
为了展示 Agora 的扩展能力和涌现行为,该团队研究了一个由 100 个 LLM 智能体构成的网络。
在这个网络中,其中 85 个是助理智能体,15 个是服务智能体。它们全都有 LLM 支持。
服务智能体可提供各种服务,例如预订酒店房间、叫出租车、订餐等。图 4 左给出了一个用于送餐的子网络示例。
在工作过程中,服务智能体必须与多个工具和数据库互动。此外,某些服务智能体还必须与其它服务智能体交互才能完成助理的请求(例如,出租车服务需要使用交通数据智能体来调整行程的预估车费)。
一开始,该团队使用了图 2 所示的底层通信层来启动该网络并提供哪些 URL 对应哪个节点的信息,同时也人工创建了智能体之间的连接链接(例如,出租车服务知道端口 5007 上的是交通服务,但它不知道如何与之通信以及需要什么信息)。
为了展示 Agora 的可移植性,该团队使用了不同的数据库技术(SQL 和 MongoDB)和不同的 LLM,包括开源和闭源模型(GPT-4o、Llama-3-405B 和 Gemini 1.5 Pro)。
然后,它们生成了 1000 个随机查询,其中既有简单查询(例如请求今天的天气),也有更复杂的查询(例如预订滑雪胜地的房间、购买电影票、从菜单中订购每种菜肴等)。
对于每个查询,助理都会收到一个 JSON 文档(代表任务数据),并负责完成请求并返回遵循给定模式的解析响应。
查询按照帕累托分布在助理之间分配,以模拟某些助理发送的请求明显多于其它助理的情况。
每个节点还可以读取 PD 并将其共享到三个协议数据库之一。
总体而言,这些设计决策下得到的网络是一个非常异构的网络,可以测试 Agora 的极限。
- 大型网络中涌现的协议
连接建立并且网络可以发送和接收消息后,该团队观察到了几个值得注意的行为。
随着 PD 在智能体之间逐渐共享(参见图 5b),针对给定任务的适当协议涌现出了去中心化的共识。
举个例子,在订餐任务中,一个智能体会通过查询请求另一个智能体将食物送到某个地址。这个餐厅智能体会向一个送餐服务请求送货司机,接下来送餐服务又会向交通数据智能体查询交通是否顺畅,看能否完成送货。除了直接通信触及的范围,所有智能体都不知道彼此的角色和所涉及的协议。尽管如此,各种智能体之间的交互仍然创造了一个能应付这所有事情的自动化工作流程。如图 4 右所示。
该团队观察到,如果有适当的激励(即效率激励),Agora 中的智能体可以摆脱在大规模通信中常见的更长消息的低效陷阱。
- 成本分析
该团队同样分析了这个更大网络的成本,并与使用自然语言完成所有通信的网络进行了比较。
结果如图 5a 所示,一开始,Agora 的成本效益仅略优于仅依赖自然语言的网络;随着时间的推移,这种差距越来越大,越来越多的 Agora 驱动的节点依赖于 LLM 编写的例程。
在自然语言网络中运行 1000 次查询的 API 查询总成本为 36.23 美元,而 Agora 的成本仅有 7.67 美元:也就是说,使用 Agora 执行此演示比使用常规自然语言便宜约五倍。而如果查询更多,成本差距还会更大。