谷歌被曝正使用 Anthropic 的 Claude 模型来改进其 Gemini AI

人工智能
据 TechCrunch 获得的内部通信内容显示,参与改进谷歌 Gemini 人工智能模型的承包商正在将其答案与 Anthropic 的竞品模型 Claude 的输出进行比较。此举引发了谷歌是否获得 Anthropic 授权使用 Claude 进行测试的合规性质疑。

12 月 25 日消息,据 TechCrunch 获得的内部通信内容显示,参与改进谷歌 Gemini 人工智能模型的承包商正在将其答案与 Anthropic 的竞品模型 Claude 的输出进行比较。此举引发了谷歌是否获得 Anthropic 授权使用 Claude 进行测试的合规性质疑。

IT之家注意到,在科技公司竞相开发更优秀 AI 模型的当下,模型性能的评估通常通过行业基准测试进行,而非由承包商耗费大量精力评估竞争对手的 AI 回复。然而,Gemini 的承包商需要根据多个标准(例如真实性和冗长性)对看到的每个回复进行评分。根据 TechCrunch 获得的通信内容,承包商最多有 30 分钟的时间来判断 Gemini 或 Claude 的答案哪个更好。

内部聊天记录显示,承包商注意到 Claude 的回复似乎比 Gemini 更强调安全性。一位承包商写道:“在所有 AI 模型中,Claude 的安全设置是最严格的。”在某些情况下,Claude 不会回应其认为不安全的提示词(prompt),例如扮演不同的 AI 助手。在另一次测试中,Claude 避免回答某个提示词,而 Gemini 的回复则因包含“裸体和束缚”而被标记为“严重的安全违规”。

Anthropic 的商业服务条款禁止客户未经 Anthropic 批准访问 Claude“以构建竞争产品或服务”或“训练竞争 AI 模型”。谷歌是 Anthropic 的主要投资者。

对此,谷歌 DeepMind(负责 Gemini)发言人 McNamara 表示,DeepMind 确实会“比较模型输出”以进行评估,但并未在 Anthropic 模型上训练 Gemini。“当然,按照行业惯例,在某些情况下,我们会比较模型输出作为评估过程的一部分,”McNamara 说,“然而,任何关于我们使用 Anthropic 模型训练 Gemini 的说法都是不准确的。”

责任编辑:庞桂玉 来源: IT之家
相关推荐

2023-12-07 11:12:54

大型语言模型Gemini人工智能

2023-06-28 08:36:44

大语言模型人工智能

2023-09-19 20:47:59

谷歌人工智能

2024-01-31 13:42:05

模型训练

2024-12-18 13:24:30

谷歌AI大语言模型

2023-12-07 19:01:25

2023-12-12 10:57:05

AI谷歌

2023-05-17 00:22:15

2024-10-23 08:54:07

2024-11-15 13:09:41

2024-06-03 08:40:00

2023-12-25 13:00:00

数据训练

2024-04-17 16:51:17

2023-12-08 13:07:49

GeminiGPT-4人工智能

2024-07-17 13:41:47

2024-03-05 11:17:40

AI模型

2023-09-20 11:27:49

人工智能AI

2024-03-22 14:52:02

AI人工智能

2023-12-07 11:11:01

2024-02-23 07:15:16

生成式 AIGemini 模型浏览器
点赞
收藏

51CTO技术栈公众号