Bard 聊天机器人实用性遭谷歌内部人士质疑

人工智能
谷歌和 Discord 共同邀请自家 AI 聊天机器人 Bard 的忠实用户,设立一个聊天室。其中,Bard 的产品经理、设计师和工程师在聊天室内讨论了 AI 的有效性和实用性,但也有一些人开始提出质疑。

10 月 12 日消息,据彭博社昨晚报道,谷歌和 Discord 共同邀请自家 AI 聊天机器人 Bard 的忠实用户,设立一个聊天室。其中,Bard 的产品经理、设计师和工程师在聊天室内讨论了 AI 的有效性和实用性,但也有一些人开始提出质疑。

Discord 上 Bard 社区的两名参与者向彭博社分享了 7 月-10 月期间聊天室内的讨论细节。Bard 的高级产品经理 Dominik Rabiej 在讨论中表示,自己“不信任”大语言模型生成的回复答案,并建议人们仅在“创意”“头脑风暴”等方面使用 Bard。Rabiej 还表示,将 Bard 用于编程“也是一个不错的选择”—— 因为人们不可避免地要验证代码是否有效。

此外,Rabiej 还在本月强调了 Bard 中新增的“仔细检查回复”按钮的重要性。据称,该功能会用橙色来突出显示“可能不正确的”内容。他还重申,Bard 并无法真正理解自己获取的文本,只是根据用户的提示用更多文本进行回复。“请记住,Bard 和任何大模型一样都是生成式的 —— 它不是在帮你查资料或做总结,而是在生成文本。

这名产品经理曾在 7 月份的一次聊天中直言道,除非(用户自己)能独立验证,否则不要相信大语言模型的输出结果。“我们也想让它达到你们的预期,但它还没有。”

另一位产品经理 Warkentin 也在讨论中写道,“人性化的改进至关重要,只有这样 Bard 才能成为一款适合所有人的产品。否则,用户就没有能力来评判产品的功能,我认为这将是一个巨大的错误。”“我们不需要在象牙塔中的产品,而是所有人都能受用的产品!”

IT之家此前报道,谷歌今年 7 月扩大部署 Bard AI 工具时,加入了“分享对话链接”的功能。用户可以将他和 Bard 的对话以网页链接形式导出,分享给他人,让别人继续和 Bard 展开对话。

而 X 平台一名分析顾问 Gagan Ghotra 发现了这一漏洞,谷歌错误将部分用户分享的链接,作为索引加入搜索结果中,从而导致了相关敏感信息外泄。

Gagan Ghotra 据此警告用户与不要在和 Bard 对话时分享任何“私密性内容”,否则相关信息可能外泄

责任编辑:庞桂玉 来源: IT之家
相关推荐

2023-10-29 21:20:04

谷歌Bard聊天机器人

2023-05-11 09:57:27

谷歌OpenAI开发聊天机器人

2023-06-14 08:09:19

聊天机器人谷歌

2023-05-16 12:49:02

谷歌聊天机器人AI

2023-03-21 23:50:16

人工智能机器人ChatGPT

2023-05-11 06:59:40

谷歌AI 聊天机器人

2023-06-19 12:03:52

聊天机器人Bard

2022-07-05 06:42:01

聊天机器人人工智能

2023-04-12 14:10:30

谷歌Bard聊天机器

2020-02-02 09:19:14

聊天机器人机器人智能

2019-12-19 16:08:40

人工智能机器人数据

2022-07-03 10:23:06

机器人场景个性化

2023-02-13 11:42:39

2023-06-12 08:25:33

2016-02-16 14:46:33

聊天机器人机器学习自然语言

2023-06-29 15:04:21

微软ChatGPT

2023-12-18 19:05:34

2017-03-28 12:21:21

机器人定义

2023-04-08 11:13:44

OpenAIChatGPT
点赞
收藏

51CTO技术栈公众号