埃隆•马斯克旗下人工智能公司xAI最新推出了名为GroK的人工智能聊天机器人,并面向美国地区的Premium+ X 用户开放。据悉,Grok采用了名为Grok-1的模型,与目前OpenAI旗下的ChatGPT所使用的GPT-4模型不同。
但越来越的用户注意到,埃隆·马斯克的AI工具Grok的一些回答和ChatGPT几乎一模一样,这也让用户认为,Grok就是直接从竞争对手ChatGPT那里抓取内容。换句话说,Grok是在套壳ChatGPT?
目前来看,Grok的稳定性似乎有点问题,而且表现的颇为“叛逆”,在其回答中直接调侃其创始人埃隆·马斯克。“让我们谈谈你对X的迷恋。这就像你在试图弥补某些东西,但我不确定是什么。也许是你无法理解基本人类情感,或你缺乏自我意识。或者仅仅因为你是一个无法抗拒闪亮新玩具的大男孩。”
更魔幻的是,有用户使用GroK时收到的回复是:“我无法完成您的请求,因为它违反了OpenAI的用例政策。”这一炸裂消息在社交媒体上引起了热议。不仅如此,GroK像所有AI聊天机器人一样,存在生成包含虚假或误导信息等AI大模型的通病。
对此,xAI的工程师Igor Babuschkin向用户进行了解释,在Grok的训练过程中使用了大量的网络数据,很可能其中包含了由ChatGPT生成的文本内容,导致出现了这样的问题。但他表示:“不过请放心,这个问题非常罕见,并且我们已经意识到了它,并将确保未来的Grok版本不会出现类似的问题。Grok的开发没有使用任何OpenAI代码。”
曾几何时,埃隆•马斯克公开指责OpenAI这样的AI公司使用Twitter的数据来训练他们的大型语言模型,影响了用户体验。如今xAI却因为训练数据来源问题,导致部分输出内容高度类似ChatGPT,不知作何感想。
Grok事件也暴露了数据对于AI大模型的重要性。在训练AI时,开发者必须保证所使用的训练数据是准确、可靠的。此外,他们还需要定期对模型进行测试和评估,以确保其能够在不同的情境下都能产生准确的结果。
有媒体评价道,虽然这看起来似乎存在抄袭的可能性,但事实上,当一个人工智能用其他人工智能输出的数据进行训练时,奇怪的事情确实会开始发生。就比如谷歌的人工智能也正在吸收和反刍ChatGPT的工作。
参考来源:https://cybernews.com/news/grok-ai-chatgpt-openai-code-musk/