本地使用Groq Llama 3 70B的逐步指南

译文
人工智能
本教程将介绍Groq LPU推理引擎以及如何在笔记本电脑上使用API和Jan AI本地访问它。本文还将把它整合到VSCode中,以帮助我们生成代码、重构代码、记入文档并生成测试单元。本文将免费创建我们自己的人工智能编程助手。

译者 | 布加迪

审校 | 重楼

本文介绍了如何使用Groq LPU推理引擎在Jan AI和VSCode中生成超快速响应。

每个人都致力于构建更好的大语言模型(LLM),而Groq专注于AI的基础设施方面,旨在确保这些大模型更快速响应。

本教程将介绍Groq LPU推理引擎以及如何在笔记本电脑上使用API和Jan AI本地访问它。本文还将把它整合到VSCode中,以帮助我们生成代码、重构代码、记入文档并生成测试单元。本文将免费创建我们自己的人工智能编程助手。

Groq LPU推理引擎简介

Groq LPU(语言处理单元)推理引擎旨在为拥有顺序组件的计算密集型应用程序(比如LLM)生成快速响应。

与CPU和GPU相比,LPU拥有更强大的算力,这减少了预测单词所需的时间,大大加快了生成文本序列的速度。此外,与GPU相比,LPU还可以处理内存瓶颈,从而在LLM上提供更好的性能。

简而言之,Groq LPU技术使你的LLM超级快速,实现实时AI应用。不妨阅读Groq ISCA 2022论文(https://wow.groq.com/isca-2022-paper/),以了解关于LPU架构的详细信息。

安装Jan AI

Jan AI是一个桌面应用程序,在本地运行开源和专有的大语言模型。它提供Linux、macOS和Windows版本供人下载。我们将下载Jan AI并安装在Windows中,为此进入到https://github.com/janhq/jan/releases,点击扩展名为“.exe”的文件。

如果你想在本地使用LLM以增强隐私,请阅读《在笔记本电脑上使用LLM的5种方法》博文(https://www.kdnuggets.com/5-ways-to-use-llms-on-your-laptop),开始使用最先进的开源语言模型。

创建Groq Cloud API

要在Jan AI中使用Grog Llama 3,我们需要一个API。为此,我们将进入到https://console.groq.com/,创建一个Groq Cloud帐户。

如果你想要测试Groq提供的各种模型,无需任何设置就能做到这一点,只需进入到Playground选项卡,选择模型,并添加用户输入。

在本文这个例子中,它非常快,每秒生成310个token,这是我迄今见过的最快速度。连Azure AI或OpenAI也无法获得这种类型的结果。

要生成API密钥,点击左侧面板上的“API密钥”按钮,然后点击“创建API密钥”按钮,创建并复制API密钥。

在Jan AI中使用Groq

在下一步中,我们将把Groq Cloud API密钥粘贴到Jan AI应用程序中。

启动Jan AI应用程序,进入到设置,在扩展部分选择“Groq推理引擎”选项,并添加API密钥。

然后,返回到线程窗口。在模型部分,在“Remote”部分选择Groq Llama 370B,开始输入提示。

响应生成的速度太快了,我都跟不上了。

注意:该API的免费版本有一些限制。请访问https://console.groq.com/settings/limits,了解有关它们的更多信息。

在VSCode中使用Groq

接下来,我们将尝试将相同的API密钥粘贴到CodeGPT VSCode扩展中,并构建自己的免费AI编程助手。

在扩展选项卡中搜索CodeGPT扩展,安装它。

CodeGPT选项卡将出现,以便你选择模型提供方。

当你选择Groq作为模型提供方时,它将要求你提供API密钥。只需粘贴相同的API密钥,我们就可以开始了。你甚至可以为CodeGPT生成另一个API密钥。

现在我们将要求它为蛇游戏编写代码。生成并运行代码只花了10秒钟。

下面演示了我们的蛇游戏。

不妨了解五大AI编程助手(https://www.kdnuggets.com/top-5-ai-coding-assistants-you-must-try),成为AI驱动的开发人员和数据科学家。记住,人工智能旨在帮助我们,而不是取代我们,所以不妨对它持开放的心态,用它来提高代码编写水平。

结论

我们在本教程中了解了Groq推理引擎以及如何使用Jan AI Windows应用程序在本地访问它。最后,我们通过使用CodeGPT VSCode扩展,将其整合到我们的工作流中,这真是太棒了。它实时生成响应,以获得更好的开发体验。

原文标题:Using Groq Llama 3 70B Locally: Step by Step Guide,作者:Abid Ali Awan

链接:https://www.kdnuggets.com/using-groq-llama-3-70b-locally-step-by-step-guide。

想了解更多AIGC的内容,请访问:

51CTO AI.x社区

https://www.51cto.com/aigc/

责任编辑:姜华 来源: 51CTO内容精选
相关推荐

2024-09-09 09:20:00

2024-05-30 12:50:05

2024-04-09 13:21:00

AI开源

2024-07-02 09:20:59

2024-08-26 10:00:00

模型数据

2024-04-29 12:14:03

模型数据开源

2024-01-31 09:38:23

AI模型

2024-04-30 08:28:44

开源大模型Llama

2024-01-10 17:10:53

数据训练

2023-10-11 13:21:12

模型数据

2024-07-23 09:20:35

2024-06-19 13:02:01

2024-04-19 10:32:08

2024-04-19 08:01:01

Llama 3 8BMeta

2023-12-13 13:29:00

数据训练

2023-12-05 15:44:46

计算机视觉FastAPI

2024-09-09 08:50:00

2024-11-13 15:00:42

2024-04-26 07:48:45

DockerLLama3模型
点赞
收藏

51CTO技术栈公众号