Open Interpreter 一款通过让大语言模型在本地运行代码的开源神器

人工智能
今天给大家介绍了一下 Open interpreter 的安装方法和简单玩法,这个项目还在高速的迭代中,相信不久的将来将会带来一场变革,不得不说 AI 的时代是真正的到来了,未来几年将会是 AI 产品的井喷时代,作为程序员我们要紧跟时代的步伐不掉队。​

最近在逛 Github 的时候发现了一款神器,叫做 Open Interpreter,主要是用来实现在本地和大语言模型进行交互的,通过大语言模型将自然语言转换为脚本代码,然后在本地执行从而实现目标。

简单来说比如你想在桌面上创建一个名为 joke.txt 文件,你不在需要手动创建,而是通过自然语言告诉  Open Interpreter,让它帮我们生成创建文件的脚本,然后在本地执行,从而生成一个 joke.txt 文件。

我们要做的就是告诉它我们的需求是什么,以及允许它在本地执行代码即可。

如下所示

图片图片

上面的 case 整个过程分三步:

  1. 我们通过自然语言描述一个需求:帮我在桌面上的 open-test 文件中创建一个名为 joke.txt 的文件
  2. Open Interpreter 会将我们的需求进行拆解,并且列出它的执行计划和要执行的命令。
计划:

   1 检查桌面上的 open-test 文件夹是否存在,如果不存在则创建它。
   2 在 open-test 文件夹中创建一个名为 joke.txt 的文件。

  我将使用以下代码来完成这个任务。


  mkdir -p ~/Desktop/open-test && touch ~/Desktop/open-test/joke.txt
  1. 在经过我们的人工确认后进行执行,最终成功的创建出的文件。

这个项目刚刚起步,这个 case 也很简单,但是我们要知道这仿佛打开了另一扇大门,以后只要是通过代码能实现的功能,我们都可以通过自然语言来实现了,想想都很激动(可怕)。

官方的介绍这个工具都可以用来编辑视频以及发送邮件,只能说很有前景。

安装和配置

安装 conda

这个项目的安装也非常简单,正常我们只要在命令行中执行 pip install open-interpreter  即可,但是为了保证环境的稳定,我们这边准备用 conda 进行环境隔离,所以我们首先安装 conda,依次执行下面的命令

# 获取脚本
wget https://repo.anaconda.com/archive/Anaconda3-2023.07-2-Linux-x86_64.sh
# 增加可执行权限
chmod +x Anaconda3-2023.07-2-Linux-x86_64.sh
# 运行安装脚本
./Anaconda3-2023.07-2-Linux-x86_64.sh
# 查询版本
conda -V

如何能正常输出版本号,则表明安装成功,如果提示命令不存在,那我们就需要配置一下环境变量,在

vim .bash_profile
# 加入下面一行
PATH=$PATH:$HOME/bin:$NODE_PATH/bin:/root/anaconda3/bin
# 再次执行
conda -V

图片图片

创建隔离环境

安装完成 conda 过后,我们就创建指定 Python 版本的隔离环境了,通过如下命令

conda create -n python311 pythnotallow=3.11

这行代码的含义是通过 conda create 创建一个名字叫 python311 的隔离环境,隔离环境的 python 版本指定为 3.11,创建完成过后我们可以通过下面的命令查询隔离环境的列表。

conda env list

图片图片

安装 open-interpreter

然后我们进入到隔离环境中,在隔离环境中安装 open interpreter,命令如下

conda activate python311
pip install open-interpreter

等待一会即可安装成功,安装成功过后输入下面命令,即可开启本地大语言模型交互。

interpreter

图片图片

直接输入 interpreter 命令会要求我们输入自己的 OpenAI API key,此时默认使用的 GPT-4 模型,我们可以通过增加 --fast 参数来使用 GPT-3.5,

interpreter --fast

这里我们每次执行都需要手动填入 OpenAI API key 比较麻烦,可以配置一下环境变量

export OPENAI_API_KEY=skxxxx

这样我们后续执行就不用在手动填 OpenAI 的API key 了,如果想用微软的 Azure OpenAI 的话,也是支持的,只要配置下面的环境变量,然后在启动的时候增加 --use-azure 参数就可以了

export AZURE_API_KEY=
export AZURE_API_BASE=
export AZURE_API_VERSION=
export AZURE_DEPLOYMENT_NAME=
interpreter --use-azure

图片图片

本地启动

上面的操作都需要我们有对应 OpenAI 的 API Key 或者 Azure 的 OpenAI 的 endpoint,其实 open interpreter 还支持本地运行,只要在启动的时候增加 --local 参数,然后就让我们选择对应的模型。不过对于本地运行需要我们的电脑配置支持才行,感兴趣的小伙伴可以参考官方文档实践一下,我这边的配置不允许~~

图片图片

总结

今天给大家介绍了一下 Open interpreter 的安装方法和简单玩法,这个项目还在高速的迭代中,相信不久的将来将会带来一场变革,不得不说 AI 的时代是真正的到来了,未来几年将会是 AI 产品的井喷时代,作为程序员我们要紧跟时代的步伐不掉队。

责任编辑:武晓燕 来源: Java极客技术
相关推荐

2023-10-11 09:00:00

2023-09-06 08:19:53

2023-06-08 08:46:37

Motrix下载工具

2024-06-06 08:06:19

鸿蒙大语言模型LLM模型

2022-10-09 10:11:30

Python爬虫神器

2023-04-20 08:00:40

2020-08-28 10:40:13

PythonFaker数据

2020-05-26 14:15:09

开源网盘 免费

2024-05-22 09:36:42

开源NET

2022-04-14 11:09:17

开源项目搜索

2020-12-18 08:38:22

开源前端mitojs

2019-02-25 10:18:43

工具代码测试

2021-07-23 16:50:19

httpJava框架

2024-08-16 08:31:05

2021-06-16 11:25:59

备份命令开源

2021-04-27 09:00:59

PythonAidLearning编程神器

2020-04-30 10:45:14

IDEA代码神器工具

2023-07-05 14:53:49

模型黑马项目Github

2023-09-13 13:32:04

数据库开源

2016-02-15 11:44:23

源码开源项目watch
点赞
收藏

51CTO技术栈公众号