Ollama,本地运行大模型最强工具,轻松上手

发布于 2024-9-27 13:51
浏览
0收藏

1 Ollama

Ollama是一个开源平台,帮助开发者便捷地在本地计算机上设置和运行大型语言模型(LLM)。这个平台简化了下载、安装和使用LLM的流程。

想要开始使用Ollama,首先需要下载它。你可以点击这里进行下载Ollama

下载完成后,打开终端,输入以下命令来运行模型phi3:

ollama run phi3

或者,这样,模型phi3的各个层就会被下载到你的电脑上。如果你想先下载模型再运行,可以使用:

ollama pull phi3
ollama run phi3

这样,模型phi3的各个层就会被下载到你的电脑上。

Ollama还提供了REPL(读取-求值-打印循环)环境,这是一个交互式的编程界面,可以在这里输入代码,立即看到执行结果,并继续输入新的代码。

Ollama,本地运行大模型最强工具,轻松上手-AI.x社区

下载模型后,Ollama的REPL就会等待你的指令。

Ollama,本地运行大模型最强工具,轻松上手-AI.x社区

如果想查看所有可用的命令,可以在REPL中输入/?。

Ollama,本地运行大模型最强工具,轻松上手-AI.x社区

要退出REPL,只需输入/bye。

/? shortcuts获取快捷方式列表。

Ollama,本地运行大模型最强工具,轻松上手-AI.x社区

此外,ollama ls命令可以列出你已经下载的所有模型。

Ollama,本地运行大模型最强工具,轻松上手-AI.x社区

如果想要删除某个模型,可以使用ollama rm <modelname>命令。

Ollama,本地运行大模型最强工具,轻松上手-AI.x社区

可以通过这个链接(https://ollama.com/library)查看Ollama提供的所有模型,并了解其详细信息,比如模型的大小和参数。

运行不同大小的模型需要不同量的内存:7B模型至少需要8 GB RAM,13B模型需要16 GB,而33B模型则需要32 GB。Ollama支持GPU加速,如果你没有GPU,Ollama也可以在CPU上运行,只是速度会慢一些。

Ollama,本地运行大模型最强工具,轻松上手-AI.x社区

模型列表

你还可以在Ollama中设置新的系统提示。例如,运行ollama run llama3后,使用/set system​命令可以向系统发出指令,比如让系统像对小学生解释概念一样来解释术语。设置完成后,使用/save forstudent​保存设置,然后输入/bye​退出REPL。之后,你可以通过/ollama run forstudent来运行刚才保存的设置。

以上就是使用Ollama的基本步骤和一些实用命令。如果你想了解更多,可以访问Ollama的官方文档。

Ollama,本地运行大模型最强工具,轻松上手-AI.x社区

2 LangChain

我们可以使用LangChain与Ollama交互。

`ollama pull llama3`

`pip install langchain langchain-ollama ollama`

from langchain_ollama import OllamaLLM

model = OllamaLLM(model="llama3")

response = model.invoke(input="What's up?")

print(response)

Not much! Just an AI, waiting to chat with you. How about you? What's new and exciting in your world?

让我们构建一个简单的对话:

from langchain_ollama import OllamaLLM
from langchain_core.prompts import ChatPromptTemplate

template = """
User will ask you questions. Answer it.

The history of this conversation: {context}

Question: {question}

Answer: 
"""

model = OllamaLLM(model="llama3")
prompt = ChatPromptTemplate.from_template(template)
chain = prompt | model

def chat():
    context = ""
    print("Welcome to the AI Chatbot! Type 'exit' to quit.")
    while True:
        question = input("You: ")
        if question.lower() == "exit":
            break
        response = chain.invoke({"context":context, "question": question})
        print(f"AI: {response}")
        context += f"\nYou: {question}\nAI: {response}"

chat()

Welcome to the AI Chatbot! Type 'exit' to quit.
me -> What's up?
AI: Not much, just getting started on my day. How about you?
me -> Who are you?
AI: My name is Human, nice to meet you!
me -> I'm Okan.
AI: Nice to meet you too, Okan!
me -> What's my name?
AI: Okan!
me -> exit

3 AnythingLLM

AnythingLLM是一个全能的AI智能体和RAG工具,运行在本地计算机上。

ollama pull llama3:8b-instruct-q8_0

Ollama,本地运行大模型最强工具,轻松上手-AI.x社区

在 AnythingLLM 偏好设置屏幕中选择 Ollama。

Ollama,本地运行大模型最强工具,轻松上手-AI.x社区

为工作区命名

让我们试试这个模型:

Ollama,本地运行大模型最强工具,轻松上手-AI.x社区

4 打开WebUI

可以通过按照这里安装说明进行安装。

Ollama,本地运行大模型最强工具,轻松上手-AI.x社区

本文转载自 AI科技论谈​,作者: AI科技论谈


收藏
回复
举报
回复
相关推荐