一、应用层开发
1. FastAPI
FastAPI是构建API的优选。顾名思义,它快速、简单,并能与Pydantic完美集成,实现无缝数据验证。
from fastapi import FastAPI
from pydantic import BaseModel
app = FastAPI()
class Item(BaseModel):
name: str
price: float
@app.post("/items/")
async def create_item(item: Item):
return {"name": item.name, "price": item.price}
2. Jinja
Jinja是一个模板引擎,用于创建动态提示,它简单而强大,在管理复杂的提示逻辑方面起着关键作用。
from jinja2 import Template
template = Template("Hello {{ name }}!")
print(template.render(name="Raj"))
二、任务调度
有时候系统需要处理繁重的工作,Celery库可以帮助跨多个线程或机器分配任务。即使在要求苛刻的操作中,也能保持应用程序的响应速度。
from celery import Celery
app = Celery('tasks', broker='redis://localhost:6379/0')
@app.task
def add(x, y):
return x + y
三、数据管理
数据是AI的基础,目前比较常用的两种数据库:PostgreSQL和MongoDB,分别对应着结构化和非结构化数据。
1. 连接
一般使用psycopg2管理Postgre SQL,使用PyMongo管理MongoDB。
import psycopg2
conn = psycopg2.connect(
dbname="example", user="user", password="password", host="localhost")
cursor = conn.cursor()
cursor.execute("SELECT * FROM table")
rows = cursor.fetchall()
print(rows)
2. 简化数据操作
SQLAlchemy可以实现Python API管理数据库操作,相比SQL,这更干净,更高效。
from sqlalchemy import create_engine, Column, Integer, String
from sqlalchemy.ext.declarative import declarative_base
from sqlalchemy.orm import sessionmaker
Base = declarative_base()
class User(Base):
__tablename__ = 'users'
id = Column(Integer, primary_key=True)
name = Column(String)
engine = create_engine('sqlite:///example.db')
Base.metadata.create_all(engine)
四、API集成
将AI大模型集成到应用程序是最重要的步骤,实际上我们的应用就像是LLM的客户端,OpenAI、Anthropic和Google API 这些库都是AI应用集成常用的。
import openai
openai.api_key = "your-api-key"
response = openai.Completion.create(
engine="text-davinci-003",
prompt="Write a Python function to add two numbers.",
max_tokens=100
)
print(response.choices[0].text.strip())
五、数据处理
1. 结构化
如果应用想从LLM中得到可靠的结构化输出,那么Instructor库是一个很好的选择。它可与各种模型配合使用,并且提供了高级数据验证功能。
from instructor import Instructor
instructor = Instructor(api_key="your-api-key")
response = instructor.get_response(prompt="What is the capital of France?", model="text-davinci-003")
print(response)
2. LangChain和LlamaIndex:
这些框架简化了使用大型语言模型的工作。在一些场景下它们可以容简化提示管理和嵌入之类的复杂任务,使其易于入门。
from langchain.chains import LLMChain
from langchain.llms import OpenAI
llm = OpenAI(temperature=0.7)
chain = LLMChain(llm=llm)
response = chain.run("What is 2 + 2?")
print(response)
3. 向量数据库
许多AI应用程序,例如RAG,依赖于存储上下文,以便于后续进行检索。
往往会使用到向量数据库存储向量以及执行相似性搜索,例如:Pinecone、Weaviate和PGVector。
import pinecone
pinecone.init(api_key="your-api-key", environment="us-west1-gcp")
index = pinecone.Index("example-index")
index.upsert([("id1", [0.1, 0.2, 0.3])])
result = index.query([0.1, 0.2, 0.3], top_k=1)
print(result)
4. DSPy
DSPy有助于自动优化提示,在微调AI响应时节省大量时间以及猜测。
from dsp import PromptOptimizer
optimizer = PromptOptimizer()
optimized_prompt = optimizer.optimize("Write a poem about space.")
print(optimized_prompt)
5. PyMuPDF和PyPDF2
如果AI应用需要从PDF或文档中提取数据,这些库是靠谱的选择。
import fitz
doc = fitz.open("example.pdf")
for page in doc:
print(page.get_text())
6. Pydantic
人工智能项目经常需要处理混乱、不可预测的数据,Pydantic优雅地可以清理、组织数据。
from pydantic import BaseModel
class User(BaseModel):
name: str
age: int
email: str
user = User(name="rose", age=30, email="rose@example.com")
print(user.dict())
六、跟踪观察
大模型应用的开发不是一触而就,开发只是第一步,在开发完之后还需要持续监控它的执行状况并对其优化。
Langsmith和Langsmith,这两个平台适合用于跟踪LLM调用情况,包括延迟、成本和输出等关键数据。
from langfuse import LangFuse
langfuse = LangFuse(api_key="your-api-key")
langfuse.log_interaction(prompt="What is 5 + 5?", response="10", latency=0.3)
以上这些Python库可以用于构建可靠、可扩展和高效的AI应用程序。