
DeepSeek 协程异步API 调用与llamafactory本地vllm部署推理
简介
使用协程调用DeepSeek的API,发现效果并不明显,没有加速的效果。
但如是本地部署DeepSeek,本地部署需要支持异步调用,我使用 llamafactory 部署,发现协程加速的效果还是很显著的。
代码实战
调用官方API
DeepSeek官方文档 https://api-docs.deepseek.com/zh-cn/
python 的调用代码如下,该调用方式为同步调用速度很慢。
为了防止在分享代码的时候,导致 API Key 泄露,我把key保存到 .env 文件中,通过load_dotenv
加载密钥。
协程异步调用
注意:异步调用需要使用 await 等待。
下述是tqdm 另外的一种,协程进度条的写法:
上述的异步协程代码,我调用DeepSeek的API,没有加速效果,我怀疑官方进行了限速。
我使用本地llamafactory部署的DeepSeek,上述异步协程的效果加速明显。
llamafactory vllm本地部署 deepseek的脚本,只支持 linux 系统。
deepseek_7B.yaml
文件内容:
linux 部署脚本:
异步协程 方法二
下述是 ChatGPT 生成的另外一种异步协程写法。
(下述方法我没有在本地部署的API上测试过,仅供大家参考)
vllm_infer
如果你是linux系统,那么相比API调用,最快的方式就是vllm推理。
你需要使用下述脚本,
https://github.com/hiyouga/LLaMA-Factory/blob/main/scripts/vllm_infer.py
llamafactory 可以指定自定义的数据集地址,你需要构建相应格式的数据集文件。
数据集文件夹下的文件:
本文转载自AI悠闲区,作者:jieshenai
