
回复
LocalAPI.ai 是一个开源的在线调用系统,专注于提供基于浏览器的 Ollama WEB UI客户端。该系统致力于为用户提供便捷、安全的 AI 服务体验,允许用户无需安装第三方软件即使用可进行智能对话、文本生成、模型管理等功能,并且支持在移动端(手机)进行远程使用。
在线体验: http://www.LocalAPI.ai
Github地址:https://github.com/vam876/LocalAPI.AI/
• PC版本功能演示
• 移动端版本功能演示
• 远程调用:支持通过 API 远程调用 Ollama 模型,实现云端计算资源的高效利用。
• 兼容移动端:优化了浏览器的适配,用户可以在手机等移动设备上流畅地访问系统,进行远程模型调用和相关操作。
• 安全性增强:提供身份验证和访问控制机制,确保模型调用的安全性。
• 多模型支持:支持多种 Ollama 模型,满足不同场景下的需求。
• 代码高亮显示:在交互界面中,代码片段会自动进行语法高亮显示,提升代码可读性和编写效率。
可直接下载集成LocalAPI.ai的Nginx,修改nginx.conf配置文件中的的Ollama API地址既可以一键启动 https://github.com/vam876/LocalAPI.AI/releases/tag/Bete
将以下文件部署到 web 服务即可快速访问:
使用 Nginx 反向代理(推荐)
利用 Nginx 的反向代理功能可以无需解决跨域限制,快速启动服务。以下是一个示例配置: