在刚刚举行的 ICLR 2024 大会上,智谱AI的大模型技术团队公布了面向激动人心的AGI通用人工智能前景的三大技术趋势,同时预告了GLM的后续升级版本。
前天,智谱大模型开放平台(bigmodel.cn)上线了新的价格体系。入门级产品 GLM-3 Turbo 模型调用价格下调80%!从5元/百万tokens降至1元/百万tokens。1元可以购买100万tokens。
调整后,使用GLM-3 Turbo创作一万条小红书文案(以350字计)将仅需约1元钱,足以让更多企业和个人都能用上这款入门级产品。
来自智谱AI开放平台官网
除了降价,官方还特别提供用户 tokens 优惠计划——从今天起,新注册开放平台用户赠送额度提升500%。开放平台新注册用户获赠从500 万tokens提升至2500万tokens(包含2000万入门级额度和500万企业级额度)。
GLM-3 Turbo(最大支持 128k)是大模型开放平台最受欢迎的模型产品,不仅速度快,而且适用于对知识量、推理能力、创造力要求较高的场景,此次调价后更具竞争力,国内其他128k级别大模型的调用价格大多从百万tokens数元到几十元不等。
企业级产品 GLM-4/GLM-4V 价格仍维持在 0.1元/千 tokens,百万tokens的价格为100元,但作为一款能力逼近GPT-4的国内领先大模型,这一价格还是比较能打。从公开的API 调用收费来看,OpenAI 最新模型 GPT-4 Turbo 每100万tokens输入/输出价格分别是10/30美元。Claude 3 Opus 更贵,每百万tokens输入/输出价格15/75美元。如果折合成人民币,这些数字至少还要乘以7。
SuperBench榜单:GLM-4超过GPT-4系列模型位居第二
对于开发者和企业来说,模型的使用成本是一个重要考量,大模型降价有利于吸引更多的开发者和企业客户,扩大其生态圈。华福证券最近发布报告称,大模型成本优化与算力需求并不是直接的此长彼消,而是互相搭台、相互成就。定价的持续走低有望带来更快的商业化落地,进而会衍生出更多的微调及推理等需求,将逐步盘活国内AI应用及国产算力发展。
这次 API定价更新也体现出智谱AI覆盖开发者用户的决心——单次调用适合对实时性要求高的中小用户;批量调用定价更低,则是为数据量大、对成本敏感的企业及用户量身定制。作为国内应用最为广泛的开放平台,智谱的开放平台上已经聚集了超过数十万的企业和开发者,并且在持续快速增长,过去的半年每日的token消耗增长超过一百倍。比如官方开发的三个调用工具,网页检索、函数调用以及知识库,自从1月上线以来调用次数已经超过 3 亿次。
技术的进步也为降低开发、运行 LLMs 成本提供了现实可能。例如,从基础设施来看,随着一些老款AI芯片(比如 Nvidia A100 )降价,大模型培训成本下降了约60%。英伟达也优化了软件性能,帮助开发者更快训练和运行大模型。研发人员也在模型架构、模型压缩以及GPU调用等方面探索到一些降本增效的办法。
智谱曾表示,通过模型推理算子优化、模型压缩及硬件高效适配、高性能系统实现以及精细化集群调度等技术将 GLM-3 Turbo的推理成本压缩到1/5。自大模型开放平台上线以来,在模型效果和推理性能不断提升的情况下,已累计降价超过百倍。除了降价,智谱AI还宣布包括GLM-3 Turbo 以及最先进基座大模型GLM-4在内的GLM系列模型也将迎来更新,目前正在灰度测试中,很快将和广大开发者和应用者见面。