小模型和开源正在成为AI发展的变数 原创
编译丨诺亚
出品 | 51CTO技术栈(微信号:blog51cto)
在IT行业,“精益”常用来描述追求更高效率和成本效益的流程,生成式AI也不例外。一些企业的AI系统运行成本高达数百万美元,并消耗大量电力,促使企业寻求更高效、精益的AI解决方案。
企业自然倾向于借助公共云快速部署生成式AI,因其提供便捷的一站式服务。大型云服务商已从AI投资中获益。但使用云服务的成本有时会超过传统数据中心,尽管如此,企业仍在寻找有效降低成本的方法,这正是精益AI概念的意义所在。
1.精益AI是如何工作的
精益人工智能是一种战略方法,强调在交付最大商业价值的同时注重效率、成本效益以及最小资源消耗。许多精益人工智能的方法借鉴了最初用于制造业和产品开发的精益管理方法。
精益人工智能侧重于优化人工智能系统的开发、部署和运营。它采用较小的模型、迭代开发实践以及资源高效的技巧来减少浪费。通过优先考虑敏捷的数据驱动决策制定和持续改进,精益人工智能使企业能够以可持续且可扩展的方式利用人工智能的力量。这确保了人工智能计划既具有影响力又经济可行。
如今,企业意识到更大的并不总是更好的。企业人工智能转型的景观由小型语言模型(SLM)和一波开源进展所标志。这种演变是对生成式人工智能系统使用大型语言模型(LLM)所带来的高昂成本和资源需求的一种直接回应。许多企业现在希望重新评估成本与商业价值之间的平衡。
2.大型语言模型的挑战
像OpenAI的GPT-4和Meta的Llama这样的大型语言模型在理解和生成人类语言方面展示了非凡的能力。然而,这些优势伴随着许多越来越难以让企业接受的挑战。这些模型的计算需求及其相应的云成本非常高,给预算带来压力并限制了更广泛的采用。还有能源消耗的问题,这不仅带来了财务负担,也带来了重大的环境影响。
操作延迟是另一个障碍,特别是对于需要实时响应的应用程序而言。我们也不应忽视管理和维护这些庞大模型的复杂性,这些模型需要专门的专业知识和基础设施,而并非所有组织都具备这些条件。
3.转向小型语言模型
在这种背景下,小型语言模型被加速用于生成式人工智能在云端和非云端环境中的部署。它们正越来越多地被视为实用的选择。小型语言模型旨在显著降低计算资源需求和能源消耗。这意味着更低的运营成本和更具吸引力的人工智能计划投资回报率。更快的训练和部署周期也使得小型语言模型对那些需要在快节奏市场中保持敏捷性和响应性的企业更具吸引力。
企业通常不会使用大型语言模型,所以建议它们这样做是不现实的。相反,它们将构建更有针对性的人工智能系统来解决特定的应用场景,例如设备维护、运输物流和制造优化等领域,在这些领域中,精益人工智能方法可以立即产生商业价值。
小型语言模型还加强了定制化。这些模型可以针对具体任务和行业领域进行精细调整,产生专业应用并产生可衡量的商业成果。无论是在客户服务、金融分析还是医疗诊断领域,这些更精简的模型都证明了自己的有效性。
4.开源的优势
开源社区一直是推动小型语言模型进步和采用的驱动力。Meta的新版本Llama 3.1提供了多种大小选项,能够在不过度消耗资源的情况下提供强大的能力。其他模型,如斯坦福大学的Alpaca和Stability AI的StableLM,表明小型模型的表现可以媲美甚至超越其大型对手,尤其是在特定领域的应用中。
来自Hugging Face、IBM的Watsonx.ai等公司的云平台和工具使得这些模型更容易获取,并降低了各类企业的入门门槛。这种人工智能能力的民主化是一个游戏规则改变者。更多的组织可以在不依赖专有且往往价格昂贵的解决方案的情况下融入先进的人工智能技术。
5.企业的转变
采用小型语言模型对企业来说有多重好处:
- 成本效益:这些模型让企业能以更低的成本部署人工智能,这对需要最大化技术投资的初创公司和中小企业尤为重要。
- 敏捷性提升:更快的部署速度和更灵活的定制能力确保AI功能更好地适应不断变化的业务需求。
- 数据隐私与主权:在本地或私有云部署小型模型可以更好地保护数据隐私,满足监管要求并确保数据安全。
- 可持续发展:较低的能源消耗支持企业的环保目标。
借助开源创新,小型语言模型降低了大型AI系统的成本和复杂度,为企业提供了高效、可定制的路径。这种转变提高了AI投资的价值,并促进了可持续且可扩展的增长。在可持续且经济实惠的人工智能领域,小型模型正变得越来越重要。
参考链接:https://www.infoworld.com/article/3480593/small-language-models-and-open-source-are-transforming-ai.html
本文转载自51CTO技术栈,作者:诺亚