探索云原生环境中的人工智能和机器学习

译文 精选
云计算 云原生 机器学习
人工智能/机器学习技术与云原生环境中的集成提供了一些令人兴奋的功能,但却并非没有挑战。

译者 | 晶颜

审校 | 重楼

在我们的行业中,很少有组合能像人工智能(AI)和机器学习(ML)与云原生环境的结合那样令人兴奋并改变游戏规则。这是一个为创新、可扩展性、甚至成本效率而生的“联盟”。接下来,就让我们走进这个数据科学与云相遇的动态世界吧!

在我们探索AI/ML和云原生技术之间的协同作用之前,先来了解一些基础概念。

  • 人工智能(AI):一个宽泛的概念,指的是模仿人类智能的机器。
  • 机器学习(ML):“教”机器执行特定任务并通过模式识别产生准确输出的过程。
  • 云原生:一种利用现代云基础设施来构建可扩展、有弹性和灵活的应用程序的设计范式——在Kubernetes编排的Docker容器中构建微服务,并通过CI/CD管道持续部署。

AI/ML和云原生的融合

在云原生环境中实现AI和ML有哪些好处呢?

可扩展性

你是否曾经尝试过手动扩展ML模型,因为它受到无数请求的轰炸?这个过程显然并不轻松。但有了云原生平台,扩展就像周日下午在公园散步一样容易。例如,Kubernetes可以根据实时指标自动扩展运行AI模型的pod,这意味着你的AI模型即使在受到胁迫的情况下也能表现良好。

敏捷性

在云原生世界中,微服务架构意味着你的AI/ML组件可以独立开发、更新和部署。这种模块化促进了敏捷性,使你能够快速地进行创新和迭代,而不必担心破坏整个系统。这就像你可以在开车的时候换掉汽车引擎的部件来实现安全更新一样。

成本效率

无服务器计算平台(如AWS Lambda、Google Cloud Functions和Azure Functions)允许你仅在需要时运行AI/ML工作负载,无需再为闲置的计算资源付费。这相当于在你离开房间时关掉灯,简单、智能又经济。它对于间歇性或不可预测的工作负载也特别有利。

协作

云原生环境使数据科学家、开发人员和运营团队之间的协作变得轻而易举。有了集中的存储库、版本控制和CI/CD管道,每个人都可以在相同的ML生命周期中和谐地工作。

云原生环境中AI/ML的热门应用

虽然大多数公众是通过与生成式AI聊天机器人的互动认识了AI/ML技术,但很少有人意识到AI/ML已经在多大程度上增强了他们的在线体验。以下是云原生环境中AI/ML的一些热门用例:

AI驱动的DevOps(AIOps)

通过使用AI/ML强化DevOps流程,你可以自动进行事件检测、根本原因分析和预测性维护。此外,将AI/ML与可观察性工具和CI/CD管道集成可以提高运营效率并减少服务停机时间。

Kubernetes + AI/ML

Kubernetes是长期以来容器编排的实际平台,现在也是编排AI/ML工作负载的首选。Kubeflow等项目简化了Kubernetes上机器学习管道的部署和管理,这意味着你可以获得对模型训练、调优和服务的端到端支持。

边缘计算

边缘计算处理AI/ML工作负载更接近数据生成的位置,这大大减少了延迟。通过在边缘位置部署轻量级人工智能模型,企业可以对物联网传感器、摄像头和移动设备(甚至是智能冰箱)等设备进行实时推断。

联邦学习

联邦学习不需要组织为了协作训练人工智能模型而共享原始数据。对于医疗保健和金融等具有严格隐私和合规法规的行业来说,这是一个很好的解决方案。

MLOps

MLOps将DevOps实践集成到机器学习生命周期中。MLflow、TFX (TensorFlow Extended)和Seldon Core等工具使人工智能模型的持续集成和部署成为现实。MLOps是比DevOps更智能的存在。

AI/ML集成带来的挑战

集成让事情变得有趣,但这一切也伴随着挑战。

复杂性

将AI/ML工作流程与云原生基础设施集成并不适合谨小慎微的人。管理依赖关系、确保数据一致性和编排分布式训练过程都充满复杂性,需要强大的技能支持和知识储备。

延迟和数据传输

对于实时AI/ML应用程序,延迟可能是一个关键问题。在存储节点和计算节点之间移动大量数据会带来延迟。边缘计算解决方案可以通过更靠近数据源处理数据来缓解这一问题。

成本管理

云的现收现付模式很棒,直到不受控制的资源分配开始蚕食你的预算。实施资源配额、自动扩展策略和成本监控工具是你的财务安全网。

AI/ML实践指南

1. 模块化!使用微服务的原则来设计你的AI/ML应用。解耦数据预处理、模型训练和推理组件,以实现独立扩展和更新。

2. 利用托管服务:云提供商提供AI/ML服务,以简化基础设施管理并加速开发。

3. 观察模型:将AI/ML工作负载与可观察性工具集成—访问有关资源使用、模型性能和系统健康状况的指标可以帮助你主动检测和解决问题。

4. 保护数据和模型:使用加密、访问控制和安全存储解决方案来保护敏感数据和人工智能模型。

结语

AI/ML技术与云原生环境中的集成提供了可扩展性、敏捷性和成本效率,同时增强了团队之间的协作。然而,驾驭这一格局也面临着一系列挑战,涉及管理复杂性、确保数据隐私以及成本控制等问题。

此外,一些热门趋势同样值得关注,比如AIOps为DevOps带来智慧;联合学习让组织在不共享数据的情况下共享智能。利用这些技术的关键在于最佳实践:考虑模块化设计、强大的监控以及通过可观察性工具获得洞察力。

AI/ML在云原生环境中的未来并不仅仅是紧跟最新的技术潮流。它是关于构建更加智能、有弹性和适应性的系统,让科幻电影中的设想成为现实。现在,请保持你的算法敏锐,你的云同步,一起见证接下来会发生什么吧!

原文标题:Artificial Intelligence and Machine Learning in Cloud-Native Environments,作者:Reese Lee

责任编辑:华轩 来源: 51CTO
相关推荐

2023-02-07 10:28:39

2023-03-01 11:18:59

人工智能机器学习

2020-05-15 11:20:16

网络安全人工智能技术

2022-01-22 19:21:38

人工智能AI机器视觉

2021-06-15 08:00:00

人工智能机器学习应用

2022-06-17 11:13:33

物联网人工智能边缘计算

2023-05-22 19:16:09

人工智能机器人

2019-11-20 15:36:23

人工智能AI机器学习

2021-01-27 11:56:45

AIops人工智能AI

2018-05-28 11:41:39

AR

2022-07-22 18:47:30

AIOmniverse

2021-12-02 10:18:12

计算智能人工智能机器学习

2021-04-16 09:53:45

人工智能机器学习深度学习

2020-09-07 11:28:09

人工智能机器学习AI

2015-10-10 09:32:24

机器学习人工智能

2022-06-27 10:36:43

工业4.0人工智能

2023-08-30 14:08:44

人工智能机器人

2017-03-18 16:28:40

人工智能机器学习深度学习

2021-02-26 10:02:13

人工智能深度学习机器学习

2022-06-01 14:33:59

人工智能交通运输机器学习
点赞
收藏

51CTO技术栈公众号