Keras 3.0正式发布!一统TF/PyTorch/Jax三大后端框架,网友:改变游戏规则

开发 架构
您是否需要等到像FlashAttention v2这样的重要特性在JAX、TensorFlow和PyTorch 上都可用后,才能在 Keras 中使用它?还是说您只能在某些特定后端中使用它?

Keras 3.0正式发布,被誉为改变了机器学习游戏规则:

不仅支持TensorFlow、PyTorch、Jax三大框架作为后端,还能在它们之间无缝切换,甚至混合使用。

图片图片

Keras之父François Chollet认为,这样至少可以获得4大好处:

  • 始终让模型获得最佳性能:

JAX通常在GPU、CPU各种PU上都最快,但不使用XLA(加速线性代数)的Tensorflow在GPU上偶尔更快。

Keras 3.0能够动态为模型提供最佳性能的后端,而无需更改代码,保证以最高效率运行。

  • 解锁多个生态系统

任何Keras 3模型都可以作为PyTorch模块实例化,可以导出为TF的SavedModel,或者可以实例化为无状态的 JAX 函数。

这意味着可以将Keras 3模型与PyTorch生态的包,TensorFlow中的部署工具或生产工具,以及JAX大规模TPU训练基础设施一起使用,获得机器学习世界所提供的一切。

  • 在开源社区扩大影响力

如果使用纯TensorFlow或PyTorch实现一个开源模型,都只有大约一半的人能使用。

但如果使用Keras 3,任何人无论偏好哪个框架,(即使不是 Keras 用户)都能立刻使用。在不增加开发成本的情况下,使影响力翻倍。

  • 使用任何来源的数据管道

无论使用哪个后端,Keras 3 都能与tf.data.Dataset对象、PyTorch DataLoader对象、NumPy 数组、Pandas数据框兼容。

这意味着可以在PyTorch DataLoader上训练Keras 3 + TensorFlow模型,或在 tf.data.Dataset上训练Keras 3 + PyTorch模型。

图片图片

不少人都对这一进展表示祝贺,项目参与者、谷歌高级工程师Aakash Kumar Nain认为:

Keras 3再次展示了心智模型的重要性。开发API 是一方面,而开发一个拥有出色心智模型的API则完全是另一个层次的工程实践。

图片图片

也有开发者表示:

很高兴能够通过熟悉的Keras API获得框架可选性,让简单的用例变得容易,复杂的用例也成为可能。

图片图片

欢迎来到多框架机器学习

Keras 3.0发布公告中开篇写到,欢迎来到多框架机器学习。

图片图片

具体来说,Keras 3.0完全重写了框架API,并使其可用于TensorFlow、JAX和PyTorch。

任何仅使用内置层的Keras模型都将立即与所有支持的后端配合使用。

图片图片

使用Keras 3可以创建在任何框架中都能以相同方式工作的组件,允许访问跨所有后端运行的keras.ops命名空间。

只要仅使用keras.ops中的ops,自定义层、损失、指标和优化器等就可以使用相同的代码与JAX、PyTorch和TensorFlow配合使用。这意味着只需维护一个组件实现,就可以在所有框架中使用完全相同的数值。

图片图片

除此之外,还发布了用于大规模数据并行和模型并行的新分布式API,为多设备模型分片问题提供Keras风格的解决方案。

为此设计的API使模型定义、训练逻辑和分片配置完全独立,这意味可以像在单个设备上运行一样编写代码,然后在训练任意模型时将任意分片配置添加到任意模型中。

图片图片

不过新的分布式API目前仅适用于JAX后端,TensorFlow和PyTorch支持即将推出。

图片图片

为适配JAX,还发布了用于层、模型、指标和优化器的新无状态API,添加了相关方法。

图片图片

这些方法没有任何副作用,它们将目标对象的状态变量的当前值作为输入,并返回更新值作为其输出的一部分。

用户不用自己实现这些方法,只要实现了有状态版本,它们就会自动可用。

如果从Keras 2迁移到3,使用tf.keras开发的代码通常可以按原样在Keras 3中使用Tensorflow后端运行。有限数量的不兼容之处也给出了迁移指南。

在旧版Keras 2中开发的预训练模型通常也可以在Keras 3中使用TensorFlow后端开箱即用。

如果旧版模型仅使用了Keras内置层,那么也可以在Keras 3中使用JAX和PyTorch后端开箱即用。

也有人敲警钟

在迫不及待尝试新版本的开发社区氛围中,Cohere机器学习总监Nils Reimers提出“真心希望历史不要重演”,也获得不少关注。

图片图片

Reimers认为,Keras最初从支持单个后端(Theano)开始,陆续添加了Tensorflow、MXNet和CNTK等多后端。

这引发了一系列问题:

  • 某些功能只在特定后端可用
  • 各个后端的计算结果存在不一致:在一个后端上运行正常的代码,在另一个后端可能产生不同结果
  • 对于开源软件开发者来说体验糟糕:你刚完成了一个自定义的 Keras层想要分享?你是否愿意为其他后端重新实现和优化它呢?
  • 调试问题:代码在一个后端上表现完美,但在另一个后端的最新版本上却频繁出错…

随着时间推移,这些问题愈发严重:某些模块只能在 Theano 上运行良好,某些只适用于Tensorflow,还有一些模块可以在MXNet上进行推理,但无法训练…

因此,2019年Keras转向单一后端(Tensorflow),是保障这一伟大项目继续存在的关键之举。

我希望这一次的多后端能有更好的表现,但这无疑仍是一个挑战。

您是否需要等到像FlashAttention v2这样的重要特性在JAX、TensorFlow和PyTorch 上都可用后,才能在 Keras 中使用它?还是说您只能在某些特定后端中使用它?

对于未来,我们还面临着许多未解决的挑战。

参考链接:
[1]https://keras.io/keras_3/[2]https://x.com/sampathweb/status/1729556960314339534[3]https://twitter.com/Nils_Reimers/status/1729612017340657993


责任编辑:武晓燕 来源: 量子位
相关推荐

2023-11-29 12:57:37

AI训练

2018-12-07 16:08:28

Aruba网络管理

2024-10-12 08:35:32

2024-03-12 13:26:46

2013-08-14 10:43:37

2023-05-25 13:39:00

AI功能分隔带

2023-05-11 14:07:29

2012-10-25 13:46:42

2021-10-15 11:28:06

物联网边缘计算IoT

2019-07-25 06:49:26

2024-07-17 08:27:29

2011-12-28 21:12:10

移动支付

2024-02-23 16:12:47

2020-08-19 09:45:10

IBMAIOps混合多云管理

2018-01-14 16:01:33

2016-06-30 10:38:34

大数据备份恢复

2016-09-10 08:20:09

IBM

2023-03-21 08:02:34

架构React服务器

2023-08-04 08:00:00

ControlNet医学图像

2023-08-11 08:00:00

人工智能Keras 3.0
点赞
收藏

51CTO技术栈公众号