Keras 3.0发布!TF/PyTorch/Jax无缝混合使用

发布时间:2023-11-29 15:08:24 浏览量:104次

改变游戏规则

梦晨 发自 凹非寺
|  

Keras 3.0正式发布,被誉为改变了机器学习游戏规则:

不仅支持TensorFlow、PyTorch、Jax三大框架作为后端,还能在它们之间无缝切换,甚至混合使用

Keras 3.0发布!TF/PyTorch/Jax无缝混合使用,作者:欢迎来到多框架机器学习

Keras之父François Chollet认为,这样至少可以获得4大好处:

  • 始终让模型获得最佳性能:

JAX通常在GPU、CPU各种PU上都最快,但不使用XLA(加速线性代数)的Tensorflow在GPU上偶尔更快。

Keras 3.0能够动态为模型提供最佳性能的后端,而无需更改代码,保证以最高效率运行。

  • 解锁多个生态系统

任何Keras 3模型都可以作为PyTorch模块实例化,可以导出为TF的SavedModel,或者可以实例化为无状态的 JAX 函数。

这意味着可以将Keras 3模型与PyTorch生态的包,TensorFlow中的部署工具或生产工具,以及JAX大规模TPU训练基础设施一起使用,获得机器学习世界所提供的一切。

  • 在开源社区扩大影响力

如果使用纯TensorFlow或PyTorch实现一个开源模型,都只有大约一半的人能使用。

但如果使用Keras 3,任何人无论偏好哪个框架,(即使不是 Keras 用户)都能立刻使用。在不增加开发成本的情况下,使影响力翻倍。

  • 使用任何来源的数据管道

无论使用哪个后端,Keras 3 都能与tf.data.Dataset对象、PyTorch DataLoader对象、NumPy 数组、Pandas数据框兼容。

这意味着可以在PyTorch DataLoader上训练Keras 3 + TensorFlow模型,或在 tf.data.Dataset上训练Keras 3 + PyTorch模型。

Keras 3.0发布!TF/PyTorch/Jax无缝混合使用,作者:欢迎来到多框架机器学习

不少人都对这一进展表示祝贺,项目参与者、谷歌高级工程师Aakash Kumar Nain认为:

Keras 3再次展示了心智模型的重要性。开发API 是一方面,而开发一个拥有出色心智模型的API则完全是另一个层次的工程实践。

Keras 3.0发布!TF/PyTorch/Jax无缝混合使用,作者:欢迎来到多框架机器学习

也有开发者表示:

很高兴能够通过熟悉的Keras API获得框架可选性,让简单的用例变得容易,复杂的用例也成为可能。

Keras 3.0发布!TF/PyTorch/Jax无缝混合使用,作者:欢迎来到多框架机器学习

欢迎来到多框架机器学习

Keras 3.0发布公告中开篇写到,欢迎来到多框架机器学习。

Keras 3.0发布!TF/PyTorch/Jax无缝混合使用,作者:欢迎来到多框架机器学习

具体来说,Keras 3.0完全重写了框架API,并使其可用于TensorFlow、JAX和PyTorch。

任何仅使用内置层的Keras模型都将立即与所有支持的后端配合使用。

Keras 3.0发布!TF/PyTorch/Jax无缝混合使用,作者:欢迎来到多框架机器学习

使用Keras 3可以创建在任何框架中都能以相同方式工作的组件,允许访问跨所有后端运行的keras.ops命名空间。

只要仅使用keras.ops中的ops,自定义层、损失、指标和优化器等就可以使用相同的代码与JAX、PyTorch和TensorFlow配合使用。这意味着只需维护一个组件实现,就可以在所有框架中使用完全相同的数值。

Keras 3.0发布!TF/PyTorch/Jax无缝混合使用,作者:欢迎来到多框架机器学习

除此之外,还发布了用于大规模数据并行和模型并行的新分布式API,为多设备模型分片问题提供Keras风格的解决方案。

为此设计的API使模型定义、训练逻辑和分片配置完全独立,这意味可以像在单个设备上运行一样编写代码,然后在训练任意模型时将任意分片配置添加到任意模型中。

Keras 3.0发布!TF/PyTorch/Jax无缝混合使用,作者:欢迎来到多框架机器学习

不过新的分布式API目前仅适用于JAX后端,TensorFlow和PyTorch支持即将推出。

Keras 3.0发布!TF/PyTorch/Jax无缝混合使用,作者:欢迎来到多框架机器学习

为适配JAX,还发布了用于层、模型、指标和优化器的新无状态API,添加了相关方法。

Keras 3.0发布!TF/PyTorch/Jax无缝混合使用,作者:欢迎来到多框架机器学习

这些方法没有任何副作用,它们将目标对象的状态变量的当前值作为输入,并返回更新值作为其输出的一部分。

用户不用自己实现这些方法,只要实现了有状态版本,它们就会自动可用。

如果从Keras 2迁移到3,使用tf.keras开发的代码通常可以按原样在Keras 3中使用Tensorflow后端运行。有限数量的不兼容之处也给出了迁移指南。

在旧版Keras 2中开发的预训练模型通常也可以在Keras 3中使用TensorFlow后端开箱即用。

如果旧版模型仅使用了Keras内置层,那么也可以在Keras 3中使用JAX和PyTorch后端开箱即用。

也有人敲警钟

在迫不及待尝试新版本的开发社区氛围中,Cohere机器学习总监Nils Reimers提出“真心希望历史不要重演”,也获得不少关注。

Keras 3.0发布!TF/PyTorch/Jax无缝混合使用,作者:欢迎来到多框架机器学习

Reimers认为,Keras最初从支持单个后端(Theano)开始,陆续添加了Tensorflow、MXNet和CNTK等多后端。

这引发了一系列问题:

  • 某些功能只在特定后端可用
  • 各个后端的计算结果存在不一致:在一个后端上运行正常的代码,在另一个后端可能产生不同结果
  • 对于开源软件开发者来说体验糟糕:你刚完成了一个自定义的 Keras层想要分享?你是否愿意为其他后端重新实现和优化它呢?
  • 调试问题:代码在一个后端上表现完美,但在另一个后端的最新版本上却频繁出错…

随着时间推移,这些问题愈发严重:某些模块只能在 Theano 上运行良好,某些只适用于Tensorflow,还有一些模块可以在MXNet上进行推理,但无法训练…

因此,2019年Keras转向单一后端(Tensorflow),是保障这一伟大项目继续存在的关键之举。

我希望这一次的多后端能有更好的表现,但这无疑仍是一个挑战。

您是否需要等到像FlashAttention v2这样的重要特性在JAX、TensorFlow和PyTorch 上都可用后,才能在 Keras 中使用它?还是说您只能在某些特定后端中使用它?

对于未来,我们还面临着许多未解决的挑战。

参考链接:
[1]https://keras.io/keras_3/
[2]https://x.com/sampathweb/status/1729556960314339534
[3]https://twitter.com/Nils_Reimers/status/1729612017340657993

热门课程推荐

热门资讯

请绑定手机号

x

微信扫码在线答疑

扫码领福利1V1在线答疑

点击咨询
添加老师微信,马上领取免费课程资源

1. 打开微信扫一扫,扫描左侧二维码

2. 添加老师微信,马上领取免费课程资源

同学您好!

您已成功报名0元试学活动,老师会在第一时间与您取得联系,请保持电话畅通!
确定