在深度学习领域的五大巨头里,它们都各自力挺一种深度学习框架:
-
谷歌有自家的TensorFlow、
-
Facebook有Pytorch、
-
百度有PaddlePaddle、
-
微软有CNTK、
-
亚马逊的AWS则有MXNet,
-
华为有国内全栈的MindSpore,
-
一流科技的OneFLow
每种框架都有其优缺点,选择的时候更加需要根据自身业务的实际需求。例如需要用到对时间序列分析的,那么就会使用循环神经网络Transformer、BERT等网络结构,而Pytroch、MindSpore、PaddlePaddle、Tensorflow的处理就非常好,Google的TensorFlow则是支持其他机器学习算法,拥有更加完善的AI体系,还支持强化学习Reinforcement learning算法。常言道,欲先攻必先利器,在正式进入深度学习之前,让我们一起来了解一下各大主流深度学习框架之间的关系与其优缺点。
TensorFlow框架的前身是Google的DistBelief V2,是谷歌大脑项目的深bai度网络工具库,一些人认为TensorFlow是借鉴Theano重构的。首先目前面临比较麻烦的事情是版本分裂严重,2.0推出之后到2.4之间的版本几乎不可用,接口变更太多,runtime效率比1.X普遍损失50%左右的性能。另外缺少符号循环,当我们说可变长度序列时, 更需要该功能。不幸的是, TensorFlow不提供功能, 但是有限折叠可以解决这个问题。好处是有着庞大的维护团队,看看Google AI blog 每个月好几篇AI创新文章,基本上都是基于Tensorflow开发,另外还提供富有挑战性的数据集挑战赛。还是挺过瘾的。
SUM:TensorFlow更适合大规模部署,特别是需要跨平台和嵌入式部署时。
PyTorch是Facebook出品的。本质上是Numpy的替代者,而且支持GPU、带有高级功能,可以用来搭建和训练深度神经网络。如果你熟悉Numpy、Python以及常见的深度学习概念(卷积层、循环层、SGD等),会非常容易上手PyTorch。基本上可以做到Python Native的编程模式。当然缺点是有的,例如在做大规模分布式并行的时候、大模型大击群、端侧部署和安全可信部署的时候,需要定制性修改大量的代码。
SUM:PyTorch更有利于研究人员、爱好者、小规模项目等快速搞出原型。
MXNet 是亚马逊(Amazon)选择的深度学习库,拥有类似于 Theano 和 TensorFlow 的数据流图,为多 GPU 配置提供了良好的配置,有着类似于 Lasagne 和 Blocks 更高级别的模型构建块。得益于AWS的强大支撑,其在云端非常友好,可直接与S3,HDFS和Azure兼容。不过缺点也很明显,社区还是比较小,另外学习曲线比Pytroch高,目前还做不到Python native。
SUM:MXNet注重云侧分布式部署,对于AWS重度爱好者是一个DL利器,方便原型算法设计后进行云侧部署。
OneFlow是一流科技开发的深度学习框架,作为国家4大重点实验室(浙江之江实验室)的首选框架,通过之江的科研实力进行对外辐射,这一点还是很佩服的。其核心代码执行都是以Task列表的形式实现,不同的求解器都是在执行一个task流。另外在分布式多机多卡和单机多卡中,runtime的设计使用了分布式Actor机制使得框架天然支持流水线,所以分布式还是很友好,性能也很高。问题就是社区实在太小,很多资料参考不完善,另外易用性跟Pytorch相比,有待提升。
SUM:性能和易用性兼顾确实很难,如果玩分布式GPU集群希望性能高,那么OneFlow可能很适合。
MindSpore是华为推出的深度学习框架,作为华为战略平台性的产品。MindSpore坚持走底层框架优化路线,一切皆编译,所以把动态图和静态图做到动静一致,如果想学编译,看看MindSpore的源码还是很有趣的。优点就是支持昇腾芯片、GPU、CPU等异构平台,在昇腾+MindSpore组合下能做到性能遥遥领先友商竞品,另外GPU+MindSpore组合下在分布式性能跟OneFlow持平。在接口方面优点类似Pytroch,易用性能有保障。缺点在于社区目前还是比较小,文档友好型还真的要提高;另外API接口目前还优点混乱,需要持续升级收敛。
SUM:MindSpore兼顾易用性和性能,在分布式集群和华为全栈下有独特的性能优势,易用性在国内框架属于优选,想学习国内AI框架推荐MindSpore。
PaddlePaddle是百度研发的开源开放的深度学习平台,是国内最早开源、也是当前唯一一个功能完备的深度学习平台。依托百度业务场景的长期锤炼,PaddlePaddle有最全面的官方支持的工业级应用模型,涵盖自然语言处理、
计算机视觉
、推荐引擎等多个领域,并开放多个领先的预训练中文模型,以及多个在国际范围内取得竞赛冠军的算法模型。
PaddlePaddle同时支持稠密参数和稀疏参数场景的超大规模深度学习并行训练,支持千亿规模参数、数百个几点的高效并行训练,也是最早提供如此强大的深度学习并行技术的深度学习框架。PaddlePaddle拥有强大的多端部署能力,支持服务器端、移动端等多种异构硬件设备的高速推理,预测性能有显著优势。目前PaddlePaddle已经实现了API的稳定和向后兼容,具有完善的中英双语使用文档,形成了易学易用、简洁高效的技术特色。
学习MindSpore有段时间了,说说我的使用心得吧。我是从一个AI小白开始学习
深度学习
,步入AI领域的,在接触到MindSpore之前,有听说TF、Pytorch等
深度学习
框架
,但是没有去学习,所以MindSpore可以算是我AI领域的敲门砖吧。
MindSpore的安装十分简单,根据官网安装指导即可安装成功。十分流畅,在此便不赘述。
分享一下使用M
TME
机器学习
平台基于kubeflow做
开源
改造和产品化,先来看看技术层面kubeflow对
机器学习
的各个技术环节的附能
先简单介绍一下各组件的功能。下面以大项目背景为例简介的,可以在下面的部署
中
了解更细致的组件内容。
jupyter:jupyter 创建和管理多用户交互式Jupyter notebooks。
istio:提供微服务的管理,服务网格,网关,里面包含更多的内容
knative:serverless的
框架
,谷歌
开源
kfserving:模型的在线部署,支持版本控制及
原文网址点击打开链接
选自Mybridge
2017 年里哪些
机器学习
项目最受人关注?Mybridge 为我们整理了一份 Top 30 列表,以下所有项目均附有 GitHub 链接。
我们对比了近 8800 个开原
机器学习
项目,并挑选了其
中
最好的 30 个列举于此。这是一个非常具有竞争力的列表,其
中
包含 2017 年 1 月-12 月份
开源
的各类优秀
机器学习
库、数据集和应用。Myb
1. 官方文档:许多
机器学习
框架
都有详细的官方文档,您可以在其
中
寻找
框架
的详细介绍。
2. 在线教程:网上有很多免费的在线教程,您可以通过搜索引擎或知名教育网站来寻找。
3.
开源
项目:许多
机器学习
框架
都是
开源
的,您可以在 GitHub 或其他代码托管网站上寻找。
4. 学术研究:
机器学习
是一个高度学术的领域,您可以在学术期刊或会议上寻找有关
框架
的研究。
希望以上信息能帮助您找到您需要的
机器学习
框架
。