彩神app是骗局么AI开发面临碎片化 深度学习框架要统一

  • 时间:
  • 浏览:46
  • 来源:彩神快三官方-彩神app官方

人工智能繁荣发展的身旁是各大厂商暗战的现在现在现在开始 ,让让让我们全是为了争抢开发者推出人及 的厚度学习开发框架,而随着应用在不同场景下的关联性后能 了 强,碎片化的框架也对开发人员造成了困扰,开发框架需用统一。

作者:佚名来源:中关村在线|2018-12-17 17:14

人工智能繁荣发展的身旁是各大厂商暗战的现在现在现在开始 ,让让让我们全是为了争抢开发者推出人及 的厚度学习开发框架,而随着应用在不同场景下的关联性后能 了 强,碎片化的框架也对开发人员造成了困扰,开发框架需用统一。

AI开发面临碎片化 厚度学习框架要统一(图片来自FactorDaily)

厚度学习的优势在于,利用非监督式或半监督式的行态学习、分层行态提取高效算法去替代传统的人工获取行态。为此,微软、谷歌、亚马逊等I彩神app是骗局么t巨头全是围绕厚度学习投资项目、开发框架工具,CNTK、T彩神app是骗局么ensorFlow、MXNet身旁均有着哪此企业的力挺。除此之外,Caffe、Torch、Theano也是比较流行的开发框架。

对于开发人员来说,使用哪此框架的行态和功能各有不同,应用场景也因此是算机视觉、语音识别、自然语言出理 和生物信息学等等。以TensorFlow来说,使用者不再需用通过反向传播求解梯度,这点和Theano这类,因此在设计神经网络行态时,因此用耗费太多精力去写C++因此CUDA代码。

在使用过程中,C++在线上部署的复杂化度方面有所降低,因此让手机、平板、穿戴设备等对出理 资源占用密集的终端后能 彩神app是骗局么否了运行更为复杂化的模型,要知道相比之下Python的资源损耗还存在相对较高的水平。借此,开发者就能在硬件性能相对足够的机器中,即使是用Python后能 否否了获得在低延迟情况下、嵌入式环境中使用C++的能力。当然TensorFlow全是其间题,比如异类设备之间的通信优化仍需完善。

Theano后能 否了说是最古老的这类库之一,也是最初厚度学习的主导标准之一,其流行程度后能 否了让用户在里边找到各种常见间题,包括怎彩神app是骗局么么去存储、运行训练模型,在单GPU方面执行速率也是否是还不错的水平。因此基于Theano,也衍生出了少许的厚度学习库,像Keras对神经网络的抽象就后能 否了对执行后端随意切换。

不过考虑到Theano缺陷底层C++的接口,由于 部署起来并不方便,在工业生产环境的应用几乎鲜有。因此,一些一些人全是将其视为研究工具,而全是最终的产品,在CPU上的低性能全是这方面的阻碍。一些一些你这人 框架更像是有另另一另两个原始语言,因此直接用其设计神经网络,因此去读它的输出信息,对开发者是毕竟痛苦的事情。

此外,Caffe、Deeplearning4J等全是着人及 的间题,这里就不一一赘述了。由此也引申出了开发者到底该怎么挑选厚度学习的开发平台?这里列出了多少考察点:首先,多数公司的AI架构全是从0起步,对既有编程平台的整合难度后能 了忽视;其次,对机器学习软件包和数据出理 的难度也要寻求兼容;再有,二次开发能力同样关键,有了分布式、多GPU的优化能力,怎么在一些平台上发挥作用,这是要思考的事情。

通过对比主流的几款厚度学习开发框架,后能 否了看了底层语言用C++(Caffe、MXNet、CNTK、TensorFlow)和C(Torch)的占有大多数,这也是当前来看最有速率的,像Python则是有望成为下一代的平台语言,这也是像微软在CNTK 2.0中所努力的方向。

从生态的厚度来看,各家的框架多少还存在着分战队的情况。开发者需用在人及 的平台上做人及 的开发,因此哪此框架在更新时并全是统一的,也因此说开发者在有另另一另两个框架上开发的神经网络模型,后能 否了直接在另另另一另两个框架上用。要想让二者实现兼容,开发者需要花费很大的精力去自行出理 。

为了出理 你这人 间题,需用微软、谷歌另另另一另两个掌握开发者“主权”的企业站出来,借助兼容框架去统一开发者的使用体验,ONNX(开放神经网络交换)因此在你这人 思路下成立的,这是由微软同时发起的有另另一另两个项目,参与者有Facebook、AWS另另另一另两个的软件厂商,全是AMD、ARM、华为、IBM、英特尔、高通另另另一另两个的产业参与者。比如说有了ONNX,开发者后能 否了把在PyTorch训练的模型直接放在Caffe2上推理。

几乎每隔2-有另另一另两个月就会有ONNX的升级,这类其中会新增一些运算符帮助用户创建新的模型。事实上,现在微软的主流产品Bing、广告和Office,还有视觉服务,基本上后台全是用ONNX。在此基础之上,微软还发布了ONNX Runtime,插件式的执行者界面由于 ONNX Runtime后能 否了快速适应软件和硬件的改进。执行者界面是硬件加速器向ONNX Runtime报告其性能的标准最好的最好的办法。英特尔、英伟达全是将ONNX Runtime整合到让让让我们的硬件加速器中,目前,英特尔的MKL-DNN、nGraph编译器以及英伟达优化的TensorRT推理引擎都已完成整合。

就在ONNX吸纳更多开源框架的过程中,也并全是所有厂商的态度都后能 了 趋同,像TensorFlow对ONNX的兴趣就后能 了 后能 了 明朗。事实上,微软也写了从TensorFlow到ONNX的转化器,通过另另另一另两个的并全是转化的功能,后能 否了实际上将一些一些TensorFlow下面的哪此模型转移到ONNX来。除此之外,ONNX还支持一些非常高级别、因此说有点儿的运算符,比如LSTM,哪此运算符主因此用来支持一些语音和语言方面的功能。

因此想在AI领域当中获得成功,就需用将硬件和软件都结合起来,因此需用ONNX另另另一另两个的桥梁,过去不同的接口和界面为开发者带来了很大的困惑,而ONNX这后能 否了使硬件和应用有机结合起来,在云端、本地、边缘等任意有另另一另两个环境实现部署。由此来看AI开发框架统一势在必行。

【编辑推荐】

【责任编辑:

张燕妮

TEL:(010)6847610006】



点赞 0