我要投搞

标签云

收藏小站

爱尚经典语录、名言、句子、散文、日志、唯美图片

当前位置:满堂彩 > 后方部署 >

后方切换“极客形式” 深度学习开发者峰会PaddlePaddle 11项重磅

归档日期:07-01       文本归类:后方部署      文章编辑:爱尚语录

  4月23日,由深度学习技术及使用国度工程实验室与百度结合主办的首届WAVE SUMMIT 2019深度学习开发者峰会上,PaddlePaddle首秀全景图,并连抛11项重磅发布!

  开发环节,全新发布工业级NLP开源工具集PaddleNLP,以及业界首个视频辨认工具集;训练环节,展示大规模散布式训练、工业级数据处置两大特性;部署环节,首发预测效劳Paddle Serving和用于模型紧缩的PaddleSlim;工具方面,首发预训练模型管理工具PaddleHub、深度强化学习工具PARL重要晋级、自动化网络构造设计AutoDL Design正式开源;效劳方面,发布了价值一亿人民币的算力支持方案以及企业深度学习实战营。

  深度学习推进人工智能进入工业大消费阶段,深度学习框架是智能时代的操作零碎。从开发、训练、部署、工具到效劳,PaddlePaddle展示了历经产业理论打磨的“趁手利器”所拥有的片面、波动与高效。

  在模型库方面,PaddlePaddle已开源 60 多个经过真实业务场景验证的官方模型,涵盖视觉、自然言语处置、引荐等 AI 中心技术范畴,成为官方支持模型最多的深度学习平台。而此次,PaddlePaddle再次全新发布工业级NLP开源工具与预训练模型集PaddleNLP,以及业界首个视频辨认工具集。

  PaddleNLP是基于PaddlePaddle 打造的面向工业使用的中文NLP工具集,掩盖片面的中文处置义务,工业运用效果突出。PaddleNLP提供片面丰厚的中文处置义务,并拥有以后业内效果最好的中文语义表示模型ERNIE和基于用户大数据训练的使用义务模型。基于PaddlePaddle深度学习框架构建的根底NLP算法模型和NLP使用义务的灵敏组合,同类型算法模型可灵敏插拔,真正高效易用。

  此外,PaddlePaddle还发布了业界首个视频辨认工具集,旨在为开发者提供处理视频了解、视频编辑、视频生成等一系列义务的便捷、高效的模型。工具集提供了合适视频义务的通用骨架代码,掩盖视频辨认方向的7大主流抢先模型,包括StNet、Attention LSTM 、Attention Cluster三大协助百度视觉团队夺得国际竞赛冠军的自研抢先模型。目前,该抢先的视频了解技术已在百度多项中心业务中运用,如百度 Feed 流,百度搜索,百度云 VCA 零碎等,视频标签集Top5精确率到达96%,百度 Feed 流短视频分类全免人审。

  训练环节,超大规模深度学习并行技术不断是PaddlePaddle的优势之一。此次大规模散布式训练次要从三方面完成了晋级,首先是对多机多卡训练的的片面支持,完成了良好的可扩展性。同时发布了针对网络条件不好的状况下的稀疏浚信技术,大幅降低了带宽对训练速度的影响。

  其次,针对超大规模稀疏参数的应战,设计并开放了大规模稀疏参数效劳器,开发者可轻松下载相关镜像运用。基于真实的引荐场景的数据验证,PaddlePaddle 在 100 节点*10线程/节点的状况下,依据batch size的不同吞吐量可达 60 万~ 140 万 /s,每小时可处置20 ~ 50亿数据,且到达batch size为 512 的状况下90%的减速比。该零碎已使用于百度feed流以及凤巢商业推行零碎中,可无效地处理超大规模引荐零碎、超大规模数据、自收缩的海量特征及高频率模型迭代的成绩,拥有超大吞吐量及高效率。

  第三,大规模散布式训练支持在各种容器上高速运转,同时支持在K8S生态下运用PaddlePaddle停止训练。

  在这种大规模数据场景下,数据的吞吐十分关键,关于数据做处置往往是一大痛点,对此,PaddlePaddle研发了数据处置组件方便开发者运用。优化散布式IO,添加近程文件零碎流式读取才能。GPU多机多卡同步训练经过添加稀疏浚信才能提升带宽不敏感训练才能,在低配网络带宽网络环境下,例如10G网络下,同步训练可提速10倍。

  开发和训练后,将模型部署到各种使用场景下是十分关键的一个步骤。部署环节需求高速的推理引擎,在此根底上,为了部署在更多的硬件上往往需求做模型紧缩,在真正运用时,还需求软硬一体才能的支持。

  目前,PaddlePaddle提供完好的端到端的全流程部署方案。基于多硬件的支持,PaddlePaddle提供功能片面抢先的底层减速库和推理引擎。此次大会,PaddlePaddle全新发布了预测效劳Paddle Serving,以及用于模型紧缩的PaddleSlim。

  Paddle Serving可与中心框架的模型训练环节无缝衔接,提供深度学习预测云效劳,内置模型,可批量预测。Paddle Serving目前已在百度的很多产品线运用。

  而PaddleSlim完成基于PaddlePaddle的模型紧缩,可以在精度损失较小的状况下高效停止模型体积紧缩,掩盖目前主流的网络剪枝、量化、蒸馏三种紧缩战略。参数集中管理,两行python代码即可调用自动化模型紧缩。针对体积曾经很小的MobileNet模型,它仍能在模型效果不损失的前提下完成70%以上的体积紧缩。

  灵敏、高效、易用是PaddlePaddle大受欢送的重要缘由。在多项全新发布及重磅晋级中,工具组件方面显得尤为突出。此次,PaddlePaddle不只重磅开源AutoDL Design、晋级深度强化学习框架PARL,并初次提出并发布预训练模型管理工具PaddleHub。

  传统的神经网络的构造设计是由人依据经历设计,并不时的停止调参训练取得最优后果,这个进程较为复杂和费时费力。AutoDL Design自动化网络构造设计是用深度学习设计深度学习,理想形态下,只需求运用者提供一份数据集,整个零碎就可以依据数据集本身,不时尝试不同类型的网络构造和衔接方式,训练若干个神经网络模型,逐渐停止自动化重复迭代和尝试,产出模型。本次重磅开源了基于PaddlePaddle完成的AutoDL Design源码, 以及在CIFAR-10数据集上训练出来的一共6个模型,这6个模型停止交融,可取得超越98%的精确率。

  PARL是一款基于百度PaddlePaddle打造的深度强化学习工具,继1.0版本开源了NeurIPS 2018假肢应战赛冠军训练代码以及主流强化学习模型后,本次晋级聚焦并行,经过一个复杂的修饰符即可完成并行化。数据预处置以及simulator仿真等计算密集型的义务经过这个修饰符之后,会自动部署到用户指定的计算资源上运转,不再占用主线程的计算资源。以经过PARL完成的IMPALA算法的评价后果为例,在雅达利这个经典评测环境中 ,Pong 游戏最快可在7分钟内到达20分,breakout游戏在25分钟到达400分。

  PaddleHub是一款简明易用的预训练模型管理框架,提供包括预训练模型管理、命令行一键式运用和迁移学习三大功用,旨在协助用户更高效地管理模型并展开迁移学习的任务。

  模型管理上经过hub命令行可完成基于PaddlePaddle的预训练模型下载、搜索、版本管理等功用。无需代码,经过命令行即可直接运用预训练模型停止预测,疾速调研训练模型效果。迁移学习方面,提供了基于预训练模型的Finetune API。活动现场,马艳军演示了低至10行代码即完成迁移学习的冷艳Demo。

  算力是深度学习开展不可或缺的重要“动力”。为此PaddlePaddle宣布了一个振奋全场的“土豪”方案百度一站式开发平台AI Studio重磅推出价值一亿人民币的算力支持方案,为开发者废除算力枷锁。

  据悉,收费算力次要以两种形式提供,第一种是一人一卡形式,运用约请码即可获赠算力时长。另外一种是近程集群形式,PaddlePaddle提供高功能集群,开发者只需登录AI Studio,便可以无偿使用。

  百度关于深度学习开发者的支持不只于此。面向高校,推出深度学习师资培训班、协同育人专项基金、AI Studio教育版。面向开发者,提供收费在线课程、收费算力支持、并举行不连续的赛事互动。面向企业,推出深度学习架构师培育方案黄埔学院,此次进一步推出了可掩盖1000家企业的企业深度学习实战营AI慢车道。

  更精进的根底框架设计、更丰厚的算法模型、更弱小的零碎功能和波动性、更齐备的异构硬件支持、更片面贴心的开发者生态开源三年,PaddlePaddle一直在理论中不时锻造锻炼,为中国开发者打造趁手“神兵”。

  风云骤起的智能时代何以亮剑?或许PaddlePaddle可以成为你的选择。

  本平台所展示的信息由企业自行提供,内容的真实性、准确性和合法性由发布企业负责

本文链接:http://meimeisyo.com/houfangbushu/62.html