转载

百度硅谷AI实验室发布新成果 推动递归神经网络广泛应用

  6 月 23 日下午消息,百度硅谷人工智能实验室近日发布了一项新的研究成果技术,该技术可以加快深层递归神经网络(RNNs)的训练速度,未来将可以被应用在更多的百度产品上,促进百度深度学习技术的研发及在百度各项应用服务中的应用。

  该项技术于近日由百度硅谷 AI 实验室的科学家 Jesse Engel 在 github 上发布,Jesse Engel 表示,此前已经发表过这项技术的第一阶段研发成果,关注的是 Minibatch 和存储配置在递归通用矩阵乘法(GEMM)的性能上所发挥的作用。本次发布的第二阶段将重点关注对算法本身的优化。

  Jesse 在文章中提到,Differentiable Graphs(可微图形)对于计算复杂的衍生工具是一个简单、实用又可视化的工具,同时也可以激发算法的优化。对于需要使用具有明确梯度计算功能框架的研究人员、开发新的迭代算法的研究人员以及开发应用自动分化深度学习框架的研究人员,这项新的技术将更好地提升研发能力。

  近年来,随着大数据、大规模计算能力、复杂模型和高效算法的研发深入,用于深度学习的训练数据每年成倍增长,图像达到数千万训练样本、语音达到数百亿训练样本、广告达到数千亿训练样本;而与此同时,多机 GPU/CPU 分布式计算能力也得到显著加强,模型上则由大型线性模型演进到树模型,可把特征发到不同机器;在算法上,则应用了深度神经网络等分布式算法。深度学习技术正在逐步进入移动互联网应用的各个领域,让移动互联网的产品变得更加智能化和人性化。

  未来,该项技术将可以被应用在更多的百度产品上,促进百度深度学习技术的研发及在百度各项应用服务中的应用。

  例如把人工神经网络应用在杀毒软件,通过神经网络提供的大量已知在案的恶意软件训练,百度的杀毒系统就能学会识别全新的病毒,即便系统从未见过这类病毒。此前,百度还推出过一款名为“慧眼”的 4.0 杀毒系统,除了百度杀毒,该软件还内置了百度深度学习研究院(IDL)的深度学习智能引擎。

  值得一提的是,随着百度硅谷实验室进入稳定研发期,百度硅谷正在前“谷歌大脑之父”吴恩达的带领下,围绕用 GPU 提升计算效率,处理海量训练数据,语音识别,OCR 识别,人脸识别,图像搜索水平等方面进行研究,而作为百度首席科学家,吴恩达本人亲自负责语音识别和无人车技术研发。

  公开资料显示,百度于 2013 年正式成立了深度学习研究院(IDL),2014 年 5 月挖角谷歌大脑之父吴恩达,出任首席科学家并领导百度硅谷研究院工作。

正文到此结束
Loading...