百度 Intel 联手打造新一代 Nervana NNP 芯片,性能提升3 到4倍

2019-07-05 09:05:25 来源:雷锋网


在 7 月 3 日举行的百度 AI 开发者大会上,百度发布了鸿鹄芯片以及多个智能音箱新品,宣布与华为麒麟合作,智能小程序也进入新连接。

英特尔副总裁兼人工智能产品事业部总经理 Naveen Rao 也出席现场为百度打 Call,并宣布了与百度在 AI 方面的重磅合作——结合自家的专业知识,共同打造用于训练 AI 的 Nervana 神经网络处理器(NNP,Neural Network Processor)。
 

联手开发强大的 AI 加速器
 

英特尔表示,这款与百度合作开发的处理器简称 NNP-T,代号为“Spring Crest”;它的开发意味着 AI 模型硬件的发展进入“新阶段”,因为它可以加速大规模分布式训练;它还对图像识别进行了优化,删去了标准的快取阶层(cache hierarchy),片上存储器(on-chip memeory)直接由软件管理。
 

据 VentureBeat 报道,NNP-T 有 24 个计算集群,32GB 的高频宽存储器(HBM2)和本地 SRAM,因此,这款即将推出的处理器AI 训练方面比同类产品要强上最多 10 倍,比英特尔推出的首款 Nervana NNP 芯片 NNP-L 1000(代号 Lake Crest)的性能强 3-4 倍。(雷锋网按:2016 年,英特尔收购人工智能公司 Nervana,2017 年,英特尔推出专为机器学习设计的 Nervana NNP 系列芯片
 

 

不过,英特尔也发表了声明,AI 并非单一的工作负载,而是一种广泛的、能够强化所有手机上或者是大数据中心内的应用性能的强大能力;然而,不同的应用对性能和功耗有着不同的要求,因此单一的 AI 硬件无法满足一切需求。
 

AI 方面,英特尔认为不仅要提供优越的硬件选择,还要通过软件来最大化释放硬件的性能,从而帮助客户自如地运行 AI 应用,无论数据多么复杂。而英特尔选择与百度密切合作,则能够确保英特尔开发部门始终紧跟客户对训练硬件的最新需求。
 

Naveen Rao 表示,
 

未来几年,人工智能模型的复杂性将会激增,对大规模深度学习计算的需求也会激增。英特尔和百度正专注于自己长达十年的合作,建立全新的硬件,支持软件协同设计,这将随着不断变幻的现实情况而发展。我们称之为 AI 2.0。
 

英特尔与百度是长期好伙伴
 

雷锋网了解到,近年来,英特尔与百度已经共同创建了许多基于 AI 应用的解决方案。
 

 

自 2016 年以来,英特尔就一直为百度 PaddlePaddle 深度学习框架而优化 Xeon Scalable processor,今后,NNP-T 的优化也将专注于 PaddlePaddle 的应用,专注于神经网络的分布式训练,以完成其他类型的 AI 应用。
 

Constellation 研究公司的首席分析师兼副总裁 Holger Mueller 表示,
 

处理器架构和平台需要针对进行优化才能发挥作用,无论是目前的还是即将推出的处理器,这就解释了英特尔与百度本次合作的重要性。
 

两家公司探讨了集成百度 PaddlePaddle 和英特尔 nGraph DNN(Deep Nerual Network)编译器,有了 nGraph 的助力,数据科学家只用编写一次代码就可以让自己的 DNN 模型在各个平台上有效地运行,无需做额外的调整。
 

百度也借助英特尔傲腾数据中心级持久内存的高性能,向数百万用户提供个性化移动内容,并通过百度 AI 推荐引擎获得更高效的客户体验。
 

在数据安全方面,百度和英特尔在去年推出了 MesaTEE,一个基于英特尔 SGX (Software Guard Extension,软件保护扩展技术)的 FaaS 计算框架;MesaTEE 使金融、自动驾驶和医疗等安全敏感服务能够安全地在远程平台上处理数据。
 

今年早些时候,百度和英特尔还推出了全新硬件产品 BIE-AI-BOX。这款产品融合了百度智能边缘技术,连接摄像头进行车内视频监控和分析。


免责声明:本文由作者原创。文章内容系作者个人观点,转载目的在于传递更多信息,并不代表EETOP赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请及时联系我们,我们将在第一时间删除!

  1. EETOP 官方微信

  2. 创芯大讲堂 在线教育

  3. 创芯老字号 半导体快讯

相关文章

全部评论

  • 最新资讯
  • 最热资讯
@2003-2024 EETOP
×