欢迎光临
我们一直在努力
您的位置:首页>VR >

百度将为英特尔的Nervana神经网络处理器提供培训

在本周在北京召开的百度创建大会上,英特尔公司副总裁Naveen Rao宣布,百度正与英特尔合作开发后者用于培训的Nervana神经网络处理器,也称为NNP-T 1000(以前的NNP-L 1000)。两家公司将结合他们的专业知识,开发能够快速,高效地培训AI模型的高速加速器硬件。

英特尔将代号为“Spring Crest”的16nm NNP-T描述为AI模型硬件的“新类”,旨在“大规模加速分布式培训。”它针对图像识别进行了优化,其架构与其他芯片截然不同。它缺乏标准的缓存层次结构,其片上存储器由软件直接管理。英特尔声称NNP-T的24个计算集群,32GB HBM2堆栈和本地SRAM使其能够提供高达竞争显卡的AI培训性能的10倍,以及公司首款NNP芯片Lake Crest的3-4倍性能。

此外,NNP-T能够在多个芯片上分配神经网络参数,这得益于其高速的片上和片外互连,使其能够实现非常高的并行性。它还使用了一种新的数字格式--BBloat16--可以增强对推理任务的核心计算量,使NNP-T能够适应大型机器学习模型,同时保持“业界领先”的电源效率。

NNP-T预计将于今年晚些时候推出10nmNervana神经网络处理器(NNP-I),这是一款基于英特尔Ice Lake架构的通用处理器内核的AI推理芯片。

“接下来的几年,人工智能模型的复杂性以及对大规模深度学习计算的需求将会大幅增加,”Rao说。“英特尔和百度正在将他们长达十年的合作重点放在建立激进的新硬件上,这些硬件与支持软件协调一致,这将随着这一新现实而发展 - 我们称之为'AI 2.0'。”

这并非英特尔和百度首次合作开发针对人工智能应用的解决方案。自2016年以来,英特尔一直在优化百度的PaddlePaddle深度学习框架--NNP-T将支持其Xeon可扩展处理器,并且两家公司正在合作开发内存安全的功能即服务(FaaS)MesaTEE基于英特尔软件保护扩展(SGX)技术的计算框架。

最近,百度和英特尔采用了BIE-AI-Box,这是一个定制的硬件套件,用于分析驾驶舱摄像头拍摄的帧。为此,它采用了“专门”设计的BIE技术,并与摄像头连接,用于道路识别,车身监控,驾驶员行为识别和其他任务。

英特尔的未来就是人工智能。它的书也意味着什么。Santa Clara公司的AI芯片部门去年收入达10亿美元,英特尔预计市场机会每年将从2017年的25亿美元增长到2022年的100亿美元增长30%。从这个角度来看,其以数据为中心的收入现在构成了所有部门的所有业务的一半,比五年前的大约三分之一。

至于百度,它正在寻求超过4000亿美元的云计算市场以实现增长。它最近与Nvidia合作,将芯片制造商的Volta图形平台引入百度云,并于2018年7月推出了两款用于AI工作负载的新芯片:用于机器学习模型培训的昆仑818-300和用于推理的昆仑818-100。

免责声明:本网站图片,文字之类版权申明,因为网站可以由注册用户自行上传图片或文字,本网站无法鉴别所上传图片或文字的知识版权,如果侵犯,请及时通知我们,本网站将在第一时间及时删除。