欢迎光临
我们一直在努力
您的位置:首页>科技前沿 >

Google的Cloud TPU和Nvidia的Tesla V100打破了AI培训记录

根据MLPerf基准联盟的最新一轮基准测试结果,Nvidia和Google Cloud设定了AI培训时间表现记录。基准测试帮助AI从业者采用通用标准来衡量用于训练AI模型的硬件的性能和速度。

MLPerf v0.6检查了6种流行使用类别中机器学习加速硬件的培训性能。在今天公布的结果中:Nvidia的Tesla V100Tensor Core GPU使用Nvidia DGX SuperPOD在80秒内完成ResNet-50模型的内部培训,以进行图像分类。相比之下,2017年使用DGX-1工作站的相同任务需要8个小时才能完成模型培训。使用AlphaGoZero模型的开源实现Minigo进行强化学习的时间为13.5分钟,也是一项新纪录。

在Nvidia,最新的培训基准测试结果主要是软件进步的结果。

“在同一个DGX-2工作站上只用了七个月,我们的客户现在可以享受高达80%的性能,这是由于所有软件改进,我们生态系统正在做的所有工作,”公司发言人在电话里说。

Google Cloud的TPU v3 Pods还在51秒内展示了Transformer型号从英语到德语的机器翻译成绩。TPU吊舱在使用ImageNet数据集的ResNet-50型号的图像分类基准测试中也取得了创纪录的性能,并在1分12秒内在另一个物体检测类别中进行了模型训练。

能够利用超过1,000个TPU芯片功能的Google Cloud TPU v3 Pod于5月首次公开发布。

英特尔,谷歌和Nvidia提交了最新一轮的培训基准测试。当MLPerf在2018年12月分享了第一个培训基准测试结果时,Nvidia和谷歌展示了他们为世界上培训AI模型制作了一些最快的硬件。

这个消息是在MLPerf上个月推出计算机视觉和语言翻译的推断基准之后发布的。MLPerf推理工作组联合主席David Kanter在接受电话采访时告诉VentureBeat,首届MLPerf推理基准的结果将在9月份进行审核并于10月公开分享。

MLPerf是由40个组织组成的组织,在AI硬件和模型创建领域发挥关键作用,如亚马逊,Arm,百度,谷歌和微软。

免责声明:本网站图片,文字之类版权申明,因为网站可以由注册用户自行上传图片或文字,本网站无法鉴别所上传图片或文字的知识版权,如果侵犯,请及时通知我们,本网站将在第一时间及时删除。