百度研究人员希望处理器供应商和数据中心运营商将有助于扩展和运行基准芯片。
百度的DeepBench背后的研究人员期待着其他处理器供应商(除了英特尔和英伟达)和数据中心运营商为在他们的基准上扩展和运行芯片做出贡献。
“我个人对使用定制硬件的初创公司的AMD gpu和asic的结果很感兴趣,这些公司可能很难运行完整的机型对他们来说,这可能是一种更简单的方式来实现他们的能力,”Diamos说,并指出实验室目前使用的系统带有8个Nvidia TitanX处理器来运行其语音识别模型。
DeepBench测试的是低级的硬件库,而不是数据中心创建的更高级别的AI框架,如百度的PaddlePaddle和谷歌的TensorFlow。
百度人工智能实验室的软件工程师莎兰·纳朗(Sharan Narang)表示:“在框架层面上,这些模型之间存在巨大差异,不同的模型适用于不同的应用,但在框架之下,它们使用了一些常见的操作。”他说:“我们希望能找到对硬件制造商来说更可行的核心共同业务。”
研究人员正在考虑是否需要一个基准来进行推断,这是使用模型在数据中找到模式的独立工作。今天,百度和微软在服务器上使用fpga来加速计算密集型较低的工作。
相互竞争的数据中心运营商是否会在DeepBench上展开合作仍有待观察。
到目前为止,谷歌已经将其TensorFlow框架开源,并创建了一个ASIC来加速其服务器上的推理工作。Facebook发布了一个开源服务器,使用多个Nvidia gpu来训练神经网络。
一些初创企业正在研究用于训练神经网络的优化处理器,包括本周在一个活动上展示其工作成果的Wave Computing,以及英特尔最近收购的Nervana。
DeepBench是网上以及运行它的英特尔和英伟达处理器的初步结果。
本文首次发表于《EE Times》。