人工智能正文

NVIDIA将其深度学习加速架构与arm整合推进机器学习端计算应用

NVIDIA将其深度学习加速架构与arm整合推进机器学习端计算应用 NVIDIA 与arm 的终端机器学习解决方案Project Trillium 整合,将可供行动装置、物联网等终端机器学习解决方案的开发者一个快速推进滚动更新的软硬整合架构。 NVIDIA CEO 黄仁勋于美西时间2018 年3 月27 日早晨举行的GTC (图形处理器技术研讨会,GPU Technology Conference) 专题演说中宣布该公司和arm 达成伙伴协议,将原本应用在自驾车的系统单芯片解决方案Xavier 的NVIDIA 深度学习加速架构(NVDLA, NVIDIA Deep Learning Accelerator)开源,并整合至arm 在今年二月公布的机器学习平台Project Trillium (延龄草专案,数位时代暂译)上。 延龄草专案是由arm 所推出的机器学习运算解决方案,主要提供所有终端装置,例如手机、平板电脑、感测器或IoT 设备等,针对人工智能所依赖的神经网络(neural network)运算进行加速。一般而言,人工智能应用除透过以云计算为主的大型数据中心运算外(主要用以训练模型),尚须在终端装置(例如汽车、手机等)进行推论即时演算,由于这些演算需要依赖终端装置的即时运算效能,如能针对特定演算法进行加速,除可提升人工智能应用回应的即时性,也可以协助终端装置节省运算所需要的能量,达成省电、节能等目的。 黄仁勋于GTC 2018 专题演说 ▲黄仁勋于GTC 2018 专题演说 Project Trillium 被视为已在已在智能行动装置处理器市场取得压倒性胜利的arm 进一步透过人工智能应用,进军物联网市场的重要策略。藉由这个伙伴关系,NVIDIA 也可进一步将自身的深度运算加速器架构推展到arm 所覆盖的市场,为深度学习推论处理器提供一个标准化设计的可能路径。arm 预计将在今年4 月推出延龄草专案的相关套件预览,并于2018 年年中正式推出搭载相关技术的产品。 对NVIDIA 原有的开发者生态系而言,这个合作意味着可以透过诸如其TensorRT 等架构,将原训练出的机器学习模型,快速布署到终端装置上(例如,透过OTA 对终端装置负责处理神经网络运算加速的处理器进行模型更新)。理论上,这可以加速产业不断地最佳化人工智能应用,将学术领域或社群所开发的最新应用,透过推播更新直接布署到终端装置。对于物联网、行动装置市场来说,基于NVIDIA 在深度学习开发者生态系的耕耘与arm 在该市场的主导地位,这个IP 合作关系预计将会加速推进人工智能的推论应用。

除特别注明外,本站所有文章均为原创,转载请注明出处来自

相关阅读