您当前的位置:中国数码观察网资讯正文

视觉推理新杀器英特尔新一代VPU功能翻10倍反超英伟达

放大字体  缩小字体 2019-11-13 16:41:55  阅读:430+ 作者:责任编辑NO。谢兰花0258

新智元报导

来历:venturebeat

修改:肖琴

【新智元导读】英特尔今日宣告首款AI芯片Nervana神经网络处理器正式商用交给,别离面向AI练习和推理,应战英伟达GPU。一同,英特尔还发布了新一代Movidius Myriad视觉处理单元(VPU),代号为Keem Bay。英特尔能撬动英伟达在AI练习方面的王者位置吗,来新智元 AI 朋友圈和AI大咖们一同评论吧。

11月13日清晨,在旧金山举行的人工智能峰会上,英特尔正式宣告Nervana神经网络处理器 (Nervana NNP)已投入出产并商用交给。这是英特尔NNP研制项目对外宣告三年后的第一款 AI 商用芯片

英特尔公司副总裁兼人工智能产品事业部总经理Naveen Rao

一同,在大会上,英特尔还发布了新一代Movidius Myriad视觉处理单元(VPU),代号为Keem Bay,用于边际媒体、核算机视觉和推理运用

下一代英特尔Movidius VPU方案于 2020 年上半年上市,凭仗绝无仅有的高效架构优势,能够供给业界抢先的功能:与上一代VPU比较,推理功能提高10倍以上,能效则可抵达竞品的 6 倍

应战英伟达,首款AI芯片总算商用,练习推理齐发

英特尔标明,Nervana NNP具有超高扩展性和超高功率,它是体系级人工智能解决方案的一部分。该解决方案供给由敞开组件和深度学习结构集成开发而成的完好软件仓库,能够充沛的运用硬件功能。

英特尔的面向练习 (NNP-T1000)面向推理 (NNP-I1000)的Nervana神经网络处理器是其为云端和数据中心客户供给的首个针对杂乱深度学习的专用 ASIC芯片。

Nervana NNP-T1000

最直接应战英伟达GPU的是Nervana NNP-T1000神经网络练习处理器,它针对AI模型练习使命进行优化。练习关于保证AI模型发生精确的成果必不可少,而现在绝大多数AI练习都选用英伟达GPU。

面向练习的Nervana NNP-T

NNP-T为深度学习运用程序的高效练习而规划,在32张卡上的测验数据标明,Resnet-50 & BERT的可扩展性高达95%,一同抵达SOTA的精度。此外,从8卡机箱内置体系转移到32卡跨机箱体系时,通讯带宽没有丢失。

英特尔Nervana NNP-T在核算、通讯和内存之间获得了平衡,不管是关于小规划群集,仍是规划最大的 pod 超级核算机,都可进行近乎线性且极具能效的扩展。

英特尔在8月份的一次布告中曾泄漏,NNP-T1000能抵达每秒119万亿次操作。但它不会独自推出处理器,而是将其作为加快器卡的一部分,企业能够将加快卡刺进服务器。这些卡的规划使得许多卡能够相对容易地衔接在一同,英特尔标明,这使得它们乃至能够支撑超级核算机规划的人工智能练习作业。

NNP-T1000的出产也与一般不同,不是在英特尔自己的工厂出产,而是挑选外包给台积电。NNP-T1000由270亿个晶体管组成,选用台积电的16纳米制作工艺,并被组织成24个处理器中心。

Nervana NNP-I1000

面向推理的Nervana NNP-I

与此一同,NNP-I为运转挨近实时、大容量、低推迟的推理而规划。英特尔最近发布了在pre-alpha软件上两款Intel Nervana NNP-I处理器的MLPerf测验成果,运用ONNX,ResNet-50的ImageNet图画分类在脱机环境下能够抵达惊人的10567张/秒,服务器环境下能够抵达10263张/秒。

NNP-I1000根据英特尔最新的10纳米芯片架构,实践是选用一个10纳米的CPU,将其简化为两个处理中心,并添加了12个“推理引擎”,用于运转人工智能软件。

该芯片每秒可运转多达3600次揣度。基准测验的成果是每瓦4.8万亿次运算,英特尔宣称这使得NNP-I1000成为同类芯片中最节能的芯片。

芯片尺度暗示

此外,NNP-I将得到OpenVINO的支撑,OpenVINO是一个东西包,旨在方便地将核算机视觉和深度学习推理引进边际端的视觉运用程序。

作为对OpenVINO的缺乏的弥补,英特尔还发布了新的面向边际的Intel DevCloud,它答应开发者在购买硬件之前在一系列Intel处理器上对AI解决方案进行原型规划和测验。

官宣下一代VPU Keem Bay:功能翻10倍,比英伟达和华为都快

在峰会上,英特尔物联网副总裁Jonathan Ballon具体介绍了代号为Keem Bay的下一代Movidius Myriad视觉处理单元 (VPU)

英特尔物联网副总裁Jonathan Ballon

Movidius Myriad VPU专为边际推理使命进行优化,Jonathan Ballon介绍,该芯片具有64位内存带宽的全新on-die存储器架构,功能是上一代的10倍左右

Ballon说:“它将供给比GPU更好的功能,一同功率、尺度和本钱都比GPU小许多。”“它弥补了咱们的产品、东西和服务组合的完好性。”

能够必定的是,Keem Bay功能很强壮。英特尔标明,它的功率仅为英伟达TX2的五分之一,但处理速度比英伟达TX2快4倍;此外,比华为海思的 Ascend 310人工智能加快器快1.25倍。

在某些情况下,它的能效可抵达竞争对手的6倍。此外,与Nvidia的Xavier比较,它的每秒推理才能是Xavier的4倍。Keem Bay的尺度为72mm2,而Nvidia Xavier的尺度为350mm。

Ballon说,“充沛的运用”英特尔OpenVINO东西包的客户还能够得到大约50%的额定功能。

Movidius Myriad VPU将在2020年上半年推出,包含PCI Express和M.2。

英特尔2019年度AI营收有望超35亿美元

英特尔于2016年9月收买了Movidius公司,该公司专心于为核算机视觉规划专门的低功耗处理器芯片。它的VPU包有专门用于核算机视觉的芯片和十几个特制的处理器中心,这些中心能够加快AI算法的履行,所有这些都能够终究靠Myriad开发东西包(MDK)进行编程。

在收买后的几年中,英特尔推出了Myriad 2,这款产品被运用于谷歌的Clips相机、Flir的Firefly、大疆的Phantom 4无人机和腾讯的DeepGaze。它的下一代产品Myriad X具有改善的成像和视觉引擎,包含附加的可编程的SHAVE中心和晋级的视觉加快器,以及一个支撑多达8个高清传感器的原生4K图画处理器 pipeline。

人工智能正日益成为英特尔事务的中心部分。英特尔在最近一次财报电话会议上标明,2019年人工智能的营收将抵达35亿美元。这一数字高于2017年的10亿美元,也现已完成了到2022年100亿美元的方针的三分之一以上。

英特尔公司副总裁兼人工智能产品事业部总经理Naveen Rao在台上标明:“跟着人工智能的进一步开展,核算硬件和内存都将抵达临界点。假如要在该范畴持续获得巨大发展,专用型硬件必不可少,如英特尔 Nervana NNP 和 Movidius Myriad VPU。选用更先进的体系级人工智能,咱们将从‘数据到信息的转化’阶段开展到‘信息到常识的转化’阶段。”

为你推荐

  • 奥之心闪耀P&E,摄影器材展圆满收官

    2024年5月10日至13日为期四天的第25届中国国际照相机械影像器材与技术博览会(China…

    数码
  • 京东小魔方上新品啦,MOMAX 摩米士“自带伸缩线全球充”新色首发

    这个愚人节,MOMAX摩米士联合京东小魔方推出新色抢购活动!这款摩米士全球转换插座…

    数码
  • 以“智”提“质” 芒果打造“文化+科技”双引擎

    3月28日,第十一届中国网络视听大会在成都开幕。近年来,随着生成式人工智能在内容…

    数码
  • 联想x文心一言开启AI新人设,5折套装助力大学生开启新篇章

    2024年最火的词是什么?是AI!无论是企业还是每一个普通个体,AI都已经成为我们耳…

    数码
  • “如果发现本网站发布的资讯影响到您的版权,可以联系本站!同时欢迎来本站投稿!