华为Mate 10搭载麒麟970芯片,其详细配置参数有哪些特点?
- 内容介绍
- 文章标签
- 相关推荐
本文共计2843个文字,预计阅读时间需要12分钟。
自2016年以来,谷歌DeepMind的AlphaGo在围棋大赛中击败人类顶级高手后,人工智能这一计算机科学概念一夜之间变得家喻户晓。如今,这一概念已经深入人心,广泛认知。AI浪潮随势兴起,不断发展。
自去年谷歌DeepMind的AlphaGo在围棋大战中击败人类顶级高手后,“人工智能”这个计算机学科的概念仿佛一夜之间就普及到了大众认知的层面,这股AI潮流随之不断发酵。显然,人工智能正在成为科技行业的最大风口,也被认为是继互联网之后的另一场生产力革命,大有颠覆全行业的实力。
智能手机作为移动互联网的最普遍的终端设备,在经历近年来的同质化加剧后,也开始越来越频繁地融合AI,产业链上下游涉及AI的方案不断涌现。也就是在今年,华为和苹果这两家排名前三的手机厂商不约而同地将加速AI神经网络算法的专有计算单元内嵌到了移动SoC芯片上,推出了融合专有AI算力的移动SoC新架构。
华为全新的麒麟970芯片内置了针对AI神经网络计算的NPU(Neural-network Processing Unit),同时因为麒麟970已经在华为Mate 10系列以及荣耀V10等旗舰新机得到商用,因此麒麟970被认为是业界首款商用的移动AI芯片。
麒麟970能够提供专有的移动AI算力,而 AI芯片的手机到底要强在哪里?接下来我们通过对华为Mate 10的麒麟970专项评测一探究竟。
架构参数:
首先来看参数,麒麟970的CPU单元仍然是八核心的Cortex-A73x4+ Cortex-A53x4;GPU则首发了ARM最新Mali G72 MP12,因为台积电10nm制程工艺的加持,挂了12颗核心。
以往的手机芯片普遍是以CPU(中央处理器)/GPU(图形处理器)/DSP(数字信号处理)为核心的传统计算架构,但这种架构难以支持越来越普遍的神经网络计算。为此,麒麟970中单设了一个专门的AI硬件处理单元,为CPU、GPU等单元减负。
麒麟970融合AI的架构是其最大亮点,华为称其为HiAI移动计算架构,首次在移动SoC上集成了NPU专用硬件处理单元,这颗NPU其AI运算能力高达FP16 1.92 TFLOP,该性能约为麒麟960处理器的三倍(麒麟960处理器约为0.6 TFLOPs FP16),高通的骁龙835同样指标在1以内。AI运算力可以大幅提升手机在图像识别、语音交互、智能拍照等方面的能力。
框架方面麒麟970支持Caffe和TensorFlow等主流AI平台,将应用到图像识别处理、语音识别以及自然语言处理等方面。
麒麟970凭借华为通信技术背书,在基带配置上再次领先,支持目前全球LTE最高的通信规格LTE Cat.18下行/Cat.13上行,实现了业界最高的1.2Gbps峰值下载速率。
麒麟970用台积电最新的10nm制程工艺,在约1平方厘米的面积上集成了55亿颗晶体管。
详细参数:
10nm TSMC
55亿晶体管
八核心64位CPU (Cortex-A73 x4+ Cortex-A53x4)
十二核心 ARM Mali-G72 GPU
华为自主双核ISP
HDR10,4K@60fps解码,以及4K@30fp编码。
华为自主4.5G LTE Modem:LTE Cat.18(1.2Gpbs)/Cat.13;双VoLTE
NPU神经网络计算单元
i7协同处理器
AI性能测试:
说到手机的性能测试,一般都绕不开跑分。虽然跑分不能代表手机的全部体验,但跑分成绩能够直观地在一定程度内用数据来量化大部分体验上可能存在的差异,也是形成个体差别对比的方法。
AI的神经网络计算相比传统的CPU逻辑等运算来讲,是通过模拟生物的大脑神经元,人工神经网络由众多的神经元可调的连接权值连接而成,随时需要大规模并行处理、分布式信息存储、和自组织自学习等方面的计算要求。
对于手机平台来说,目前的各类跑分测试软件主要是针对CPU性能、GPU性能和存储等方面,衡量其神经网络计算能力的工具很少,毕竟AI算力才刚刚在手机上获得专属的硬件计算单元,是个非常新的指标。
AI的神经网络计算最常见的就是计算机视觉技术,所谓计算机视觉是利用输入装置如摄像头/传感器等代替人眼对目标进行识别、跟踪和测量等机器视觉,试图建立能够从图像或者多维数据中获取信息的人工智能技术。简单来说的目的就是让机器学会通过视觉认识分析物体,人脸识别、条码/文字识别、AR应用就是一些常见的计算机视觉场景。华为Mate 10发布会上演示的强大的识图能力就是计算机视觉技术的应用场景。
目前,著名的跑分平台PCMark已经推出了针对Android的AI性能测试项目-计算机视觉跑分,PCMark的计算机视觉测试包括基于TensorFlow神经网络的物体识别模型、ZXing条码/QR码识别处理库、Tesseract光学字符识别库。
因为麒麟970的HiAI架构是一种全新的移动平台架构,跑分应用能直接调用NPU单元?可以直接反映出麒麟970的AI性能吗?
我们在华为HiAI API的开发说明文档里发现有这样一句提示:“常用的人工智能应用功能基础库,都可以在HiAI移动设备上高效运行”,同时结合麒麟970原生支持包括Caffe、TensorFlow等主流平台神经网络算法加速特性,说明绝大多数包含终端侧神经网络计算的应用在麒麟970的HiAI架构上都可以得到加速。其中TensorFlow是谷歌推出的开源机器学习平台,是目前最流行的AI开发平台,非常具有代表性。
我们通过华为Mate 10、搭载骁龙835的三星Note 8以及搭载骁龙660的OPPO R11s进行了PCMark的“计算机视觉”专项测试。在测试中,明显感受到华为Mate 10比另外两款骁龙机型要快。同时发现测试过程中,在第一项TensorFlow的模型库识别里,三者识别的精度和结果几乎没有太大差距。而在第二项的ZXing测试里,三星Note 8以及OPPO R11s均未能识别出难度较大标记为“5/11”二维码,但华为Mate 10能够成功识别出结果来,除此之外,其他条码/QR码识别结果三者均相同。
最终的跑分成绩显示出了明显差异,华为Mate 10得到了4940的超高分,比华为Mate 10市场售价贵了近一倍的三星Note 8得分仅为3853分,而搭载骁龙660的OPPO R11s得分为2990分。同时我们在PCMark平台的成绩数据库里也可以看到,其他骁龙835机型的平均得分结果基本维持在3800以内。
另外完成速度上,多次测试下来,华为Mate10每轮平均用时3分15秒,三星Note 8每轮平均用时3分25秒,OPPO R11s每轮平均用时3分钟33秒。华为Mate 10速度在意料之中领先。
随着手机融入AI的特征越来越明显,跨平台跑分应用鲁大师在最新版里也与时俱进地更新加入了“AI性能评测”的跑分项目,鲁大师的“AI性能评测”项目使用了谷歌的“Inception-V3”、微软的“Resnet-34”以及经典的“VGG16”三种常见的神经网络模型进行识别分类等AI计算。
由于鲁大师的这项“AI性能评测”是跨平台的,因此这次对比测试中,我们加入了搭载苹果A11 Bionic芯片的iPhone 8,A11 Bionic芯片内嵌双核的神经网络计算单元,和麒麟970的NPU属性类似,都能够为AI的神经网络计算加速。
测试中,华为Mate 10完成地非常快,最终成绩达到了236的超高分。而同样内嵌AI专有计算单元的iPhone 8只得到了180分,单纯的成绩得分算下来华为Mate 10要比iPhone 8快了30%以上。而搭载骁龙835的三星Note 8 成绩仅为145分,搭载骁龙660的OPPO R11s得分仅为76。
在测试时间上,华为Mate 10的优势就更明显了,仅用时21秒,iPhone 8用时52秒,三星Note 8用时1分21秒,OPPO R11s用时则长达2分钟50秒。
鲁大师放出的“AI性能排行榜”上可以看出,搭载麒麟970芯片的华为Mate 10/Mate 10 Pro、荣耀V10机型测试的平均成绩已经霸占了榜单前几位,均在232以上。接下来的排序就直接跌落到了180分左右,就是同样内嵌神经网络计算单元的iPhone X/8系列得分。而其他包括三星Note 8/S8在内骁龙835等旗舰平均得分仅为150以内。
这两个跑分测试能够直观地看到麒麟970的HiAI架构的在神经网络计算上的性能优势。另外,麒麟970集成NPU的HiAI架构对于AI算力的效能提升有多大呢?官方称能够以极低的功耗带来强大的AI算力。
我们的一个直观地感受是,在上面的多轮跑分测试中,华为Mate 10在测试中始终没有出现太明显发热迹象,三星Note 8和OPPO R11s均出现了能够明显感知的温度升高。
为了进一步验证麒麟970这种HiAI架构的能效优势,我们在网上的开源社区找到了一个能够运行于Android的TensorFlow demo,虽然这个demo只包含了TensorFlow一组基础的图像识别模型库,但已经够用,我们主要用这个demo来让手机运行神经网络算法,可以用来做功耗对比测试。
我们同样使用了华为Mate 10、三星Note 8以及OPPO R11s,为这三部手机均安装了这套TensorFlow demo。打开TensorFlow demo对常见静态物体,以及动态的车辆等场景进行识别时,发现三者的速度几乎没有太大差别,毕竟这只是一套基础的图像识别模型。
随着时间推移,三星Note 8和OPPO R11s的机身开始明显发热,通过CPU温度监控,可以看到三星Note 8的CPU温度接近70摄氏度,CPU核心动不动就满负荷,与之形成鲜明对比的是华为Mate 10的CPU最高温度在40摄氏度左右。
我们进一步测试了这个TensorFlow demo神经网络计算的耗电量对比:将三个机器均调至离线的飞行模式,亮度均调为50%,打开CPU监控程序,启动TensorFlow demo,让三部机器均在相似的角度和位置对准一台大屏电视,依次“观看”电视上播放的同一集电视剧。因为电视剧的画面不断地在切换镜头,所以手机上的TensorFlow demo也在不断识别计算,因此手机会不断地进行神经网络计算。
和之前的测试一样,随着时间推移,三星Note 8和OPPO R11s发热越来越严重,而经过一集约45分钟的电视剧后,华为Mate 10掉电15%,搭载骁龙835的三星Note 8掉电28%,虽然OPPO R11s搭载了以“省电神U”著称的骁龙660,但其掉电幅度也是达到了25%!可见麒麟970的HiAI架构相比骁龙移动计算平台效能优势同样很明显。
对于AI领域的计算机视觉技术,也很有必要展望一下麒麟970能够带来的AR性能,我们预计麒麟970的HiAI架构对于依赖于计算机视觉的AR计算场景也能够带来明显加速。毕竟谷歌的ARCore平台最主要的三大特性是运动跟踪、环境理解和光线预测。
不过目前的Andriod的AR生态还比较弱,相比苹果的ARKit,因为Android生态的碎片化,谷歌后发ARCore在应用生态上还处于较为落后的阶段,我们目前在国内应用市场或者互联网上很难找到能够和苹果ARKit生态体验相当的ARCore应用。
通过对华为Mate 10的AI性能测试,可以看出麒麟970能够在AI算力的性能上完胜苹果的A11 Bionic芯片,而且在性能和效能上,对传统架构的高通骁龙835芯片进行了“双碾压”。其实话说回来,高通对于骁龙芯片在神经网络的算力加速上也是有相应配置优化的,只不过骁龙芯片的AI加速主要是在DSP上实现的,高通从骁龙820开始,就引入了Hexagon 680 DSP,我们测试的OPPO R11s内的骁龙660芯片也是配备同样的Hexagon 680。这颗Hexagon 680 DSP当中集成了Hexagon向量扩展核心(HVX,Vector eXtensions),可以代替CPU完成图片、视频、虚拟显示和计算机视觉等处理任务。
到了骁龙835高通再次对神经处理引擎软件框架进行了全新升级,除了支持Caff、Coffe2,还包含了对Google TensorFlow等神经网络和模型框架的支持,以及对具有Hexagon向量扩展(HVX)特性的Hexagon DSP的增强。
但从我们进行的多轮的包括TensorFlow等神经网络计算的测试结果来看,即便是骁龙835芯片对AI引擎框架做了优化升级,还是被麒麟970的HiAI架构的AI算力从性能/效能双维度大幅度完秒。
所以高通移动计算平台的AI性能这下子得要看最新的骁龙845了,骁龙845也是刚发布不久,根据高通公布的信息显示,骁龙845仍然没有引入专有的神经网络计算单元,继续通过现有的CPU/GPU/DSP来加强对于人工智能的支持。
据悉,骁龙845此次则采用了高通第三代的骁龙神经处理引擎,增加了更多神经网络计算框架和数据类型的支持。此外,骁龙845其Kryo架构的ARM真身-Cortex-A75/55内核是基于ARM最新的DynamIQ技术,加入了针对人工智能的指令集和优化库,ARM V8.2版本的指令集将支持神经网络卷积运算,可以极大的提升人工智能和机器学习的效率。
据ARM官方信息显示,针对人工智能和机器学习的全新处理器指令集在采用DynamIQ技术的Cortex-A75处理器在优化应用后,可实现比基于现有的Cortex-A73的设备高50倍的人工智能性能,并最多可提升10倍CPU与SoC上指定硬件加速器之间的反应速度。
这意味着骁龙845的 CPU单元在AI算力上将会有明显改善,但骁龙845的这些提升是否能够强过麒麟970的HiAI呢?我们还是非常期待的这个PK结果的。可见移动计算平台的新一轮“核战”已经在AI计算领域爆发,测试下来目前麒麟970在所有商用的移动平台上,AI算力应该最强的,但我们也非常期待着高通阵营的骁龙845机型的尽快上市,届时可以一睹骁龙845带来的AI算力是否能够叫板麒麟970。不过预计搭载骁龙845的机型最快要到2018年2月以后才能上市,也欢迎大家持续
本文共计2843个文字,预计阅读时间需要12分钟。
自2016年以来,谷歌DeepMind的AlphaGo在围棋大赛中击败人类顶级高手后,人工智能这一计算机科学概念一夜之间变得家喻户晓。如今,这一概念已经深入人心,广泛认知。AI浪潮随势兴起,不断发展。
自去年谷歌DeepMind的AlphaGo在围棋大战中击败人类顶级高手后,“人工智能”这个计算机学科的概念仿佛一夜之间就普及到了大众认知的层面,这股AI潮流随之不断发酵。显然,人工智能正在成为科技行业的最大风口,也被认为是继互联网之后的另一场生产力革命,大有颠覆全行业的实力。
智能手机作为移动互联网的最普遍的终端设备,在经历近年来的同质化加剧后,也开始越来越频繁地融合AI,产业链上下游涉及AI的方案不断涌现。也就是在今年,华为和苹果这两家排名前三的手机厂商不约而同地将加速AI神经网络算法的专有计算单元内嵌到了移动SoC芯片上,推出了融合专有AI算力的移动SoC新架构。
华为全新的麒麟970芯片内置了针对AI神经网络计算的NPU(Neural-network Processing Unit),同时因为麒麟970已经在华为Mate 10系列以及荣耀V10等旗舰新机得到商用,因此麒麟970被认为是业界首款商用的移动AI芯片。
麒麟970能够提供专有的移动AI算力,而 AI芯片的手机到底要强在哪里?接下来我们通过对华为Mate 10的麒麟970专项评测一探究竟。
架构参数:
首先来看参数,麒麟970的CPU单元仍然是八核心的Cortex-A73x4+ Cortex-A53x4;GPU则首发了ARM最新Mali G72 MP12,因为台积电10nm制程工艺的加持,挂了12颗核心。
以往的手机芯片普遍是以CPU(中央处理器)/GPU(图形处理器)/DSP(数字信号处理)为核心的传统计算架构,但这种架构难以支持越来越普遍的神经网络计算。为此,麒麟970中单设了一个专门的AI硬件处理单元,为CPU、GPU等单元减负。
麒麟970融合AI的架构是其最大亮点,华为称其为HiAI移动计算架构,首次在移动SoC上集成了NPU专用硬件处理单元,这颗NPU其AI运算能力高达FP16 1.92 TFLOP,该性能约为麒麟960处理器的三倍(麒麟960处理器约为0.6 TFLOPs FP16),高通的骁龙835同样指标在1以内。AI运算力可以大幅提升手机在图像识别、语音交互、智能拍照等方面的能力。
框架方面麒麟970支持Caffe和TensorFlow等主流AI平台,将应用到图像识别处理、语音识别以及自然语言处理等方面。
麒麟970凭借华为通信技术背书,在基带配置上再次领先,支持目前全球LTE最高的通信规格LTE Cat.18下行/Cat.13上行,实现了业界最高的1.2Gbps峰值下载速率。
麒麟970用台积电最新的10nm制程工艺,在约1平方厘米的面积上集成了55亿颗晶体管。
详细参数:
10nm TSMC
55亿晶体管
八核心64位CPU (Cortex-A73 x4+ Cortex-A53x4)
十二核心 ARM Mali-G72 GPU
华为自主双核ISP
HDR10,4K@60fps解码,以及4K@30fp编码。
华为自主4.5G LTE Modem:LTE Cat.18(1.2Gpbs)/Cat.13;双VoLTE
NPU神经网络计算单元
i7协同处理器
AI性能测试:
说到手机的性能测试,一般都绕不开跑分。虽然跑分不能代表手机的全部体验,但跑分成绩能够直观地在一定程度内用数据来量化大部分体验上可能存在的差异,也是形成个体差别对比的方法。
AI的神经网络计算相比传统的CPU逻辑等运算来讲,是通过模拟生物的大脑神经元,人工神经网络由众多的神经元可调的连接权值连接而成,随时需要大规模并行处理、分布式信息存储、和自组织自学习等方面的计算要求。
对于手机平台来说,目前的各类跑分测试软件主要是针对CPU性能、GPU性能和存储等方面,衡量其神经网络计算能力的工具很少,毕竟AI算力才刚刚在手机上获得专属的硬件计算单元,是个非常新的指标。
AI的神经网络计算最常见的就是计算机视觉技术,所谓计算机视觉是利用输入装置如摄像头/传感器等代替人眼对目标进行识别、跟踪和测量等机器视觉,试图建立能够从图像或者多维数据中获取信息的人工智能技术。简单来说的目的就是让机器学会通过视觉认识分析物体,人脸识别、条码/文字识别、AR应用就是一些常见的计算机视觉场景。华为Mate 10发布会上演示的强大的识图能力就是计算机视觉技术的应用场景。
目前,著名的跑分平台PCMark已经推出了针对Android的AI性能测试项目-计算机视觉跑分,PCMark的计算机视觉测试包括基于TensorFlow神经网络的物体识别模型、ZXing条码/QR码识别处理库、Tesseract光学字符识别库。
因为麒麟970的HiAI架构是一种全新的移动平台架构,跑分应用能直接调用NPU单元?可以直接反映出麒麟970的AI性能吗?
我们在华为HiAI API的开发说明文档里发现有这样一句提示:“常用的人工智能应用功能基础库,都可以在HiAI移动设备上高效运行”,同时结合麒麟970原生支持包括Caffe、TensorFlow等主流平台神经网络算法加速特性,说明绝大多数包含终端侧神经网络计算的应用在麒麟970的HiAI架构上都可以得到加速。其中TensorFlow是谷歌推出的开源机器学习平台,是目前最流行的AI开发平台,非常具有代表性。
我们通过华为Mate 10、搭载骁龙835的三星Note 8以及搭载骁龙660的OPPO R11s进行了PCMark的“计算机视觉”专项测试。在测试中,明显感受到华为Mate 10比另外两款骁龙机型要快。同时发现测试过程中,在第一项TensorFlow的模型库识别里,三者识别的精度和结果几乎没有太大差距。而在第二项的ZXing测试里,三星Note 8以及OPPO R11s均未能识别出难度较大标记为“5/11”二维码,但华为Mate 10能够成功识别出结果来,除此之外,其他条码/QR码识别结果三者均相同。
最终的跑分成绩显示出了明显差异,华为Mate 10得到了4940的超高分,比华为Mate 10市场售价贵了近一倍的三星Note 8得分仅为3853分,而搭载骁龙660的OPPO R11s得分为2990分。同时我们在PCMark平台的成绩数据库里也可以看到,其他骁龙835机型的平均得分结果基本维持在3800以内。
另外完成速度上,多次测试下来,华为Mate10每轮平均用时3分15秒,三星Note 8每轮平均用时3分25秒,OPPO R11s每轮平均用时3分钟33秒。华为Mate 10速度在意料之中领先。
随着手机融入AI的特征越来越明显,跨平台跑分应用鲁大师在最新版里也与时俱进地更新加入了“AI性能评测”的跑分项目,鲁大师的“AI性能评测”项目使用了谷歌的“Inception-V3”、微软的“Resnet-34”以及经典的“VGG16”三种常见的神经网络模型进行识别分类等AI计算。
由于鲁大师的这项“AI性能评测”是跨平台的,因此这次对比测试中,我们加入了搭载苹果A11 Bionic芯片的iPhone 8,A11 Bionic芯片内嵌双核的神经网络计算单元,和麒麟970的NPU属性类似,都能够为AI的神经网络计算加速。
测试中,华为Mate 10完成地非常快,最终成绩达到了236的超高分。而同样内嵌AI专有计算单元的iPhone 8只得到了180分,单纯的成绩得分算下来华为Mate 10要比iPhone 8快了30%以上。而搭载骁龙835的三星Note 8 成绩仅为145分,搭载骁龙660的OPPO R11s得分仅为76。
在测试时间上,华为Mate 10的优势就更明显了,仅用时21秒,iPhone 8用时52秒,三星Note 8用时1分21秒,OPPO R11s用时则长达2分钟50秒。
鲁大师放出的“AI性能排行榜”上可以看出,搭载麒麟970芯片的华为Mate 10/Mate 10 Pro、荣耀V10机型测试的平均成绩已经霸占了榜单前几位,均在232以上。接下来的排序就直接跌落到了180分左右,就是同样内嵌神经网络计算单元的iPhone X/8系列得分。而其他包括三星Note 8/S8在内骁龙835等旗舰平均得分仅为150以内。
这两个跑分测试能够直观地看到麒麟970的HiAI架构的在神经网络计算上的性能优势。另外,麒麟970集成NPU的HiAI架构对于AI算力的效能提升有多大呢?官方称能够以极低的功耗带来强大的AI算力。
我们的一个直观地感受是,在上面的多轮跑分测试中,华为Mate 10在测试中始终没有出现太明显发热迹象,三星Note 8和OPPO R11s均出现了能够明显感知的温度升高。
为了进一步验证麒麟970这种HiAI架构的能效优势,我们在网上的开源社区找到了一个能够运行于Android的TensorFlow demo,虽然这个demo只包含了TensorFlow一组基础的图像识别模型库,但已经够用,我们主要用这个demo来让手机运行神经网络算法,可以用来做功耗对比测试。
我们同样使用了华为Mate 10、三星Note 8以及OPPO R11s,为这三部手机均安装了这套TensorFlow demo。打开TensorFlow demo对常见静态物体,以及动态的车辆等场景进行识别时,发现三者的速度几乎没有太大差别,毕竟这只是一套基础的图像识别模型。
随着时间推移,三星Note 8和OPPO R11s的机身开始明显发热,通过CPU温度监控,可以看到三星Note 8的CPU温度接近70摄氏度,CPU核心动不动就满负荷,与之形成鲜明对比的是华为Mate 10的CPU最高温度在40摄氏度左右。
我们进一步测试了这个TensorFlow demo神经网络计算的耗电量对比:将三个机器均调至离线的飞行模式,亮度均调为50%,打开CPU监控程序,启动TensorFlow demo,让三部机器均在相似的角度和位置对准一台大屏电视,依次“观看”电视上播放的同一集电视剧。因为电视剧的画面不断地在切换镜头,所以手机上的TensorFlow demo也在不断识别计算,因此手机会不断地进行神经网络计算。
和之前的测试一样,随着时间推移,三星Note 8和OPPO R11s发热越来越严重,而经过一集约45分钟的电视剧后,华为Mate 10掉电15%,搭载骁龙835的三星Note 8掉电28%,虽然OPPO R11s搭载了以“省电神U”著称的骁龙660,但其掉电幅度也是达到了25%!可见麒麟970的HiAI架构相比骁龙移动计算平台效能优势同样很明显。
对于AI领域的计算机视觉技术,也很有必要展望一下麒麟970能够带来的AR性能,我们预计麒麟970的HiAI架构对于依赖于计算机视觉的AR计算场景也能够带来明显加速。毕竟谷歌的ARCore平台最主要的三大特性是运动跟踪、环境理解和光线预测。
不过目前的Andriod的AR生态还比较弱,相比苹果的ARKit,因为Android生态的碎片化,谷歌后发ARCore在应用生态上还处于较为落后的阶段,我们目前在国内应用市场或者互联网上很难找到能够和苹果ARKit生态体验相当的ARCore应用。
通过对华为Mate 10的AI性能测试,可以看出麒麟970能够在AI算力的性能上完胜苹果的A11 Bionic芯片,而且在性能和效能上,对传统架构的高通骁龙835芯片进行了“双碾压”。其实话说回来,高通对于骁龙芯片在神经网络的算力加速上也是有相应配置优化的,只不过骁龙芯片的AI加速主要是在DSP上实现的,高通从骁龙820开始,就引入了Hexagon 680 DSP,我们测试的OPPO R11s内的骁龙660芯片也是配备同样的Hexagon 680。这颗Hexagon 680 DSP当中集成了Hexagon向量扩展核心(HVX,Vector eXtensions),可以代替CPU完成图片、视频、虚拟显示和计算机视觉等处理任务。
到了骁龙835高通再次对神经处理引擎软件框架进行了全新升级,除了支持Caff、Coffe2,还包含了对Google TensorFlow等神经网络和模型框架的支持,以及对具有Hexagon向量扩展(HVX)特性的Hexagon DSP的增强。
但从我们进行的多轮的包括TensorFlow等神经网络计算的测试结果来看,即便是骁龙835芯片对AI引擎框架做了优化升级,还是被麒麟970的HiAI架构的AI算力从性能/效能双维度大幅度完秒。
所以高通移动计算平台的AI性能这下子得要看最新的骁龙845了,骁龙845也是刚发布不久,根据高通公布的信息显示,骁龙845仍然没有引入专有的神经网络计算单元,继续通过现有的CPU/GPU/DSP来加强对于人工智能的支持。
据悉,骁龙845此次则采用了高通第三代的骁龙神经处理引擎,增加了更多神经网络计算框架和数据类型的支持。此外,骁龙845其Kryo架构的ARM真身-Cortex-A75/55内核是基于ARM最新的DynamIQ技术,加入了针对人工智能的指令集和优化库,ARM V8.2版本的指令集将支持神经网络卷积运算,可以极大的提升人工智能和机器学习的效率。
据ARM官方信息显示,针对人工智能和机器学习的全新处理器指令集在采用DynamIQ技术的Cortex-A75处理器在优化应用后,可实现比基于现有的Cortex-A73的设备高50倍的人工智能性能,并最多可提升10倍CPU与SoC上指定硬件加速器之间的反应速度。
这意味着骁龙845的 CPU单元在AI算力上将会有明显改善,但骁龙845的这些提升是否能够强过麒麟970的HiAI呢?我们还是非常期待的这个PK结果的。可见移动计算平台的新一轮“核战”已经在AI计算领域爆发,测试下来目前麒麟970在所有商用的移动平台上,AI算力应该最强的,但我们也非常期待着高通阵营的骁龙845机型的尽快上市,届时可以一睹骁龙845带来的AI算力是否能够叫板麒麟970。不过预计搭载骁龙845的机型最快要到2018年2月以后才能上市,也欢迎大家持续

