AI的下一主战场 —— 手机与物联网终端
骁龙神经元处理引擎SDK
Qualcomm提供了专为端上运行神经元网络的骁龙神经元处理引擎(Snapdragon Neural Processor Engine)简称SNPE。 目前在Qualcomm? 骁龙 600系列部分平台和820、835上都得到了支持。通过这个引擎,算法可以运行在GPU和DSP上,速度和功耗相对CPU可以得到大幅提升。目前支持的架构有Caffe,Caffe 2,Tensorflow,我们提供转化工具和benchmark工具,方便算法厂商的开发调试。
以Qualcomm? 骁龙TM 835移动平台上的测试为例,得到的结果是同样的神经元网络,在GPU上运行比CPU上运行平均快4倍,在DSP上运行比CPU快16倍;功耗上,在GPU上运行的功耗是CPU上的1/8,在DSP上运行的功耗是CPU上的1/25。
使用SNPE SDK的基本流程是以TensorFlow、caffe、caffe2做的模型,配置调用GPU,DSP或CPU的API,然后通过转换工具转换成在DLC格式,再通过SDK让算法在骁龙移动平台三种内核上运行,实现各种各样的功能,例如人脸识别、语音识别、文字识别等功能。换言之,Qualcomm SNPE SDK中提供了现成算法和函数,诸如卷积、池化等常用函数都已将做好,算法开发者直接调用即可。同时还支持用户定义层(User Defined Layer, UDL)。
关于软件算法,值得一提的是,过去是传统算法,现在基于机器学习的算法,速度更快效果更好,而且功耗更低,开发更为方便。此外随着算法的进步,对硬件的依赖度降低,例如要拍照清晰,过去通常要高像素分辨率,现在可以不用很贵的硬件,依靠算法提升效果。
终端与云端相辅相成
那么,相比市面上的一些硬件处理器,Qualcomm的特色及与他们的关系是什么?
目前AI芯片有两种形态,一种是像Qualcomm一样是做在一个SoC中,特点是体积更小、功耗更低,运算速度快,因为CPU、GPU和DSP等计算内核都做在一个SoC上,会对数据搬移、延迟和功耗等进行优化。未来随着运算要求的提升,也许会出现专门运算Neural Network(NN,神经网络)的核。第二种形态,是一些公司做的所谓的AI芯片,实际上是在主处理器外做的协处理器,因此主芯片和外置芯片之间的大量数据搬移、交互等将是挑战。

图片新闻
最新活动更多
-
即日-12.15立即下载>> 干货下载【是德科技白皮书】现成的信号分析仪测量应用软件为您节省宝贵时间
-
12月25日立即报名>> 【在线研讨会】智慧出行:亚马逊AWS赋能车联网行业
-
12月26日立即预约>> 【润欣科技在线直播】探索5G时代的WiFi6应用
-
即日-12.31立即下载>> NI院校科研技术白皮书限时下载
-
1月3日立即申请>> 2020长江商学院智造行业创新创业沙龙
-
即日-1.13立即下载>> 德国康佳特嵌入式技术应用案例白皮书限时下载
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论