OPEN AI LAB Edge AI推理框架Tenigne全解读
发布时间:2020-04-15 06:39来源: 网络整理最近,国内的人工智能(AI)开源生态突然热闹了起来,这厢清华大学刚开源了一个强化学习平台,那边华为和旷视又相继开源了AI计算和深度学习框架。
从学术界到产业界,“开源”已经成为一个AI领域的关键词。作为计算机行业发展至新兴阶段的现象之一,开源为AI行业的百花齐放提供了不可或缺的动力。
一方面,它从授人以鱼到授人以渔的转变,为AI构建了一个开放共进的生态环境,并帮助行业加速AI应用落地;另一方面,它在解决行业实际问题时持续更新和迭代,亦源源不断地给AI领域输送重要的技术养料和创造力。
在这一股股重要的开源力量中,OPEN AI LAB的Tengine值得关注。
这家诞生于2016年12月的初创公司,经历三年多的发展,已经连续推出面向AIoT边缘计算的AI推理加速框架Tengine、一站式端到端解决方案平台Tengine2等平台级产品,推动边缘AI算力、算法及行业方案等环节的深度协作,加速AI技术在细分行业的商业化落地。
近日,智东西与OPEN AI LAB联合创始人兼CTO黄明飞做了一次深度对话。对话中,黄明飞还透露,Tengine与开源社区大咖OpenCV有深度合作,通过Tengine普及更多的开发者,惠及更广的行业应用部署。
“Tengine”究竟是什么?光芒背后,OPEN AI LAB又以怎样的定位,投身正在起步的中国AI开源生态?同时,与OpenCV的合作之于AI开源生态又有怎样的意义和影响?
▲OPEN AI LAB联合创始人、CTO黄明飞
中国AI开源浪潮背景之下,AIoT激烈的落地战
自谷歌深度学习框架TensorFlow拉起开源大旗后,AI的框架开源逐渐成为学术界和产业界的趋势。TensorFlow之外, Keras、PyTorch、Caffe、Theano、PaddlePaddle、Angel、XDL等AI框架和平台,相继发展成开源项目,分别吸引了一批开发者。
实际上,AI框架和一系列智能开发平台的开源,与近年来AI面临的落地挑战息息相关。
当下各行各业看似皆可“AI化”,但如何为纷繁复杂的实际应用场景提供有效的解决方案,AI框架和平台无疑被承载了最大期望,向上要承载不同的算法模型和应用程序,向下要兼容各类芯片和计算机操作系统。
通过开源吸引上下游广泛的参与,社区型协作共同发挥作用让技术迭代更迅速,应用更广泛,最终实现产业共同繁荣。与此同时,以5G为代表的物联网(IoT)通讯技术快速发展, AI与IoT融合成智能物联网(AIoT)。
在黄明飞看来,由于AIoT技术在行业的普及对低成本、实时性低功耗、高可靠性的需求,以及隐私安全等问题的浮现,AI计算正从云端下移到边缘节点中,如智慧交通、自动驾驶、智能家居和城市大脑等领域,数以亿万计的边缘节点和终端设备需要实现本地智能化,称之为边缘AI计算。
边缘计算的需求对硬件成本、功耗、兼容和易用性提出了较大的挑战,硬件上面临着芯片种类复杂、算力利用率低,软件开发环境复杂、兼容性差等关键问题。
黄明飞谈到,如何能简单快速地实现AI算法模型从云端向下迁移到边缘节点部署,充分发挥边缘节点上的芯片算力与硬件性能,已成为AI在行业落地和规模部署经济性的关键所在。
在这一背景下,OPEN AI LAB的边缘AI推理框架Tengine备受关注。
Tengine的核心能力及产业赋能
(一)Tengine是什么,解决什么问题?
“如果简单来形容,它就是一个嵌入式的AI推理框架,帮助算法开发者解决在AI快速产业化落地中遇到的各个瓶颈难题。”黄明飞说到,相比业内系列框架,Tengine有两个特点,一是物理位置层面,其所关注的重点是嵌入式设备,也就是海量的AIoT应用设备,而非服务器集群;二是业务模式层面,重点在于推理,并非训练。
从架构上看,Tengine自上而下主要可分为模型兼容层、基础工具链、模块化架构层、操作系统层、异构计算层五大框架层级,具有跨算法框架兼容、跨芯片适配、算力异构调度加速、轻量无依赖、一致性开发移植部署工具链几大核心能力,以有效提升AI生产力。
1、跨OS/算法框架适配
随着AI在产业、学术界的快速发展,市面上主流的算法训练框架蓬勃发展,如TensorFlow、Caffe、PyTorch、MXNet、ONNX、PaddlePaddle等以其各自的优势,在行业中获得广泛使用。