登录
图像识别

AI视觉技术在智能边缘加速落地

005

更多
红烧狮子座
179
0
2020-08-07
      Intel 前不久提出了物联网方向的三大战略:第一,为物联网定制高性能的计算及加速芯片;第二,促进边缘计算负载整合的技术发展方向,抓住网络及器件边缘计算的良好机遇;第三,专注于计算机视觉,以及 AI 计算应用带来的巨大变化。

      Intel 认为在物联网的发展过程中,边缘计算的最新发展趋势——智能边缘,能够加速物联网的演进。Intel 物联网事业部副总裁、中国区总经理陈伟表示:“边缘计算的落地,尤其是边缘计算+AI+行业的应用模式,表明只有用贴近真实应用需求的方式,才能让边缘计算在当下数字社会生根发芽。”

AI 视觉技术在智能边缘加速落地

据麦肯锡预测,全球市场深度学习收入将呈现飞速增长,到 2030 年,AI 有望造就 13 万亿美元的经济活动。特别是随着智慧城市、商超、交通、工业互联网等应用场景对视频数据分析需求的激增,AI 与视觉技术正在加速智能与边缘计算的融合,将为汽车、互联网、教育等十余个行业的数智化变革提速赋能,助推货架分析、文本识别、热力图、车辆检测识别、缺陷检测等应用场景落地。作为边缘计算的发展趋势,智能边缘将与 AI、5G 关键技术转折点相互交织,推动智能进入新的发展拐点。

而边缘计算中不同应用场景的需求大不相同,需要使用不同神经网络模型、要求算力灵活、部署灵活、开发时间及成本优化等。为了贴近这些诉求加速落地,Intel 推出了最新的 AI 计算盒参考设计,可以说是 Intel 加速“智能边缘”的又一实践,也是在中国市场的又一重要尝试。

据 Intel 技术专家介绍,AI 计算盒参考设计硬件平台以 Intel 通用计算平台 CPU 为主,可以配备 FPGA 或 Movidius VPU 为架构的神经网络加速芯片以及加速卡,形成方案组合,可以为多样化企业级应用提供兼容能力,以及在高并发计算量需求下的可扩展性;此外还有包括凌动、酷睿、至强处理器在内的不同选择,能够提供丰富的功耗和成本选择。

软件方面,由于目前市面上的应用场景多以视觉为主,因此软件工具主要辅以 OpenVINO 工具套件,来帮助客户处理计算机视觉、视频分析类等应用。在底层,AI 计算盒提供了针对硬件优化的底层库来提升性能,包括媒体处理 Media SDK、深度学习推理工具 OpenVINO 工具套件、算法库及算子级优化的库和编程接口。在此之上,AI 计算盒还可支持如 G-streamer, FFMPEG 等不同的媒体框架,并提供如 IPC 输入、解码 /VPP、转码、RAID 存储、视频分析、拼接 / 显示、特征匹配等基于视频场景优化的管道,更易于使用和集成。此外,在应用层,AI 计算盒还可提供近似实际应用的参考示例,实现快速原型开发,缩短上市时间。

基于 Intel 的 AI 计算盒参考设计能带来哪些优势?Intel 技术专家表示,由于应用场景千差万别,因此大家对硬件平台的成本、功耗、扩展性、灵活性都有不同的需求,很难通过单一指标来进行评判,Intel 的目标是如何能让最终用户得到最经济、实用并适合的产品。与市场其他同类产品相比,Intel 最大的优势就是硬件平台类型多样化,这是基于多年来在半导体的生产、制造和设计上,投入了巨大的研发、生产成本,可以满足多种需求。再辅以完整的软件栈,可以全方位提供经济实用的产品。

利旧项目和新部署项目有何不同需求?

目前基于视觉的 AI 项目落地较多,从实际应用场景来看,一部分是利旧项目,另一部分是新部署项目。这些项目对 AI 计算盒有哪些不同要求?

Intel 物联网销售市场部中国区总监谢青山介绍,对于新项目来说,可以在设计之初就将 AI 能力考虑进去,相对比较容易。但是对于利旧项目中已有的 IT 设备来说,已经投入了巨大的 IT 软硬件资源,客户更希望能利用现有设备来支撑,或是在现有基础上新增 AI 能力。

Intel 的硬件平台以及对操作系统的支持都是向前兼容的,这意味着用户现有产品可以兼容未来的 CPU。在 AI 解决方案上,Intel 沿用了这一思路,参考设计不仅支持新项目,在旧有项目中,也可以增加一部分资源,达到支撑新应用的目的。而不论是利旧还是新部署,谢青山提到,近两年来 AI 几乎成为边缘计算产品的必选功能,特别是从今年开始,这样的需求越来越多。

那么,谁是 AI 计算盒参考设计的目标用户?据介绍,参考设计主要包括三方面:硬件参考平台、算法以及解决方案,SV(软件开发商)、ODM/OEM(原始设计制造商 / 原始设备制造商)、SI(系统集成商)等都是重要的合作伙伴。

通过算法层面的参考设计,软件开发商可实现对不同应用场景软件及算法的快速定制和场景化,加速整个产品定义、算法研发及 AIoT 整体解决方案的落地速度。

硬件平台方面,Intel 不仅提供独立的 AI BOX,也有类似插卡式或模块化的产品,当用户现有硬件平台算力不够,就可以将这些 AI 加速硬件集成到现有的硬件平台上。据了解,Intel 与 ODM/OEM、系统集成商,在目标检测、活体检测、缺陷检测、视频结构化等多方面进行深度合作,将驱动智慧商超、智慧城市、智慧医疗、智能检测等多领域的落地。

AI 计算盒——CPU、FPGA、ASIC 平台如何抉择?

目前边缘端的 AI 方案有很多采用了 ASIC/FPGA 方案,而 Intel 的 AI 计算盒参考设计主要是以不同算力的 CPU 平台作主控,在开发成本、效率等方面,又有哪些优势?

据 Intel 技术专家的解读,客户首先是根据最终应用场景需求来进行选择的,Intel 有全方位硬件平台供应商 / 芯片供应商的优势,除了最著名的 CPU,其实 CPU 内部还集成了 GPU,同时 Movidius VPU 架构也已经完全融合到 Intel 的硬件平台上,同时也有 FPGA 和 ASIC 方案。Intel 的 AI 计算盒参考设计,一方面综合性能能够满足用户所需;另一方面,如果需要在 CPU 之外对 AI 加速计算辅助的话,可以通过 Movidius VPU 架构的芯片做加速。

从软件应用开发角度看,在边缘侧实现 AI 加速计算,从开发到部署有很多痛点,Intel 希望通过 OpenVINO 工具套件、Media SDK 为主的一系列软件工具,帮助降低 AI 算法开发上的难度,缩短开发周期。客户只需要考虑应用开发,至于计算分布仅仅是 CPU 实现,还是 CPU+加速芯片完成,这部分工作可以通过 OpenVINO 的辅助开发来进行。

从用户角度看,每种芯片各有优缺点。如果算法和算力需要能够升级和扩容的话,选择 CPU、GPU、VPU 会更容易,因为如果选择了 FPGA 和 ASIC,可能短期内适合,但考虑到升级和修改算法时,就会比较困难。

对于大部分的物联网用户来说,面临的应用场景千差万别,在半导体设计方面面临的最大问题就是量小、种类多,很难找到单一的、量特别大的应用,这就导致了算法和硬件平台的需求都不一样,比较适合选择 Intel 的 AI 计算盒参考设计。相比之下,如果选择了 ASIC 方案,前期投入和后续升级都会面临较大的问题。

也正是这种碎片化的特性,Intel 非常重视生态建设,希望持续推进其物联网合作伙伴计划,与更多的行业伙伴合作,推出从原型到生产加速智能边缘的解决方案。在推出 AI 计算盒参考设计的同时,Intel 携手小钴科技、科沃斯、云图睿视等十余家合作伙伴共同打造了“英特尔 AI 生态合作伙伴算法方案集萃”,将主要面向智慧城市、智慧零售、智慧教育、工业互联网等多元化场景加速落地。

本内容属于网络转载,文中涉及图片等内容如有侵权,请联系编辑删除

相关推荐