读懂 2020,AI 安防「术」与「势」丨年终盘点

人工智能技术社区 2019-12-20

 读懂 2020,AI 安防「术」与「势」丨年终盘点

本文转自雷锋网,如需转载请至雷锋网官网申请授权。

过去一年,AI安防市场有实体经济的挣扎、AI新秀的锐利、资产泡沫的疯狂、相互之间的利益重构。

变革,显然已经成为AI安防行业的时代主题。

商业模式在变,盈利模式在变,行业参与者在变,消费者习惯也在变;大量新名词、新公司的涌现让传统老人们无所适从,今天的新人在明天到来之时也遇到了上述所提困扰。

大背景下,赛道玩家们必须走一步看百步,了然新技术下产业的未来走势,而这都将决定着企业产品的周期、产业竞争的最后胜败。

藉由此,在即将过去的2019年,雷锋网AI掘金志通过采访数十位业内专家、企业高管,整合了他们的观点与看法,记录了他们认为的过去一年来包括未来一年中,AI安防市场的八大技术趋势与两大行业走向。

AI安防“三维视觉化”

近五年的安防行业,一直处于被计算机视觉技术重新定义的阶段,但它的发展,同时也受制于视觉的技术瓶颈。

CVPR 2022大会主席权龙教授曾谈到,虽然计算机视觉对安防行业的推动作用很大,但应用范围不外乎识别人、车、物等单一的应用,局限在二维识别层面。而未来大规模城市级别的三维重建,将会成为最重要的任务, 并重新定义智能安防。

三维视觉的最终目的,并不是当前部分AI公司所从事的在静态场景完成对人脸的3D高精度识别,而是利用摄像机系统实现整个城市的实时三维重建,并在重建的实景画面中,完成对万物的识别、建模与决策。

“我们的终极目标是对图像的理解,也就是认知,但当前的计算机视觉只处于感知阶段,我们并不知如何理解,计算机视觉一直是要探索最基础的视觉特征,这一轮视觉卷积神经网络CNN本质上重新定义了计算机视觉的特征。但人类是生活在三维环境中的双目动物,这使得人类生物视觉的识别不只是识别,同时也包括三维感知与环境交互。”

“因此我们要和三维打交道,二维识别所能做的事,在当前众多复杂场景中,是远远不够的。但三维重建不是最终目的,而且是要把三维重建和识别融为一体。”

超宽场景“智能光场成像化”

一直以来,视频监控系统中最难处理的问题之一便是如何解决清晰度与宽距之间的平衡问题。宽距越大,覆盖面越大、遮挡越小,但清晰度也低;宽距越小,覆盖面越小,但清晰度很高。未来,这一问题可能会得到有效解决。

此前,33岁的清华大学副教授方璐提出新一代智能光场成像技术,该技术面向大范围动态场景的视觉感知与处理,实现了机器看的全、看的清和看的真,成为智慧城市的重要利器。

方璐提出了结构自适应光场成像新原理,建立了大场景自适应光场感知新模型,研制出十亿像素级阵列像感器成像装备和智能处理平台,在理论和技术上突破了大范围动态场景成像中宽视场和高分辨的固有矛盾。

智能分析处理平台的建立,使得机器在智慧城市等复杂现实场景中不再“管中窥豹”,或者“只见树木不见森林”。

进一步,方璐还构建国际首个十亿像素级动态大场景数据集 PANDA,率先实现单图像下万级物体检测与识别,千组对象群体关系分析,百倍尺度变化的长程跟踪。

该动态大场景数据集为视觉算法研究提供了重要基础,有望实现更大的突破。

智能成像“去硬件化”

目前深度学习技术主要应用于模式匹配和图像识别,例如人脸识别、车辆特征提取、视频结构化等。

而如果将这种深度学习技术应用到前端传感器图像增强处理技术领域,直接对前端图像传感器输出的裸数据进行图像恢复,可以最大化还原低照度环境下的实际图像效果。

这种处理技术的好处是,它突破了传统摄像机中ISP技术的局限性。

目前ISP由数十个图像处理模块组成,数百个参数需要人工根据经验进行调整,不仅费时费力,而且由于传统算法的局限性,难以在低照高噪声的情况下显示出图像中有用的信息。

而AI超微光技术对传感器数据直接进行处理,运用神经网络完成输入图像到输出图像端到端的非线性映射。不仅如此,相对于增强补光,以及多目多光谱设计的硬件解决方案,独创的深度学习图像增强算法,可在大幅减少卡口对补光灯的依赖的条件下,提升图像亮度,且充分还原物体颜色与纹理等细节信息。

某业内人士提到,目前鲜有听闻用神经网络做出商用的整个ISP pipeline。一般是替换部分算法模块,比如demosaic、noise reduction,如果能够做到上述所提,对于行业来说,无疑是重大突破。

同时他认为,短期来看,还是传统ISP加上神经网络,协同工作可以实现更好的图像效果。

在产品层,今年安博会上,科达便发布了用于人员卡口、车辆卡口、及车辆电警夜间拍摄的超微光摄像机。与业界较为主流的星光、黑光技术不同,除了科达多年在基础ISP图像调制技术上的积累,还采用了自主研发的深度学习图像增强算法,来增强摄像机的拍摄能力。

大华也发布了应用于夜间拍摄的是“极光摄像机”,它也是继星光之后的升级版,采用更优的CMOS传感器,及深度学习算法进行人脸优化。

海康同样也是基于智能场景需求定义,展示了新推出的AI多摄、雷视一体机等,AI 多摄系列包括合智能多摄系列、AR立体防控体系、黑光系列、三维精准动线系列等。

华为自然还是主打“软件定义摄像机”,不过硬件方面,华为发布了业内首个系列化多镜多芯复眼型摄像机,以及业界首款5G摄像机等。

城市大脑“数字视网膜化”

现阶段,通过监控摄像头让城市变得更智慧,不仅仅是单一的视频检索和计算机视觉问题,而是在面临海量信息和突发事件时,能否能迅速做出反应、能否降低计算量、能否有效识别和检索等一系列庞大的系统工程。

现有视频监控体系的弊病,使得很多复杂任务无法完成,即便是人工智能大规模渗入后,需求方也往往为了一些特殊目的才加特定的智能摄像头和处理系统。

有些专用摄像头只是用来识别车牌号,有些摄像头只用来识别人脸,这种打补丁式的方法实际会带来很多问题,我们把它叫做“一对一模式”。

于是数字视网膜应运而出。

承载数字视网膜的摄像头需做两件事:首先做好编码;其次为后面的识别,提取出所需的信息。

数字视网膜与人的眼睛既具有影像重构(精细编码视觉内容),又具备特征提取(面向识别理解)的功能。

数字视网膜最终如何实现?

原则上这一部分把高效、监控视频编码(视频特征的紧凑表达)和特征集合起来紧凑地给它表达出来。有了这些后,把它应用在其中,传输到云端,从而拥有了数字视网膜功能。

整个数字视网膜实际上包含了三种核心技术:基于背景模型的场景视频编码、视频特征的紧凑表达、视频编码与特征编码的联合优化。

未来当一对一模式变成一对多模式,与此同时,一对多模式中的技术标准就位后,可以把该技术标准进一步优化,然后嵌入在产品里中尽快地实践和应用,使得城市将更容易治理。

视频算法“App Store化”

这个概念最早由华为安防提出、践行。

安博会期间,华为推出了业内首个“智能视频算法商城-HoloSens Store”,为合作伙伴提供多种入驻模式和商业模式组合,实现用户“随意挑、快熟换、放心用”的效果,这可能给依靠AI算法(算法接口调用收费)的公司带来生存挑战。

算法商城,可以视为华为在软件定义摄像机、连接合作伙伴上的进一步尝试。

安防在各行业的需求无疑是多种多样的。一家单一的公司很难快速满足智能摄像机在各行业的智能化需求。

在各种场景上,摄像机与场景的组合十分复杂,传感器性能、解析度大小、焦距远近等,都能影响应用效果。但近年来,越来越多的智能硬件产品已在迭代跨越这些障碍。摄像机正从单一功能的终端,向多应用聚合的平台转变。

而华为所做的,就是希望通过搭建HoloSens Store平台,结合生态伙伴,共同赋能千行百业智能化。

这些智能摄像机可以根据不同的场景按需加载不同的软件和算法,通过多特征提取与识别、多摄像机间的协同、端云间的协同成倍地提高智能分析效率。

当前AI安防的边界,变得愈加模糊。以手机类比,当前安防市场还在从诺基亚的功能机时代,走向与苹果、安卓系统的智能机分野的过程中。安防摄像机的身份,犹如手机从通信器材升级为线上互联网入口一样,随之突变为线下城市画像的入口。

华为提出“算法升级”,依托其公有云,就是构建一个类似于App Store的模式,以微言之,是加速数据融合和算法开发;在更宏观的层面上,就是夯实“软件定义摄像头”的概念,结合合作伙伴的能力,打造一个万物互联的纽带。

数据隐私“联邦学习化”

AI在安防行业的探索才刚刚开始;同时,做好AI所必须的数据养料有限且质量较差,不同数据源之间存在难以打破的壁垒。

除了少数几家拥有海量用户、具备产品和服务优势的巨无霸企业外,大多数中小型AI安防企业难以以一种合理、合法的方式跨越人工智能落地的数据鸿沟,或者需要付出巨大的成本来解决这一问题。

此外,随着大数据的发展,重视数据隐私和安全已经成为一种世界性的趋势,一系列条例的出台更是加剧了数据获取的难度,这也给人工智能的落地应用带来了前所未有的挑战。

何解?针对这个问题,雷锋网(公众号:雷锋网)同时采访了六位学术界、工业界领头人,得到的答案比较一致:从目前的研究进展来看,“联邦学习”技术可能是解决以上问题的最佳选择。

联邦学习的概念最初由谷歌在2016年提出,之后包括微众银行、腾讯、平安科技、华为、京东等在内的国内企业和机构推动联邦学习进入了学术研究与行业落地新阶段。

联邦学习之所以能够在如此短的时间里迅速由一个构想变为一门学科,主要因为它可以让参与各方在不披露底层数据的前提下共建模型,之后利用整个数据联邦内的数据资源,提高每个成员的模型表现。

通俗来说,深度学习时代,每个AI企业的技术能力是单打独斗式的;而联邦学习的出现,更为紧密、安全地将各个AI企业联系在了一起,联邦中的每个成员都可以用最快的速度提升自身能力的同时汲取别人的长处,最终获得共同成长。

譬如A厂商有校园数据、B厂商有工厂数据、C厂商有社区数据,且这三家厂商都使用了联邦学习技术。

从业务层面出发,A、B、C这三家厂商便直接获得了两种能力:1、最快速地优化自身业务;2、最快速地拓展新业务。

最快速地优化自身业务表现在,平台每天会有若干个类似A厂商的企业向平台输入加密后的数据模型,而这些数据模型中有A厂商非常缺乏的其他数据信息,而A厂商便可根据这些数据去更新自己的算法模型。

最快速地拓展新业务表现在,A、B、C每家厂商都有各自构建好的模型,通过汇总去得到更大的数据模型,在不流通数据的情况下得到数据流通的最好效果,通过资源互补可以在最短时间内安全地获得对方的能力,去拓展新业务。

从隐私保护层面来看,通常智能摄像头产生的数据会被上传到后台服务器中,然后由部署在服务器上的神经网络模型根据收集到的大量数据进行训练得到一个模型,服务商根据这个模型来为用户提供服务。

这是一种集中式的模型训练方法,这种方式很难保证数据隐私安全。

而联邦学习就不再是让数据发送到后台,而是在每个企业自己的服务器上进行训练,并加密上传训练模型,后台会综合成千上万的用户模型后再反馈给用户改进方案。

相较传统学习模式,联邦学习的优点是显而易见的:

1、在联邦学习的框架下,各参与者地位对等,能够实现公平合作;

2、数据保留在本地,避免数据泄露,满足用户隐私保护和数据安全的需求;

3、能够保证参与各方在保持独立性的情况下,进行信息与模型参数的加密交换,并同时获得成长;

4、建模效果与传统深度学习算法建模效果相差不大;

5、联邦学习是一个「闭环」的学习机制,模型效果取决于数据提供方的贡献。

在传统的方法下,用户只是人工智能的旁观者——使用,但没有参与;而在联邦学习场景下,每个人都是“驯龙高手”,每个人都是人工智能发展的参与者。

AI芯片“专用化”

智慧城市的进一步发展必然需要三大技术的持续进步:物联网、边缘计算、通信,眼下常见的智慧城市方案大多在后端打通了数据,但受限于网络等问题,仅能实现沙粒般的智慧化。

也就是说,唯有在前端完成智能分析,与后端相配合,才能将城市物联网数据完整利用,打造感知城市。

遗憾的是,市场上现有的AI芯片方案难以满足前端感知技术的切实需求。

一直以来,市场上大多都是通用型AI芯片提供人工智能计算所需的算力,而针对某些场景的专用AI芯片较为匮乏,AI芯片发展后期,用户关注的一定是真实场景下的综合效果,而不仅仅是计算加速。

具体来看,通用型AI芯片在实际应用过程中,会遇到四个问题:

一、通用型AI芯片无法和数据产生高效、深度连接。专用AI芯片通常针对某些场景做定制化处理,对于数据的理解、分析、处理更为透彻、精准。

二、通用型AI芯片无法与市场产生紧密耦合。通用芯片的作业模式是1对N,很难与部分市场环境产生强粘合关系,无法强聚焦。

三、通用型AI芯片缺乏优质算法。芯片是框架、算法是灵魂,没有灵魂的框架难以产生足够价值,必须借助和算法强粘合的专用AI芯片才能实现潜在潜能。

四、通用型AI芯片功耗过大、对温度等环境因素敏感度不够。前端感知对功耗、散热的要求很高,需要做到极致;另外,产品落地不仅仅是技术问题而是工程问题,比如外界气候、温度等都会成为关键因素。

类比一条公路,AI芯片的集成好比是铺上了柏油,但车辆通行时除了对于路面的高要求,还有对于路牌、路标、服务区的需求,而这些在实际过程中,都得不到很好满足。

智能城市“数字孪生化”

2019年以来有两次A股热炒的概念,一是边缘计算,另一个就是数字孪生,多支相关股票出现涨停。

数字孪生这一概念诞生在美国,时间在2002年,提出者是密歇根大学教授Dr. Michael Grieves。

他在一篇文章中首次提到“Digital Twin”,并认为通过物理设备的数据,可以在虚拟(信息)空间构建一个可以表征该物理设备的虚拟实体和子系统,并且这种联系不是单向和静态的,而是在整个产品的生命周期中都联系在一起。

据预测,到2022年,85%的IoT平台将使用某种数字孪生技术进行监控,少数城市将率先利用数字孪生技术进行智慧城市的管理。

佳都科技智慧城市业务群副总裁张进飞此前在雷锋网AI掘金志主办的「全球AI芯片·城市智能峰会」上表示,我国的城镇化发展特别快,但是这种快速也给城市带来了诸多问题。

二元社会变成了三元社会——市民、农民、 移民(流动人口),城市人口管理成为难题。此外,交通事故、公共安全等城市病对城市发展提出新的挑战。

因此,他提出,需要更高效的对现实世界进行全息的刻画、深刻的洞察、智慧的赋能。

“基于对业务场景的全息感知、对动态事件实施动态的监控,在此基础上,对业务进行实时的判断,利用历史数据做精准的预测。”

他认为,随着技术的发展,AI芯片不断成熟、算力不断提升,这件事情是可以做到的。通过打通底层数据,形成统一数据资源池,对底层数据深度融合、挖掘,实现各个业务系统数据互通、业务联动,有效支撑新一代智能交通体系。

碎片市场“城市中台化”

今年安博会上,宇视首次发布了数据中台、业务中台的双中台战略,包含IoT引擎、视频云引擎、视觉智能引擎和数据智能引擎。作为阿里云战略合作伙伴,宇视集成阿里公共云,强化了后端的软件能力。

从战略角度上,合作后宇视对业务的理解可以说从安防上升到整个城市级的高度。另外,更直接的一点是,宇视的方案可以直接卖给阿里,而且售价可观。

而华为作为城市视频物联平台的首倡者之一,也再次醒目的展出了自己的“一片云海”。在“一片云海”部分,可以看到其视频云平台的“极速分析的解析系统”、及视频结构化分析系统等。

值得注意的是,旷视也在安博会上,发布了自己的城市级全栈解决方案,名为“城市物联网操作系统(CityIoT OS)”,目标是“成为物理世界的Windows”。旷视平台主打的几项能力包含,基于自研的人工智能算法平台Brain++的系列算法能力、云边端的产品体系,以及既往在城市安全管理、楼宇园区智能化等场景的落地能力。

谈不上对标,但在城市级的舞台上,各个厂家想实现的愿景显然是一致的。

与此同时,商汤,也首次定义“智能城市操作系统(AI City OS)”,为城市的智能化建设提供全面、可靠、开放的架构参考,使SenseFoundry方舟城市级开放视觉平台更完善。

今年安博会,云从展出了鸿钧智能网关,对接全国15亿人像数据资源,能实现人员身份验证及识别,人像数据更全、应用场景更广;以及云从大运火眼跨镜追踪系统,基于RelD行人再识别技术与大数据计算技术,从公安实战业务出发,可实时掌握目标人物行踪,预判目标人物时空范围等。

作为四小龙中第一个拥有自研芯片的公司,今年8月,依图还承建了视觉计算国家新一代人工智能开放创新平台。可以说,依图研发求索芯片融汇聚合了在算法、AI芯片和软硬件协同开发等方面的能力,承建国家开放创新平台,还可以将这个效应扩大。

某业内人士提到,其实人脸、车脸分析、视频结构化,以及方案,很多平台功能上可能95%都是一样的,但差异化在于特定环境下人脸的检测、识别速度上的秒级差距等差别。

与此同时,海康和大华,都在原有架构上继续提进一步的解决方案和落地,也将概念讲的更清。

今年是海康发布AI Clould两周年,今年安博会,也看到了其展出的在连锁、物流、社区等几十个行业的解决方案。

海康还发布了AI Cloud软件家族图谱,包含57款典型软件产品,覆盖公共安全、交通、制造、零售等20余个行业。

大华也展示了HOC新型智慧城市架构下的平安城市、智慧交管、智慧零售、智慧消防等几大解决方案。

安防“去安防化”

2019年年初,雷锋网AI掘金志率先提出了“去安防化”概念。

随后在3月23日由雷锋网 & AI掘金志联合主办的「第二届中国人工智能安防峰会」中,众多嘉宾也谈到,去安防化的本质,是承载安全防范的物理介质,在AI的加持下,已超越了它原本的能力。

确实,自计算机视觉开始全面渗透安防行业后,安防的边界,也就变得愈加模糊。

在人工智能、云计算的加持下,整个安防产业价值迅速提升,带有深度学习功能的前后端产品不断推出,后端人像大数据平台已然开始渗透。

大趋势下,可以看到,在安防实际项目的解决方案应用过程中,固有玩家们的作业模式已经从此前的硬件服务转向软硬结合;他们享受到的不再仅仅是监控摄像头的原生价值,还包括IPC背后的潜在金矿。

正如手机、电视等行业一样,行业发展后期,硬件本身产品价值有限,利润空间会被进一步压榨,而硬件背后的数据增值服务才是各个厂商殊死争夺的赢利点所在。

单纯销售硬件产品的安防企业将不再风光无限,稳坐钓鱼台。他们在与摩尔定律疯狂赛跑的同时,也倒逼着以前的狩猎者必须寻求产生质变的技术革新,促进信息产业的飞速发展。

新形势下,传统安防巨头的企业定位也从此前的“安防厂商”转变成今天的 “基于视频监控的物联网解决方案提供商”。

后安防时代,这个行业正从之前的传统安防企业,快速进入到AI创业公司、ICT互联网通信企业、传统安防企业三雄争霸的局面。

相关推荐

GameBuilder / 0评论 2019-10-27