剑桥大学等研发“暴力行为”检测系统,用无人机精准识别人群暴力

无人机wikipedia 2018-06-07

剑桥大学等研发“暴力行为”检测系统,用无人机精准识别人群暴力


新智元报道

来源:theregister.co.uk

编辑:肖琴

【新智元导读】来自英国剑桥大学、印度国家技术研究院和印度科学理工学院的研究人员研发了一种利用无人机的“暴力行为”检测系统,能够识别人群中踢打、刺伤或掐脖子等暴力动作,准确率达到85%以上。研究人员称,该系统可用于在马拉松和音乐节等户外活动中通过无人机自动发现暴力事件。研究论文已被CVPR 2018接受。

剑桥大学等研发“暴力行为”检测系统,用无人机精准识别人群暴力

一种无人机监控系统,可以实时地在人群中监测到“暴力分子”。这种技术已经被开发出来了。

这种AI技术利用悬停式四轴飞行器上的摄像头来检测每个人的身体动作。然后,当系统识别出攻击性的行为,如拳打、脚踢、刺杀、射击、掐脖子等时,它就会发出警报,准确率达到85%。它不识别人脸——只是监测人们之间可能的暴力行为。

剑桥大学等研发“暴力行为”检测系统,用无人机精准识别人群暴力

该系统的设计者分别来自英国剑桥大学、印度国家技术研究院和印度科学理工学院。研究者说,这个系统可以扩展到自动识别非法越境的人,在公共场所发现绑架事件,并在发现暴力行为时发出警报。他们希望这样的自主间谍无人机可以帮助警察压制犯罪,或帮助士兵在无辜群众中找出敌人。

“执法机构已经在使用空中监视系统来监视大面积的区域,”研究人员在他们的论文中写道,“各国政府最近在战区部署无人机来监测敌人的行动,监视外国贩毒组织,开展边境管制行动以及在城市和农村地区监控犯罪活动。”论文中详细介绍了这项技术,已被CVPR 2018接受。

“他们一般安排一名或多名士兵长时间地操控这些无人机,这使得这些系统容易因人为疲劳而出错。”

剑桥大学等研发“暴力行为”检测系统,用无人机精准识别人群暴力

可用于检测公共区域或大型聚会中的暴力分子姿态估计pipeline

研究者提出的新模型分两步工作。首先,特征金字塔网络(一种卷积神经网络)从无人机拍摄的画面中检测到个人。然后,使用一个ScatterNet网络来分析和确定图像中每个人的姿势。

剑桥大学等研发“暴力行为”检测系统,用无人机精准识别人群暴力

身体的轮廓被分解为14个关键点

模型将身体的轮廓分解为14个关键点,计算出一个人的手臂、腿和脸的位置,以识别训练过程中指定的不同类型的暴力行为。

该系统使用研究人员编制的“Aerial Violent Individual”数据集来训练。有25个人被召集来演示打斗、刺杀、射击、踢打和掐脖子等动作,得到2000张带注释的图像。每张图片上一般有2到10个人,因此,这个系统现在还不能用于处理非常大的人群。

剑桥大学等研发“暴力行为”检测系统,用无人机精准识别人群暴力

AVI数据集中的暴力行为,包括掐脖子,拳打,脚踢,射击和刺杀

当系统需要处理的人数更少时,准确率最高。比如一张图片上只有一个人,系统的准确率为94.1%,但有5个人时,准确率就降到了84%,10个人时准确率降到79.8%。该论文的合作者Amarjot Singh说:“准确性下降主要是因为系统没有检测到其中的一些人。”

剑桥大学等研发“暴力行为”检测系统,用无人机精准识别人群暴力

检测不同暴力行为的准确率

剑桥大学等研发“暴力行为”检测系统,用无人机精准识别人群暴力

检测不同人数时的准确率

很难判断这个无人机系统到底有多准确,因为它还没有在真实环境下对普通人群进行测试——测试者仅仅是研究团队招募来的志愿者。也就是说,它是用假装相互打斗的数据训练的,测试也是同样。而且,它是一个研究项目,还不是商业产品。

剑桥大学等研发“暴力行为”检测系统,用无人机精准识别人群暴力

左图展示了在人体上注释的14个身体关键点。 右图展示了Parrot AR 无人机捕获数据集中的图像以及几个注释关键点的特写。

当无人机在2米、4米、6米和8米高处时,输入系统的图像也被记录下来。这就能知道它离人群有多近。考虑到无人机飞行的声音很大,在真正的人群和斗殴行为中,这些无人机会在几百英尺之外,一定程度上降低了能见度。

剑桥大学等研发“暴力行为”检测系统,用无人机精准识别人群暴力

图:仅使用无人机在2m(第1排),4m(第2排),6m(第3排)和8m(第4排)四个不同高度记录的仅有一个暴力分子的无人机监视系统(DSS)

实时视频分析是使用两个Nvidia Tesla GPU实时地在Amazon的云服务上进行的,而无人机的内置硬件可以指挥其飞行动作。该技术是在本地机器上使用单个Tesla GPU进行训练的。

“该系统以每秒5帧到16帧的速度在空中实时拍摄的影像中检测到暴力分子,最多检测10人,最少2人。”论文指出。

争议:技术被恶意使用的风险

在云端执行推理有潜在的安全和隐私风险,因为要将人们的视频传输到第三方计算系统中。为了减少法律上的麻烦,训练好的神经网络处理无人机在云中接收到的每帧图像,在处理完后就将图像删除。

“这增加了数据安全层,因为我们只是在需要的时候才把数据保存在云上,”剑桥大学博士生Singh说。

使用AI进行监视很令人关注。类似的面部识别技术,如亚马逊的Rekognition服务,已经被美国警方采用。这些系统经常受到高误报率的困扰,或者根本就不准确,所以像这样的技术要和无人机结合还需要一段时间。

有趣的是,谷歌和Facebook最近也发表了一些研究,表明神经网络可以用来跟踪姿势,专家们也对神经网络如何用于数字监视或军事目的提出了担忧。现在,无人机监测暴力分子的研究证明了这是可能的。

研究人员使用 Parrot AR无人机(价格相当便宜)进行实验。运行也很便宜。这个实验在亚马逊的平台上运行,每小时花费0.1美元,所以系统经过训练后的运行不会太贵。

Singh承认,“人们可能会把这个系统用于恶意应用程序,但训练这样的系统将需要大量的数据和大量的资源。我希望有一些监督能够避免滥用这种技术。”

但他认为业余爱好者为了恶意的原因重新编程无人机的担忧是没有根据的。 “购买无人机确实很容易,但设计一种能够识别暴力个体的算法需要一定的专业知识,涉及设计不易获得的深层系统,我不认为这些系统很容易实现,”他说。

研究人员计划在两个音乐节期间在真实环境中测试他们的系统,并监测印度的国界。 如果表现良好,他们希望未来将其商业化。


【加入社群】

新智元 AI 技术 + 产业社群招募中,欢迎对 AI 技术 + 产业落地感兴趣的同学,加小助手微信号: aiera2015_3 入群;通过审核后我们将邀请进群,加入社群后务必修改群备注(姓名 - 公司 - 职位;专业群审核较严,敬请谅解)。

相关推荐

fengaid / 0评论 2019-11-01
fengaid / 0评论 2019-10-30