分享按钮
Loading

城市大脑:数字平行世界,智演城市未来

2020-06-17 09:35:38 发布人aolseeadmin 205

人工智能的发展,至今已攀上了第三次高峰。前两次人工智能的发展高峰分别在20世纪50年代、20世纪80年代,科学家能感觉到,人工智能技术将会改变世界,但始终还停留在梦想阶段。


但是这一次人工智能的发展高峰与以往大大不同。首先,深度学习成为了我们解决很多实际问题的非常强大的工具。其次,我们拥有了强大的算力,不管是云上的计算还是端上的计算,芯片的计算能力都比过去强大得多。再次,我们沉淀了大量的数据,这些数据为我们解决问题、挖掘价值创造了很多有利条件。最后,我们看到了越来越多真正在改变世界的应用诞生,这些成功案列包括搜索引擎、刷脸支付、智慧停车、电商搜索推荐等,背后都有着大量人工智能技术的支持。


人工智能技术在当下,有一个经典的应用场景——城市大脑(城市智能计算)。今天,我们要从一个新的视角去了解它,这个视角就是“数字平行世界:城市智能4D智能推演”。


城市大脑的运作机制



有一个段子是这么说的:世界上最遥远的距离在哪里?两个人坐在一起互相不说话,看自己的手机。


其实,还有一个距离更遥远,那就是城市里的摄像头和红绿灯之间的“距离”。摄像头“看”到了城市的所有的车辆、行人、路况变化,但是它从来没有“告诉”过红绿灯该怎么调节交通,才能最大化通行的效率。我们经常有这样的经验:明明前方路口是没有车的,但我们不得不停下等红绿灯,浪费了很多通行的资源。


当然这只是一个例子,我们的城市中,有大量的数据没有被充分连接,更遑论被充分利用起来。城市大脑的核心任务就是在今天强大的算力支持下,去挖掘这些数据的价值,给城市的治理、城市的经济发展、城市的安全等方面带来更高效、更有生命力的改变(如图1)。


在“城市大脑”出现之前,城市数据治理存在“盲人摸象”“灯下黑”“雾里看花”等误区(如图2)。“盲人摸象”是指城市里面已经存在了大量的数据,如卡口的数据、地磁的数据、GPS的数据等,尤其是信息量最大的“视频数据”没有被充分利用起来。“灯下黑”是指我们已经安装了很多摄像头、拍到了很多画面,但是没有对这些视频进行智能分析。“雾里看花”是指我们没有去分析这些数据背后的规律、挖掘数据背后的价值,不在意数据背后的关联、数据形成的原因等逻辑,这导致很多问题并不能得到有效的解决。


从宏观上来看,城市大脑包含了数据、算力和价值几大要素。具体来看,城市大脑是这样运行的(如图3)。第一,城市产生的数据要经过认知,尤其是视觉信息,它不是直接可以使用的,需要进行感知识别发生了什么,车、人、事物都要识别得非常清楚。第二,对感知到的信息进行智能决策,如红绿灯的具体亮灯方案等。第三,我们可以把所有的信息要素放入一个搜索引擎中,如果出现一些事件,如小孩丢失、肇事车逃逸等,通过这个系统就可以搜索到所需信息。第四,我们可以对城市未来的发展进行预测,如“20分钟后,某个路口的车流将达到多少”。如果我们不知道未来的变化是什么,那是没有办法对事件进行管控的。想要提升交通效率,对车流的预测将是一个非常关键的步骤。第五,在拥有预测能力后,对城市未来将要发生的情况进行干预调整。


数字平行世界



把以上工作放在一个四维的场景中去推演。


我们通过无人机把城市的局部数据进行三维空间建模,这个建模与视频信息的时间轴叠加,就能组成四维场景。人工智能技术可以自动分析监控视频的摄像头角度,把监控视频所覆盖的场景还原到三维空间建模中去,这样就能把视频能看到的信息、动态的变化与三维模型有机融合在一起,我们对整个场景就能有一个完整的、动态的、在四维时空下的真实还原,继而做出整体分析。


以广场集会管理为例,我们可以直观地看到数据:广场上的人群是如何分布的、人群密度是如何变化的。如果遇到人群密度过大的情况可以立即实施管控,管控的成效通过视频的数据分析,又可以做出检查验证。同时,真实空间里的诱导屏还可以给人群提供指导信息,如引导人们从哪个出口退场最高效。


以交通事故处理为例,我们对城市的道路进行四维建模,可以看清车辆在哪个车道,如果发生了车辆剐蹭等事故,这两个车道的通行能力就会降为0,要如何应对这种情况,红绿灯如何调整、是否执行开放公交车道给普通车辆通行?这一系列信息在四维的时空下都可以进行推演和优化,我们可以最快地做出决策缓解交通的拥堵。

图片关键词



以室内场所管理为例,我们对于室内的场景也可以通过室内机器人采集信息,重建室内三维结构,建筑内部的烟雾传感器、摄像头位置、PM2.5检测器等采集的数据都可以接入城市大脑,能够让管理机构感知整个建筑(如商场)内部。在电梯周边,如果出现被丢弃的可疑物品,也许会有危险,通过摄像头的识别,可以初步判断到底是什么物品。如果有小孩在商场走失,通过四维推演,可以找到他的轨迹,定位孩子的位置。


综上所述,视觉理解从二维走向三维,再加上时间轴以后,我们对轨迹的跟踪就从三维走向了四维,这是一个非常大的突破。它不仅仅是一个场景展示,而且能把各种信息串联在一起,既直观,又有利于作出完整、全面的分析推演。


索引城市



当我们把城市数据的所有对象放到搜索引擎建立高效的索引以后,就可以按照自己的需求去寻找所需要的数据。以交通规律挖掘为例,可以做到根据整个城市或关键区域的整体流量和当前的流量,预测一段时间之后的流量,并考虑交通事故、天气、事件等因素,推演未来一小时车流量误差可以控制在6%以内,自动事件事故检测结果也会被用于交通预测模型。


深度学习方法加上图计算方法,二者结合可以用于构筑交通预测模型(如图4)。我们可以把许多流量的点连成一张图,在时间轴上,就可以得到多张数据连成的图。随着时间的变化,图在发生变化。通过这种模式建立深度学习的模型,就能估算下一个时刻的流量是多少。


在实际的应用案例中,构建实时车流预测模型,预测未来1小时内路口各方向的车流量,准确率在93%以上。构建实时车流人流统一预测模型,预测未来1小时内外部路口各方向车流量、停车场停车位占有率、商场各区域人流量,准确率均在90%以上,基于预测控制停车场闸机,停车位均衡度可提升30%。


城市视觉智能引擎有丰富的应用场景。简单地说,在交通方面,我们不但可以精准快速检测出车辆、非机动车、行人、信号灯、车牌号等目标信息,还能对于碰撞、横穿马路、逆向行驶、拥堵等异常事件的发生进行识别。在市政方面,城市管理自动巡查、建筑工地违规监察、消防安全隐患预警、安全生产监督防范等方面都可以做信息的精准检测。


城市视觉智能引擎就像一把“照妖镜”,能从治理数据直观反映城市治理成效是否得到提升。现在,杭州人的通行时间平均减少了15%左右,特种车(如救护车、消防车等)的通行时间平均降低50%。


图片关键词

延伸阅读:什么是城市视觉智能引擎



城市视觉智能引擎(City Visual Intelligence Engine)依托于阿里云分布式计算和存储平台,利用先进的视频图像、图形学处理技术和深度学习算法,建立城市级人工智能模型,实现对整个城市视觉数据(枪机、球机等摄像头数据以及遥感、卫星、无人机采集的图像数据)的接入、计算、分析、索引和挖掘,并赋能公共安全、交通、市政综治、商业、司法、园区、电力能源、医疗教育等各个行业场景。城市视觉智能引擎可以打通并连接散落在城市各个单元的视觉数据资源,让图像、视频帮助城市来做思考、决策和运营,从而整体提升城市运行效率。


应用场景



公共安全


●嫌疑人搜索:针对行人、非机动车等活动目标,支持基于属性的检索,支持基于图片的图搜,支持跨摄像头下的目标再识别与轨迹追踪。


●历史视频研判:对特定的离线视频数据进行极速解析,极大缩短案件研判时间。


●重点人员管控:支持针对特定目标对象的抓拍分析与信息识别,在划定的布控区域内,进行实时布控告警。


●不文明行为管控:针对行人和非机动车目标,支持对横穿马路、践踏草坪、非机动车逆行与非机动车占用机动车道等不文明行为的实时检测并报警。


智慧交通


●感知异常交通事件:发现交通拥堵并计算时长;检测主干道违法停车事件、快速路闯禁事件;检测和分析人群聚集情况;判断非浙A车辆在错峰时间段内的闯禁信息。


●提供交通工程服务:进行车辆轨迹查询,车辆布控;对套牌、假牌、非法改装、遮挡、污损车牌等行为进行检测;实现异常车牌身份推荐、驾驶员人脸识别、车辆轨迹还原、出没点分析和预警布控。


●预测车流人流:预测未来1小时后的车流量、人流量,并辅助提前制定疏导、管控和预警方案,规避拥堵和踩踏等安全问题。


智慧应急


●识别动火器材:对特定区域中的人和乙炔瓶器材进行检测、识别、跟踪,结合行人和乙炔瓶的时间和空间关系,判断动火作业,对其上报,达到监管的目的。


●识别人员超限:对重大安全风险区域中的行人进行检测、跟踪,之后对人数进行统计,一旦人数存在变化,将实时进行上报。


●对园区人车进行核入:对厂区或区域出入口的车辆进行检测、跟踪,并在车牌满足识别条件时进行识别,与此同时,对车辆司机进行人脸识别判断,实时上报车辆信息和人员比对结果。


●识别违规火星作业:对车间可视区域进行全天候不间断巡视,检测和定位特定生产车间内发生明火火星的区域。


城管执法


●识别违章停车:识别出指定区域内违章停车的车辆,并在合适的条件下识别出车牌结果。


●识别非法游商:对指定区域进行车辆检测及滞留分析,判断该区域是否出现疑似游商车辆。


●识别出店经营:基于深度学习的语义分割算法,对指定区域判断分析是否出店经营。


●识别渣土车属性:对指定区域进行车辆跟踪,判断该区域是否存在未苫盖的渣土车目标。同时对违规车辆车牌进行检测,识别出有效的车牌。


智慧住建


●识别未佩戴安全帽:对住建区域包括施工、入口等区域的工人进行安全帽检测,对未佩戴安全帽的工人进行上报告警。


●识别违禁闯入:对划定的危险敏感区域进行实时监控,当指定区域有人体出现时,进行报警。


●检测人员脱岗:对室内在岗人员人数进行统计,当室内持续无人超过阈值时间,即产生上报告警。


●检测裸土未苫盖:对施工工地中的视频点位进行实时监控,检测未苫盖的裸土,当裸土面积超过阈值则输出报警。


参考文献:略

作者:杭州科技 华先胜 阿里巴巴 达摩院人工智能中心 国际电气与电子工程协会

来源:杭州科技 2019年第6期

内容摘自:电子政务智库

免责声明:本文转自网络公开渠道,旨在为广大用户提供最新最全的信息,AOLSEE(傲视)不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。转载的稿件版权归原作者或机构所有,如有侵权,请联系删除。抄袭本文至其它渠道者引发的一切纠纷与本平台无关。


0