随着发改高技[2015]996号文件《关于加强公共安全视频监控建设联网应用工作的若干意见》提出“立体化社会治安防控体系建设发展”的要求,建设“全域覆盖、全网共享、全时可用、全程可控”的视频联网体系成为公安视频监控发展的新方向。
视频监控作为社会管理的基石,随着社会安防管理需求的不断提升,特别是智能化时代视频数据与警务大数据的碰撞、比对,对视频数据需求量激增,视频监控数量成指数级增加,视频监控接入网络则面临新的需求和挑战。传统视频监控安装场景复杂,需要大量的人力进行调测;网络终端基本安装在室外,长期处于日晒、雨淋、雷击、高温的环境中,设备易损坏;同时室外缺乏监管,非法接入、视频窃取、专网入侵、视频泄露等威胁无处不在;海量的终端接入,全网维护工作量大,同时摄像头更加高清化,带来的网络带宽需求也越来越大。难安装、易损坏、不安全、难维护等问题,成为阻碍视频监控全面云化的主要瓶颈。
为满足以数据为中心、构建开放共享、高效智能的视频云、实现“一网、一云、一池、一平台”的架构需求,华为在视频监控前端接入网络推出了易安装、高可靠、高安全、易维护、大带宽的POL视频监控接入解决方案,有效突破视频监控网络瓶颈,推动视频监控高清化、智能化发展。
1易安装:
针对各种复杂场景使用需求,华为提供了不同的产品形态来进行满足。针对无法安装网络箱的场景,华为一体机ONU(MA5694S),可直接放置室外起到防尘防水功能;华为还提供了体贴入微的系列化Unisite室外柜,AC/DC电源接入,线束一站式交付和无线接口的ONU设备,保证视频监控即使在没有有线资源,挖沟布线困难的情况下,视频流能正常传送。同时支持光路开通自动化闭环管理,缩短90%开通时间,全网设备支持即插即用,业务自动开通功能,免去人工调测工作。
1高可靠:
为了降低前端接入设备的损坏率,华为根据室外安装场景进行细分,针对一般场景,华为工业级ONU(MA5671铁盒)可以满足-40 ℃ ~55℃宽温需求,抗6KV雷击,同时提供POE供电;而针对极端天气,华为增强型ONU(MA5621)可以满足-40 ℃ ~85℃的超宽温及防雷设计。
1高安全:
华为POL解决方案采用无源光网络传输,做到端到端冗余保护,线路侧采用Type B/Type C双归属保护,保证网络可靠性;前端采取802.1x认证和MAC地址绑定技术,防止前端摄像头非法更换,保障视频流可靠安全。
1易维护:
全网集中式控制,实现统一网管端到端运维管理,告警实时监测,承载网端到端检测,快速故障定责。多重故障诊断手段,维护更加智能:L1层采用eOTDR诊断主干光纤及分支光纤问题,高精度定责;L2层采用Y.1731进行接入段的连通性及性能故障定责,包含丢包、时延、抖动侦测;L3层采用IF-FPM进行连通性及性能故障定责。
1大带宽:
华为POL采用GPON技术,OLT设备单PON口上行带宽1.25G,下行2.5G,单台OLT设备可支撑8000多路前端摄像头的接入;华为PON网络采用QOS技术保障多业务质量,采用CBR(上行支持不同类型T-CONT)技术保障视频监控带宽,提高视频监控业务视频流质量。华为PON网络还支持10G PON/40GPON/100G PON平滑演进,满足海量带宽需求。
目前,华为POL视频监控接入解决方案已经在全球40多个国家得到广泛应用,如上海公安、贵州六盘水平安城市、成都双流机场等超大规模局点项目,产品安装、开通、维护便捷,工作稳定,得到各方一致认可。在公安视频监智能化发展的今天,华为POL视频监控接入解决方案将全面助力视频监控迈入云化时代。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。