在近日召开的2017国际反病毒大会“移动APP综合治理”分论坛上,亚信网络安全产业技术研究院副院长赫荣奎对于互联网+形势下的移动安全技术进行了深入解读。赫荣奎表示,”移动互联网的快速发展改变了人们的生活习惯和业务流程,不断推陈出新的应用程序、智能设备和模糊的边界管理给企业移动业务和数据安全带来的严峻挑战。企业可以换个思路——‘消灭移动终端’,借助移动虚拟基础架构等创新的移动化管理思路,确保移动终端数据不落地,云端业务不出数据中心,提高企业移动业务数据的安全系数。”
移动化浪潮引入海量移动威胁
随着移动智能终端的快速普及与移动互联网应用的发展,越来越多的企业将智能手机、平板电脑作为一种重要的生产力工具,BYOD(自带设备办公)模式早已得到大量落实。但是,这也会带来难以忽视的移动安全问题。不仅恶意软件、山寨APP可能窃取企业的机密数据,移动系统漏洞数量也出现了大幅增长。
赫荣奎表示:“互联网+推动了移动化浪潮,安全环境随之变得更加复杂,出现了移动应用开发平台被嵌入恶意代码、移动应用市场传播恶意程序、无线网络被劫持等严重的移动安全威胁。特别是在BYOD模式中,企业的安全管理能力难以覆盖员工所有的移动应用、数据交互行为,给组织的数据资产带来严重安全威胁。另外,由于企业的安全防护能力难以覆盖到移动设备,很多黑客选择将移动设备作为企业网络的突破口,执行更多的网络攻击行为。”
“消灭移动终端”可高效化解移动安全问题
由于移动化应用场景的特殊性,因此传统的基于终端或者基于网络的安全防护方案很难彻底化解移动威胁。赫荣奎认为,要解决移动终端的安全问题,“消灭移动终端”将是最好的思路之一,即通过虚拟移动基础架构(Virtual Mobile Infrastructure)实现企业数据与个人数据的分离,企业数据保存在数据中心,对手机、平板电脑、PC等各种终端“一视同仁”,用户只能通过安全虚拟工作区来访问数据中心内的企业数据。由于这些数据并不保留在设备本地,数据泄露的风险将大幅降低。
亚信安全虚拟手机解决方案就是一种基于VMI架构的解决方案,通过将“虚拟手机”集中部署在数据中心,通过集中化的服务器虚拟移动操作系统,并通过高效的远程显示协议来实现网络访问和操作。为每个用户创建安全工作空间,实现“虚拟手机”统一管控,业务开展更灵活,安全级别更高。确保移动应用数据不出数据中心,移动办公数据不落地。
为了确保网络层数据安全传输,亚信安全在移动应用访问云端的数据传输和获取虚拟手机桌面的影像协议采用RMX(Remote Mobile eXperience,远程移动体验协议)实现,该协议为亚信安全专利技术,不仅可以传输加密压缩的指令和参数,确保攻击者无法还原出数据,还能够通过屏幕图片解析方式的创新有效节省带宽。另外,由于移动应用都在部署于云端,因此可以令移动设备本地无需安装应用,这就避免了移动应用被黑客获取并利用。
赫荣奎指出:“亚信安全虚拟手机解决方案的优势不仅在于确保移动安全,还在于其能够充分降低企业移动管理的难度。解决方案支持移动终端的各类传感器、支持触摸滑屏操作,企业无需对各种系统、品牌的移动设备进行复杂的适配工作,就能够在多平台上获得一致化的用户体验,不仅降低了企业开发难度,还降低了特定移动设备因为不适配而无法进行管理的几率。在应用发布方面,企业只需对虚拟机进行统一分发,无需对各种型号的移动设备进行逐一分发,极大的节省了运维成本。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。