全球领先的移动网络、应用、服务和设备测试解决方案供应商思博伦通信,针对依赖全球导航卫星系统(GNSS -GPS、GLONASS、Galileo和北斗)的各类民用和军用应用在今年所面临的更高干扰风险发出了警告。这项预测是思博伦2017年度安全预测中的一个组成部分,该预测相信今年由犯罪分子、受资助的攻击者和其它力量所发起的黑客攻击和位置欺骗攻击风险将呈现出增大的趋势。该预测还强调指出,物联网设备和健康医疗、车联网等行业中的分布式拒绝服务(DDoS)攻击将继续居高不下,而且思博伦相信它们将成为未来近期安全威胁的主要目标。
去年,思博伦的2016年度预测中,便就日益提高的网络间谍活动风险提出过警告。而众多新闻报道中,均提及俄罗斯政府通过可疑活动影响2016年美国总统选举的事件。2016年的预测中还指出,勒索软件、恶意内鬼和受攻击的物联网设备带来的威胁将不断增加,而且工业控制系统所受的攻击也将不断增多。例如,美国FBI的消息来源称,到2016年底时CNN只勒索软件在美国遭受的损失已经超过10亿美元。这一数字2017年还可能进一步增加。
除GNSS干扰的可能性有可能增加外,思博伦的2017年度安全预测还预计下列领域的风险将可能有所扩大:
• 针对物联网设备的DDoS攻击将变得更频繁。正如我们在2016年最后一个季度所看到的,全世界多地都遭受了多次严重的DDoS攻击。其中干扰最严重的就是一系列使用Mirai恶意软件的攻击,而这些恶意软件的安全目标正是数量巨大的物联网设备。多家著名网站,例如Netflix、AirBnB、Twitter和GitHub等都因这些攻击而无法访问。思博伦相信,不法分子也会不断推陈出新,并寻找改进和拓展这些攻击类型的新途径。
• 物联网所受的威胁。由于今天的物联网正在连接我们身边的一切,它们都将成为潜在的攻击方向,包括嵌入式设备、移动设备、消费电子产品、联网医疗设备、工业控制系统,以及智能家居设备等。
• 健康医疗行业中医疗应用、网络和设备面临的威胁,包括这些设施运行所需的后台系统,以及为患者提供护理所需的医疗仪器。勒索软件感染或数据泄露都可能对患者的健康和隐私造成不利的影响。
• 恶意攻击者对联网车辆构成的威胁。联网车辆会在不经意间为攻击者创造越来越多的攻击方向,使之能够通过远程方式获取车辆中关键运行组件的控制权,包括发动机、转向和制动功能,以及通过相对不怎么安全的CAN总线基础设施实现通信的其它车辆系统。
思博伦通信安全咨询高级总监Sameer Dixit指出:“越来越多的人开始使用自主驾驶车辆,而这些车辆要在很大程度上依赖精确的GPS定位和计时,因此信号欺骗、干扰、时间篡改等攻击形式构成威胁,将带来更严重、更糟糕的干扰。运输行业对此非常重视,并已经在寻求防范这些威胁的多种方法。有鉴于此,我们相信2017年将成为改进GNSS安全性的良好契机。”
根据Defense One上的一篇文章,美国国土安全部的一位科学和技术项目经理Timothy Bennett报告称,墨西哥毒贩已经开始沿美墨边境使用GPS欺骗和干扰设备,目的是干扰美国海关及边境保卫局巡逻该区域所用的无人机。与较大的军用规格无人机不同的是,这些用于巡逻的小型无人机更容易受到此类攻击的侵害。
思博伦的GPS干扰探测器全球网络在2015年部署后已经记录到超过15,000次干扰事件,包括GPS L1频段中数量惊人的各种形式的非故意干扰事件。在这些非故意事件中,其中很大一部分都与邻近的RF发射器和电信设备有关,而它们都有可能对GPS信号的接收造成潜在的影响。
Dixon也注意到了令人振奋的发展:人们对这些系统中安全重要性的认识正在日益提高,而且一些经验丰富且重视安全的大型企业已经进入了物联网领域。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。