近日,一个名为ZipperDown的苹果iOS平台App安全漏洞被爆出,攻击者利用该漏洞能够窃取用户App中的敏感信息。据初步统计,受影响App已经过万。
ZipperDown漏洞解析
从当前的公开信息能够发现,该漏洞主要存在于iOS应用,属于经典安全问题,故其影响范围十分广泛,且Android平台上也有类似漏洞存在。在某些特定场景下(如不安全的网络环境),攻击者能够利用ZipperDown漏洞窃取/破坏应用数据,或者获取应用任意代码执行能力。不过,iOS系统沙箱会对ZipperDown漏洞的攻击范围有所限制。
ZipperDown漏洞规避方法
出于保护用户的考虑,漏洞细节尚无法公布,但可以从攻击角度进行漏洞危害规避。
1、App开发者临时规避方案:
(1)使用HTTPS安全传输协议,并对服务器证书进行双向安全校验,确保App与服务端的任何数据传输都在加密通道HTTPS保护之内。
(2)对App下载的zip包文件做哈希校验,并对哈希值做非对称加密。
(3)解压zip包文件时,对文件进行安全检测,确保文件不是软链接,同时文件名中不能包含“../”。
2、梆梆安全解决方案:
(1)使用梆梆安全测评系统,检测App是否存在目录穿越漏洞(Directory traversal)。
(2)使用梆梆安全密钥白盒系统,对相关密钥做白盒加密保护。
3、普通用户规避方法:避免接入未知的Wi-Fi网络环境,建议使用4G网络。避免使用可疑的App。
Android平台相关漏洞检测方案
梆梆安全的移动应用测评云平台,为开发者提供了一种易用、高效、自动化的测评方式,可对应用面临的主流安全问题进行全面评估,准确定位安全问题的来源,并获取包含代码级修复示例的解决方案。
对于ZipperDown漏洞,测评平台可基于Android平台,针对其中较大的安全隐患进行深入的检测分析,包括通信数据传输安全和zip文件解压漏洞进行深入检测,以便提前做好安全防御工作。
在移动应用(App)已经成为人们工作、生活主要工具之一的今天,其安全漏洞威胁也在愈加的防不胜防。主动进行安全检测,提前实施防御,才是降低App遭遇ZipperDown等移动安全漏洞攻击风险的有效方法。
好文章,需要你的鼓励
Liquid AI发布了新一代视觉语言基础模型LFM2-VL,专为智能手机、笔记本电脑和嵌入式系统等设备高效部署而设计。该模型基于独特的LIV系统架构,GPU推理速度比同类模型快2倍,同时保持竞争性能。提供450M和1.6B两个版本,支持512×512原生分辨率图像处理,采用模块化架构结合语言模型和视觉编码器。模型已在Hugging Face平台开源发布。
AIM Intelligence联合多所知名大学揭示了音频AI系统的重大安全漏洞,开发出名为WhisperInject的攻击方法。这种攻击能让看似无害的音频指令操控AI生成危险内容,成功率超过86%,完全绕过现有安全机制。研究暴露了多模态AI系统的系统性安全风险,对全球数十亿智能设备构成潜在威胁。
阿里团队推出首个AI物理推理综合测试平台DeepPHY,通过六个物理环境全面评估视觉语言模型的物理推理能力。研究发现即使最先进的AI模型在物理预测和控制方面仍远落后于人类,揭示了描述性知识与程序性控制间的根本脱节,为AI技术发展指明了重要方向。
新加坡国立大学研究团队系统梳理了视觉强化学习领域的最新进展,涵盖超过200项代表性工作。研究将该领域归纳为四大方向:多模态大语言模型、视觉生成、统一模型框架和视觉-语言-动作模型,分析了从RLHF到可验证奖励范式的政策优化策略演进,并识别出样本效率、泛化能力和安全部署等关键挑战,为这一快速发展的交叉学科提供了完整的技术地图。