Check Point移动威胁研究团队近日发现了一款恶意软件新变体,“ExpensiveWall”。该软件会向用户发送欺诈性收费消息,并在其毫不知情的情况下向用户账号收取虚假服务费。根据Google Play数据,这款恶意软件系列感染了至少50个应用程序,现已有590-2110万次的下载量。据Check Point SandBlast Mobile移动安全研究员贺飞翔介绍,ExpensiveWall的不同之处在于它经过“包装”,恶意软件开发人员用加密恶意代码的高级混淆技术,让恶意代码能够避开Google Play的反恶意软件保护措施。Google于8月7日收到Check Point的消息后,随即将所报告的样本从其商店中删除。不过,在移除前的短短数天之内,ExpensiveWall依旧感染了超过5000个设备。
安全问题无独有偶,上个月,业界在包括Android、iOS、Windows等在内的几个操作系统中发现了实施于蓝牙的八个漏洞,黑客可以利用这些漏洞完全控制设备。此类漏洞源自一个复杂协议,被称为“BlueBorne漏洞”,其影响严重程度令人心惊,任何具有蓝牙接口的设备只要开启蓝牙,都极易受到BlueBorne漏洞组合中至少一种漏洞的攻击。得见系统漏洞等基本安全问题也是根深蒂固,不可忽视。
以上两个移动威胁案例,只是Check Point移动威胁研究团队发现的冰山一角。在上个季度末,Check Point SandBlast Mobile 移动安全研究员贺飞翔对2017年前三季度的全球移动安全事件上下求索,概括介绍了今年前三季度的全球安卓移动安全态势。
Check Point SandBlast Mobile移动安全研究员 贺飞翔
贺飞翔具体介绍到,全球移动终端安全情势有以下几点:
不难看出,新的威胁不断出现,移动设备安全亟待提高,如何解决问题?贺飞翔指出:“人是系统安全不可分割的一部分,”此外,选用行之有效的安全防护系统非常重要。
Check Point移动安全的“禁卫军”——SandBlast Mobile专注于防范已知和未知移动威胁,可以为现代企业的基础设施提供从云到移动设备的安全保护。
具体来说,依托于网络安全架构Check Point Infinity,SandBlast Mobile被设计为跨网络、云端和移动设备的统一安全平台软件,跨安卓和iOS系统管理,;在Check Point ThreatCloud威胁情报网络的协助下,SandBlast Mobile可实时威胁数据,在威胁发生前阻止攻击、让企业免受零日威胁;进一步的,近日加持了Microsoft Intune的SandBlast Mobile可以为企业提供集中式的统一的跨平台安全解决方案,企业可通过高可视化的网页管理端管理员工的BYOD设备,在保护员工隐私和保证工作效率的同时,防范高级移动网络攻击,并确保公司数据和内部资源访问的安全,对此,贺飞翔笑称:“这就像是移动端安全防护的‘上帝视角’,企业可从多维度弹性管理移动设备安全。”
例如,针对前文所提到的BlueBorne漏洞组合,Check Point SandBlast Mobile 可以通过验证网络上的移动设备是否装有最新的操作系统版本,以及安全补丁程序,来保护移动设备(iOS 和 Android)免遭此威胁。
据了解,SandBlast Mobile能与EMM系统快速整合,让整体解决方案有高扩展能力并提升运营效率。目前,SandBlast Mobile正在帮助900多个企业用户防范移动威胁。
贺飞翔最后提示,新技术新应用的产生仍会带来新的挑战,我们需要明确了解,矿工类恶意软件极可能成为下一个利益增长点,另外他强调,iOS不是刀枪不入;基于浏览器的跨平台攻击;基于SoC系统底层的攻击;以及基于第三方应用层漏洞的攻击值得关注。
好文章,需要你的鼓励
从浙江安吉的桌椅,到广东佛山的沙发床垫、河南洛阳的钢制家具,再到福建福州的竹藤制品,中国各大高度专业化的家具产业带,都在不约而同地探索各自的数字化出海路径。
哥伦比亚大学研究团队开发了MathBode动态诊断工具,通过让数学题参数按正弦波变化来测试AI的动态推理能力。研究发现传统静态测试掩盖了AI的重要缺陷:几乎所有模型都表现出低通滤波特征和相位滞后现象,即在处理快速变化时会出现失真和延迟。该方法覆盖五个数学家族的测试,为AI模型选择和部署提供了新的评估维度。
研究人员正探索AI能否预测昏迷患者的医疗意愿,帮助医生做出生死决策。华盛顿大学研究员Ahmad正推进首个AI代理人试点项目,通过分析患者医疗数据预测其偏好。虽然准确率可达三分之二,但专家担心AI无法捕捉患者价值观的复杂性和动态变化。医生强调AI只能作为辅助工具,不应替代人类代理人,因为生死决策依赖具体情境且充满伦理挑战。
这项研究首次发现AI推理模型存在"雪球效应"问题——推理过程中的小错误会逐步放大,导致AI要么给出危险回答,要么过度拒绝正常请求。研究团队提出AdvChain方法,通过训练AI学习"错误-纠正"过程来获得自我纠错能力。实验显示该方法显著提升了AI的安全性和实用性,用1000个样本达到了传统方法15000个样本的效果,为AI安全训练开辟了新方向。