如果你还对《速度与激情8》中大反派塞弗控制几百上千辆自动驾驶汽车演绎“僵尸车”、“汽车雨”的街头较量的画面感到印象深刻,那么你总该相信这并非完全杜撰。就拿现实中的案例来说,2年前菲亚特-克莱斯勒就因为避免黑客远程控制风险而召回140万辆汽车。
毫无疑问,未来是万物互联的世界,加之智能技术的发展,意味着本身存在着安全风险。Gartner预测,2018年互联设备数量超过30亿台,存在的潜在风险可以想见。美国特勤局前首席安全官、趋势科技全球首席安全官EDUARDO E. CABRERA在近日于成都召开的C3安全峰会上一句话点醒梦中人,“物联网发展日新月异,用户却渐失掌控能力。”
美国特勤局前首席安全官、趋势科技全球首席安全官EDUARDO E. CABRERA
在人类走向智能社会的进程中,如果真的失去掌控能力是多么恐怖的一件事情。ED指出,全球城市变得越来越智能,但在城市设计过程中是否考虑到安全性?
就拿目前城市中存在的网络资产来说,风险逐渐显现,这些高风险设备包括防火墙、无线基站、网络摄像头和路由器等等,虽然保护联网设备的安全性相对容易,很多用户仍疏于注意。对组织与公司来说必须未雨绸缪,始终为“遭到入侵”做好准备。
其实最近几年由万物互联导致的安全事件屡见不鲜,且不说几年前的伊朗核设施Stuxnet攻击事件、乌克兰电网攻击事件等,就在去年此类攻击事件就多次发生,例如美国水处理和流控制操作系统遭黑客入侵、达美航空公司飞机因网络攻击停飞、德国Gundremmingen核电站遭到攻击、以色列电力供应系统受到重大网络攻击侵袭等等。
在智能或智慧城市中,无论是智能交通、智能环境、智能能源、智能连接、智能监管均存在很多安全风险,ED列举了这些智能系统存在的安全风险点:
·智能交通:系统与移动App和固定式传感器的结合使用,可以确保交通顺畅,并为城市居民提供更好的交通出行方案选择和停车空间。安全风险点包括:导致潜在交通事故;利用漏洞免费乘车或劫持车;中断和操纵交通服务;泄漏用户数据。
·智能能源:负责监控和调整能耗情况。安全风险点有:导致供电不稳定,影响部门运转;对EMS 发起勒索攻击,窃取能源;中断源管理系统通信;窥探智能电表数据;窃取公民信息。
·智能环境:帮助城市制定精确且高效的环境决策。安全风险点例如攻击智能阀门,导致废水溢出;劫持系统设备;操纵命令并阻碍系统响应;利用传感器跟踪活动。
·智能连接:智能基础架构和各种应用需要依赖稳定的系统连接以确保完美的通信,进而实现蓬勃发展。安全风险点包括劫持系统或设备;中断网络通信,导致互联系统停机;截获通信活动,窃取信息和凭据。
·智能监管:市政当局利用安防摄像头和单一入口门户为市民高效提供安保和基本公共服务,通过公开政府数据(OGD) 实现监管透明。安全风险点有:劫持系统或设备;将互联设备转化为机器人;通过监控数据源收集目标情报。
随着智慧城市的建设加快,ED强调这些风险并非危言耸听。过去的一系列安全事件已经给出警示,他再次以智能汽车举例,如果把汽车的智能系统看成智能城市的缩影,“汽车变得越来越智能,有更多的传感器、更多的网络连接、更多的智能联网系统,它就会暴露出更多的弱点或漏洞,这些漏洞会被黑客利用进行攻击。”
ED最后给出了智慧城市网络安全检查的十项清单:
1、质量检查和渗透测试;2、在面向服务级别协议 (SLA) 中以安全性优先;3、建立计算机紧急应变小组 (CERT) 或网络安全事件应变小组 (CSIRT);4、确保软件更新的一致性和安全性;5、根据智能基础架构的生命周期进行规划;6、处理数据时注意保护隐私;7、公共通信通道加密、认证和管理;8、永远做好人工接手控制的准备;9、设计容错系统;10、确保基本服务的连续性。
ED建议,智能系统的设计者一开始就要将安全因素加入进来,并且智慧城市的建设者在服务上要把安全放在至关重要的位置。安全不是附属品,要成为智能系统的一部分。
好文章,需要你的鼓励
ETH Zürich等机构研究人员提出TrustVLM框架,解决视觉-语言模型预测可信度问题。该方法利用模型中存在的"模态差距",创新性地结合图像到文本和图像到图像的相似度,实现无需重新训练即可大幅提升误分类检测性能。在17个数据集的严格测试中,TrustVLM相比现有方法在关键指标上提升显著,同时改善了零样本分类准确率。此成果为AI系统在自动驾驶、医疗等安全关键领域的可靠部署提供了重要保障。
这项研究提出了个性化安全概念,解决大语言模型对不同用户采用统一安全标准的问题。研究团队创建了PENGUIN基准测试集评估模型在处理高风险场景时的个性化安全能力,并开发了RAISE框架高效获取关键用户信息。实验表明,提供用户背景可使安全分数提高43.2%,而RAISE框架通过平均仅2.7次交互即可提高安全分数31.6%。这一创新方法将AI安全从"一刀切"转向"个性定制",为高风险领域的AI应用提供了新思路。
明尼苏达大学研究团队提出了一种创新方法,通过回合级信誉分配显著提升大语言模型(LLM)智能体的多回合推理能力。传统方法只对整个过程进行评价,而他们的MT-GRPO算法能够精确评估每个决策步骤的价值,就像为每一步提供具体反馈。在维基百科搜索工具使用场景中,该方法实现了100%的工具执行成功率和50%的答案精确匹配率,远超传统方法。这一突破不仅提高了AI在多步骤任务中的表现,也为开发更复杂的AI系统提供了重要思路。
这篇研究介绍了PISCES——一种能精确从大语言模型参数中移除特定概念知识的创新技术。与现有方法不同,PISCES通过解缠器模型识别概念相关特征,直接编辑模型参数,实现了更精准的知识移除。在Gemma和Llama模型上的测试表明,该方法不仅有效降低了目标概念的准确率(低至7.7%),还保持了模型在无关领域的高性能,并显著提高了对"重新学习"的抵抗力。这一突破为AI系统的安全部署和合规使用提供了新的可能性。