至顶网安全频道 04月18日 综合消息: 数字化时代网络安全问题再添中国版解决方案。在4月16-20日举行的美国RSA信息安全大会(RSA大会)上, 360企业安全集团携其自主首创的“数据驱动安全”技术理念及相关解决方案亮相,再次向世界展示了来自中国的安全技术实力。这也是“数据驱动安全”在全球网络安全行业平台上首度集中展示。
据悉,RSA大会创立于1991年,目前已经成为全球网络安全行业最受关注的“顶级信息安全大会”,每届活均会吸引众多国内外知名互联网安全企业参与。
图:360在本次RSA上展示其“数据驱动安全”理念的最新安全产品和解决方案
作为国内企业安全领域的领军企业,360在本次RSA大会上,将向世界展示其最新的“数据驱动安全”技术理念及基于数据驱动安全的系列安全产品和解决方案。同时,360威胁情报中心的平台和服务,360全球领先的安全大数据能力,360QVM人工智能引擎、QEX脚本查杀引擎、AVE启发式引擎等360核心技术和服务也一并亮相。
据了解,“数据驱动安全”是360企业安全集团在2015年推出的新一代安全技术理念,该理念致力于用大数据方法解决数字化时代的网络安全和业务安全问题。同时,为了更有效、更全面的防范和疏解来自各个层面的网络安全威胁,360还从理论角度提出四个合理假设:系统一定有未被发现的漏洞;一定有已发现但仍未修补的漏洞;系统已经被渗透;员工不可靠。力求用最严密的理论和逻辑体系做大限度的防范数字化时代的网络安全威胁。
360企业安全集团总裁吴云坤表示,面对这四个假设下的网络安全威胁,传统的安全理念更多是依靠产品构建被动防护体系,没有把人和数据放在核心位置,从而导致了安全体系防御能力滞后、二次反应能力不足等问题。同时部分企业也缺少对数据足够的采集和分析,使得防御体系缺乏免疫能力。此外,缺少对安全数据的安全运营管理,也导致了体系严重缺乏活力和对抗“韧性”,无法应对新技术环境下内外部的安全威胁。360企业安全提出的“数据驱动安全”理念,正是在这四个假设基础上构建起来的网络安全防护体系的最佳实践。
图:360在本次RSA上展示其“数据驱动安全”理念的最新安全产品和解决方案
吴云坤认为,数据驱动安全体系包含四大要素:数据是安全的基础与驱动,人是安全防护的核心与尺度,安全运营与管理是安全最重要的手段,围绕数据、人、工具、运营管理构建积极防御体系。“而基于数据驱动安全构建的安全能力和安全体系,就可以有效应对内外部威胁。” 吴云坤说。
目前,360企业安全提出的这四个假设已经得到了全球网络安全行业的普遍认同。
在过去三年间,360企业安全集团还不断通过与行业、企业用户紧密对接合作,对“数据驱动安全”技术体系不断实践和持续演进,已形成了完整的技术、产品、运营和服务体系。其中,以积极防御能力为主的完整安全体系,已成为企业用户和安全行业普遍共识的趋势性的安全方法论。
截至目前,360企业安全基于“数据驱动安全”的产品、方案和服务已经成功保护了国内超过百万政企机构的网络安全,帮助这些机构建立起了新一代的数据驱动安全体系,提升了整体安全能力和防御水平,尤其是应对数字化时代新安全形势下的内外部安全威胁能力。
好文章,需要你的鼓励
ETH Zürich等机构研究人员提出TrustVLM框架,解决视觉-语言模型预测可信度问题。该方法利用模型中存在的"模态差距",创新性地结合图像到文本和图像到图像的相似度,实现无需重新训练即可大幅提升误分类检测性能。在17个数据集的严格测试中,TrustVLM相比现有方法在关键指标上提升显著,同时改善了零样本分类准确率。此成果为AI系统在自动驾驶、医疗等安全关键领域的可靠部署提供了重要保障。
这项研究提出了个性化安全概念,解决大语言模型对不同用户采用统一安全标准的问题。研究团队创建了PENGUIN基准测试集评估模型在处理高风险场景时的个性化安全能力,并开发了RAISE框架高效获取关键用户信息。实验表明,提供用户背景可使安全分数提高43.2%,而RAISE框架通过平均仅2.7次交互即可提高安全分数31.6%。这一创新方法将AI安全从"一刀切"转向"个性定制",为高风险领域的AI应用提供了新思路。
明尼苏达大学研究团队提出了一种创新方法,通过回合级信誉分配显著提升大语言模型(LLM)智能体的多回合推理能力。传统方法只对整个过程进行评价,而他们的MT-GRPO算法能够精确评估每个决策步骤的价值,就像为每一步提供具体反馈。在维基百科搜索工具使用场景中,该方法实现了100%的工具执行成功率和50%的答案精确匹配率,远超传统方法。这一突破不仅提高了AI在多步骤任务中的表现,也为开发更复杂的AI系统提供了重要思路。
这篇研究介绍了PISCES——一种能精确从大语言模型参数中移除特定概念知识的创新技术。与现有方法不同,PISCES通过解缠器模型识别概念相关特征,直接编辑模型参数,实现了更精准的知识移除。在Gemma和Llama模型上的测试表明,该方法不仅有效降低了目标概念的准确率(低至7.7%),还保持了模型在无关领域的高性能,并显著提高了对"重新学习"的抵抗力。这一突破为AI系统的安全部署和合规使用提供了新的可能性。