至顶网安全频道 07月04日 编译:企业领导者越来越意识到网络安全可能对业务成果产生的影响。Gartner表示,安全负责人应该利用自己能够得到的越来越多的支持,利用六种新兴趋势,提高组织的弹性,同时提升企业的地位。
趋势1:高级业务主管终于意识到,网络安全对实现业务目标和保护企业声誉的能力具有重要影响
IT安全性是董事会层面的议题,也是任何坚实的数字业务战略的一个重要组成部分。商业领袖并不总是能接受这一点,但最近一系列引人注目的事件改变了人们的看法。
最突出的例子包括Equifax数据泄露,让很多CEO、CIO和CSO丢掉了工作;一场WannaCry攻击导致全球损失估计在15亿至40亿美元之间,雅虎的数据泄露事件让Verizon最近购买雅虎得到了3.5亿美元的“折扣”。
Gartner研究副总裁Peter Firstbrook表示:“商业领袖和高级利益相关者最终会非常重视安全性,而不仅仅是在企业过于严肃、不苟言笑的环境中完成的战术和技术工作。安全部门必须充分利用起这个趋势,与业务负责人密切合作,明确将安全问题与可能受到影响的业务项目联系起来。”
趋势2:关于数据保护实践的法律和监管要求正在给数字化业务带来影响,并且越来越强调数据责任
客户数据是不断扩展的数字业务服务的生命线。最近Cambridge Analytica丑闻或Equifax漏洞等事件说明处理这些数据本来就存在极高的商业风险。此外,监管和法律环境也变得越来越复杂,欧洲GDPR条例就是一个例子。与此同时,对于未能正确保护数据的潜在惩罚也是呈指数级增长。
在美国,因黑客攻击而遭遇数据泄露的组织数量从2008年的不足100个,增加到2016年的600多个。
“毫不奇怪,随着数据价值的增加,违规事件的数量也在增加。在这个情况下,完整的数据管理程序——不仅仅是合规性——是必不可少的,在处理数据过程中潜在责任的充分理解也是非常重要的。”
趋势3:安全产品正在迅速利用云交付来提供更敏捷的解决方案
新的检测技术、行为和身份验证模型需要大量数据,这些数据可能会迅速压倒当前本地模式的安全解决方案。这推动了向安全产品云交付的快速转变,能够近乎实时地使用数据来提供更灵活和自适应的解决方案。
Firstbrook建议说:“避免做出过时的投资决定。寻找提供云优先服务的提供商,这些服务提供了可靠的数据管理和机器学习能力,至少可以保护你的数据。”
趋势4:机器学习在简单任务中贡献价值,并帮助人类分析可疑事件
向云的转移,创造了利用机器学习解决多种安全问题的机会,例如自适应身份验证、内部威胁、恶意软件和高级攻击者。Gartner预测,到2025年机器学习将成为安全解决方案的一个基本组成部分,抵消不断严峻的技能短缺和人员短缺。不过,并非所有机器学习都具有同等的价值。
Firstbrook说:“看看机器学习如何解决狭隘的和明确定义的问题集,例如对可执行文件进行分类,并注意不要被炒作所影响。除非厂商能够清楚地解释其机器学习如何使其产品超越竞争对手或者超越以前的方法,否则很难利用不错的机器学习技术释放营销的力量。”
趋势5:除了传统的购买考量因素,安全采购决策将越来越多地基于地缘政治因素
网络战、网络政治干预、政府对软件和服务后门访问的需求,导致软件和基础设施购买决策面临新的地缘政治风险。最近美国政府对俄罗斯和中国企业的禁令就是这种趋势的一个明显例子。
Firstbrook表示:“把对你企业组织重要的合作伙伴、供应商和司法管辖区的地缘政治考虑进去至关重要,包括在RFI、RFP和合同中的供应链来源问题。”
趋势6:数字集中化可能导致促使生态系统中多个层面去集中化的风险
互联网正在推动一种集中化的风潮,其中一个明显的例子就是云计算。 虽然有很多好处(上面提到了一些),但是好的安全团队也应该考虑到风险因素。
Firstbrook表示:“要评估集中化对数字业务计划的可用性、机密性和灵活性的安全影响。如果集中化的风险可能严重威胁到组织目标,那就要探索一种替代性的、分散的架构。”
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
微软亚洲研究院开发出革命性的认知启发学习框架,让AI能够像人类一样思考和学习。该技术通过模仿人类的注意力分配、记忆整合和类比推理等认知机制,使AI在面对新情况时能快速适应,无需大量数据重新训练。实验显示这种AI在图像识别、语言理解和决策制定方面表现卓越,为教育、医疗、商业等领域的智能化应用开辟了新前景。