ZD至顶网安全频道 03月02日 综合消息:据思科2017年度网络安全报告显示,在2016年遭遇过安全攻击的企业中,三分之一以上的企业损失了超过20%的重要客户、商业机会和收入。其中,90%的企业在攻击发生后,通过区分IT和安全职能(38%)、加强对员工的安全意识培训(38%)、以及缓解应用风险技术(37%),改进威胁防御技术和流程。该报告在《安全能力基准调查》(思科ACR的一部分)中,对来自13个国家和地区的近3000位首席安全官(CSO)和安全运营领导者进行了调查。
在十周年之际,该全球报告强调了安全团队在防御不断演进的网络犯罪和不断变化的攻击模式时,所面临的挑战和机遇。首席安全官们认为,改进安全环境面临的最大障碍是:预算限制、系统兼容性问题、和经过培训的人才缺乏。同时,领导者们指出,安全部门正在使企业环境变得日趋复杂,有65%的企业使用6-50余种安全产品,这增加了安全有效性缺口的可能性。
ACR数据显示,为利用安全有效性缺口,犯罪分子正带动“传统”攻击载体的复兴,例如广告软件和垃圾邮件,而后者自2010年以来已较少大规模出现。垃圾邮件占全球电子邮件总量的近三分之二(65%),其中8%到10%被视为恶意邮件。全球垃圾邮件数量正不断增长,经常通过快速壮大的大型僵尸网络进行传播。
面对这些攻击,检测安全实践的有效性至关重要。思科一直致力于减少“检测时间(Time to Detect,即TTD)”,即发生威胁到发现威胁之间的时间差。缩短检测时间,对于限制攻击者的操作空间和最大限度减少入侵造成的损失至关重要。思科已成功将检测时间从2016年初的平均14小时减少到了2016下半年的6小时。这一数字基于在全球范围部署的思科安全产品收集到选择性的遥测数据。
网络威胁的业务成本:客户丢失,收入损失
2017年度网络安全报告(ACR)揭示了攻击对企业(包括大型企业和中小企业)造成的潜在财务影响。超过50%的企业在遭遇安全攻击后将面临公众审查。受影响最严重的是运营和财务系统,其次是品牌声誉和客户保留。这对于遭遇过攻击的企业,影响极其严重:
黑客运营和全新“业务”模式
2016年,黑客变得越来越“企业化”。全数字化引领的技术环境的动态变化,给网络犯罪可乘之机。黑客不仅继续利用成熟技术,同时也采用了反映其公司目标的“中间管理”结构的新方法。
保护业务,保持警惕
2017年度网络安全报告(ACR)显示,仅56%的安全警报得到了调查,仅有不到半数的真实警报得到修复。尽管防御者对其工具充满信心,但他们面对着错综复杂的环境和严峻的人力资源挑战,所以攻击者仍有发挥自身所长的时间和空间。思科建议采取以下步骤来防御、检测和缓解威胁,并最大限度地降低风险:
思科年度网络安全报告—— 十年的数据与洞察
从2007年首次推出思科年度安全调研报告至今,网络安全发生了显著变化。尽管技术让攻击变得更具破坏性,让防御变得更为复杂,但安全的基础仍像以往一样重要。
支持引言
“2017年,网络与业务密不可分,这要求我们采用完全不同的方式,带来新的成果。我们需要持续改进,并从效力、成本和有序管理的风险等角度对改进措施进行衡量。2017年度网络安全报告不仅表明了我们的努力,同时也证明了我们在预算、人员、创新和架构方面所采取的措施行之有效。”– John N. Stewart,思科全球高级副总裁兼首席安全官
“在2017年度网络安全报告中,我们强调的关键指标之一是‘检测时间’,即用于发现和缓解恶意活动所花费的时间。我们已将这一数字缩短到6小时。同时,我们也引入了‘演进时间(Time to Evolve,即TTE)’这一新指标,用于评估威胁行动者可在多短时间内改变攻击以掩盖身份。通过充分利用报告调研结果中收集的各类指标,以及携手其他企业实现其威胁防御措施的自动化和集成化,我们能更好地帮助他们最大限度地降低财务和操作风险,并实现业务增长。”– David Ulevitch,思科全球副总裁兼安全业务总经理
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。