Gartner公布了七大新兴的安全和风险管理趋势,这些趋势将在长期内影响安全、隐私和风险领导者。
Gartner将“Top”趋势定义为安全生态系统中尚未得到广泛认知的、但将产生广泛行业影响和巨大颠覆的持续战略性转变。
“外部因素和安全特定的威胁正在共同作用应用着整体安全和风险状况,因此该领域的领导者们必须做好充分准备,以提高弹性并支持业务目标,”Gartner研究副总裁Peter Firstbrook表示。
Gartner公布的2019年七大安全和风险管理趋势是:
趋势1:风险偏好声明与业务成果挂钩
随着IT战略与业务目标的紧密结合,安全和风险管理(SRM)领导者是否能够有效地把安全问题提交给关键业务决策者正变得越来越重要。Fiestbrook表示:“为了避免只关注与IT决策相关的问题,你应该创建简单的、实用的和务实的风险偏好声明,这些声明与业务目标相关,并且与董事会层面的决策相关。这避免了商业领袖们混淆为什么安全领导者甚至需要参加战略会议。”
趋势2:安全运营中心正在实施,重点是威胁检测和响应
随着安全警报的复杂性和频率的增加,安全投资也从威胁防御向威胁检测转变,这需要在安全运营中心(SOC)方面进行投资。据Gartner称,到2022年有50%的SOC将转变为具有集成事件响应、威胁情报和威胁搜索能力的现代SOC,而2015年这一比例还不到10%。Firstbrook表示:“SRM领导者们需要建立或外包集成威胁情报、整合安全警报和自动响应的SOC,这一点不容小觑。”
趋势3:数据安全治理框架应该优先考虑数据安全投资
数据安全性是一个复杂的问题,如果没有对数据本身、数据创建、数据使用环境以及数据监管的深入理解,就无法解决这个问题。领先的企业组织开始通过数据安全治理框架(DSGF)解决数据安全问题,而不是采集数据保护产品并尝试对其进行调整以满足业务需求。 Firstbrook表示:“DSGF提供以数据为中心的蓝图,识别和分类数据资产并定义数据安全策略。然后,这用于选择风险最小化的技术。解决数据安全问题的关键,在于从它所解决的业务风险入手,而不是像太多公司那样首先关注如何获得技术。”
趋势4:无密码认证正在引领市场
无密码身份验证(例如智能手机上的Touch ID)开始引领市场,由于供应和需求充足,该技术正在被越来越多地部署在消费者和员工的企业应用中。Firstbrook说:“为了打击以密码为目标的黑客访问基于云的应用,将用户与其设备相关联的无密码方法,提供了更高的安全性和可用性,这从安全性的角度来说是一种难得的双赢。”
趋势5:安全产品厂商正在越来越多地提供高级技能和培训服务
据Gartner称,网络安全岗位的空缺将从2018年的100万个增加到2020年底的150万个。虽然人工智能和自动化的进步确实减少了人类分析标准安全警报的需求,但敏感和复杂的警报仍然需要人为参与。“我们开始看到有厂商提供融合了很多产品和运营服务的解决方案,以加速产品采用。服务范围从全面管理到部分支持,旨在提高管理员的技能水平和减少日常工作量。”
趋势6:投资云安全,将其作为主流计算平台的能力
向云端转移意味着要扩大安全团队的规模,因为人才可能是短缺的,所以企业组织根本没有为此做好准备。据Gartner估计,到2023年大多数云安全故障都是客户方面出现了错误。“对于许多企业组织而言,公有云是一种安全可行的选择,但保证安全性是双方共同的责任。企业组织必须投资安全技能和治理工具,以建立必要的知识库,跟上云开发和创新的快速步伐。”
趋势7:在传统安全市场中增加Gartner CARTA
Gartner的持续适应性风险和信任评估(CARTA)是一种处理数字商业信任评估模糊性的策略。“CARTA背后的想法是一种安全战略方法,可以平衡安全摩擦与交易风险。CARTA的一个关键组成部分,是即使在延长访问权限后也要持续评估风险和信任。电子邮件和网络安全都在正朝着CARTA方向发展,因为即使用户和设备经过身份验证,解决方案也越来越关注检测异常。”
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。