警钟乍鸣
从勒索病毒WannaCry、Petya到最新发生的攻击行为#LeakTheAnalyst、HBO电视网泄密事件,一再表明任何人、任何机构都有可能成为黑客的目标。网络攻击的数量、狡诈程度和影响范围持续以惊人的速度扩张。截止2017年5月,Check Point安全解决方案每周检测到超过1,700万次攻击,其中多于半数的攻击例如payloads,在刚检测到时是未知的,因此无法被基于特征的传统技术识别。这些攻击如警钟般提醒世人近几年企业已经变得多么不堪一击。
为应对近期多起网络攻击,企业纷纷实施单点解决方案来保护其他各个分立的IT环境,然而许多解决方案都着重于检测攻击和减轻损伤而非防御。这样被动的应对之策花费很高却收效甚微,使安全运营更加复杂化并且会产生内在安全破绽。企业需要一个更加完善的架构来满足动态业务的需求,同时将重心放在防御上以确保所有IT环境的安全。Check Point Infinity是唯一跨所有网络、云端和移动设备,面向未来保护企业业务运营和IT基础设施的统一安全架构,为日益增长的网络连通性和相对低效的安全行为提供解决方案。
面对大多数的网络攻击,企业其实是可以幸免于难的。下一次攻击可以也应该被成功防御!
防御下一次攻击
勒索病毒WannaCry,Petya以及许多其它破坏性较强的网络攻击的影响并不是不可避免的。事实上,只要应对得当,采用最先进的方法和技术,许多组织是可以避免这些攻击的。
Check Point在网络安全防御领域经验极为丰富,保护多家最敏感、最易成为目标的组织免受攻击,一再证明有效的防护是可以实现的。想要成功防御复杂多变的攻击威胁应遵从以下核心原则:
安全保护贯彻到底
防御为主,检测为辅
我们常听到业内许多公司和其它组织声称网络攻击必然会发生,无可避免,因此唯一要做的就是投资检测技术,一旦黑客攻破网络便能立即检测到威胁,从而以最快的速度减少损失。显然事实并非如此!
千万不要仅满足于检测,普通攻击甚至是极为复杂的攻击、零日攻击都是可以被拦截的!使用以防御而非检测为核心的技术与产品,这样才不会干扰企业正常的业务运转。
借助一个全面统一的安全架构
许多公司企图通过使用多个供应商提供的单点解决方案组合构成他们的安全架构,这种方法通常有一定的限制:来自不同供应商的技术之间无法协作和兼容,会产生安全鸿沟,并且要协调多个系统和供应商之间的工作会产生高额费用。这样低效的方案导致许多攻击未被及时拦截,迫使企业不得不投资更多在事后补救措施上。
为了创建优质的IT系统安全环境,企业应当采用一个统一的多层次解决方案,网络、终端、云端和移动设备都可以共享同样的防御架构和威胁情报。
兼顾所有攻击媒介
攻击者通过邮件、网页浏览和手机应用等多种恶意骗局和手段进行渗透,利用联网主机中未更新补丁的漏洞实施攻击。
寻求一个能覆盖所有层面和全面防御所有受攻击面的解决方案。
应用最先进的技术
遗憾地是目前还没有一个单一的先进技术可以保护企业免遭所有威胁及其媒介。
但是有许多优秀的安全技术和方案如机器学习(machine learning)、沙盒(sandbox)、异常检测(anomaly detection)、解除内容威胁(content disarmament)等,它们在某些情景下可以起到高效防御的作用,瓦解特定的文件类型或攻击媒介。
强大的解决方案能整合多项不同的创新技术,对IT环境中的新型攻击实施有力反击。
从理论到实践
以上原则并非纸上谈兵,Check Point Infinity平台和SandBlast零日防护解决方案正是这些理论的范例,能够帮助客户积极防御下一次攻击。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。