2020年是一个不平凡之年。因为新冠疫情改变了我们很多工作和生活习惯,比如远程办公、比如在线教育等等。疫情来袭让我们更加依赖IT系统来支持企业业务和运营的正常开展,而随着而来的安全问题也日益凸显。另一方面,一些新技术的应用和普及也需要我们及早应对。比如,随着5G正式投入商用,我们正在迎来5G时代,而5G带来了更泛在的连接和更高的流量,这些都对传统安全措施提出更多的挑战,迫切需要做出调整。
日前,Palo Alto Networks(派拓网络)发布了对2021年网络安全的预测,透过这份预测,我们可以了解到明天的安全形势,未雨绸缪及时对安全策略做出调整,以提升企业网络安全的可靠性。
实际上,派拓网络去年也做出了网络安全的预测,包括4G网络的安全、安全人才短缺、物联网安全形势严峻、云配置管理需要重视。值得一提的是,虽然去年派拓网络做出预测时疫情并没有发生,并没有预想到远程办公、在线教育等有今日的火爆,不过报告中还是预见了与之相关的有些问题,比如数据隐私问题。
整体上说,2020年的网络安全走势还是符合派拓网络预测的。“比如,2019年我们预测了在5G的普及。同时,我们提醒说,4G网络下有很多的漏洞产生在5G时代仍然存在,同样迫切需要解决。如果这些网络的安全问题不解决,还会对4G、5G用户产生很大威胁。”派拓网络副总裁兼亚太及日本区首席安全官Sean Duca说,实际上,在过去的一年中,我们也看到4G网络的漏洞还有不少,受到的攻击也不少。

派拓网络副总裁兼亚太及日本区首席安全官Sean Duca
物理网安全也是去年预测中的一个重点。根据派拓网络之前发布的一份物联网安全报告,在中国地区将近半数的企业还没有把物联网安全重视起来,或者还没有为物联网设备采用网络分段划分单独的网络。我们看到,今年随着5G的普及,网络安全威胁正在进一步凸显出来,过去的一年在物联网上有很多安全威胁的事件产生。
Sean Duca分享派拓网络对2021年安全形势做出的预测:
第一,数据的共享是不可避免的,尤其在疫情环境下。Sean Duca提醒说,由于数据需要共享,作为数据保管方或者数据提供者应该更加注重数据安全的保护,要能够保证这些数据被得到正确合法的使用。
派拓网络大中华区总裁陈文俊介绍说,今年针对数据泄露的问题,派拓网络新推出的企业级DLP解决方案,不仅功能强大、易于部署,而且不需要新的基础设施,可与现有的安全技术集成,无论企业是将数据保存在云端、本地还是采取灵活方式,都能适用。
第二,5G网络正在普及,安全要早准备。Sean Duca建议,由于5G的普及,物联网设备回不断扩张,当网络中有大量物联网设备的时候应该和相关网络运营商配合,给物联网的安全提供最好的保护,同时和其他网络形成一个必要的隔离和区分。
同样,面对5G的普及,今年派拓网络也推出了一款5G原生安全产品,可以为给企业利用5G进行业务转型护航,帮助企业保护他们正在创建的企业服务的安全。
第三,要更好地保障居家办公的安全性。安全访问服务边缘(SASE)将会成为很多企业首选以提供更加安全可靠的居家办公环境。
最后,在云环境下我们需要更好地规划和管理安全配置。Sean Duca特别强调了和网络安全同样重要的身份和访问管理(IAM)的配置。他认为,IAM方案应该跟网络安全同步进行,在上云时与基础架构安全同期来去考虑。只有这样,才能保证多云环境下的安全,避免由于错误配置带来的安全风险。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。