2018年7月24-25日,由工业与信息化部、科技部、国家发改委指导,中国电子学会主办的第十届中国云计算大会在北京盛大开幕,十年努力,我国云计算大数据产业飞速发展,成为推动经济增长、加速产业转型的重要力量。但随着云计算技术在各行业的深入应用,随之而来的安全问题也成为业界关注焦点。
在本届大会的云计算与大数据安全论坛上,腾讯企业IT部安全运营中心总监蔡晨以腾讯自身企业安全管理最佳实践为题,与现场嘉宾分享了在云时代企业网络安全防护的新思路。
随着企业的业务端走向云化,在带来高效率、敏捷性和高扩展性的同时,也扩大了高级威胁的“未知”名单,更为攻击者提供了更多的攻击渠道与安全漏洞:高级钓鱼迅猛泛滥,APT入侵攻击频繁,高级威胁日益演进,企业面临着云计算环境下安全问题的可见性、策略实施有效性、及时性以及云端安全协同联动等诸多挑战。对于如何快速发现、隔离和处置未知风险,与云计算一路走来的腾讯有着不同的策略和理念。
三大理念 致胜云时代企业安全
作为国内互联网巨擘,腾讯日常管理超过10W+的终端、每天处理400亿数据以及每年要应对数百万次的钓鱼攻击,要确保这艘巨轮的稳健疾驰,就需对网络安全态势有着高度、广度、深度的多维纵深把控。在蔡晨看来:落实到具体管理上,“高可见”、“极速处置”和“云管云控”是腾讯安全管理的三大利器:
在当前的安全形势下,企业须高度重视数据安全,构建可视、可控的终端环境,因为只有做到”高可见”,才能透过浩瀚数据,掌控全网态势; 当威胁出现,企业要在第一时间快速处置隔离风险、追本溯源与黑客火线竞速,更需有自动化的安全工具形成闭环,将突发威胁“极速处置”; 而要保证安全前提下的企业高效办公体验,云端部署的灵活性尤为重要,将公有云的轻量化管理与私有云的大数据采集分析有效结合为混合云,与各终端形成协同联动,方可达到“云管云控”运筹于云、决胜于端的境界。
四大产品 助力产业云化之路
旨在为用户打造从端到云的全新安全体系和管理模式,腾讯将自身最佳实践炼化为自研的四大解决方案推向企业市场:
腾讯终端安全管理产品Tencent iOA,可有效满足超大规模企业的用户规模,能够实时采集情报与云端联动,与其他杀毒软件有机结合,统一加固所有终端,保障在大量终端同时在线的情况下高效、安全办公,轻松实现全网大管控;而覆盖腾讯30W移动终端的安全利器Itlogin,则可嵌入到企业各类应用中,有效完成云办公的远程管理;对于云时代存储的多样性造成的数据安全问题,腾讯企业云盘会为员工提供在各个移动场景和工作场景中文件的漫游与存储服务,高效便捷并有效防止信息泄露;而腾讯办公安全大脑TSOC,更是涵盖了全网安全态势感知、安全事件推送、云上大数据采集、大数据机器学习等多模块的安全云系统,每天400亿条数据的高效计算能力,连接安全态势感知与大数据分析将风险可视化,成为企业自动化的智能安全中心。
蔡晨表示:目前,腾讯iOA的一站式、全方位的终端云化管理服务已应用于政府、金融、电商、医疗、教育等众多行业,作为云时代的先行者与践行者,腾讯企业IT安全团队积累了丰富的云安全管理经验,愿将自身安全能力不断输出,为用户打造高效、安全、灵活的防御体系,助力企业云化之路。
中国云计算发展的十年,也是腾讯从云计算到云安全不断积累的十年,前瞻的先发优势、全球领先的安全技术与多年积累,从而能够为政府与企业的数字化转型提供更全面的防护保障。腾讯新一代企业安全将继续护航产业升级,与广大行业用户共同把握云时代的发展机遇。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。