全网销售总额2539.7亿元、产生包裹13.8亿个、无线设备交易占比超90%……2017年11月12日零时,一年一度的“双十一”网购狂欢带着这样震撼世人的表现落下帷幕。历经几年跨越式的发展,“双十一”早已从当年天猫发起的网络购物节,进化为一次人类科技史、商业史上的一座奇观。其涉及行业之广、覆盖用户之多、产生金额之巨都足以引发IT行业的整体思考与创新。
在阿里巴巴最新公布的数据中可以看到,2017年双十一交易峰值期间,平均每秒发起交易32.5万笔,每秒创建支付25.6万笔,实时数据每秒处理4.72亿条……不难想见,这样巨量并发式的网络行为,不仅对天猫,同时也对银行、运营商、物流公司乃至大型电商都提出了前所未有的挑战。来自应用交付领域领导厂商的F5公司中国区总经理张毅强先生认为,对于这样前所未见的网络应用行为,为保证最终用户能够获得较好的使用体验,其各个环节的企业首先要做到未雨绸缪。很显然,任何一家企业的IT资源都很难应对这样突发的挑战,而临时增加购买从成本考虑也不可行。因此,只有借助混合云的理念,将企业自身的数据中心与灾备中心池化、或者将部分应用临时迁移至公有云中进行交付,以更弹性的方式、借助云端近乎无限的运算资源进行交付服务,才能在最大程度上保证用户的购买过程顺畅。为帮助用户更加便捷的部署混合云环境,F5自2016年就已经开始在企业数据中心应用交付、以及云端应用交付领域同时发力。一方面,通过诸如F5 Application Connector这样的解决方案,用户可以用更加智能、高效的方式在私有数据中心与公有云间调配、管理应用,从而解决了应用跨云迁移的难题。此外,F5也与AWS、微软Azure、华为乃至阿里等云服务商展开了深入的合作,帮助企业在公有云环境中使用F5应用交付解决方案,从而使用户能够以更加一致的策略管理跨云应用,从而更加自如的面对如“双十一”这样事件带来的巨量应用请求。
与此同时,随着“双十一”这个“普天同买”的特殊事件形态越来越复杂,更多的中间环节也就意味着更多安全隐患可能深藏其中。一方面,消费者作为这一事件的主角,在欢享购物的同时,每笔交易的资金安全势必影响着整个购买的使用体验;另一方面,商家在推出各种打折、送券、秒杀的时候,也在为如何保证用户得到实惠,而不是投机分子通过技术手段获取利益而苦恼。因此,能够在任何环境、甚至混合云环境下的端到端应用安全链就显得尤为重要。张毅强先生指出,基于对应用行为的深厚理解,F5一直走在应用安全领域的最前端。通过F5的解决方案,用户可以对应用行为进行智能化甄别,这也是F5应用安全与传统网络安全最为不同的区别所在。举例来说,对于传统网络安全而言,微秒级的秒杀行为无法被快速识别为不合规行为;而从应用角度出发的安全解决方案则可以将其作为可疑行为隔离或报告,从而在很大程度上避免了通过程序或机器人不当获利。此外,F5不仅针对页面注入、钓鱼网站等不法行为推出了针对性的解决方案;用户甚至可以将F5设备视为跨环境的全代理设备,从应用请求之初便可通过F5设备对所有信息加密,直到服务提供端的F5设备上进行解密后进行处理。通过这种方式,即便环节中出现信息泄露,不法分子截取的将只是意义不明的乱码,这就在最大程度上保护了用户的信息与财产安全。
张毅强先生最后表示,“双十一”这一形式将向什么方式发展、明年将到达什么规模都尚未可知。唯一能够明确的是明年必然会有更多不同行业、不同形态乃至不同国家的企业参与其中,而线上线下结合的促销形式今年也已初见端倪。这就意味着“双十一”将不再是一个平台、单纯网民的购物狂欢,而会向着全民化的“现象级”事件演变。唯一不变的则是支撑这一事件的,依然会是网络与IT。因此,如果参与的各方能够从应用的思路出发,去部署自身的IT架构,则必将会为广大用户带来一届更加精彩纷呈的“双十一”。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。