7月11至13日,以“广连接 ˙新活力 ˙融实业”为主题的第十六届中国互联网大会在北京国家会议中心隆重召开。本届大会由中国互联网协会举办,聚焦在互联网、大数据、云计算如何为企业发展注入新活力等行业热点话题。大会吸引了众多国内外领袖、专家学者以及互联网行业的领军者参与。北京供销大数据集团(以下简称“SinoBBD”)作为国内领先的大数据基础平台,受邀参加此次大会。
会上,北京供销大数据集团CTO兼北京供销科技CEO王帅宇以“DT时代的数据主权和云计算的理性回归”为主题发表重要演讲,同与会嘉宾共同探讨如何捍卫国家数据主权及运用创新思维实现云计算生态赋能,得到与会嘉宾的高度认可。
维护数据主权和国家队的出现是DT时代的呼唤
随着DT时代的到来,我国数字信息革命掀起新一轮的高潮。在“一带一路”、“建设全国‘一体化’的国家大数据中心”战略中,对数据中心、云计算、大数据等发展提出了更高的要求。数据能力的终极目标是提升商业价值,创造及完善生产力。随着数据不断开放、共享、透明,企业在思考如何利用互联网、云计算、大数据与传统行业交融和共同发展的同时,数据安全及主权问题也日益凸显,这也对国家和企业如何保障数据安全和维护数据主权提出全新的挑战。
基于此,北京供销大数据集团CTO兼北京供销科技CEO王帅宇表示,“作为大数据国家队,SinoBBD为建设‘一体化’数据中心集群而生,集团通过‘一体化’发展战略,加速互联网和实体经济融合”。 他表示,首先,集团通过 “一体化”战略布局,围绕“3+10+X”的发展战略积极投入,在全球范围内打造拥有自主产权的分布式、全互联云计算数据中心集群网络。其次,集团以“一体化国家大数据中心”为契机,利用产品“一体化”,形成以IDC、EDC、CDN、Cloud、SDN、国际链路、大数据为核心的“一体化”业务布局。最后,集团借助服务“一体化”,为实现中国大数据产业升级、国家大数据战略的发展、云计算的生态赋能提供技术支撑。
同时,王帅宇还提到,SinoBBD采用国际高标准投资建设的承德德鸣大数据产业园和贵阳乾鸣国际信息产业园,为客户数据安全保驾护航,为促进云计算落地和发展提供先机。
从私有云走向产业云是云计算回归理性的体现
会上,王帅宇提出从私有云走向产业云是云计算回归理性的体现。北京供销大数据集团作为北京市供销合作总社(以下简称“市社”)的下属企业,依托市社大金融、大健康、智慧城市、农村电商及农业4.0等众多领域,集团与供销体系紧密联结,充分利用市社的多元化产业构成为云计算的发展奠定应用基础;同时,集团通过数据中心的创新性前瞻布局,率先在以市场为导向的北上广规划建设数据中心,并以资源政策为导向,打造承德德鸣大数据产业园及贵阳乾鸣国际信息产业园。集团数据中心基础设施的布局为云计算的发展提供坚实的物理基础。此外,集团携手华融新兴共同发起成立的200亿元大数据产业基金为集团云计算的发展提供了强有力的资金保障。
总之,集团以产业、数据和资本为驱动,整合优势资源,在国内快速发展的同时也加速国际化战略部署,打造供销云产业生态圈,这也是集团作为大数据国家队的实力和底气所在。
此外,中国互联网大会期间,SinoBBD还通过搭建展位,构筑与嘉宾沟通交流的纽带,向参会嘉宾详尽展示集团数据中心项目、产品及解决方案,使与会嘉宾进一步对集团产业布局、产品技术实力有了全新的认知,为今后与各行业客户合作打下坚实的基础。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。