以“万物皆变,人是安全的尺度”为主题的2017互联网安全大会,近日在北京举行。东软集团股份有限公司副总裁兼网络安全事业部总经理杨纪文在现场接受了记者的采访,就互联网安全产业进一步发展需要解决的问题以及互联网安全产业发展如何提高综合能力等,发表了个人观点。
记者:您觉得中国网络安全产业做大做强,目前面临哪些问题?
杨纪文:在中国网络安全已经发展了30多年,跟国际相比,实际上比部分国际先进的网络安全厂商发展的历史都要更长。但从现状上来说,中国的网络安全企业在国际上几乎并没有占据一席之地,所以中国网络安全的前景和发展路途都是比较艰辛的。
我认为中国的网络安全产业我们需要做的几项工作是:
1、清楚自己的能力与不足——虽说我们的产业发展了30多年的时间,但今天并没有一个企业在体系化和国际的市场影响力方面做的非常的好。这点是中国所有安全企业应该着重沉淀思考的方面。
2、网络安全核心技术积累——这方面我们并没有达到能产出有利竞争地位的能力水平。现在网络安全的发展涉及的维度越来越广,就像这次提到的万物互联也好、数据安全也好、包括云安全、数据安全等。现在的安全话题已经不是一个单独的方向,这对中国网络安全的发展是一个挑战,所以在整个技术和体系的积累方面,是需要着重考虑的一点。
3、国家安全方向感与使命感——要清楚不是单独的一个产品或者一个系列,或者一个简单的信息安全防护体系,就能解决用户或者个人的安全问题。事实上在发展的过程中还要涉及到国家安全、社会安全的层面。一个安全企业如果没有使命感或者方向感我觉得是没有太大的前途的。
记者:您刚刚提到了使命感和方向感,但是作为一个网络安全的企业,还是要注重效益的。在您看来,如何来平衡这两者之间的关系。
杨纪文:就在前两天我听见一个很有趣的话题,说在网络安全行业有两个方向。一个方向是风险投资,只投资赚钱的方向,另一个是从国家网络安全的层面来说,更关注的不是赚钱的方向,而是网络安全产业的发展方向。
企业怎么去平衡?有些企业在网络安全方向是很有积累的,但是在经济效益上没有体现的非常好;有些企业在经济效益上体现的很好,但在某些能力方面不是很强。
可是当我们把眼界放宽去看那些世界级的网络安全厂商,他们就平衡的非常好。一方面既有自己的技术积累,能指引网络安全技术的发展,为国家进行安全服务;同时在市场上也有一席之地,这是一个综合的积累和一个长期能力提升的体现。我认为在综合能力达到一个层级之前,这个平衡还是很难找的。因为在全面的网络安全防护体系中,对一个网络安全厂商的综合能力要求非常高,它不是一个片面的方向,不只是单在产品方面很优秀,或是只是在其他的某个能力上很优秀。如果你想要平衡到既解决自己的经济效益,又能解决网络安全发展的责任,那在综合实力上就要全面的提升。
记者:您刚刚提到的综合能力,具体包括哪些方面?
杨纪文:现在的网络安全防护已经上升到所谓的网络空间安全,它涉及的层面包含物联网、穿戴设备、云安全以及到数据安全等,并不是单一简单的信息化体系的防护,所以整个过程中要求一个网络安全厂商积累的方向非常多。现在有些企业可能还在考虑要收缩战略,把所有的投入集中在一个优势的方向上来产生经济效益。而有些企业是从某一个技术方向发展起来的,想在优势的部分来着重体现自己的能力,在市场上换取必要的经济回报。我认为这两种思维在做好平衡这方面还是有一定的难度,因为现在各个方面的安全防护都对企业的综合能力有很高的要求,如果只是一个方面做的好,很难在市场上达到一个很高的期望。要在技术积累,产品优势积累,安全体系方面有很强的综合能力,才能有能力去获取这个平衡点。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。