中国正凭借互联网、大数据、人工智能和其它颠覆性技术大力推进产业改革。软件是实现这些重大转型计划的驱动力。因此,软件行业将迎来巨大的机遇。
中国软件行业最大的挑战之一是安全,从轻微的软件缺陷到严重的漏洞,再到潜在的大规模数据泄露。随着中国经济加速数字化转型,软件安全问题预计将更为严峻。
企业即使没有100%准备好也会尽早在市场推出他们的软件或者APP。这是目前市场的普遍规则。他们将依靠频繁的软件升级和安全补丁来降低潜在的安全威胁。虽然这是一个昂贵且费时的工作,但考虑到快速上市的利益,一些企业有可能把这些弊端看作是不可避免的。
然而,随着中国对网络安全越发重视,这个市场规则势必会彻底改变。
几个月前,《中华人民共和国网络安全法》正式生效,违规企业将受到严重的罚款,情节严重的会被指控承担刑事责任。有鉴于此,中国企业必须尽可能识别和消除软件缺陷和漏洞。此外,国家移动互联网应用安全管理中心(CNAAC)宣布将对申请上架的APP进行全方位的安全检测,对检测合格的APP授予“CNAAC应用安全标识”,作为认证APP符合国家安全管理规范的官方证明。总而言之,企业必须在软件或者APP推出市场前将安全漏洞最小化。
鉴于上述市场的变化,中国软件行业对安全的思维模式急需转变,从零散补救到注重全面、安全的软件开发生命周期(SDLC)。这正是新思科技软件质量与安全部门(SIG)的技术、解决方案及服务专注的领域。
在数字时代,企业越来越依赖软件,而软件的缺陷也带来了风险。新思科技软件质量与安全部门把最强大的产品和服务结合到一起,创建出 一套全面的平台,为企业提供在整个 SDLC 过程中检测和修复缺陷所需要的一切东西,从而消除风险,防患于未然。
新思科技软件质量与安全部门在中国将具有巨大的商业潜力,因为网络安全投资通常占中国企业IT投资总额的不到1%;而国外成熟市场则更重视安全,占其IT总预算的15%。
凭借在技术上的领先地位和对当地市场的投入,新思科技将有效地拓展中国市场巨大的商机。我们在几个主要垂直行业市场取得的成功,与中国经济的发展方向完全一致。这些领域包括汽车、医疗、物联网(IoT)、金融、机器学习和数字智能。
目前,新思科技是全球第15大软件公司。新思科技采取一种整体的方法来设计、构建和维护安全软件,我们将这一概念称为“内置完整性” (Building Security In)。凭借一套全面的软件安全性和质量解决方案组合以及本地化服务, 新思科技可以在中国成为软件完整性领域的领导者,将功能、质量和安全性均无缝地融入SDLC。
自1995年以来,新思科技一直致力于中国市场。目前,新思科技在上海、香港、深圳和武汉设有办事处。上海办事处和研发中心目前拥有200多名销售、研发和技术支持人员。武汉研发和技术支持中心于2013年正式启用,目前有189名员工,并且新思科技正在武汉新建工业园,总投资为5,000万美元,预计2019年底投入运营。武汉研发团队预计到2020年壮大到500名员工。
新思科技可以为中国企业提供全面的产品和服务平台,简化流程、提高效率、最大限度地降低安全问题。如果由于复杂集成任务或自定义配置(检查工具、协议、工作流程),企业有特别的需求,新思科技专业服务团队将与他们合作,以确定如何最好地满足这些要求。
新思科技软件质量与安全部门将提供全面的软件安全解决方案,全力支持中国业界快步跨进新数字时代,蓬勃发展。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。