Francisco Partners和Elliott Management旗下的私有网络安全公司SonicWall今天宣布,公司已经超越了在销售、合作伙伴互动与支持方面设定的财务和运营目标,包括出货第300万套防火墙。这种良好的发展态势让公司荣获多项重大行业奖项并赢得了合作伙伴的认可,成为网络安全领域的领导厂商。
SonicWall总裁兼首席执行官Bill Conner表示:“在不到8个月的时间内,SonicWall的业绩已经超越了之前设定的十分积极进取的财务和运营目标。我们从第一天起就对这些投资充满信心,并相信这只是SonicWall成功故事的开端。通过部署多次创下纪录的SonicWall产品和服务,网络安全专业人士正越来越从容地应对新型网络威胁。我们拥有行之有效的管理团队、渠道合作伙伴,以及技术和服务,能够帮助企业可以更高效、更放心地经营业务。”
SonicWall合作伙伴计划签约量激增
SonicWall与全球合作伙伴建立了无与伦比的合作关系并得到他们的大力支持,成为了深受客户信赖的指导顾问。面临不断演进的安全威胁——例如近期的WannaCry勒索软件攻击,SonicWall持续不断地为合作伙伴提供创新的产品与服务以巩固双方的合作关系,例如,SonicWall面向经销商、集成商、安全管理服务提供商和安全顾问等各种渠道合作伙伴提出了SecureFirst合作伙伴计划。自2016年11月该计划推出以来,SonicWall的合作伙伴数量和销售额均实现了大幅增长。
SonicWall大学已举行超过19,000次网络安全考试
2017年3月,SonicWall推出了SonicWall大学项目,凭借SonicWall Capture实验室和威胁研究人员提供的情报,SonicWall提供基于角色的实时数字课程。这些情报来自全球超过100万个网络传感器,以及实时数据分析(通过深度学习算法得出)。SonicWall提供培训和认证项目,针对并围绕当前网络安全威胁为合作伙伴提供培训。SonicWall还推出了新的全球营销计划和激励计划,以帮助渠道合作伙伴扩展业务并为全球企业提供保护。
从项目正式推出起,合作伙伴便热烈响应,并通过SonicWall大学接受培训和认证:
SonicWall全球销售与渠道副总裁Steve Pataky表示:“合作伙伴对我们SecureFirst合作伙伴计划和SonicWall大学项目的积极参与已经超过了我们最乐观的预期,合作伙伴项目报备量增长了50%,有2.5亿美元的新的销售机会正在跟进中。自SonicWall成为独立的网络安全公司并100%专注于渠道后,我们在向合作伙伴提供顶级支持和培训方面实现极速的进步。”
SonicWall超越了销售与客户支持的行业基准
自2016年11月以来,SonicWall和渠道合作伙伴已经携手取得了重大进步:
除了这种强劲的增长,SonicWall也更多地专注于优化客户服务和支持:
SonicWall荣获空前的第三方验证
自成为一家独立公司以来,SonicWall凭借其业务和领导地位,一路斩获19个奖项。其中几个重要奖项包括:
好文章,需要你的鼓励
ETH Zürich等机构研究人员提出TrustVLM框架,解决视觉-语言模型预测可信度问题。该方法利用模型中存在的"模态差距",创新性地结合图像到文本和图像到图像的相似度,实现无需重新训练即可大幅提升误分类检测性能。在17个数据集的严格测试中,TrustVLM相比现有方法在关键指标上提升显著,同时改善了零样本分类准确率。此成果为AI系统在自动驾驶、医疗等安全关键领域的可靠部署提供了重要保障。
这项研究提出了个性化安全概念,解决大语言模型对不同用户采用统一安全标准的问题。研究团队创建了PENGUIN基准测试集评估模型在处理高风险场景时的个性化安全能力,并开发了RAISE框架高效获取关键用户信息。实验表明,提供用户背景可使安全分数提高43.2%,而RAISE框架通过平均仅2.7次交互即可提高安全分数31.6%。这一创新方法将AI安全从"一刀切"转向"个性定制",为高风险领域的AI应用提供了新思路。
明尼苏达大学研究团队提出了一种创新方法,通过回合级信誉分配显著提升大语言模型(LLM)智能体的多回合推理能力。传统方法只对整个过程进行评价,而他们的MT-GRPO算法能够精确评估每个决策步骤的价值,就像为每一步提供具体反馈。在维基百科搜索工具使用场景中,该方法实现了100%的工具执行成功率和50%的答案精确匹配率,远超传统方法。这一突破不仅提高了AI在多步骤任务中的表现,也为开发更复杂的AI系统提供了重要思路。
这篇研究介绍了PISCES——一种能精确从大语言模型参数中移除特定概念知识的创新技术。与现有方法不同,PISCES通过解缠器模型识别概念相关特征,直接编辑模型参数,实现了更精准的知识移除。在Gemma和Llama模型上的测试表明,该方法不仅有效降低了目标概念的准确率(低至7.7%),还保持了模型在无关领域的高性能,并显著提高了对"重新学习"的抵抗力。这一突破为AI系统的安全部署和合规使用提供了新的可能性。