近日,Gartner 发布了2017年企业防火墙魔力象限(Magic Quadrant)报告,Fortinet成功跃入领导者象限。Gartner认为其在市场执行、营销策略、客户体验、功能与性能以及市场覆盖等方面具有突出的表现,并能够在云端与本地提供一体化的安全能力与可见性。这一结果与评价充分印证了Fortinet旗舰企业防火墙产品FortiGate在业界无可置疑的领先地位,同时也在很大程度上展现了Fortinet成为安全市场佼佼者的“源力”。
Gartner魔力象限是在一个特定的细分市场内,由Gartner对厂商的行业技术发展方向、以及相应实施能力进行客观评判,分别从前瞻性和对战略的执行力两个维度,对厂商进行衡量与评估。根据Gartner的定义,位于领导者象限的厂商是发展前景和执行能力都有较高得分的行业领先企业,具备有影响细分市场走向的强大实力。
在本次魔力象限报告中,Gartner除了从上述两个维度评定了各个厂商的象限位置,还对企业防火墙市场变化与发展进行了前瞻性分析,Fortinet防火墙产品在以下三个方面的表现力与这些前瞻性分析不谋而合:
虚拟化,SDN以及IaaS与SaaS的完整安全覆盖。
Gartner在报告中指出,随着企业将业务迁移到云端,安全提供商应有相应基于云端的安全解决方案,并对前沿用户在SDN及东西向微分段的的需求以支持。在这一方面Fortinet拥有着无可争议的表现:Fortinet防火墙在公有云支持方面不仅包括AWS,Microsoft Azure,Google Cloud 以及阿里云与青云,同时在私有云/混合云以及社区云上实现了“按需”部署及运维。在SDN层面,Fortinet FortiGate支持VMWare NSX,OpenStack以及Cisco ACI等主流SDN平台的部署,能够与SDN控制器结合,提供安全服务链,帮助SDN用户实现更灵活和更高等级的安全。
不制约防火墙性能的加密流量安全检测。
现在的应用和攻击越来越多的是基于SSL加密,缺少对SSL加密流量的检测无疑是在防御体系上留下一个敞口,因此,Gartner认为,企业防火墙应承载加密流量检测功能以及面临的性能问题。正是基于和Gartner同样的判断,Fortinet强化了在防火墙性能方面的投入: FortiGate搭载了专有的SPU - CP9, CP9是采用ASIC架构设计的专用芯片,对SSL流量中的证书和加解密具备强大的处理能力,这也使得FortiGate在SSL流量检测方面,具备业界领先的性能。
多元化的企业防火墙角色,高级威胁联动防御的关键组件。
企业级防火墙应服务解决企业网的需求并适合企业网的场景的安全部署,企业网的规模决定了安全级别的划分与更细化的部署要求。FortiGate企业级防火墙则涵盖边界防火墙/内网防火墙以及数据中心防火墙的场景,其中内网防火墙用于内网中不同子网的安全分段与隔离,不仅切断威胁在内网中不同子网扩散的可能性,同时也保证了边界到内网防御的有效性
Gartner在报告中还谈到,越来越多的企业在向防火墙厂商寻求高级防御的方案,例如基于云的沙盒,以及应用威胁情报的防火墙。Fortinet防火墙可以协同联动多个安全组件包括Web应用防火墙,邮件网关以及沙盒技术,并利用全球威胁情报,实现高级威胁形成体系化的应对。
Fortinet中国区总经理李宏凯表示:“很高兴我们迈入Gartner企业防火墙领导者象限,这是对Fortinet防火墙市场竞争力的充分肯定。我们将继续保持技术创新的动力,协助企业用户构建积极防御体系,提高人、设备、流量等网络元素的可见且可交互的操作,从而确保现代企业实现长久安全运营。
好文章,需要你的鼓励
新加坡人工智能机构与阿里云发布全新大语言模型Qwen-Sea-Lion-v4,专门针对东南亚语言和文化特色进行优化。该模型结合阿里云Qwen3-32B基础模型和大量东南亚地区数据集,在东南亚语言模型评估榜单中位居开源模型首位。模型支持119种语言,能在32GB内存的消费级笔记本上运行,采用字节对编码技术更好处理非拉丁文字,并具备3.2万词元上下文长度,可执行文档级推理和摘要任务。
中科大联合快手等机构推出VR-Thinker技术,首次实现AI视频评判员的"边看边想"能力。该系统通过主动选择关键画面、智能记忆管理和三阶段训练,在视频质量评估准确率上达到75%-82%,特别擅长处理长视频场景,为AI视频生成的质量控制提供了突破性解决方案。
AI智能体是下一代业务自动化工具,不仅能对话交流,还能执行复杂任务。与ChatGPT聊天机器人不同,它们可在最少人工干预下规划并完成工作。文章介绍了五个高影响力应用:自动化客户服务解决方案、销售CRM管理、合规自动化、招聘筛选与排程、市场情报报告。这些应用都具有重复性工作流程、依赖结构化数据、遵循可预测规则等特点,能够释放员工宝贵时间用于更有价值的工作。
微软研究院发布BitDistill技术,通过三阶段优化将大型语言模型压缩至1.58位精度,在保持性能的同时实现10倍内存节省和2.65倍速度提升。该技术包括模型结构稳定化、持续预训练适应和知识蒸馏传承三个关键步骤,解决了模型量化中的性能衰减和规模化问题,为AI模型在资源受限设备上的高效部署提供了新方案。