云融合的安全和数据保护解决方案提供商梭子鱼网络美国加州时间7月26日宣布其电子邮件安全业务在2019财年第一季度(截至2018年5月31日)实现加速增长。得益于新产品的创新和交付以及持续的MSP增长,梭子鱼电子邮件保护产品的预订量同比增长36%,2018财年第一季度为9%。
“电子邮件安全业务的强劲发展势头让我们颇感振奋,这给梭子鱼的进一步增长奠定了有利基础,”梭子鱼首席执行官BJ Jenkins表示。“我们的产品线很强大,越来越多地企业开始依靠MSP合作伙伴为其提供安全和数据保护服务。我们会继续大力扩展行业领先的产品组合,帮助客户在高度分散的多样化混合云环境中使他们的IT投资效益最大化。”
梭子鱼网络是在安全与数据保护技术领域拥有悠久历史的领导者,最近云融合产品的出货量已超过100万台。另外,公司近期还推出了先进的人工智能(AI)解决方案,以帮助企业防御鱼叉式网络钓鱼和网络欺诈。梭子鱼的创新研发围绕防御有针对性的攻击、人工智能、归档和数据保护等展开,以帮助客户以更智能的方式抵御攻击、降低风险和消除威胁。
通过收购PhishLine的举措,梭子鱼还成为了第一家引入基于人机界面的培训平台的电子邮件安全产品供应商。目前,梭子鱼是唯一一家结合了网关安全、数据保护、基于AI的针对性威胁防护以及用户安全意识培训的安全服务供应商,可为用户提供全面的防范电子邮件威胁的保护。
梭子鱼电子邮件保护业务在2019财年第一季度的财务业绩要点:
· 梭子鱼Essentials MSP增长:梭子鱼Essentials通过其MSP业务实现了销售预订量同比增长232%。
· 电子邮件安全业务增长:第一季度,梭子鱼电子邮件保护产品的全球预订量同比增长36%。
· 用户增长:目前梭子鱼已为全球50000多家电子邮件安全用户提供服务。
梭子鱼电子邮件保护业务亮点:
· 强劲发展势头:
- 每天处理超过10亿封电子邮件。
-归档超过900亿封电子邮件。
· 社会工程防御:
新的梭子鱼Sentinel帐户接管(ATO)功能能够针对被破坏的电子邮件帐户和被恶意行为者用于发送垃圾邮件、病毒和鱼叉式网络钓鱼攻击的电子邮件帐户提供基于AI的检测和修复。这一行业领先的解决方案将内部威胁防护提升到新的水平,降低了内部网络钓鱼和恶意软件的风险,并防止了由于攻击其他企业而造成的品牌名誉损失。
· 培训和仿真:
-梭子鱼进一步扩展PhishLine产品组合,推出了面向千人员工级别的新企业版产品,该版本通过经销商渠道进行销售。目前该产品已推出多个版本,以满足不同规模企业的需求。
-全新的梭子鱼PhishLine等级安全培训版块向企业提供一种独特安全意识培训方式,该方式通过鼓励良好的网络行为让员工参与并提高他们的安全意识。
· 梭子鱼Essentials:
-增强了识别和拦截发送方伪装成内部员工的网络钓鱼功能。
-梭子鱼Essentials对DMARC的支持提供了额外的邮件安全防护。
-其他隐私控制和MSP特定角色使MSP能够更轻松管理和支持其用户群。
·行业认可:
-梭子鱼跻身CRN发布的2018年网络安全领域百强名单:被评为全球最酷的20家网络安全、电子邮件安全和应用程序安全厂商之一,该榜单旨在认可和表彰对网络安全、电子邮件安全和应用程序安全作出突出贡献的厂商。
-梭子鱼在ChannelPro Network 2018年读者选择奖中荣获最佳电子邮件安全厂商金奖。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。