近日,炼石网络(简称“炼石”)完成3000万元Pre-A轮融资,本轮融资由国科嘉和基金领投,安云资本跟投。炼石是国内首家基于CASB模式的企业应用与数据安全产品提供商,并独家提供可以适配进业务流程的数据安全解决方案。
【炼石网络产品战略暨Pre-A轮融资媒体沟通会现场】
国科嘉和执行合伙人陈洪武表示:“企业信息化已进入云计算、大数据及智能互联的时代,数据的边界及安全防护成为了重中之重。国科嘉和十分看好炼石网络的CASB产品及服务,从源头应对业务应用、云端应用的安全与数据安全风险。”
企业信息化发展要求更大范围的信息共享,以及多个应用系统之间互相集成,云计算的普及又使得IT基础设施从独占模式变成共享模式,这提高了企业信息化对业务的支持能力,但是也打破了原有安全边界和数据防护模式,进而带来了数据失控问题。因此企业面临一个巨大挑战:既要实施信息化升级以加强信息共享,同时也要掌握数据控制权。
以制造业为例,最核心的PLM系统中管理着一家制造型企业的所有产品全生命周期数据,比如二维图纸、三维数模、工艺信息等等十分重要的产品数据,在一款产品的设计、研制和生产过程中,会有大量人员在不同的业务流程中需要使用相关数据,还包括与外协工厂的协作,在这个过程中要确保信息严格按照业务规则进行查看,与其无关的部分数据无法查看,否则一旦发生产品信息泄露,势必给企业带来业务风险。
企业一方面要承担《网络安全法》等明确指出的关键信息基础设施保护职责,而且还面临着国产商用密码算法升级等挑战;而另一方面,十多年的信息化建设过程中,围绕企业应用的安全投入几乎没有,造成应用内建的安全能力普遍缺失,但无论是从国家网络安全层面,还是从企业自身利益相关的商业秘密保护层面,都迫切需要为应用系统增强安全能力。
【炼石创始人兼CEO白小勇】
炼石创始人兼CEO白小勇在创立炼石之前的10年,主导开发了包含ERP在内的很多关键企业应用,对多个行业的应用架构、使用模式以及业务流程方面有极其深入的理解,他表示:“企业应用系统内处理和流转着几乎所有核心数据,但我们目前使用的应用系统,又普遍缺失内生安全能力,无法通过内部机制有效保护数据安全,尤其是在信息大量共享的业务场景下。而通过改造正在运行的应用系统,尝试为其增加內建的安全能力,犹如给高速行驶中的列车更换车轮,成本极高,而且会给业务运转带来巨大风险。出于保护商业秘密、加强防护关键信息基础设施等原因,企业应用系统迫切需要安全能力,但又无法通过改造应用来获得。”
炼石首创了委托式安全代理技术实现的CASB(云访问安全代理)产品-CipherGateway业务应用安全网关,基于其核心的Broker业务处理引擎,可以在不改造用户端与服务端的情况下,通过适配方式,把数据安全乃至业务安全机制嵌入企业应用及业务流程,让应用系统获得近乎内建的安全能力。
白小勇谈到:“企业应用安全的保护模式,必须贴近应用,要和应用的生命周期结合在一起,还要符合企业应用的交付模式,因为将安全控制措施适配进业务流程,实际上是由应用软件开发延伸而来的。炼石创始团队很多具有10年应用系统开发与实施经验,不仅拥有深厚的应用技术沉淀,而且对多个行业的业务十分了解,能够快速完成应用系统的适配工作,结合团队丰富的企业安全经验,最终为企业提供可以适配进业务流程的数据安全解决方案。对于很多在数据安全管理方面有较高要求的企业,也可以把CipherGateway作为承载和运行创新数据安全机制的一个平台。”
炼石深知要将适配进业务流程的数据安全以及行业化解决方案交付给用户,离不开广大的应用集成商。因此,炼石着力打造了Broker业务处理引擎来帮助合作伙伴进行适配开发,使大家能够以低成本、低门槛的方式学习和使用CipherGateway来服务最终用户,让用户可以避免花费高昂的改造成本,还能获得更灵活,更强大的“內建”安全能力。
只有围绕企业应用管理、技术生命周期以及对应生态环境,才能向企业输出有效防护。炼石致力于携手众多应用集成商,实施交付针对各行业应用的安全解决方案,共同构筑应用安全生态,有效防护数据安全,保障企业业务发展。
好文章,需要你的鼓励
这项研究介绍了SweEval,一个新型基准测试,用于评估大型语言模型在企业环境中处理脏话的能力。研究团队从Oracle AI等多家机构的专家创建了一个包含八种语言的测试集,模拟不同语调和上下文的真实场景。实验结果显示,LLM在英语中较少使用脏话,但在印地语等低资源语言中更易受影响。研究还发现较大模型通常表现更好,且多语言模型如Llama系列在处理不当提示方面优于其他模型。这项工作对企业采用AI技术时的安全考量提供了重要参考。
这项研究提出了"VeriFree"——一种不需要验证器的方法,可以增强大型语言模型(LLM)的通用推理能力。传统方法如DeepSeek-R1-Zero需要验证答案正确性,限制了其在数学和编程以外领域的应用。VeriFree巧妙地计算正确答案在模型生成的推理过程后出现的概率,作为评估和训练信号。实验表明,这种方法不仅能匹配甚至超越基于验证器的方法,还大幅降低了计算资源需求,同时消除了"奖励黑客"问题。这一突破将有助于开发出在化学、医疗、法律等广泛领域具有更强推理能力的AI系统。
这项研究提出了"思想家"(Thinker)任务,一种受人类双重加工理论启发的新型AI训练方法。研究者将问答过程分解为四个阶段:快速思考(严格预算下给出初步答案)、验证(评估初步答案)、慢速思考(深入分析修正错误)和总结(提炼关键步骤)。实验表明,该方法使Qwen2.5-1.5B模型的准确率从24.9%提升至27.9%,DeepSeek-R1-Qwen-1.5B模型从45.9%提升至49.8%。显著的是,仅使用快速思考模式就能达到26.8%的准确率,且消耗更少计算资源,证明了直觉与深度推理作为互补系统的培养价值。
这项由ELLIS研究所和马克斯·普朗克智能系统研究所的科学家进行的研究,揭示了大语言模型安全测试的根本规律:越狱攻击成功率由攻击者与目标模型间的能力差距决定。通过评估500多个攻击者-目标组合,研究团队发现:更强的模型是更好的攻击者;当目标能力超过攻击者时攻击成功率急剧下降;社会科学能力比STEM知识更能预测攻击成功。基于这些发现,研究者建立了预测模型,表明随着AI进步,人类红队测试可能逐渐失效,提示需要发展自动化安全评估方法及更全面地评估模型的说服和操纵能力。