至顶网安全频道 06月26日 编译:欧盟关于在线隐私的通用数据保护条例(GDPR)法规的出台导致了一种名为“勒索黑”( Ransomhack)攻击的出现,勒索黑是一种有针对性的新型网络攻击形式。
在保加利亚安全公司Tad Group的描述里,勒索黑与传统勒索软件不同,如果受害人不支付赎金,勒索黑不会删客户的数据,而是公开发布被盗的数据。
黑客的这种操作模式转变源于GDPR的规定,企业若未能充分保护被盗数据就可能面临处罚。至于究竟什么构成适当的保护却是颇为主观性的,但一个公司接受涉及GDPR的调查被发现违规后,无论是支付罚款或上法庭打官司都将面临巨大的财务费用,因此支付赎金确保数据泄露不被张扬的做法往往更具吸引力。
据Hackread称,到目前为止,受害者都是中、大型保加利亚公司,这些公司都是被要求以无法追踪的加密货币支付赎金。据称赎金从1,000美元到20,000美元不等,而如被确认违反GDPR法规,罚款可高达公司过去一年营业额的4%,最高2000万欧元(2330万美元) 。
有趣的是,支付赎金也有一些风险。黑客可能会提出支付更多赎金的要求,而且,按照GDPR的规定,公司如成了网络犯罪受害者确认数据泄露后必须在72小时内报告事件。如果不这样做,也会被罚巨额罚款,这意味着如果这些公司在支付赎金后不报告事件而又被逮住,那么公司的赔偿成本就会继续上升。
好文章,需要你的鼓励
VisTA是一种新型强化学习框架,使视觉AI能够自主探索、选择和组合多种视觉工具。与传统方法不同,VisTA无需人工监督,通过反复尝试学习哪些工具最有效。研究团队在ChartQA、Geometry3K等测试中证明,VisTA显著优于训练免费基线,特别是在分布外样本上表现更佳。其核心创新在于使用群体相对策略优化算法,让AI代理能够根据实际性能而非预设规则来选择工具,为未来发展更灵活的视觉推理系统铺平了道路。
这项研究引入了DFIR-Metric,首个专门评估大语言模型在数字取证与事件响应领域能力的基准测试集。由阿布扎比技术创新研究院领导的国际团队开发的测试包含三个部分:700道理论多选题、150个CTF风格的实际挑战,以及500个基于NIST标准的磁盘与内存取证案例。研究测试了14种顶尖大语言模型,发现虽然它们在理论知识方面表现良好(最高达92.75%准确率),但在需要多步推理的实际取证任务中仍存显著差距(最佳模型仅能解决28%的任务)。
Meta研究团队发现大语言模型在复杂推理任务中,更短的"思考链"反而能带来更高的准确率。研究人员通过三个顶级语言模型的实验证明,选择最短思考链可以比随机选择提高18.8%准确率,比最长思考链提高34.5%准确率,同时显著减少计算资源消耗。基于此,他们提出了"short-m@k"方法,只从最先完成的m个思考中选择答案,既能提高模型表现又能节省高达40%的计算资源。这一发现颠覆了"思考越多越好"的传统观念,为更高效的AI推理开辟了新路径。