“2017年上半年,来自中国大陆以外的诈骗电话量已经翻倍,诈骗电话来自71个国家和地区,诈骗短信量已经占到整体的近5%,通讯网络诈骗的国际化趋势愈发明显。”7月27日,国家会议中心,国务院联席办钱盾反诈平台专家沈杰在2017网络安全生态峰会上公布了如上数字。
在本次峰会的新安全赋能平安中国分论坛,12321网络不良与垃圾信息举报受理中心主任郝智超,山东交通广播副总监智勇,蚂蚁金服集团安全管理部总监祝志晓等发表讲话。
12321网络不良与垃圾信息举报受理中心主任郝智超
山东交通广播副总监智勇
钱盾App发布了《2017年中国反通讯网络诈骗报告(上半年)》。数据显示,随着打击力度持续增强,通讯网络诈骗有向国际“发展”的趋势,呈现出全球化特点,犯罪分子跨境作案,空间跨度大,追查线索难,给破案追赃带来很大困难。为了保护用户资金不被骗,钱盾App专门推出了非中国大陆电话提醒功能。
钱盾反诈平台专家沈杰正在解读《2017上半年中国反通讯网络诈骗报告》
一条海外兼职刷单短信骗走4356元
2017年7月17日,浙江省浦江县的刘飞收到一条号码为“0066830034***”的短信,显示地区是泰国,短信内容称,刘飞信用良好,邀请其从事兼职刷单赚钱,之后,骗子让刘飞加了一个QQ号码,刘飞填过一张含名字、职业、年龄、支付方式和账号等信息的表格后,骗子让其通过一个新手任务,这一次,刘飞挣到了5元佣金。
而后,骗子要求刘飞拍下13个手提包,一共花了4356元,支付完成之后,对方要求他再次购买,但并没有任何返还垫付款,这时,刘飞意识到自己被骗了。
像刘飞一样,遭遇跨国短信诈骗的案例越来越多。
据《2017年中国反通讯网络诈骗报告(上半年)》数据显示,随着国内手机实名制等制度的完善,诈骗短信的国际化趋势非常明显。上半年,钱盾App拦截到的诈骗短信中,有接近5%来自中国大陆以外,其中大部分来自于东南亚及中国香港、澳门地区。马来西亚是除中国大陆以外的第一大诈骗短信来源地,数量多,增长明显。
诈骗短信量来源地TOP5
此外,据报告数据显示,2017年上半年的诈骗短信内容中,股票交易诈骗占73%,8%为赌博欺诈,假冒银行钓鱼和客服诈骗也较多,分别占到了5%和4%,之后便是兼职求职的诈骗短信。
诈骗短信的内容分布
上半年,诈骗电话来自71个国家和地区
根据钱盾《2017年中国反通讯网络诈骗(上半年)》报告显示,钱盾为用户拦截的中国大陆以外诈骗电话占诈骗电话总体比例也出现了明显上升,半年上涨了近100%。
图5 2017年上半年中国大陆以外地区诈骗电话占比趋势
数据显示,钱盾App上半年帮助用户拦截的诈骗电话就来自71个国家和地区,除中国大陆以外,来自香港地区的最多:仅上半年,来自香港的诈骗电话量上涨了101%。
来自香港地区的诈骗电话量上涨明显
国务院联席办钱盾反诈平台联合多地公安反诈中心、蚂蚁金服安全管理部的数据分析还发现,在通讯网络诈骗中,资损程度和受害者年龄呈正相关的关系,年龄越大,其资损的金额就越大。虽然6成诈骗受害者是90后和00后,但是相比较于80,70甚至60后,其资损程度还是相对较低。中老年人一旦被骗,更有可能倾家荡产。
各年龄层的资损情况
“大部分老年人对社会信息摄入较少同时对他人的信任度较高,手段高明的骗子们常常会利用老年人容易紧张等心理特点进行诈骗。公检法诈骗是老年人易中招且资损金额较大的骗局。”沈杰透露。
国务院联席办钱盾反诈平台提醒,通讯网络诈骗手段随着时间的变化也在日益“更新”,甚至出现全球化诈骗的趋势。老百姓除了不断提高自我防范意识外,更有效的办法是借助外力来抵御诈骗。
图8 钱盾App提醒国际电话和网络电话
作为国务院联席办和阿里巴巴联合开发的防骗神器钱盾App,通过这样的数据报告展示了它在反诈防骗领域的能力积累,更通过实时算法,用大数据将通讯网络诈骗防范于未然,针对诈骗电话国际化趋势,钱盾App就率先推出了国际陌生号码的识别提醒功能,帮助用户增强防骗意识。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。