至顶网安全频道 09月21日 综合消息: 9月21日,全球领先的人工智能公司DataVisor在北京召开媒体见面会,详细介绍了进入中国一周年所取得成就和进展。在新闻发布会中,DataVisor的管理团队与客户分享了对社交网络、电商、金融领域反欺诈的看法,并认为,只有采取更智能的技术才能有效检测“坏用户”,提高覆盖面,进而保护客户的数字资产,促进客户的业务良性发展。
众所周知,随着移动互联网和电商的蓬勃发展,伴随而来的是大规模的线上欺诈。多份研究报告指出,全球每年欺诈损失总额大概超过500亿美元。仅在去年一年,全球信用卡、借记卡、预付卡和私有品牌支付卡的损失就高达163.1亿美元。电子零售商和批发商因欺诈损失的金额占其年收入的7.5%以上。每年保险欺诈(不包括健康险)的损失总额大概超过400亿美元。
作为硅谷的技术型创新企业,DataVisor以人工智能领域独创的无监督学习算法为核心,可保护客户免受各种攻击,包括大量虚假账户注册、账号盗取、欺诈交易、身份盗用、洗钱交易、假冒评估、垃圾邮件、虚假安装推广等,所服务的客户有美国点评网Yelp、图片社交软件Pinterest、社交网站陌陌、Blued等。最新数据显示,在全球,DataVisor的用户事件分析总量已超过6千亿,保护用户数量超过20亿,已检测坏用户数量超过1亿3千万。
DataVisor CEO兼联合创始人Yinglian Xie(谢映莲)认为,作为一家美国公司,进入中国市场是非常具有挑战性的。DataVisor在一年内所取得优异的成绩,显然与客户的支持,以及团队的努力是分不开的。自2013年公司成立之初,DataVisor就把中国当作重要的市场看待。
DataVisor进入中国一年的时间里,已经服务包括阿里巴巴、陌陌、探探、大众点评、猎豹移动、趣加游戏等众多国内知名的大型互联网企业,并获得客户的良好口碑。检测真实注册用户的有效率可以提高到99.999%,响应速度为毫秒级。
DataVisor中国区总经理兼技术总监吴中对媒体详细解读了中国线上网络欺诈的现状。他认为,伴随着越来越复杂和越来越具有规模化、隐蔽性的欺诈手段,采用传统的反欺诈方案已经不能适应新形势的发展。而DataVisor独特的一站式风险数据分析平台,以无监督机器学习引擎为核心,同时结合其他检测分析技术,例如有监督机器学习、自动规则引擎和全球智能信誉库等,可帮助中国线上企业迅速找到“坏用户”,从而帮助客户提高运营能力,聚焦于核心业务。
来自今日头条的客户分享了如何利用人工智能抵御欺诈威胁。该客户认为与DataVisor合作有三个明显的优势。1.对接成本很低,无论从时间成本还是技术成本。时间上,可以做到10分钟接入技术平台。2. 准确率高,来源DataVisor独特的无监督机器学习算法。3.速度很快,能够最短时间内发现多个广告渠道的作弊行为,及时止损。双方将继续展开其他领域的合作。
最后,来自国内多家知名的互联网公司如猎豹移动、探探、微店、Blued等参加了会议并作主旨发言。与会嘉宾一致认为,解决网络欺诈难题,必须聚焦于人工智能,深入了解人工智能前沿的理论知识与基础算法,开发出跨行业的产品和解决方案。相信,伴随着DataVisor深入应用国际领先的无监督学习算法,势必会提高中国全行业线上的反欺诈水平。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。