近日,《中华人民共和国个人信息保护法》正式施行,隐私保护、信息安全再度成为各界的热议话题。信息技术的快速发展和广泛普及,成为了互联网金融行业发展的重要推动力,与此同时,也为企业在数据治理方面增加了诸多前所未有的挑战。妥善经管隐私数据、筑建信息安全堡垒成为互联网金融企业进阶发展的关键。
大会合影
为探索数字时代个人信息保护以及更为广泛的数据治理方案,12月9日,华为云联合北京市互联网金融行业协会、祥云科技举办了以“发展金融科技,保障金融安全”为主题的金融 安全 CXO 思享会。会议活动邀请华为云中国区金融行业总经理朱兵、北京市互联网金融行业协会秘书长王思聪、中国银行法学研究会理事肖飒、华为云金融行业总监诸旻、华为云 EI 可信智能计算服务 TICS 首席架构师张煜及北京市互联网金融行业协会会员单位代表、祥云科技代表等人,来到华为北京高端交流中心进行行业交流,共同探讨金融行业安全管理与发展趋势、分享互联网金融行业信息安全最佳实践,探索数字时代个人信息保护以及广泛的数据治理方案。
嘉宾热切交谈
金融行业的新赛道,可信治理是大势所趋
对于金融业而言,《个人信息保护法》的颁布影响深远。近年来,金融科技快速发展,大数据被视为行业转型升级的一大助推器。在数字经济时代下,作为资产的数据能够产生财富效应,拥有了数据就拥有了资产。
中国银行法学研究会理事,肖飒女士
中国银行法学研究会理事肖飒表示,随着个保法的正式实施,公民个人信息授权方式也发生了极大变化,国家将不再认可概括授权的合法性,获取公民个人信息,必须先取得公民的同意。在我国,只要公民同意授权,企业获取数据就是合法合规的。肖飒提出,金融行业属于数据密集型行业,对数据依赖性极强,如何守护好个人信息,更好地保障数据安全,是金融业必须面对的重要课题。企业应当及时调整“隐私协议”、“注册协议”等及内部数据合规体系。同时,应当采取必要措施,保障境外接收方处理个人信息的活动达到《个信法》规定的个人信息保护标准。
深耕数字化,共建全场景智慧金融
全场景、智慧、生态是走向全场景智慧金融的三个关键词。“全场景”就是通过人、物、应用的全互联,将金融服务带向千行百业。“智慧”指的是将AI引入金融行业的核心生产系统和业务主流程,通过AI与应用的结合,提供智慧服务。“生态”是指全场景智慧金融的目标是打造生态型金融产业,共建开放、共赢的产业环境。
华为云金融行业总监,诸旻先生
华为云金融行业总监诸旻在会上指出,云原生正在成为金融机构云基础设施的标配,华为云云原生2.0提供资源高效,极致体验,敏捷创新,数据智能,安全合规的云基础设施,为金融客户提供以应用为中心的金融云数字底座。帮助金融客户进行全面的创新升级,真正打造出科技与金融业务协同发展的数字化优势,携手共建全场景智慧金融。
华为云EI可信智能计算服务 TICS首席架构师,张煜女士
华为云EI可信智能计算服务TICS首席架构师张煜表示,数据是重要的资产已经成为社会共识,数据创造价值必须实现流通,尤其在数据安全上升到国家战略层面时,更需要在保护隐私的前提下挖掘数据的价值。隐私计算技术在多种金融场景中极大的满足了大家的合规需求, 实现“可用不可见”、“可用并可控”、“可控可计量”。预计到2024年,在一些大数据平台,隐私计算技术将成为数据保护刚需。华为云TICS为了保护用户隐私,一方面,在各类数据提供方的信任域内,通过构筑安全代理,实现数据的安全提供;另一方面,通过构筑可信执行环境TEE或采用安全多方计算MPC技术,实现数据的安全聚合,将数据资源范围从企业扩张到海量的社会数据,在数据隐私保护前提下实现多方数据联邦探查分析和联邦学习,通过数据流通创造更大价值。
圆桌会议
在圆桌讨论环节上,参会人员围绕国家政策对金融科技行业的影响、技术驱动金融科技行业业务发展以及金融科技行业对云技术的诉求等议题展开了讨论。
华为云目前自服务220+金融客户,已经成为全球五朵云之一。华为云作为金融数字化转型的重要伙伴,不仅在技术上追求创新,同时积极地与客户一同探索,以实现数智融合,升级有道。展望未来,华为云希望与金融伙伴共同成长,以技术创新引领产业发展,实现共创共赢。
好文章,需要你的鼓励
韩国科学技术院研究团队提出"分叉-合并解码"方法,无需额外训练即可改善音视频大语言模型的多模态理解能力。通过先独立处理音频和视频(分叉阶段),再融合结果(合并阶段),该方法有效缓解了模型过度依赖单一模态的问题,在AVQA、MUSIC-AVQA和AVHBench三个基准测试中均取得显著性能提升,特别是在需要平衡音视频理解的任务上表现突出。
这项研究利用大语言模型解决科学新颖性检测难题,南洋理工大学团队创新性地构建了闭合领域数据集并提出知识蒸馏框架,训练轻量级检索器捕捉想法层面相似性而非表面文本相似性。实验表明,该方法在市场营销和NLP领域显著优于现有技术,为加速科学创新提供了有力工具。
un?CLIP是一项创新研究,通过巧妙反转unCLIP生成模型来增强CLIP的视觉细节捕捉能力。中国科学院研究团队发现,虽然CLIP在全局图像理解方面表现出色,但在捕捉细节时存在不足。他们的方法利用unCLIP生成模型的视觉细节表示能力,同时保持与CLIP原始文本编码器的语义对齐。实验结果表明,un?CLIP在MMVP-VLM基准、开放词汇语义分割和视觉中心的多模态任务上显著优于原始CLIP和现有改进方法,为视觉-语言模型的发展提供了新思路。
这项研究介绍了RPEval,一个专为评估大语言模型角色扮演能力而设计的新基准。研究团队从法国里尔大学开发的这一工具专注于四个关键维度:情感理解、决策制定、道德对齐和角色一致性,通过单轮交互实现全自动评估。研究结果显示Gemini-1.5-Pro在总体表现上领先,而GPT-4o虽在决策方面表现出色,但在角色一致性上存在明显不足。这一基准为研究人员提供了一个可靠、可重复的方法来评估和改进大语言模型的角色扮演能力。