> 快讯 >

即时:金融机构规范数据共享 隐私计算尚存四大难点

时间:2022-11-09 15:55:02       来源:21世纪经济报道

2021年11月,《个人信息保护法》(下称《个保法》)正式施行,给银行等金融机构数据交流带来了新挑战。

“银行机构之间直接分享彼此用户数据联合建模,肯定是行不通的。”一位银行IT部门负责人向记者直言。过去一年,隐私计算技术在银行机构之间迅速普及,金融机构在严格遵守《个保法》相关规定的前提下,不断通过脱敏数据的深度挖掘,持续完善自身的风控体系与精准营销模型。


【资料图】

所谓隐私计算,主要由差分隐私、同态加密、多方安全计算、零知识证明、可信执行环境、联邦学习等技术组成,即在相关个人数据不流出银行等金融机构端的情况下,由双方提供大量脱敏化、结构化数据,凭借各自的大数据分析能力进一步完善用户画像,从而助力彼此提升信贷风控与精准营销效率。

“隐私计算技术的核心,就是银行、持牌消费金融机构等在不知道客户具体敏感信息的情况下,使用大数据分析等技术,对这些脱敏化、结构化数据进行比较验证,结合自身对客户消费行为、消费特征的数据积累与洞察,从而判断出脱敏化、结构化数据背后的客户是谁。”上述银行IT部门负责人告诉记者。目前,他们与某些持牌消费金融机构的隐私计算技术合作初见成效,尽管无法获取某些客户的敏感信息,但通过隐私计算技术,仍能精准掌握不同类型客群的消费行为、消费特征与风控重点,优化信贷风控模型,逾期率较去年有明显下降。

不过记者了解到,尽管隐私计算技术的普及,很大程度解决《个保法》要求下的金融机构之间数据交流合规问题,但隐私计算技术在安全、性能、互联互通等方面仍存在不小挑战。

首先,隐私计算技术的安全性有待于进一步提升。由于隐私计算涉及的算法多样,但其安全基础通常都会设定一些假设,以此为基础进行安全算法设计。比如假设多方计算的各参与方都严格遵守协议流程、假设各参与方之间不产生共谋、假设硬件提供商完全可信等。但在实际情况下,这些假设未必都成立。与此同时,隐私计算技术在产品化过程中,不可避免会产生系统安全风险,由于隐私计算产品的安全要求较高,系统安全薄弱环节将最易被攻击。

其次,隐私计算技术应用仍需更大的计算和通信负载。目前,大规模应用隐私计算普遍面临计算和网络负载的限制。例如通过隐私计算联合建模的耗时是传统机器学习的数十倍甚至数百倍,且隐私计算意味着多方同步计算,某一方计算或通信资源的瓶颈将直接限制整个计算平台的性能。

第三,各方安全共识仍难以形成。隐私计算实际是让多个参与方在安全共识下开展多方计算。但是,参与者很难直观验证各方的安全性,当前也缺少隐私计算安全分级标准,实际应用场景下的各方安全共识通常难以达成。

第四,不同产品之间很难互联互通。每一个隐私计算应用方都面临着与不同机构多方计算的问题,但各方部署的隐私计算平台可能基于特定的算法和设计实现,平台间很难完成信息的交互,导致重复建设和成本浪费。因此互联互通正成为隐私计算技术普及所面临的最大挑战。

据介绍,目前众多金融机构都在加大隐私计算技术软硬件研发投入,力争尽早解决上述挑战。其中包括通过软硬件优化加速提升隐私计算可用性,促进隐私计算与区块链、同态加密、差分隐私等多种技术互相融合,推动隐私计算行业生态的融合发展等。

记者还获悉,为了促进隐私计算技术在联合风控建模与精准营销等金融场景获得更好的应用成效,越来越多银行正加大与隐私计算技术研发平台的技术合作。目前,银行要么直接采购隐私计算技术产品或解决方案,从而实现基于《个保法》规定的数据共享交流分析操作,要么付费获取这些隐私计算技术研发平台的数据流通服务。

一位股份制银行IT部门人士向记者透露,此前他们也曾考虑第二种操作模式,因为后者的使用成本相对较低,但管理层再三权衡,认为第一种操作模式更能令银行符合《个保法》相关要求。

据毕马威KPMG《隐私计算行业研究报告》预测,随着越来越多银行、持牌消费金融机构等金融机构积极引入隐私计算技术,三年后这项技术服务营收或将达到100亿-200亿元人民币。

标签: 计算技术 金融机构 操作模式