技术应用 | 量子经典混合LoRA微调BERT模型在互联网贷款催收中的应用研究

360影视 动漫周边 2025-09-05 16:38 2

摘要:随着科技的飞速发展,人工智能与量子科技正成为推动全球科技进步的关键力量。2025年全国两会《政府工作报告》指出,“持续推动‘人工智能+’行动”“人工智能、量子科技等领域取得新成果”。本文主要针对低秩自适应技术(Low-Rank Adaptation,LoRA)

文/华夏银行杭州分行 朱萧峰

华夏银行核心系统建设办公室 龚伟华

华夏银行科技开发与运行中心 王彦博

龙盈智达(北京)科技有限公司 徐奇

百融云创科技股份有限公司 陈昀彰

随着科技的飞速发展,人工智能与量子科技正成为推动全球科技进步的关键力量。2025年全国两会《政府工作报告》指出,“持续推动‘人工智能+’行动”“人工智能、量子科技等领域取得新成果”。本文主要针对低秩自适应技术(Low-Rank Adaptation,LoRA)进行量子化改进,形成量子经典混合LoRA结构,并应用于互联网贷款催收场景的BERT模型微调任务中。实证结果表明,量子经典混合LoRA技术利用量子叠加和量子纠缠特性,增强模型的表达能力,使模型训练参数量较经典LoRA技术降低75%,并提高模型预测准确性,实现降本提质增效,对金融业使用量子LoRA微调大模型具有借鉴意义。

贷款催收作为信贷管理的重要组成部分,承担着保障金融机构资产质量、降低不良贷款率的关键职责。随着我国金融市场持续深化发展,信贷产品种类日益丰富,客户群体不断扩大,逾期贷款催收也面临着新的挑战。一方面电话催收仍是目前主流的催收方式之一,催收过程中容易出现客户情绪波动或沟通不畅,影响催收效果;另一方面在与客户沟通过程中,催收人员需要严格遵守相关法律法规,避免侵犯客户权益。

随着2020年11月《金融消费者权益保护实施办法》、2021年11月《中华人民共和国个人信息保护法》等法律法规的施行,监管机构对催收过程的合规性提出了更高要求,任何不当沟通行为都可能引发客户投诉甚至法律纠纷等问题。2025年2月28日,经2025年第4号中国国家标准公告发布的《互联网金融 个人网络消费信贷 贷后催收风控指引》要求金融机构应切实履行贷后催收风险控制主体责任;金融机构和第三方催收机构开展催收工作应遵循“依法合规、平等客观、保护隐私”的风险控制原则,以客观事实为依据,不应侵犯债务人及联系人等相关当事人的合法权益。

为应对上述挑战,越来越多的金融机构开始引入语音识别技术将催收录音中的语音信息转换为文本信息,结合自然语言处理(Natural Language Processing,NLP)算法对文本信息内容进行语义理解与分类分析,开展互联网贷款业务贷后催收语音质检场景应用。通过对通话内容进行文本分类,识别催收人员违规用语或操作行为,确保催收过程符合监管要求,降低相关金融机构的法律合规风险及声誉风险。

自然语言处理是人工智能与计算机科学领域中极具影响力的一个分支,其核心是使计算机具备理解、生成及高效处理人类语言的能力,以达成人机之间自然流畅的交互效果。吴永飞等人[1]在《量子—经典混合BERT模型在商业银行的应用研究》一文中对NLP技术发展阶段进行梳理,提出了“5P”框架,分别为纯语言学模型(Pure Linguistic Models)、概率统计模型(Probabilistic & Statistical Models)、机器学习模式识别模型(Pattern Recognition based on Machine Learning Models)、深度学习模式识别模型(Pattern Recognition based on Deep Learning Models)和预训练大语言模型(Pre-trained Large Language Models)。

量子自然语言处理(Quantum Natural Language Processing,QNLP)作为交叉学科的前沿方向,通过融合量子计算与自然语言处理的优势持续突破。2013年,Sordoni等人[2]首次提出量子语言模型(QLM)概念。吴永飞等人在《量子—经典混合BERT模型在商业银行的应用研究》一文中也提出了QNLP技术发展的“4PQ”框架,包括:一是概率量子模型(Probabilistic Quantum Models),它主要运用量子概率论等技术描述文本之间的语义关系,运用密度算子建立特征之间的潜在关系;二是光量子伊辛模型(Photon Quantum Ising Models),它主要将NLP模型的参数优化过程转化为二次无约束二值优化(Quadratic Unconstrained Binary Optimization,QUBO)问题,并运用相干光量子计算机进行求解,如使用支持向量机(Support Vector Machine,SVM)算法模型解决NLP问题时,将参数优化过程转化为QUBO问题,形成QUBO-SVM算法模型,而后使用相干光量子计算机进行求解;三是参数固化量子线路模型(Parameterized-fixed Quantum Circuit Models),它主要运用不含参数的量子线路进行特征提取和特征加工,从而更好地识别文本之间的关系,如使用K最近邻(K-Nearest Neighbor,KNN)算法模型解决NLP问题时,将文本之间的相似度使用量子态之间的距离进行替换,形成QKNN算法模型,从而利用量子叠加和纠缠特性解决NLP问题;四是参数化量子线路模型(Parameterized Quantum Circuit Models),它主要通过引入参数化量子线路,替代经典神经网络的部分或全部结构,从而实现更高效的计算能力和更强大的表达能力,这种模型广泛应用于量子神经网络、量子卷积神经网络、量子循环神经网络等QNLP技术中。

2018年,Google的研究团队[3]提出了基于Transformer结构的BERT(Bidirectional Encoder Representations from Transformers)模型,该模型包含Encoder模块,且是由多个Encoder模块堆叠而成,是一种典型的预训练模型。本研究对BERT模型进行高效微调,将参数化的量子线路引入传统的LoRA微调技术中,研发量子经典混合LoRA技术。该技术利用量子态的叠加和纠缠特性,高效地表示希尔伯特空间中的高维特征,有效降低模型的训练参数量,提升应用效果。

1. 数据理解与业务理解。在互联网贷款催收场景中,会产生大量的通话记录,这些记录涉及催收人员话术合规性及有效性、客户反馈及还款态度等多个方面,是评估资产保全、优化催收流程、保障催收合规性的重要信息来源。然而,传统的贷款催收话术合规性判别主要依赖人工随机抽检和评估,这种方式不仅效率低下,而且覆盖范围有限,难以全面、及时、有效地识别出催收过程中的不合规情况。此外,人工判别容易受到主观因素的影响,导致评估结果不够客观和准确。为了解决这些问题,笔者团队将参数化的量子线路引入LoRA微调技术中,形成了量子经典混合LoRA技术,并使用该技术对BERT模型进行微调,应用于对客服催收过程中的通话内容进行自动化的话术合规性判别。该模型能够对通话记录进行深入分析,判别催收人员是否存在不合规的情况,具体表现为是否使用不合规的话术、是否催收态度过于强硬等。

本场景采用的数据集来源于某互联网贷款催收场景的语音转文本数据,包含5536条样本,其中违规“坏”样本767条,正常话术“好”样本4769条;由于“坏”数据样本量较少,故根据违规数据标签类型,如威胁恐吓类、不当施压类、隐私泄露类和违规收费等,借助大模型生成1000条违规文本数据样本。最终总计6536条样本,包含1767条“坏”样本和4769条“好”样本,进行模型构建。

2. 模型构建。2025年,Xiaofei Kong等人[4]创新提出了一种量子加权张量混合网络(Quantum Weighted Tensor Hybrid Network,QWTHN)技术方案,该方案是一种量子经典混合的高效微调技术,它巧妙地融合了参数化量子线路和张量网络,借助量子态的叠加与纠缠特性,突破了传统LoRA技术的表达瓶颈,实现了参数高效的微调策略。笔者团队参考了该文章提出的技术方案,结合量子自然语言处理技术发展“4PQ”框架中的参数化量子线路模型,形成量子经典混合LoRA技术。该技术的量子线路部分共使用4个量子比特,运用角度嵌入法将经典数据嵌入至量子态,参数化线路部分是由含参数的RY门和CRY门组成,其中RY门对单个量子比特进行旋转操作,用于实现量子叠加,而CRY门则对两个量子比特中的一个进行控制旋转操作,用于实现量子比特之间的纠缠,从而增强量子线路的表达能力。

本场景使用量子经典混合LoRA技术对经典中文预训练BERT模型(Bert-Base-Chinese)进行微调,BERT模型是由Transformer结构组成的,具有102M的参数量。量子经典混合LoRA技术主要是对模型中多头注意力机制(Multi-Head Attention,MHA)中的Q和V矩阵进行量子经典混合LoRA技术替换,从而降低模型的训练参数,提升模型的应用效果(如图1所示)。

图1 量子经典混合LoRA微调BERT模型

3. 实证分析结果

在互联网贷款催收场景客服话术是否存在不合规情况的识别任务中,使用量子经典混合LoRA技术对Bert-Base-Chinese模型进行微调。量子经典混合LoRA技术微调模型对比经典全量微调和经典LoRA技术微调模型结果(如图2所示)。

图2 模型实证分析结果对比柱状图

实证结果表明,使用量子经典混合LoRA技术微调的模型其训练参数量较经典LoRA技术微调降低了75.21%,较经典全量微调降低了99.86%。在模型评估指标方面,量子经典混合LoRA技术微调在AUC、KS、准确率、查准率和F1值指标上较经典LoRA技术微调更优,在KS、准确率、查全率、查准率和F1值指标上较经典全量微调更优(见表)。量子经典混合LoRA技术将参数化量子线路融入经典LoRA技术中,利用量子叠加和纠缠特性,增强模型表达能力,同时大幅降低了模型参数量。

表 模型实证分析结果对比

本文基于QNLP技术发展“4PQ”框架中的参数化量子线路模型,形成了量子经典混合LoRA技术,并运用该技术对Bert-Base-Chinese模型进行微调,将其应用于互联网贷款催收场景客服是否存在不合规话术的识别任务中。实证结果表明,量子经典混合LoRA技术利用量子叠加和纠缠特性,增强模型表达能力。量子经典混合LoRA技术微调的训练参数量较经典LoRA技术微调降低75.21%,较经典全量微调的训练参数量降低99.86%,同时在多个模型评估指标上表现更优。该技术为自然语言处理及大语言模型量子化改进提供了有力借鉴,同时为运用量子经典混合LoRA技术广泛微调大模型提供了可行的思路和方案。

华夏银行杭州分行沈朝松、科技开发与运行中心李大伟,龙盈智达(北京)科技有限公司张月、杨璇、王杰、冯琳和曹晓峰对本文亦有贡献。

本文受北京市科技计划《量子金融云平台关键技术研发及示范应用》项目支持,项目编号为231100001323001。

参考文献

[1] 吴永飞,寿弘宇,王彦博,陈志豪,徐奇. 量子—经典混合BERT模型在商业银行的应用研究[J]. 当代金融家,2025(4).

[2] Sordoni A, Nie J, Bengio Y. Modeling term dependencies with quantum language models for IR. In:Proceedings of the 36th International ACM SIGIR Conference on Research and Development in Information Retrieval, Dublin, 2013. 653--662.

[3] Devlin J, Chang M-W, Lee K, et al. BERT: Pre-training of deep bidirectional transformers for language understanding[J]. arXiv preprint arXiv:1810.04805, 2018.

[4] Kong, X., Li, L., Chen, Z., et al. Quantum-Enhanced LLM Efficient Fine Tuning. arXiv:2503.12790 , 2025.

来源:金融电子化

相关推荐