DeepSeek-R1 深度赋能银行核心系统智能化需求分析的实践

360影视 2025-02-24 20:22 1

摘要:本文从银行核心系统 AI 转型的挑战出发,分享了长亮科技基于银行核心系统多年经验积淀给出的破局思路,提出在“N+M”大模型协同策略支持下探索人机协作新范式的渐进式路径,并展示了在 DeepSeek-R1 加持下,智能化需求分析场景中的技术实践阶段成果。未来,长

作者|长亮科技研发中心

文章导读:

本文从银行核心系统 AI 转型的挑战出发,分享了长亮科技基于银行核心系统多年经验积淀给出的破局思路,提出在“N+M”大模型协同策略支持下探索人机协作新范式的渐进式路径,并展示了在 DeepSeek-R1 加持下,智能化需求分析场景中的技术实践阶段成果。未来,长亮科技将从深化智能体协作和拓宽多场景应用两方面入手,打造银行智能化核心系统研发新范式。

01

新核心挑战

银行核心系统如何实现 AI 转型?

在金融业智能化变革的临界点上,银行核心系统正经历从"功能引擎"向"认知中枢"的质变。尤其是近两年,大模型技术的迅猛发展,不断重塑行业对 AI 落地的想象空间,为银行核心系统的智能化转型带来新的可能性。

然而,银行核心系统作为银行的 “大脑” 和 “心脏”,在准确性、高可用性以及合规性方面有着极为严苛的要求,使大模型技术在银行核心系统中的应用面临诸多挑战。主要问题集中在:

1、通用知识专业性局限:通用大模型缺乏银行核心系统领域的专业业务知识,面对核心系统复杂的专业场景需求时,效果通常不及预期。

2、大模型落地困境:大模型部署和运行所依赖的高算力资源,以及模型调优的专业度要求,增加了落地难度。

3、复杂系统的跨域协同挑战:银行IT架构复杂,核心系统往往需要跟上百个外围系统交互,对大模型能力提出严峻挑战。

针对这些问题,长亮科技提出以下破局思路:构建"N+M"大模型协同策略,通过N个通用大模型与M个场景小模型的有机组合,全面提升金融领域的大模型应用效果,拓宽大模型应用场景。

“N”:精选适配银行核心场景的通用大模型

基于长亮科技深入的通用大模型能力评估和适用性研究,针对银行核心系统 AI 赋能场景的具体需求,甄选通用大模型组合,实现价值快速落地。

“M”:构建专业场景小模型

聚焦银行核心业务高价值高复杂的细分场景,深度融合长亮科技核心产品知识和行业最佳实践,打造轻量级的场景小模型。

这种创新的“N+M”大模型协同策略,可以根据任务特性灵活适配,通过大模型、小模型甚至传统 AI 技术的灵活组合,有效实现核心系统复杂场景的智能化作业,提高 Al Agent 输出结果的准确性和可靠性,从而精准满足银行核心领域 AI 赋能的深度应用需求,加速价值落地。

02

新范式探索

“N+M”大模型协同策略的渐进式路线

基于“N+M”大模型协同策略的破局思路,长亮科技以打造银行智能核心一体化方案为目标,制定了三阶段研发规划:

模型试水:验证通用大模型,探索场景小模型

• 目标:探索通用大模型在不同场景下的能力边界和适用性。

• 策略:选择多个通用大模型快速验证其原子能力,针对特定场景尝试微调场景小模型进行增强,保留关键能力,降低部署门槛。

• 实践:从领域知识问答、文档修订等场景入手,采用 Copilot 模式快速验证知识检索、结构化文本和代码生成等原子能力,为构建领域专家智能体提供必要前提。

领域深耕:构建领域专家智能体,自主完成任务

• 目标:构建专家智能体,验证模型分工组合策略。

• 策略:根据不同场景和大模型能力特性,设计模型分工策略,如 DeepSeek-R1+DeepSeek-V3 组合,分别负责推理规划和执行。通过微调和知识蒸馏等技术,进一步提升场景小模型执行专项任务的能力。

• 实践:重构需求、设计、开发、测试端到端工作流,打造 AutoBA、AutoDesign、AutoTest 等领域专家智能体,即能自主完成各领域工作任务,也能与专家人员协作完成垂直领域复杂任务。

生态构建:从 AI4SE 到 AI4Biz,打造银行智能核心一体化方案

• 目标:构建多智能体协作生态,打造智能化核心系统。

• 策略:完善“N+M”大模型体系,构建全场景多智能体协作生态,打造银行智能化核心系统研发新范式。

• 实践:打通银行核心系统研发全链路,优化人机协作模式,全面提升复杂任务执行效率和质量。

03

新技术实践

AutoBA,基于 DeepSeek-R1 的需求分析智能体

长亮科技从银行核心系统研发场景和部分业务场景入手,率先完成了第一阶段通用大模型能力验证的目标,目前已迈入第二阶段,正聚焦银行核心系统智能化研发提效,构建 AutoBA、AutoDesign、AutoTest 等多个领域专家智能体,这些智能体将覆盖接口差异分析、需求问答、代码解读、测试案例等多个场景。

DeepSeek-R1 的出现,无疑为长亮科技的技术实践进程按下了加速键。下文将以需求分析智能体AutoBA为例,向大家介绍长亮科技的技术实践成果。

AutoBA 介绍

需求分析智能体AutoBA,与长亮科技需求分析平台打通,实现智能感知任务场景、提取关联资产、调用需求分析工具、多角色Agents协作和交互式人机协作反馈,旨在为核心系统需求分析全场景赋能。

AutoBA 工作任务示例

任务1:找到要改动的需求差异点(满分10分,期望分数≥8分)

- 基础评分:根据文档改动点数量平均分配基础分值

- 扣分项:错误识别(-2分/处),无效修改(-1分/处)

- 加分项:识别出标准答案范围外的有效内容(+2分/处)

任务2:准确生成需求修改指令(满分6分,期望分数≥5分)

- 生成准确的指令(1分)

- 准确找到目标文件(1分)

- 精确定位修改位置(1分)

- 做出了正确的操作(1分)

总体评价

- 整体准确率60%以上(1分)

- 指令完全正确(2分)

AutoBA 效果展示

1. AutoBA独立完成需求差异分析

a. 任务规划:AutoBA 制定了分析计划,可跟踪具体任务执行

b. 深度推理:通过检索需求文档,分析系统现状分析,识别需求差异,并给出解决方案建议

c. 修改操作:生成修改指令,对识别到有需求差异的需求文档进行针对性内容修改

2. 人机协作交互式反馈

a. 智能标注:基于对需求变更内容的理解,AutoBA 自动完成需求改写,并在需求文档中以色块形式标注修改内容

b. 快速决策:提供"接受修改"和"拒绝修改"的按钮,方便用户快速决策

AutoBA 效果评测

长亮科技选取了 DeepSeek-R1、DeepSeek-R1-Distill-Qwen-32B和Qwen2.5-32B-Instruct 三个候选模型作为 AutoBA 的底层支撑,旨在更好的实现大模型在复杂需求分析场景的应用效果。

评测结果分析:

• 引入 DeepSeek-R1 后,智能体的深度思考能力和推理能力得到提升,使 AutoBA 在核心系统需求分析过程中,不仅能更清晰地展示分析的思考过程,还能提升分析质量,辅助BA更高效地完成需求分析工作。

• DeepSeek-R1 推理能力可通过知识蒸馏方式迁移至小尺寸模型上(如上表 DeepSeek-R1-Distill-Qwen-32B),证明了增强小尺寸模型推理能力、思考能力以满足 AutoBA 场景需求的可行性。

04

新场景展望

“智能体协作+多场景应用”引领最佳实践

未来,在大模型体系构建的过程中,长亮科技将持续聚焦银行核心系统研发复杂场景,依据多智能体跨领域协作优化模型分工策略,重点增强各类协作场景小模型的能力,从而全面提升复杂任务执行效率和质量,进一步降低部署门槛。同时,长亮科技将结合多种人机协作模式建立持续学习机制,使场景应用中产生的新知识不断反馈到模型训练中,形成知识积累的良性循环。

在应用场景的拓展层面,长亮科技在继续丰富软件工程全场景智能体生态的同时,还将结合自身在核心系统业务建模、实施工艺等领域沉淀的专家经验和数字资产,推动 “N+M大模型协同策略” 的技术和应用最佳实践,从软件工程领域向银行核心系统更多业务场景迁移,最终打磨形成为银行业数字化转型赋能的 AI4Biz 一体化解决方案,助力银行迈入更加智能、高效、灵活的新时代。

参考资料:

1.中国信息通信研究院人工智能研究所, & 华为云计算技术有限公司. (2024.9). 智能化软件开发落地实践指南.

http://www.caict.ac.cn/kxyj/qwfb/ztbg/202409/t20240919_493348.htm?S0OMlgNm0r2m=1740013164777

2. DeepSeek-AI. DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning. URL

3. Sail-sg. There May Not be Aha Moment in R1-Zero-like Training — A Pilot Study. URL

4. Zichen Liu*, Changyu Chen*, Wenjun Li*, Tianyu Pang, Chao Du, Min Lin. There May Not be Aha Moment in R1-Zero-like Training — A Pilot Study. URL

5. YueWang∗,1,2 ,QiuzhiLiu∗,1 ,JiahaoXu∗,1 ,TianLiang∗,1 ,XingyuChen∗,1,3 ,ZhiweiHe∗,1,3 , LinfengSong1 ,DianYu1 ,JuntaoLi2 ,ZhuoshengZhang3 ,RuiWang2 , ZhaopengTu†1 ,HaitaoMi1 ,andDongYu1. Thoughts Are All Over the Place: On the Underthinking of o1-Like LLMs. URL

6. Niklas Muennighoff*134 Zitong Yang*1 Weijia Shi*2 Xiang Lisa Li*1 Li Fei-Fei1 Hannaneh Hajishirzi23 Luke Zettlemoyer2 Percy Liang1 Emmanuel Candès1 Tatsunori Hashimoto1. s1: Simple test-time scaling. URL

来源:长亮科技Sunline

相关推荐