报告编译 | 人工智能在政策制定中的应用

发布时间:2026-01-15 来源:

       编者按:

       2025年10月,国际清算银行(Bank for International Settlements,BIS)向二十国集团财长和央行行长会议提交了专题研究报告《人工智能在政策制定中的应用》(以下简称《报告》)。该《报告》系统梳理了各国中央银行在数据统计、经济分析、支付监管与金融稳定等核心职能中应用人工智能技术的进展、案例与挑战。研究表明,尽管以机器学习、大语言模型为代表的人工智能(AI)技术显著提升了央行预测、监测与决策的精准化、智能化水平,但其深化应用仍面临可解释性、数据治理、技术依赖与人才储备等关键制约。未来需通过构建实践共同体、强化人机协同与制度创新,推动央行在智能转型中平衡机遇与风险。国家金融科技风险监控中心对报告核心部分进行了编译。

微信图片_2026-02-24_151739_072

       一、引言

 早在人工智能成为全球焦点之前,各国央行已在统计分析与政策研究中引入机器学习技术,并在内部开展了研讨与预算规划。当前,以大语言模型为代表的新一代人工智能展现出更强的信息处理与模式识别能力,为提升经济分析水平、优化监管效能与政策精准度提供了更广阔的应用前景。

 然而,有效运用人工智能仍面临数据治理、人力资本与信息技术基础设施等方面的挑战。《报告》指出,通过协作共享经验,并借助规模经济效应,中央银行能够有效降低对独立IT基础设施和专项人力资源的投入,从而为人工智能在央行领域的深化应用开辟现实路径。

       二、人工智能的核心概念

 20世纪90年代,机器学习技术的兴起为现代人工智能奠定了基础。机器学习的核心是让计算机从数据中自主发现规律,其重点在于实现对新数据的泛化预测。基于树结构的方法(如随机森林)通过整合多个决策树提升预测精度,并可用于模式识别和异常检测。

 2020年代以来,得益于2017年Transformer架构的提出,生成式人工智能特别是大语言模型取得显著突破。大语言模型自注意力机制能有效捕捉数据中的长距离依赖关系,大幅提升了对上下文的理解能力,因此具备强大的少样本或零样本学习能力,降低了传统模型繁琐的微调过程。

       三、人工智能在中央银行及监管机构的应用

 在信息统计、政策分析、支付监管与金融稳定等数据密集的核心职能中,各国央行已普遍应用人工智能技术。

 在数据收集与统计分析方面,各国央行正积极应用机器学习技术处理海量微观数据。其中,隔离森林算法因其良好的可扩展性及不预设数据分布的异常检测能力,在处理精细化数据集方面展现出独特优势。该方法已实际应用于金融衍生品交易的异常值检测,并通过算法筛查——专家复核的人机协同闭环机制持续优化模型,在融合计算效率与领域知识的同时,提升了模型决策的可解释性与可信度。

 在宏观经济与金融分析方面,通过整合工业生产、商业调查、支付记录与网络信息等多维度、高频数据,机器学习可以有效弥补传统统计指标的滞后性问题。随机森林、神经网络与大语言模型等技术,不仅能从非结构化信息(如社交媒体、新闻文本)中实时构建情绪指标、分解通胀驱动因素,更能借助小样本学习等技术灵活适配于GDP预测等多种任务,显著提升了预测时效性与精准度,为政策制定提供了更精细的决策依据。

 在支付监管与反洗钱方面,传统规则系统面临高误报、模式僵化与数据孤岛等挑战。国际清算银行创新中心的“极光计划”为此探索了一种基于人工智能的协同监测新范式。该方案在隐私增强技术(如联邦学习、合成数据)的支持下,整合多机构交易数据,构建全局资金流动图谱,进而运用图神经网络识别复杂、隐蔽的洗钱模式。模拟测试表明,该方案可显著提升复杂洗钱案件的侦测效能并大幅降低误报率,为构建跨机构、智能化的“网络雷达”式监测体系提供了技术可行路径。

 在金融稳定与宏观审慎监管方面,为应对海量信息处理与系统性风险识别压力,监管机构正推动人工智能在监管流程中的深度应用。一方面,自然语言处理技术(如欧洲央行的“雅典娜”系统、美联储的文本分析引擎)实现了监管文档的自动分类、情感分析与关键信息提取,极大提升了审查效率。另一方面,机器学习模型(如巴西央行的ADAM系统)可更精准地识别信用风险,并通过优化压力测试情景、分析市场情绪与绘制风险关联图谱,显著增强了对系统性风险的识别与预警能力。然而,需指出的是,人工智能在危机预测中的应用仍受限于历史数据与模型可解释性,其核心作用在于提供增强型风险信号,最终的政策决策仍高度依赖监管专家的综合研判。

       四、挑战与经验教训

       目前,人工智能技术在中央银行领域的应用逐步深化,其在经济预测、风险识别、监管合规等方面的价值日益凸显。然而,随着技术应用的扩展,其内在的局限性及外部约束也逐渐显现。央行在推进人工智能落地的过程中,主要面临以下四类挑战:

       一是技术可靠性与可解释性不足。

       复杂人工智能模型,尤其是深度学习网络与大语言模型,普遍存在“黑箱”问题,即模型决策逻辑不透明,难以被人类理解与追溯。这不仅影响政策决策的问责基础,也阻碍了其在信贷审批、经济预测等高敏感场景中的可靠应用。同时,生成式人工智能可能产生偏离事实的“幻觉”输出,若未经严格校验即用于经济分析或监管决策,可能引发实质性错误甚至系统性风险。因此,推动可解释人工智能与模型透明度建设已成为央行技术治理的优先方向。

       二是数据治理与隐私安全的平衡难题。

       人工智能模型依赖海量数据进行训练与优化,而央行处理的支付交易、企业报表、个人信用信息等多属敏感数据,受到相关法律的严格规制。如何在充分挖掘数据价值的同时确保隐私合规,成为央行推进人工智能应用的核心挑战。尽管联邦学习、合成数据等隐私保护技术已逐步应用于跨境数据协作场景,但其技术成熟度、系统稳定性与规模化落地能力仍面临考验。

       三是技术依赖与系统性风险的加剧。

       人工智能技术生态高度依赖少数科技企业提供的基础模型、算力设施与算法框架,可能导致央行在关键技术环节丧失自主性,形成算法依附。更值得关注的是,若金融机构普遍采用同质化人工智能模型,可能在市场压力下出现行为共振,放大顺周期性,加剧流动性危机或资产价格波动,从而威胁金融稳定。

       四是人才储备与组织转型的压力。

 央行亟需既精通货币政策、金融稳定等传统业务,又熟悉人工智能技术的复合型人才,而此类人才在市场上供给有限,且面临科技公司的高强度竞争。此外,现有组织架构与决策流程需适应人机协同的新模式,通过制度设计确保人类专家在关键政策环节保持最终决策权,避免因过度依赖算法而削弱政策独立性与伦理合理性。

 综上所述,人工智能在央行领域的深度融合虽潜力巨大,但其可持续发展依赖于技术透明性、数据合规性、风险可控性与制度适应性的协同提升。未来,央行需在推动技术创新的同时,加强模型治理、隐私保护、风险防控与人才体系建设,以稳健有序的方式实现智能转型。

       五、结论

 为应对人工智能的广泛应用,各国央行既要成为敏锐的观察者,通过分析人工智能对总供给和总需求的影响,提前应对AI对宏观经济的冲击;也要成为积极的使用者,掌握将人工智能和非传统数据整合到分析工具中的专业技能,并运用AI生成可靠数据。凭借丰富的数据积累、严谨的分析传统以及机器学习与经济学、统计学的有机结合,央行在人工智能应用领域具有领先优势,能够在从数据治理到政策制定的关键任务中获得主动权。然而,要充分发挥人工智能的潜力,央行必须应对外部采购与自主开发之间的模型选择、内部生成与外部获取之间的数据平衡等挑战,并逐步从数据的使用者与收集者,转型为高质量数据的提供者与整合者。

 为此,通过协作与经验共享构建实践共同体,推动知识、数据、案例与工具的共同开发,已成为突破发展瓶颈的关键路径。