天堂之歌

听歌而来,送我踏青云〜

您现在的坐在位置:首页>智汇问答>FRM二级

我同学2026-04-13 16:16:57

在评估大型银行控股公司的建模项目时,使用汇总后的高级别数据而非更低级别、更具颗粒度的数据来做模型估计是滞后的实践做法。请问怎么滞后了

查看试题

回答(1)

Michael2026-04-14 21:05:07

同学你好,原因有以下4个:
1、违背现代风险管理的基本原则
巴塞尔协议等监管框架明确要求风险计量应基于足够细致的数据,以确保风险捕捉的全面性和敏感性。使用高级别汇总数据无法满足模型风险治理(MRM)​ 和监管验证的审慎标准。

2、无法捕捉风险驱动因子的微观特征
例如,在信用风险模型中。汇总数据:仅能使用整个“零售贷款组合”的总违约率,无法区分不同客群(如按地区、年龄、产品类型)​ 的风险差异。颗粒数据:可细化到“华东地区30岁以下用户的信用卡违约率”,从而识别局部风险集中的问题(如某地区经济衰退导致特定人群违约率上升)。

3、模型预测能力下降
汇总数据会掩盖风险的非线性关系和交互效应。例如,经济下行时,低收入人群的违约敏感性可能显著高于高收入人群,但若仅用整体收入均值建模,这种差异化影响会被“平均掉”,导致模型对经济周期的响应滞后或不敏感。

4、无法支持精细化管理和创新需求
现代银行的差异化定价、动态准备金计提、压力测试等均需基于用户/交易级数据。例如,若仅用“全行企业贷款总额”预测损失,无法针对“高技术制造业 vs. 传统零售业”设计差异化信贷政策。

  • 评论(0
  • 追问(0
评论

精品推荐

评论

0/1000

追答

0/1000

+上传图片

    400-700-9596
    (每日9:00-21:00免长途费 )

    ©2026金程网校保留所有权利

    X

    注册金程网校

    验证码

    同意金程的《用户协议》
    直接登录:

    已有账号登录