分享

读文献308|基于SHAP解释方法,构建卷积神经网络-元胞自动机(CNN-CA)模型模拟城市土地利用变化

 刘沟村图书馆 2025-11-12 发布于河南
图片

文献链接

https:///10.1016/j.compenvurbsys.2024.102133

(1)文献基本信息

  • 英文题目

    How can SHAP (SHapley Additive exPlanations) interpretations improve deep learning based urban cellular automata model?

  • 中文题目

    SHAP(Shapley加性解释)如何提升基于深度学习的城市元胞自动机模型的可解释性?

  • 发表年份

    2024年

  • 期刊来源

    Computers, Environment and Urban Systems



(2)文献摘要翻译

本研究旨在提升城市元胞自动机(CA)模型的可解释性,以确保其预测行为符合真实的城市扩展过程。然而,当前的深度学习(DL)驱动的城市CA解释方法存在三大问题:(1)解释过程与特征选择未有效整合;(2)不同模块输入的解释方法各自为政,缺乏统一;(3)缺乏针对单元格级别的解释,无法揭示空间异质性发展模式。为此,本文提出了一个基于SHAP(Shapley加性解释)的方法框架,解决上述难题。该框架首先使用模型级SHAP重要性来筛选不同模块中最关键的特征,再借助单元格级SHAP值揭示空间异质的城市扩展驱动力。实证研究以中国东莞市为例,构建卷积神经网络-元胞自动机(CNN-CA)模型,并通过实验证明:(1)基于SHAP的特征选择可提升模型精度,FoM提升3%,优于多种传统方法;(2)SHAP可整合地衡量不同模块特征的重要性,物理因素影响最大,邻域效应次之,接近度和可达性影响较小;(3)单元格级别解释有效揭示局部驱动机制,比如在松山湖工业区,靠近主干道成为扩张的主要推动因子。



(3)核心内容整理

引言

文章首先介绍了城市快速扩张对环境、健康等造成的影响,强调模拟城市土地利用变化(LUCC)对于可持续发展的必要性。城市CA模型因能模拟空间自组织过程而被广泛使用,但在引入深度学习之后,其“黑箱”特性限制了模型的可解释性,尤其在特征选择、模块整合和空间异质解释方面存在显著缺陷。


方法

提出了一个SHAP驱动的解释框架,包含三大步骤:

  1. CNN-CA建模:通过卷积神经网络构建土地适宜性模块,结合邻域效应和约束因素生成土地转换概率(LTP)。

  2. SHAP特征选择:基于全特征模型计算各特征SHAP值,选出排名前7的特征,排除冗余特征以优化模型。

  3. SHAP模型解释:不仅评估模型级别的平均SHAP值,还深入分析单元格级别的特征贡献分布,揭示空间异质性。


结果

  • 使用SHAP进行特征选择的CNN-CA模型表现优于传统方法,FoM提升至0.4069。

  • 模型级别分析发现:物理特征(如坡度、距离河流等)对城市扩张预测最重要;邻域效应排名第二。

  • 单元格级别解释揭示了局部发展差异。例如,在松山湖区,靠近主干道成为工业用地扩张的关键因素,而靠近水体在不同区域表现出正负两种影响。


讨论

验证了所提SHAP框架在三个方面的有效性:提高深度学习CA模型性能、统一解释不同模块影响、揭示局部空间驱动力。也指出了目前存在的不足,比如未使用更精细的递归特征消除法(RFE),以及SHAP计算成本高、难以处理更复杂的长时序模型。


结论

SHAP框架提升了深度学习CA模型的准确性与可解释性,能够有效整合特征选择、模块间权重分析和空间异质性揭示,为城市土地利用预测提供理论支持和技术工具。



(4)一句话总结

本文利用SHAP解释方法,以东莞市为案例,研究基于卷积神经网络的城市元胞自动机模型,通过模型与单元格级别的解释分析,改进了特征选择过程,揭示了空间异质性驱动机制,实现了更精准、可解释的城市扩张模拟,提出的SHAP解释框架具备显著创新性和实用价值。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多