![]()
(1)文献基本信息
(2)文献摘要翻译本研究旨在提升城市元胞自动机(CA)模型的可解释性,以确保其预测行为符合真实的城市扩展过程。然而,当前的深度学习(DL)驱动的城市CA解释方法存在三大问题:(1)解释过程与特征选择未有效整合;(2)不同模块输入的解释方法各自为政,缺乏统一;(3)缺乏针对单元格级别的解释,无法揭示空间异质性发展模式。为此,本文提出了一个基于SHAP(Shapley加性解释)的方法框架,解决上述难题。该框架首先使用模型级SHAP重要性来筛选不同模块中最关键的特征,再借助单元格级SHAP值揭示空间异质的城市扩展驱动力。实证研究以中国东莞市为例,构建卷积神经网络-元胞自动机(CNN-CA)模型,并通过实验证明:(1)基于SHAP的特征选择可提升模型精度,FoM提升3%,优于多种传统方法;(2)SHAP可整合地衡量不同模块特征的重要性,物理因素影响最大,邻域效应次之,接近度和可达性影响较小;(3)单元格级别解释有效揭示局部驱动机制,比如在松山湖工业区,靠近主干道成为扩张的主要推动因子。 (3)核心内容整理引言文章首先介绍了城市快速扩张对环境、健康等造成的影响,强调模拟城市土地利用变化(LUCC)对于可持续发展的必要性。城市CA模型因能模拟空间自组织过程而被广泛使用,但在引入深度学习之后,其“黑箱”特性限制了模型的可解释性,尤其在特征选择、模块整合和空间异质解释方面存在显著缺陷。 方法提出了一个SHAP驱动的解释框架,包含三大步骤:
结果
讨论验证了所提SHAP框架在三个方面的有效性:提高深度学习CA模型性能、统一解释不同模块影响、揭示局部空间驱动力。也指出了目前存在的不足,比如未使用更精细的递归特征消除法(RFE),以及SHAP计算成本高、难以处理更复杂的长时序模型。 结论SHAP框架提升了深度学习CA模型的准确性与可解释性,能够有效整合特征选择、模块间权重分析和空间异质性揭示,为城市土地利用预测提供理论支持和技术工具。 (4)一句话总结本文利用SHAP解释方法,以东莞市为案例,研究基于卷积神经网络的城市元胞自动机模型,通过模型与单元格级别的解释分析,改进了特征选择过程,揭示了空间异质性驱动机制,实现了更精准、可解释的城市扩张模拟,提出的SHAP解释框架具备显著创新性和实用价值。 |
|
|