分享

人工智能在税务领域应用中的风险及规制

 湖经松哥 2023-02-16 发布于湖北



作者:

杨小强(中山大学法学院) 

王   森(中山大学法学院)






图片

现阶段,人工智能在税务领域的应用越来越广。“税收征管3.0”即是人工智能技术在税务领域的最新应用状态,旨在实现征管各环节的无缝衔接和零摩擦并减轻税收遵从负担。我国在执法、服务、监管等税务场景中都有关于人工智能的辅助应用,税务算法也从机器学习模型向多层神经网络等复杂模型升级。伴随着人工智能深度嵌入经济社会治理等领域,世界各国纷纷就人工智能风险的规制问题进行了针对性的立法与实践探索。其中,欧盟的《一般数据保护条例》和德国的《德国税收通则》等对人工智能在税务领域的应用边界及使用条件作出了限制,并引起了学术界的高度关注和广泛研究。相比之下,我国对人工智能在税务领域应用的风险研究多停留在宏观层面。有鉴于此,本文在剖析人工智能在税务领域应用方面存在的主要风险与问题的基础上,从法律层面与技术层面探寻风险的形成机制,并通过考察域外经验,提出规制上述风险的法律因应之策,以避免人工智能技术的异化风险。

一、人工智能在税务领域应用中的风险

从技术上讲,人工智能应用的本质是数据驱动和算法支撑,包括“数据处理”与“模型运用”两个阶段。随着人工智能参与税收治理广度和深度的不断提升,一系列实践经验表明,人工智能技术带给我们便捷和高效的同时,其在实践层面还潜藏了诸多风险。具体表现在数据管理风险、“技术鸿沟”风险与应用伦理风险三个方面。

(一)赋能层面:数据管理风险

1.数据质量难以保障。数据是一把“双刃剑”。人工智能技术的应用依赖于海量数据的“投喂”,各国在人工智能应用初期往往以拓宽数据量为主要任务。随着数据挖掘和大数据分析技术的发展,数据量已经不再是阻碍人工智能应用的重要因素。相反,受数据来源泛化以及缺乏可验证性等因素影响,数据质量的高低将直接决定人工智能应用的准确性。当前,数据质量并没有统一定义。从科学决策的目的看,税收数据并非没有瑕疵,具体可以分为客观存在的数据瑕疵和填报错误导致的数据瑕疵。一方面,纳税人的错误申报、数据的重复采集以及缺漏会影响税收数据的质量。目前,我国各个税种之间尚未实现“一个平台式申报”。由于各部门之间的数据壁垒尚未完全消除,在数据共享并不理想的情况下,有碍于不同税种数据的融合,影响数据的准确性,进而影响税收决策的正确性。另一方面,数据的内生偏见也会影响数据质量。数据偏见来源于多种因素,如数据样本量的不平衡、数据受到污染等。在数据交换更加普遍、及时的人工智能时代,使用低质量、过时、不完整或不正确的数据,会加速导致不良的预测和评估,最终可能侵犯纳税人的基本权利。

2.数据隐私受到威胁。有学者预测,在未来25年内世界会出现一个“税收监控系统”,人工智能技术应用下税务部门权力的扩张使得纳税人隐私保护变得更加迫切。隐私权是数据主体的一种信息自主权,强调控制政府机关和私人实体收集并处理个人数据。一方面,数字化背景下,税务机关为实现精准监管而拓宽了数据来源,不可避免地扩大了对纳税人数据的收集和处理,由此引发了纳税人对隐私的担忧;另一方面,由于税收数据具有较高的实用性与延展性,正成为数据泄露的重要领域。据美国国内收入局(IRS)报告,每当纳税节点临近,黑客侵入税务部门网络的风险将会增加,以获得纳税人的申报信息。当前,我国涉税信息系统和平台较多,各个平台信息的管理标准尚不统一,可操作性不够强,无形中增加了数据的遗失或被篡改风险。

(二)应用层面:“技术鸿沟”风险

1.加剧征纳双方信息不对称。机器学习、神经网络等算法的发展,简化了纳税程序,跨越了物理空间的束缚,营造了一种高效、快捷的税收征管场景。然而,新一代人工智能技术在税务领域的进一步推广应用加强了税务机关与纳税人之间天然的信息不对称。人工智能时代,正当程序理论与时俱进,形成了“技术性正当程序”理论。技术性正当程序要求算法公开、透明和可问责。然而,税务算法关涉国家征税利益,保密性要求不利于纳税人获取算法信息。以纳税人风险检测为例,税务机关通过对同类纳税人数据进行对比分析,发现其中的“异常值”,并根据纳税人的异常情况采取进一步的税务稽查或预防措施。为了避免算法披露会不利于税收征管活动,税务机关通常不会公开风险检测算法的运行规则。即使税务机关欲将算法决策依据及规则告知纳税人,也因算法复杂等技术原因而导致客观不能。

2.减损纳税人救济权。随着数字化进程的高速推进,纳税人所面临的专业化壁垒比传统信息化决策时代高得多。一方面,由于纳税人无法了解和还原税务机关作出决策的内部运行机制,纳税人质疑决策结果的能力将会分化,进而影响其救济权的实现;另一方面,囿于人工智能的不透明,税务干部自身对智能系统的设计原理、运行逻辑、决策依据等内容也无法深入理解,难以评估决策的准确性与可靠性,加之对人工智能的过度依赖,只能选择采用智能决策的结果,而无法向纳税人解释输入数据和输出结果之间的因果关系。

(三)结果层面:应用伦理风险

1.影响税收公平。鉴于人工智能在税收征管领域的高效应用,越来越多的税收征管活动开始借助人工智能辅助决策。然而,在提高税收征管效率的同时,人工智能决策也会使税收决策趋于“一致化”或“规范化”并忽略对税收个案中情景因素的考量,以致对个别纳税人作出不公正决策。例如,澳大利亚税务部门利用人工智能自动向纳税人收取所得税。纳税人因更换工作而在系统中登记了两个雇主,但现有技术无法自主识别两个雇主之间的关系,并错误地作出要求纳税人缴纳两次税收的结论。如果税务机关完全依赖和信任人工智能决策,缺乏个案情景考量,则会削弱税务机关的主体地位,导致不公正的税务执法,损害税收程序的统一性和合法性。

2.影响责任认定。在传统税务执法中,税务机关应当为决策错误承担责任。算法辅助税务机关作出决策,实质上仍然属于具体行政行为。然而,自动化决策由人工智能作出,并由税务机关发送,很难确定税务机关与算法产生的偏见或错误之间的因果关系。若长期缺乏自动化决策的详细规则,不明确自动化决策的效力,当人工智能作出错误评判时,税务机关和人工智能设计主体之间可能会因责任承担发生争议和推诿。

二、人工智能在税务领域应用中的风险成因

(一)规范层面:现行规定难适用

1.数据治理规则模糊。大数据时代,涉税数据管理主要体现在信息收集和信息保护两个方面。一方面,信息收集质量标准和范围的模糊阻碍了人工智能在税务领域的深度应用,也增加了税务机关违反比例原则、超出必要限度收集信息的风险。我国《个人信息保护法》确立了信息收集的最小化原则,并提出政府机关应当在法定职责范围内收集数据。最小化和法定职责旨在强调信息收集的必要性。同时,《个人信息保护法》《网络安全法》等法律也对信息收集质量进行了原则性规定,强调个人信息处理者需要保证信息的有效性,以免信息不完整、不准确。但信息质量标准具体为何,尚无明确规定,而且各个领域的数据质量也难以得到有效统一。这种模糊性阐述在“数据赋能”背景下显得“捉襟见肘”。《税收征管法》第六条强调了税务机关与政府其他管理机关的信息共享制度,与之相对应的纳税人数据收集标准的规定则尚付阙如。人工智能时代,数据挖掘技术的发展扩大了数据的收集范围,不仅传统意义上的纳税申报单、政府数据库、金融数据系统等包含在数据收集范围,社交媒体、电商平台等第三方机构也在数据收集范围内。涉税数据收集标准不明无法有效规制政府收集信息的行为。另一方面,纳税人信息保密范围不清,不利于涉税数据的安全管理。《税收征管法》第八条构成了税务机关保护纳税人信息的基本法律来源。根据《税收征管法实施细则》第五条,保密信息包括纳税人、扣缴义务人的商业秘密及个人隐私。但对于商业秘密和个人隐私各自包括哪些内容,《税收征管法实施细则》未作具体规定。不同的是,《民法典》第一千零三十九条强调,国家机关及其工作人员应当对工作过程中获得的隐私和个人信息数据保密。基于该条款,税务机关及其工作人员的保密内容除隐私外,也包括个人信息数据。保密范围规定的冲突,加大了税务机关实践中对数据保密的自由裁量权,不利于纳税人数据信息的保密。

2.算法解释规则不清。我国税务领域的算法解释受到《个人信息保护法》《税收征管法》以及《国家税务总局关于纳税人权利与义务的公告》(国家税务总局公告2009年第1号)等法律文件的约束。不过,我国算法解释规则仍然非常模糊。一方面,我国《个人信息保护法》第二十四条规定,对于对个人权益有重大影响的算法自动化决策,个人享有要求说明的权利。这成为数据主体有权要求信息处理者解释算法的直接法律依据。同时,《个人信息保护法》明确规定该法适用于政府机关处理个人数据的行为。然而,《个人信息保护法》并未就政府机关的解释内容划定范围。另一方面,《政府信息公开条例》和《国家税务总局机关政府信息公开工作规程(试行)》奠定了公开涉税信息的基础。算法作为税务机关进行税收征管的工具,也应当属于政府信息公开范围。同时,《税收征管法》第八条规定,纳税人和扣缴义务人有权从税务机关了解有关税收法律、行政法规和缴税程序的信息。同时,《国家税务总局关于纳税人权利与义务的公告》(国家税务总局公告2009年第1号)也明确了纳税人的知情权。但对于权利范围以及行使方式的规定还较为模糊。这使得税务机关在解释过程中拥有较大的自由裁量空间,不利于纳税人知情权、救济权等权利的行使。

3.纳税人救济规则滞后。人工智能时代,纳税人救济途径主要体现在对算法决策的知情以及质疑算法决策等方面。一方面,《个人信息保护法》第二十四条通过赋予个人拒绝“仅通过自动化决策方式”的权利以保证数据主体不受错误决策的影响。事实上,不论在税务领域抑或是其他社会治理领域,完全依靠人工智能自动化作出的决策几乎不存在。对《个人信息保护法》第二十四条“仅通过自动化决策方式”的解释将会影响数据主体救济权的行使。当前,世界各国在认定何为“自动化决策”时都存在困难。例如,德国联邦法院对“自动化决策”采用了限缩解释,认为任何最低限度的人为干预都可排除信息处理者的算法解释义务。不同的是,英国数据保护机构认为,如果人类对算法的干预无关于决策结果,则信息处理者仍然需要解释算法。人工介入标准的模糊不利于人类对算法决策结果的审查,使算法潜在隐患变成了实害风险。另一方面,决策结果公布后,纳税人质疑决策的途径、方式并不完善。一般而言,纳税人若对决策结果有异议,可以依据《行政复议法》或《行政诉讼法》提出复议或诉讼的申请。然而,在人工智能赋能税收征管的大背景下,纳税人对数据的获取能力和分析能力明显处于劣势,既无法在充分掌握信息的情况下与税务机关进行陈述、申辩,也无法有效分析税务机关所掌握数据以利用其漏洞维护自身的合法权益,行权方式不明会妨碍纳税人救济权的行使。

(二)技术层面:算法本身不完美

1.算法偏差困境。与人类决策行为不同的是,人工智能基于大数据和算法作出的分类、预判可以避免人类决策的自身情感与局限性。然而,算法在司法、警务、社会信用评价等领域的自动化实践已经表明,算法决策同样具有偏差,而且比人类决策更加隐秘。一方面,算法的相关性思维容易对某些纳税人群体产生偏见,进而影响税收公平。传统人工决策下,解释论证体现在法律与事实之间的因果推演。在算法辅助决策下,人工智能重在把握特征A与结果B之间的相关性,利用相关性对未来结果作出判断。问题在于,相关性不是因果性,仅从相关性推断因果关系可能会给纳税人贴上群体化标签。若仅基于“大概率如此”便认定具有相关性,则可能会忽略数据统计不到的例外情况,从而对部分群体产生歧视。另一方面,算法模型的数据选择、因素权重等会受到设计人员价值取向的影响。如果不加以有效评估控制,设计者的错误或偏见便容易嵌入算法模型之中。美国威斯康星州法院曾广泛使用的COMPAS算法仍是典型例证。实践中,COMPAS算法被用来预测刑事案件中被告再次犯罪的可能性,但因其过度依赖过去案件裁决而对部分被告作出了有偏见的预测。

2.算法黑箱效应。Berman(2018)较早考察了政府部门使用机器学习等人工智能技术导致算法黑箱的问题。算法黑箱是指,算法自动化产生了对人类有实质影响的决策,但由于算法运算规则和决策过程不为公众所知,从而影响了利益相关者的权利救济。广义上讲,算法黑箱既包括因技术瓶颈而产生的黑箱也包括因维护国家征税利益而形成的技术黑箱。一方面,随着算法在税收治理领域的深入运用,其模型日渐复杂。在监督性算法无法应对复杂的经济社会环境时,诸多国家的税务部门已开始在识别偷逃税领域使用无监督算法。无监督算法模型不受传统数据样本集的限制,可以自主升级、自主革新,使得编制算法的程序员也难以解释模型产生及运作的机理。另一方面,实践中,由于算法在税务领域的应用涉及税收职能的履行,考虑到公开算法后会导致纳税人与算法系统之间的不当博弈,税务机关通常不会向纳税人公开算法。例如,《德国税收通则》第八十八条第五款明确限制了纳税人对税务机关自动化决策的知情权,原因是税务机关认为公布算法信息可能危及税收的统一性和合法性。算法黑箱不仅使得纳税人无法直接参与税收决策的形成过程并获得决策结论的合理解释,也使得税务机关客观上无法有效质疑自动化决策,并容易受到自动化决策的控制和影响。

三、人工智能在税务领域应用中的风险规制

法治具有固根本、稳预期、利长远的作用,是规制风险的重要手段。在类型化分析了人工智能在税务领域应用中的风险及其形成机制后,法律规制的落脚点便一目了然,即数据治理规则、算法透明度规则以及人工智能适用规则。因此,必须通过法律对技术风险进行及时有效的回应,进而提高人工智能辅助税收治理的层次和效能。

(一)构建以纳税人为中心的数据治理规则

当前,在数据治理方面,有权利话语模式和外部监管模式两种进路。《欧盟基本权利宪章》将个人信息保护规定为欧盟层面的一项基本权利,并在第八条明确规定任何人都享有保护自身个人信息的权利。2018年,欧盟实施《一般数据保护条例》,通过赋予纳税人对数据使用的同意权、访问权、删除权、知情权等广泛的个人权利,以实现对数据全生命周期的保护,构成了税收数据治理的法律基础。整体而言,欧盟强调个人对数据的权利和信息处理者的义务,重在让公民控制自己的数据,并采取跨国行动防止数据滥用。税收数据治理实质上是通过赋予纳税人数据权利以为税务机关划定边界。与欧盟不同,美国的数据治理模式更注重外部监管,通过在法律中明确纳税人、税务机关以及第三方机构的责任,加强数据治理。美国没有像欧盟一样,制定统一的数据权保护法律。但就税收数据治理而言,美国联邦和州两级政府颁布的数百条法律都可以适用。我国在数据治理方面偏于注重数据的外部监管,如建立涉税数据质量全周期监控机制、设置数据质量管理员等。为进一步提升依法行政和执法水平,可以更多地从纳税人权利角度加强数据治理。

1.建立数据质量标准。要在统一数据平台和数据质量标准的基础上,实现数据的交叉检查和共享。现阶段,我国数据质量规则不足,需要我国以单独的“数据质量法”明确数据质量标准。美国国内收入局根据《数据质量法案》制定了涉税信息质量指南,允许纳税人查阅报税单、缴税记录以及公开税务案件的工作文件等,同时由财政部税务管理监察长(TIGTA)负责审计国内收入局是否符合《数据质量法案》的执行标准。通过监督机构支持数据质量管理,有助于扩大和维持数据质量标准执行,提高数据成熟度。美国通过立法形式明确数据质量标准,是保证数据质量的有效方式,值得我国借鉴。数据质量标准包括获得性、可用性、可靠性、相关性以及表现性等多个方面。数据标准的统一可以促进各数据平台的整合。与美国不同的是,欧盟的《一般数据保护条例》以数据主体和信息处理者对数据质量进行双重验证的方式保证数据的准确性和时效性,并通过明确数据主体对个人信息的知情权和修改权,及时修改、更正错误的数据。同时,大数据分析证明,这项操作不仅不会增加税务机关在纳税人数据质量合规方面的实质性负担,还可以在一定程度上提升数据的准确性。我国可以借鉴欧盟做法,在定期开展数据质量监管检查之外,发挥纳税人对数据信息的核查、修改作用,以保证数据的有效性。

2.完善数据隐私保护。面对数据隐私泄露事件频发,相关国际组织和部分国家为纳税人提供了诸多救济途径。例如,欧盟《一般数据保护条例》第三十四条明确了信息处理者应将个人数据泄露事件告知数据主体;美国则通过在国内收入局官网公布纳税人隐私政策,利用隐私影响评估、隐私投诉机制、隐私保护年度报告等方式促进税务部门在保护纳税人隐私方面的合规性。我国《税收征管法》第八十七条规定,对违背纳税人信息保密义务的主管人员和其他直接责任人员给予行政处分。相较于欧盟的惩罚机制和美国的投诉机制,我国隐私保障方式还可以进一步完善。《民法典》第一千零三十九条强调,国家机关及其工作人员对在工作过程中获得的隐私和个人信息必须保密。因此,税务人员的保密义务具有民事义务的属性。在违反规定的情况下,纳税人有权要求税务人员承担民事责任。然而,依据行政法理论,纳税人不能对税务机关提起民事诉讼,而只能适用国家赔偿制度来寻求赔偿。当前,侵犯涉税机密信息的行为不属于我国《国家赔偿法》范围。因此,可以在法律中明确公共数据侵权的特别赔偿机制。同时,还可以在《税收征管法》及相关法律法规中明确信息泄露通知制度,便于纳税人及时跟踪信息安全情况。此外,还要对税务人员定期进行网络安全培训,通过发布网络安全指南的方式,在提高其安全意识的同时,提升数据安全管理的有效性。

(二)完善透明合理的算法规则

1.明确算法决策的解释规则。参与决策的人工智能应该是可解释的、可诠释的,或者是透明的,这有助于缓解征纳双方的信息不对称。但算法透明度与可解释性一直是困扰诸国税务算法实践的问题。欧盟的《一般数据保护条例》通过赋予数据主体算法解释权以提升算法透明度。然而,同为欧盟法律的《人工智能法案》则以外部监管的方式保证人工智能符合透明度要求。我国《个人信息保护法》第二十四条规定了类似于《一般数据保护条例》的算法透明度要求,但因解释规则不具体而欠缺可操作性。这就要求我国需在法律上进一步细化算法解释的内容。近年来,德国、西班牙等国家都相应调整了税收法典,以应对数字征管的需要。针对税务领域的特殊性,我国可以在《税收征管法》中增设智慧征管的针对性条款。税务算法涉及国家征税利益,算法解释并不要求税务机关对算法决策的技术细节进行披露,只需要在纳税人对算法决策存在异议时,税务机关可以对算法进行事后检查,并向相关纳税人作出合理解释,在确有错误时可由人工进行重新决策。在技术上,算法决策系统可以设置痕迹记录,以保证决策的可追溯性。作为公权力的算法,算法透明并非追求形式上的公开,而是通过公开加强算法决策的公平和正义。

2.完善算法决策的救济规则。研究表明,由于算法的高效性和内在逻辑的复杂性,人类倾向于支持自动化决策的结果,即使该结果与人类决策有差异。为了避免算法决策的不利侵害,可以从纳税人质疑算法决策、申请行政复议或诉讼以及第三方监督来保障纳税人权利。首先,对于使用算法辅助决策的决定,必须允许纳税人提出质疑,并可以申请人工干预,这是破除算法“迷信”的有力途径。为了防止纳税人被动接受算法决策,可以进一步明确《个人信息保护法》第二十四条确立的人工干预标准,即第二十四条的“仅通过自动化决策方式……”应包含纯粹形式上的人工干预。换言之,若税务人员仅在单据上签字或盖章,而没有对决策结果进行实质审查,则纳税人可以拒绝此项税收决策,并申请人工干预。其次,传统税收征管中,税务机关、税务人员需要依法接受纳税人的监督。算法时代,“技术鸿沟”的客观存在使得纳税人难以对税务算法系统及其影响进行评估。基于此,可以在行政机关内部设置专门的中立机构或委员会,负责对算法进行定期评估和监测,同时在算法不能提供预期结果时进行调整。最后,要重视行政复议和诉讼环节对算法公平的救济作用。算法辅助税务机关进行税收征管,并未改变税务机关所作决策的性质。倘若算法错误而作出有失公平的决策,相应责任也应由税务机关及其工作人员承担。由于征纳双方信息的天然不对称,加之“技术鸿沟”的客观存在,在举证责任的分配上或者在算法决策的解释上应本着有利于纳税人的角度来进行。

(三)构造公平的人工智能适用规则

1.加强算法伦理审查。为了保证算法的公平性和合理性,可以在相关法律中明确算法影响评估制度,通过将算法的事后监管与事前评估相结合,避免算法的内在偏见。这可以考虑在算法投入使用前设置纳税人投诉系统或开展简易听证程序,使纳税人能够真正参与到税务算法的论证环节。在算法运行后,可以确定税务算法决策影响评估机构,对算法进行实时监控,统一税务算法模型标准,促进算法的透明与公正。根据《新一代人工智能伦理规范》,可以从算法对经济、社会、政府管理、公民权利等方面的影响对算法进行定期评估和监测。若发现算法不能提供预期结果,则实时进行调整更新,以符合税务执法的需要。此外,还可以设置统一的算法透明度模板,由第三方机构开展算法审计。需要注意的是,在算法决策错误的情形下,责任的承担主体依然是税务机关。人工智能执法是受大数据影响,依据数学逻辑进行的法律适用。税务机关辩证地看待人工智能的决策结果,能够预防机械化的决策结果,最大限度保证个案正义,避免对纳税人的合法权益造成损害。

2.划定人工智能的引入标准。算法的相关性逻辑无法保障税务领域的“同案同判”,加之算法复杂化下黑箱效应的加剧,导致并不是所有的税务领域都适合使用人工智能。税收确定性是一个良好的税收制度应当具备的重要特征,旨在确保税收制度的明确、稳定和可预期。人工智能辅助税收征管作为我国新时期税收治理现代化的具体体现,也应当在税收确定性原则的指导下开展。具体地,可以在《税收征管法》或相关法律法规中,明确人工智能的应用标准。当前,无论在立法层面抑或学术层面均没有对人工智能的应用边界达成统一的认识。深圳率先在《深圳经济特区人工智能产业促进条例》中划定了人工智能的产业边界,特别指出应加快人工智能技术在税务领域的融合应用。在翼收银(eKasa)案中,斯洛伐克宪法法院依据税收法定原则,强调了“限制公民基本权利的应用必须由法律予以规定,使其运行可以预测”。在公共行政领域应用新技术,不能以牺牲公民权利为代价,更不能导致其决策无法解释和说明,这不符合公法上的比例原则。我国可以从是否对公民的权利产生影响、是否对税收公平等原则产生影响等因素考量人工智能的引入领域,同时由独立于税务机关的第三方机构负责人工智能的准入审查。

(本文为节选,原文刊发于《税务研究》2023年第2期。)

图片

图片
图片

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多