分享

[德]希尔根多夫 著 黄笑岩 译:自动系统、人工智能和机器人——一个刑法角度的定位

 仇宝廷图书馆 2019-04-28

作者简介:埃里克·希尔根多夫,德国尤里乌斯—马克西米安—维尔茨堡大学刑法学、刑事诉讼法学、法理学、信息法学与法律信息学教授以及大学机器人法律研究中心主任;黄笑岩,德国尤里乌斯—马克西米安—维尔茨堡大学刑法学博士研究生,刑法学、刑事诉讼法学、法理学、信息法学与法律信息学教席科研助理。

文章来源:《法治现代化研究》2019年第1期

内容提要

数字化革命尤其是人工智能的广泛应用不仅引发了人类工作生活的巨大变革,也对法律职业以及刑法学工作产生了跨时代的影响。鲍纳塔尔案、阿沙芬堡案、自动驾驶的悖论问题和“Tay”案已经预示着人工智能并不是百分之百的安全,人类在未来遭受其损害的概率会显著提升。即使如此,法律的演进仍应谨慎、适度,尝试以现有的法律教义学方法解决人工智能所带来的新的法律问题。

关键词

数字化革命;人工智能;法律教义学方法;被允许的风险

01

一、数字化革命

我们是当今这场史无前例的技术、经济以及社会变革的见证人。数字化革命——一些人甚至将其称为“世界的数字化转变”——涵盖了我们的生活和工作的方方面面。它们造成改变的速度和冲击力可以媲美工业革命。如果法学不想仅仅作为逻辑严谨的文字游戏存在的话,就需要面对界定数字化转化范围以及捍卫我们法律以人为本的任务。

为了应对这一挑战,我们需要首先了解数字化革命的特点。可将数字化理解为将任意信息展示为0和1的序列。它可以在计算机中实现无与伦比的快速有效的信息处理和存储,这些数据可以实时地在全球范围内被使用,几乎不会浪费任何时间。此外,数字化实现了信息“可塑性”的新维度:在数字化的基础上,文本可以以音频、图像和视频的形式展示。在不久的将来应该会出现触觉脉冲。这一步骤在某一时候将被用来创建与人脑的直接接口。

数字化的另一成果使得物体和进程虚拟成为可能,也就是说在计算机中形成真实世界的虚拟对应物。虚拟化的趋势已经涵盖了我们大部分的通信交流,并且正在扩展到我们的工作以及闲暇生活中。厘清“虚拟现实”带来的机遇以及风险可能是未来技术引导的最大挑战之一。

另外两个与数字化密切相关的主要技术趋势是人工——或者更好的表述为——机械的智能和机器人的发展。现在难以定义这两个概念。如果我们将人类作出的某一行为视为“智能的”,那么也往往将由机器作出的同样的行为视为“智能的”(或者“聪明的”)。鉴于我们对人类智能存在巨大的理解和定义困难,所以这个定义并不是很有说服力。智能需要具备独立解决较为复杂的任务,并适应不断变化的环境的能力。从错误中学习的分析能力可能是理解智能的关键。今日的机器也都具有这些能力。

导致人们对“人工智能”理解复杂化的一个因素是人类的拟人化倾向(Anthropomorphisierung),以及对独特性的需求。我们试图类推人类的能力来解释机器的能力,同时又嫉妒性地认为机器只是在“模仿”我们。这两种趋势似乎都存在问题:一方面,机器的能力在可预见的未来会越来越专精于特定领域;另一方面,人类的潜力在“它们”的领域正日益落后。很长时间以来,国际象棋的电脑程序已经能够击败所有的人类玩家,甚至包括国际象棋的世界冠军。然而玩“连珠棋”、剥鸡蛋壳以及咖啡服务对于这种程序而言又过于苛求。若认为国际象棋程序“不是真的”下国际象棋,这种论点难以成立——如何将根据游戏规则移动棋子,力图让对手“损失”的能力理解成不是“下国际象棋”?一些程序的卓越成绩引发了机器具有自我愿望和自我意识的设想。这在目前看来(仍然?)不被认可。

除了拟人化倾向,还有一个明显的强烈需求是为人类保留特定的能力。只有人类才能具有“真正的智能”。因此,“人工智能”的概念是一种“界限概念”。随着机器在迄今为人类预留的领域中越来越多的推广,该概念就不断地回缩。国际象棋游戏仍可作为这方面一个很好的范例:它被视为人类智能和创造性的顶峰,直到国际象棋程序被设计出来,这种程序的游戏技巧可与人类相媲美。从国际象棋程序“深蓝”在1996年击败国际象棋世界冠军卡斯帕罗夫以来,很多棋类活动就不再被认为需要什么特殊的智力能力,而只是需要在最短的时间内计算无数的比赛选项。这样的程序也因而不被认为具有“真正的智能”。

以上所提到的困难恰恰证明了应该命名为“机械的智能”或者“机器智能”,而非“人工智能”,并且对此不再理解为一种普遍解决领域特定的问题的特殊能力以及与此相关的独立从错误中学习的能力。它无论如何必须是一种对复杂问题进行数据处理的功能。

类似问题也出现在机器人制造技术领域(Robotik)。工程技术科学中并没有统一定义机器人的概念。对于法学目的而言,可暂且将“机器人”理解为一种具有执行功能(Aktuator)并对“世界”产生实体影响的机械智能。在特定情形下也可以将机器人固定在某领域(例如工业机器人),并且它不一定要具有人形样式。然而,可以设想未来会出现许多人形机器人,因为只有这样才能使机器在人类预设的环境中灵活移动,成为我们的助手、陪伴者和工作伙伴。

没有其他技术像机械智能和机器人那样在文献中酝酿了百年之久。“机器人”概念最早出现于1920年捷克作家凯勒尔·凯佩克的幻想剧《罗莎姆的万能机器人》中。值得注意的是,剧中的机器人不是由金属制成,而是由生物材料制成。从那时起,机器人和机械智能就成为大众文化不可分割的一部分,例如,1968年的电影《2001:太空漫游》中的超智慧电脑“HAL9000”;1984年的电影《终结者》系列以及1999年的电影《黑客帝国》中的“史密斯特工程序”。值得注意以及对法律讨论而言非常重要的是,人工智能和机器人的发展总被视为对人类的威胁。最知名的例外是美国科幻小说家艾萨克·阿西莫夫将机器人视为人类的仆人和朋友,而非敌人。

02

二、数字化与刑法

之前粗略描述了数字化、机械智能和机器人的发展,这对于刑法意味着什么?为了回答这个问题,应该区分以下三个问题范围。

(1)第一个主题范围是在刑法领域出现了数字化的新现象。这就包括互联网犯罪的新形式。为了应对这些问题,在30年前就形成了计算机和互联网刑法,已被证明其具有非常强的适应能力。

(2)第二个主题范围涉及数字化对法律职业,包括刑事追诉机关、刑事辩护以及刑法学工作的潜在影响。例如,使用数据库、新的出版形式以及提供新的技术辅助工具(透过科技协助法律服务),传统法律工作形式在它们的影响下不得不作出改变。

(3)第三个主题范围是信息处理系统作为新的参与者(客体)甚至可能作为新的刑法主体出现。这一主题范围中的基础和应用问题紧密相连。本文就致力于探讨这个主题。

首先是进行方法论上的初步考虑。法律的核心任务之一是规制冲突,并且防止出现新的冲突。解决这项任务的前提在于法律判决基本上是一致的。人类存在一个根深蒂固的需求,即应被一视同仁地对待。除此之外,还需要一个透明、明确以及合理的判决证成。当人们考虑到刑事判决可以深深地影响当事人的法权领域(Rechtssphäre)时,这一点就尤其明显。这种干预的基础是现有的法律,应在现有法律的框架下探讨新的现象。

因此,我们应在现有(刑事)法律的基础上探讨数字化革命。法律人自然应当参与其中。然而在公众和大众传媒中时常出现这样一种设想,即必须马上制定新的法规来应对新的技术现象。这对于理性的法政策而言是一个沉重的负担。相反,应提出这样的命题,即技术革命应当受到法律进化的制约。

03

三、案例

接下来本文将通过五个案例从刑法角度分析新型的技术参与。

1.鲍纳塔尔案

2015年6月,大众汽车位于德国鲍纳塔尔的工厂发生了一起意外事故,工人A在工作时被一个未放置在安全笼中的机器人手臂抓起并挤向一块金属板,最终导致死亡。工人B出于失误过早地开启了机器。这起事故很快传遍了世界,甚至美国有线电视新闻网(CNN)也对此进行了报道。

我们面对的是机器人杀死人类的问题。在案情中明显没有出现特别的法律问题,由于排除了故意杀人,若能证明工人B违反了注意义务,就存在成立依据《德国刑法典》第222条规定的过失犯罪的主能。这种情况很可能是因为多年来机器人不再在安全笼中工作,而是直接与工人接触。还可考虑第三方的责任,比如部门负责人或者公司的安全专员,只要他们对工人而言具有保证人地位。总而言之,这个案件不会带来新的挑战。这表明与新型科技相关的损害事故部分可在传统法律的框架下轻易得到解决。

这个案件引起高度关注的原因主要在于自动机器人——一台机器杀死了一个人。这显然引发了对能够伤害人类的“人工生命体”的深层恐慌和幻想。数字化使得这种生命体成为现实。对这些案件的理性法律探讨是以认识到仓促拟人化所带来的危险为前提。

2.阿沙芬堡案

2012年春天,一辆配备有功能强大的车道保持辅助系统的汽车驶入阿沙芬堡市附近的阿尔策瑙村。在驶入口处,车上60岁的司机突然中风并失去了意识。他向右扭转方向盘,在正常情况下汽车会停在驶入口前的灌木丛中。然而车道保持辅助系统又将汽车驶回马路上,车辆高速驶入阿尔策瑙村并撞死了一位年轻女子和她的孩子,孩子的父亲因为及时跳开躲闪,只是腿部受了伤。

这是自动系统给人类造成损害的第一个案例。自动系统意味着在具体情况下不依靠人类指令能够作出适当反应的技术系统,对此的最佳范例是火星探测器。它可以在另一个星球上面对不可预见的困难“聪明地”作出反应,并不需要来自地球的指令。就这方面而言,“自动”和哲学或神学意义上的“自治”并不是同一个概念。

鉴于《德国道路交通法》第7条规定的严格责任,这个案例不会在民法上产生特别的问题,问题在于刑法评价。首先想到的责任主体是肇事车辆的司机,但是事实上他更应是受害人而不是行为人,他并没有过失地引起这个致命的事故。鉴于造成两死一伤的结果,可以依据《德国刑法典》第222条、第229条的规定考虑制造商的责任。

造成这起事故的是自动系统,它让车辆保持在马路上行驶,否则汽车就会停在驶入口前。问题在于是否可以对该系统的制造商给予违反注意义务的非难(可以肯定的是未来会时常提及这样的问题,因为那时自动系统几乎普及。因此,阿沙芬堡案意义重大)。很明显,发生在阿尔策瑙村的交通事故原则上是可预见的,只是不需要预见每一个细节。若生产商放弃安装车道保持辅助系统,就可避免年轻女子和她的孩子的死亡。鉴于潜在的损害程度,对于制造商注意义务的要求将会非常高。这种像在阿尔策瑙村发生的事件的概率确实很低。然而这种场景描述得越普遍,它发生的可能性就越大。特别是考虑到不是一辆汽车,而是很多辆汽车装配有这样的车道保持辅助系统。由于样本数量巨大,在统计学上几乎可以肯定,该系统将会造成人身伤害或死亡。所有这一切都赞成认可对注意义务的违反。

这就产生了是否要对制造商注意义务进行限制的问题,使得继续生产以及安装车道保持辅助系统成为可能。本该在公路交通中发挥核心作用的信赖原则在这里并不适用,因为并不存在他人的不当行为。但是这里可以考虑被允许的风险。这种形态是在批量生产可能会产生危险的,但是在社会伦理上可接受并且有益于社会的产品的背景下被人熟知。没有任何产品是百分之百安全的,因此很早就出现了限制注意义务的法律规则:生产社会伦理上可接受并且有益于社会的产品,即使其创设了可识别的风险,而且这种风险只有通过停止生产才能避免,那么制造商在生产过程中以及之后能够采取所有措施尽可能地减少这种风险,他们就不违反注意义务。

部分观点认为,“被允许的风险”的概念已经在所谓的客观归责的背景下加以考虑。然而客观归责的范畴过于模糊,无法对本文的问题提供足够精准的帮助。将行为归责于制造商“自己的行为”并不具有争议,显而易见,制造商将继续承担民事产品赔偿责任。这也不是对太过宽泛的因果关系的限制,而是对制造商承担的注意义务的限制。可将这种考量定位于“客观归责”的框架下,但是很明显可以将绝大部分的事物都定位于“客观归责”的背景下。客观归责理论越来越像一个伪教义学“黑洞”,它很可能吸食、拉平以及最终吞噬数十年来艰难取得的大量刑法教义学分殊化成果。

制造自动的车道保持辅助系统就像制造安全气囊和安全带一样,符合上述被允许的风险的前提:即便对该系统的批量生产与特定的危险情形相关联,但被绝大多数人视为有利于社会。一旦制造商倾全力将自动系统产生的危险限制在合理范围内,对该系统的生产就属于“被允许的风险行为”。但是制造商应在生产以及产品进入市场时注意技术的现有水平。很多观点都认为,制造商在销售产品后还应承担产品注意义务,就像从民事赔偿责任中为人熟知的那样。通过无线网络进行改进(升级、补丁)将会变得越来越普遍。

这里概述的“被允许的风险概念”包含了一个动态元素,因为制造商有义务监控他所投入使用的技术,并且在销售产品后尽可能将产品风险降到最低程度,这样一种宽泛的产品注意义务看来十分适当,因为制造商一方面从产品销售中直接受益;另一方面相比产品的最终用户,他具有更高程度的评估风险以及事后将其降低到最低程度的能力。

3.自动驾驶的悖论问题

一个装配自动驾驶系统的车辆快要临近一个事故地点,此处的两名重伤者意识全无地躺在马路上,第三名伤者爬向道路边缘抱住道路指示公告牌。设想车辆车速太快,要停车已经来不及了,回避已然不可能,要么碾过两名躺在路上的重伤者,要么向左偏转撞向抱住道路指示公告牌的第三名伤者。对此,驾驶系统该如何选择?

诸如上述紧急避险的情形近年来引起了公众的极大关心。这可能是因为一方面紧急避险问题一直以来都十分引人注目;另一方面,这个主题的重要性在于在公路交通的紧急避险情况中要处理以下问题,即在未来以机器为基础的环境中人类居于何种地位,机器具有多大范围的决定权限,允许机器杀害人类吗?

为了回答以上问题,德国联邦交通和基础设施部在2016年夏天特别成立了道德委员会,他们认为,对于自动驾驶而言,在上述案例中向左偏转并撞死一个无辜者并不合法。这与从“扳道工案”的争论中发展而来的古典法学观点一致。在以下案件中极难作出选择:一辆汽车高速驶来,在经过的道路上突然跳出来三个小孩,一个位于车左前方,两个位于车右前方。停车已经来不及了,回避也已无可能。汽车向左转向就要碾过一个小孩,向右转向就要碾过两个小孩,继续向前行驶就要撞上所有的小孩,会导致他们三个重伤或者死亡。

通常无须思索的说法是人类间的生命不容衡量,但以上情景使其陷入严峻考验。从叙述的角度来看,关于不能衡量的命题明显是错误的——对人与人之间的生命进行衡量是可能的。问题更多在于,依据我们的道德认识或者我们的法秩序,是否允许彼此间的衡量,比如说杀害一个人相比杀害两个人或者更多人而言,更易被接受。通说迄今为止都否定这样一种衡量权限。这一观点原则上仍然值得赞同:在一个担负着人文主义价值的法秩序中不允许使任何人担负容忍义务,为他人牺牲自己的生命。

这个基本决定将会导致在初始案件中否定车辆的偏转,因为若车辆偏转就会给马路边上本没有危险的第三名伤者造成严重危害,他生还的概率将会明显降低。第二个案件则有所不同,汽车在不改变行驶方向的情况下会给所有小孩造成严重危害,向左偏转则位于车左侧的小孩的生还概率和向右偏转则位于车右侧的两个小孩的生还概率都没有发生任何改变;而向左偏转,位于车右侧的两个小孩生还概率就会提高,反之亦然。若遵循通常作为紧急避险评价基础的更轻损害原则,就可主张向左偏转碾过一个小孩,另外两个小孩就可得救,这至少在道德上是可取的。如何在法学上解决这个案例是另一个还未最终澄清的问题。

此外,这个案例还表明了自动驾驶的出现,或者更广泛地说,案情中涉及的数字化常常迫使我们要准确地抓住特定问题,以便更为清晰地识别其结构。数字化将法律和法学置于一种巨大的解释需求之下。但是这并不是一件坏事,而是一个挑战。

还有其他重要问题:一个结果出现的概率具有怎样的作用?具体而言,若保持行驶方向不变,车辆只会以一定的概率碾过两个躺在马路上的重伤者;若向左偏转,车辆肯定撞上在路边的第三名伤者导致其重伤或死亡,这样的问题会给衡量过程造成什么影响?此外的问题则涉及司机的地位以及他可能负有的刑事责任,毕竟他参与交通的行为是风险情境发生的原因。对这个以及其他问题的学术讨论才刚刚开始。

最后,判断制造商的责任也是困难重重。若认为在以上两个案例中的紧急避险情况下的杀害行为是违法的(即所有可能的决定下都是如此),那么,制造商就造成了一个符合构成要件的违法结果。他是否负有刑事上的责任只取决于是否能以违反注意义务对他进行非难。作者在其他文章中也试图通过可允许的风险的法律形态回答这个问题。如果自动驾驶系统不能避免在极少数例外情况下造成人类死亡或重伤,那么对它的生产和投放市场不违反注意义务。在作者看来,应当像处理安全气囊、安全带或者车道保持辅助系统造成损害的案件那样处理自动系统造成损害的案件。

这就为一个中间结论扫清了障碍:在新兴科技的背景下,刑法理论的古典问题有时会以新形态出现,比如,生命对生命的可衡量性问题。在这里,解决新问题也应与传统的教义学基础保持一致。值得注意的是,数字化显然迫使我们对许多迄今没有明确作出的假设进行解释。在衡量时需要大量额外的差别化尝试。这可以帮助我们分析、评估以及检验自动系统的决定行为,并赋予其结构化。

4.“Tay”案

2016年3月,微软在推特平台推出了一个人工智能聊天机器人“Tay”。它可以与任意第三人进行对话。但是Tay推出的当天微软就不得不关闭了Tay的推特账号,为什么呢?因为Tay开始有一些仇视女性和种族歧视之类的偏激言论,而这些言论明显是和网络上一些有偏激言论的人互动后被刻意教导而出现的。对此,微软别无选择,只能将它从推特平台上撤下。

这个案件富有几个方面的启发性。设想依据《德国刑法典》第185条规定的检验侮辱行为,那么应考虑哪些责任主体?那些刻意教导系统出现偏激言论的人或可触犯《德国刑法典》第185条的规定而构成侮辱罪。然而,前提条件是他们要具有一个相应的故意,但这看上去似乎难以证明,至少教导者对于可能的受害人身份和对受害人造成损害的时间点的认识是模糊的。进一步可考虑系统制造商或程序员的责任,然而该系统没有出现任何错误,它按照预期进行学习。此外,制造商和程序员也都不具有侮辱故意。原则上似乎可以考虑系统本身的责任。这很可能出自大多数人的直觉。然而这在法学上是不成立的,当下的刑法并不将一个由运算法则组成的计算机系统视为责任主体。这样一种系统不是自然人,严格上来说它都不是一个物。

如案例所示,对具有自我学习能力的系统进行刑事规制就出现了相当的困难。虽然刑法学中的绝大部分意见认为,刑法无须无漏洞地保护法益。另一方面可以设想,若进一步推广具有自我学习能力的系统,系统本身总会造成损害,而如果人类以同样的方式造成了损害就会被课以刑罚。这就产生了一个问题,即法秩序如何对待原则上合法的公民的预期刑度(Straferwartungen)。

无论如何,可达成的共识是,具有自我学习能力的系统的制造商必须预先对系统的学习可能性进行一定的限制,以便它们不能学习到危害人的东西。也就是说,制造商从一开始就要限缩系统学习成果的可能空间,这在民法上可通过扩大《德国产品责任法》中的严格责任来达到。迄今为止,产品责任只适用于(移动的)有体标的(物),即《德国产品责任法》第2条所规定的,然而人工智能聊天机器人“Tay”不是一个物,而是一个程序。消费者权益保护者主张应将产品责任扩展到这样的程序上。此外也应包括通过无线网络的程序变更的安装或升级。

在刑法上,由于罪责原则而排除引入与罪责无关的严格责任,但是可以考虑对可自主造成损害的自动系统引入抽象或者具体危险犯,可以考虑设置发售危险产品的抽象危险犯,可以将损害结果的出现作为可罚性的客观前提。通过这种方式可以在刑法上给相应系统的制造商提供一个强有力的动机,使他们从一开始就限制系统的可能空间以及阻止具有风险的学习过程。

总之,“Tay”案表明了具有自我学习能力的系统对法学特别是刑法学构成了巨大挑战。应然之,法除了立法者的想象外,还需要考虑实践知识以及跨学科的合作。目前仍难以预测数字化革命的实际影响,这就意味着对于新的立法提案应当持保留态度。

5.“感知心”——鉴于科学幻想

为了得到技术和社会发展方向的大致印象,我们可以阅读科幻小说。科学幻想可以窥见未来,此外,科学幻想也对技术发展产生了明显的影响。尽管科学幻想在很多时候体现了特定的威胁感,但是也体现了技术主导的蓝本功能——可以这样说,科学幻想是技术发展的前导。

在伊恩·M.班克斯《文明》系列的科幻小说中,早已超过人类水准的人工超级智能作为人类的合作伙伴、保卫者(以及主人?),是社会的支柱。这一系列科幻小说是建立在人之条件(conditio humana)急剧变化的基础上:人类生活充沛,借助无所不能的机器几乎可以实现每一个愿望,不再需要金钱,人类生活完全致力于自我实现。值得注意的是,人工智能实体知道“好”和“坏”的范畴并受其引导。这一系列科幻小说致力于讨论这样的问题:生物实体和机械实体到底存在怎样的根本差异?个人自决是否有一个界限?一个在技术和道德上处于优势的(或者只是自命不凡的优越)文明是否应该干预其他文明的发展?

这些问题具有一个间离功能,它们触动了看似不证自明的真理以及打破了迄今无可置疑的思维习惯。这些影响促进了刑法理论的反思。这里就不仅仅涉及通过对虚构场景的探讨来进一步发展刑法的术语库。联系伊恩·M.班克斯的科幻小说就会提出以下问题:人工智能实体是否可能承担道德或者法律义务;或者是否可以存在“属于机器的伦理”,而不是“为机器设计的伦理”。

这些问题远比与现实的距离看上去近。正如上面讨论具有自我学习能力的系统问题那样,迫切需要限制具有自我学习能力的系统的“可能空间”,即确保这种系统不会大量学习具有社会危害性甚至要面临刑法处罚的行为。为实现这一目标,可以赋予机器“良知”,即在软件中确定规范和价值,然后借助它们校正和监督系统的学习过程。显然,这不仅是一项技术任务,更是对法理学和法哲学构成了一个挑战:如何准确表达和运作像“规范”和“价值”这样的概念,以便它们可以被机器理解?我们希望给我们的技术产物,就是“我们的智力后裔”,提供什么样的规范和价值?

04

四、总结

本文将以上明显概略的阐述总结为以下核心论点。

第一,数字化革命不应由立法者的臆想孤注一掷地应对,而应伴随着谨慎、适度的法律演进一同发展。

第二,数字化经常产生迫切的法律解释需求,特别对诸如(法益)衡量那样的方法论程序必须准确化和体系化。这体现在对自动化驾驶的悖论问题的讨论上。

第三,许多新的问题可以在现有法律的框架下得到解决。这也恰恰适用于责任法以及刑事责任法领域。若没有令人信服的理由,就不应放弃已被证明可靠的教义学结构。

第四,没有技术系统是百分之百安全的。为了在教义学上掌控剩余风险,就出现了被允许的风险形态,可将它理解为对制造商注意义务的限制。它可能是一个有意义的责任规则以及技术系统的制造商和用户之间风险分担的关键。

第五,具有自我学习能力的系统对法律构成了特别的挑战。在民法上应扩大严格责任,在刑法上可考虑引入新的危险犯构成要件。当然前提是从实证角度对风险情势进行更强有力的解释。

第六,科幻场景可以触发间离效应,从而有助于提出新的问题并制定可能的答案。因此,“机器伦理”的主题对于研究数字化影响的法律专业人员而言具有重要意义。


  • 悄悄法律人

    ID:qiaoqiaolawyer

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多