分享

段伟文 | 迈向人工智能时代的美好生活之路

 道2和 2018-10-13


作者 段伟文 (中国社会科学院研究员)

责编 许嘉芩 刘愈


◆  ◆  ◆  ◆  ◆ 


人工智能的发展不是单纯的技术问题,而涉及诸多现有的伦理和法律难以规范的问题。自去年国务院颁布《新一代人工智能发展规划》以来,为了谋求科技强国和高质量的创新发展,中国在热情拥抱了新一轮人工智能热潮的同时,从政府部门到产学研各界对于人工智能发展可能引发的伦理和法律问题给予了高度关注,展开了广泛的讨论。

在道德伦理层面,人工智能与机器人带来了很多开放性的价值挑战与伦理冲突。一方面,大数据智能和机器人的现实应用促使人们开启了对智能化生活的伦理反思,从个人数据泄漏、短视频算法的误导、聊天机器人与智能音箱的不文明语言、人脸识别中的隐私安全到陪伴机器人与儿童和老人的关系,人们从来没有像今天这样不得不认真审度人与机器的关系。另一方面,在“人工智能来了,未来还需要我们吗?”的远虑的推动下,一时间《未来简史》、《今日简史》、《生命3.0》洛阳纸贵,“超级人工智能会不会碾压人类?”、“人类剩余优势清单”、“我们会不会成为无用阶级”成为街谈巷议,人们从来没有像今天这样从文明的主人会不会变更的角度关心未来。

在法律层面,人工智能与机器人的法律问题更是引起了法律界前所未有的关注。人工智能与机器人最让法律猝不及防的是,从无人驾驶到人工智能医生,它们虽然尚无自我意识,却在交通、医疗等领域成为涉及人身安全的行为的代理。不论人们将它们称为智能体还是“电子人”,它们都在一定程度上像人一样与人们互动,一旦出现安全事故和医疗事故,人们就会面对人工智能是否应该承担法律责任这一问题。如果法律上认定现阶段的人工智能尚不具备法律行为能力,就应该对相关人类责任主体做出明确界定。将来,随着人工智能和机器人的发展,如果人工智能和机器人能发展成为具有法律行为能力的主体,法律上应该进一步厘清智能机器应该承担的责任,并与相关人类主体的责任做出区分。而一旦认定了智能机器的法律责任,还要进一步确立智能机器如何承担由此应给予的罪责与惩罚。例如,如果机器人具有一定的主体性,人类与性爱机器人的关系就可能需要引入新的法律规范加以调节。

在现实层面,法律问题已经成为人工智能应用的发展瓶颈。其一是责任归属问题。以无人驾驶为例,人工智能的应用无人驾驶汽车在遇到安全问题时的责任归属成为制约其上路的关键因素。目前的很多无人驾驶汽车是在普通汽车基础上改装的,在发生事故时如何划分责任就成为法律和保险上的难题。类似的,美国的沃森医疗机器人虽然在“看片”上有优异的表现,即便其准确率可能高于优秀的医生,而一旦出现医疗事故如何追责就成为一个法律难题。其二是信任问题。不论是大数据预测犯罪、智能化人事简历审查还是机器人养老以及人脸识别在安全领域的应用,都存在着机器学习等智能算法的不透明、难理解和不易追责等问题,而这些问题最终会导致人们对人工智能应用的信任。如果不解决这些问题,人们对智能机器的信任就会大打折扣,人工智能的应用也难以推广。实际上,人工智能法规的合理制定,既是法律前沿的难题,更是人工智能技术亟待深究的重大课题,它们可能是人类有史以来最为艰深的法律创设。概言之,人工智能法律研究和法规创制绝非对人工智能的简单约束,而是人类社会能否实现智能化革命的关键性的“技术-法律”综合创新,是权衡人机关系的光电天平,是打开未来文明的大门的万能钥匙。

正是带着对这些问题的真诚追问,学界和业界正在努力追赶着人工智能发展的步伐。从赛迪发布的《人工智能创新发展道德伦理宣言》到国家标准委员会主导的《机器人伦理标准》和《人工智能伦理标准》的研制,从旨在构建世界智能联网汽车体系的《上海宣言》到法律界和腾讯研究院等对自动驾驶法规和人工智能审判的研究,中国正在以坚实的脚步迈向人工智能时代的美好生活之路。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多