分享

贾常巍 周惠珍 | 《生成式人工智能服务管理暂行办法》要点解读

 新用户82908zIt 2023-08-27 发布于上海

目次

    
一、《暂行办法》的适用范围
(一)《暂行办法》适用的前提是向我国境内公众提供服务
(二)利用境外技术向境内提供服务需受《暂行办法》规制
二、《暂行办法》对人工智能生成内容的主要规制
(一)应当遵守法律、法规以及尊重社会公德和伦理道德
(二)不得侵犯他人知识产权及其他合法权益
三、《暂行办法》对生成人工智能服务提供者的具体行为规范
(一)提高生成内容的准确性和可靠性
(二)对人工智能生成内容进行标识
(三)针对未成年人设定防沉迷模式
(四)办理安全评估与算法备案手续
(五)履行服务平台的管理义务
四、具体建议
(一)聚焦生成内容安全,引导服务向上向善
(二)突出用户权益保护,保障服务合法合规
(三)强化服务主体责任,构建全面治理架构
五、小结


前言



《生成式人工智能服务管理暂行办法》(以下简称“《暂行办法》”)已于2023年8月15日正式生效实施。《暂行办法》系通过广泛吸收公众对《生成式人工智能服务管理办法(征求意见稿)》(以下简称“《征求意见稿》”)的反馈意见修改而成。与《征求意见稿》相比,《暂行办法》更加体现了现阶段相关监管机构“发展与安全并重”的治理原则,强调鼓励技术发展与创新,从原理和制度两个层面统筹促进实现规范治理与科技创新的平衡,既为产业创新提供了政策导向和法律保障,又为产业监管提供了科学合理和平衡适度的框架,为我国生成式人工智能服务的健康发展提供了有力保障。
这一重要法规的出台,为生成式人工智能服务的进一步发展提供了明确的规范和指引,标志着我国在生成式人工智能服务管理方面取得了重要突破。未来,随着技术的创新度和社会的接受度不断提高,生成式人工智能将在更多领域发挥重要作用,为人们的生活带来便利和效益。本文拟对《暂行办法》中的核心要点进行归纳总结如下。

一、《暂行办法》的适用范围


《暂行办法》第二十二条对生成式人工智能的相关概念进行了界定:
生成式人工智能技术可应用于传媒、影视、办公、社交、电商等多个业务场景,当前代表性产品包括ChatGPT、Midjourney、Stable Diffusion、阿里通义千问、讯飞星火等。
《暂行办法》第二条对适用范围做了具体的阐述,规定该办法的主要适用对象为生成式人工智能服务,规制主体主要为利用生成式人工智能技术向中国境内公众提供生成式人工智能服务的主体。由此可归纳出以下两个注意要点:


(一)《暂行办法》适用的前提是向我国境内公众提供服务

首先,《暂行办法》明确了适用的前提是将生成式人工智能服务向境内公众提供,也就是向境内不特定主体公开提供。《暂行办法》第二条规定,行业组织、企业、教育和科研机构、公共文化机构、有关专业机构等研发、应用生成式人工智能技术,未向境内公众提供生成式人工智能服务的,不适用本办法的规定。这意味着内部训练或开发生成式人工智能服务,并不适用该办法的规定。此项规定体现了国家对各组织、企业及机构对人工智能技术鼓励研发及创新的积极态度。但需要注意的是,内部训练或开发生成式人工智能的行为虽然不受《暂行办法》规制,有关主体也应当保证训练数据获取的合规性及合法性,否则将面临侵犯他人肖像权、隐私权、商业秘密以及不正当竞争等的法律风险。


(二)利用境外技术向境内提供服务需受《暂行办法》规制

《暂行办法》并未将规制主体局限于中国境内的服务提供者,而是规定所有向中国境内提供生成式人工智能服务的提供者均受到本办法的监管。因此,对于境外服务提供者而言,不论是向境内直接提供服务,还是通过API接口或其他形式“封装”后提供“间接”服务,只要是向中国境内公众提供相关服务,均将受到《暂行办法》的监管及规制。若来源于境外向境内提供的生成式人工智能服务不符合法律、行政法规和《暂行办法》的规定,国家网信部门将通知有关机构采取技术措施和其他必要措施予以处置,采取的措施可能包括断开链接、下架App等。


二、《暂行办法》对人工智能生成内容的主要规制



(一)应当遵守法律、法规以及尊重社会公德和伦理道德

 

1

不得生成法律法规明确禁止的内容


《暂行办法》强调,人工智能生成内容需坚持社会主义核心价值观,不得生成煽动颠覆国家政权、推翻社会主义制度,危害国家安全和利益、损害国家形象,煽动分裂国家、破坏国家统一和社会稳定,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情,以及虚假有害信息等法律、行政法规禁止的内容。[1]

2

不得生成歧视性内容


在人工智能时代,数字技术成为歧视表达的新载体,嵌入人工智能的歧视隐匿到数字世界的角落悄无声息地侵蚀社会公平正义。国务院《新一代人工智能发展规划》(国发〔2017〕35号)以及中国电子技术标准化研究院《人工智能标准化白皮书》、国家人工智能标准化总体组《人工智能伦理风险分析报告》、国家新一代人工智能治理专业委员会《新一代人工智能治理原则》、全国信息安全标准化技术委员会秘书处《网络安全标准实践指南——人工智能伦理安全风险防范指引》等政策文件正在积极规划、倡导和推进多维治理人工智能的歧视问题。
《暂行办法》要求生成式人工智能服务的提供者在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,需采取有效措施防止产生民族、信仰、国别、地域、性别、年龄、职业、健康等歧视。[2]
生成式人工智能服务中的“歧视”,是指在算法设计、数据选择的过程中,整合、生产与分发内容中所产生的歧视,具体包含种族歧视、性别歧视、年龄歧视、地域歧视和职业歧视等。由于人工智能发展阶段和发展路径的特殊性,决定了其容易被现有歧视影响,主要原因在于:
一方面,现在仍处于弱人工智能阶段,人工智能智能按照开发者设定的逻辑运行,无法自主识别、修正开发者写入的代码中隐含的偏见;
另一方面,现今人工智能主要以深度学习(Deep Learning)算法为主,其底层逻辑是从结构化和非结构化的数据中实现特征提取、模式识别,亦即从具体样例中抽象出普遍规则指引实践,这种基于“大数据集”而通过自我训练、自我学习以形成“规则集”的过程,实质上是对于过往人类社会模式特征的总结并将其用于对未来社会的感知与决策,不可避免地复制并延续当前社会的既有格局与特征。[3]
经由上述流程,偏见与歧视得以代码化、数据化,成为人工智能的决策基础,基于此所生成的人工智能服务也将不可避免地输出歧视性内容与结果,这些隐形歧视将产生信息窄化与信息茧房的风险。因此,企业在开发生成式人工智能的过程中,在涉及模型构建、数据输入等步骤时需特别注意对歧视性信息的排查,及时进行修正。


(二)不得侵犯他人知识产权及其他合法权益


1

 不得侵犯他人知识产权


生成式人工智能技术的运行逻辑是在海量的数据训练和算法模型的基础上,对信息进行识别、提取、加工、处理后产出创造性的内容。在上述过程中,生成式人工智能在不同的运行阶段将面临不同的知识产权问题。在算法模型训练阶段,获取数据进行训练、调试阶段时面临不正当竞争等问题;在内容输入阶段,面临如何界定用户输入内容使用边界的问题;在内容生成阶段,面临生成内容的知识产权属性和权属以及生成内容侵权风险和责任承担的问题。特别是在内容生成阶段,人工智能所生成的内容极易与原作品产生强相关性,进而引发侵权被诉的风险。
因此,《暂行办法》规定生成式人工智能应尊重知识产权、商业道德,保守商业秘密,不得利用算法、数据、平台等优势,实施垄断和不正当竞争行为。[4]

2

不得侵犯他人其他合法权益


目前,司法实践中已经发生了多起有关人工智能技术侵犯他人肖像权的纠纷,值得关注。例如,在赵某涵与上海鱼腥草信息科技有限公司肖像权纠纷一案[5]中,鱼腥草公司以赵某涵的视频为底稿向用户提供AI换脸技术,用户在使用鱼腥草公司的软件后即可将视频主角的脸换成自己的。法院认为:“被告将原告视频中的形象“换脸”后上架供其注册用户换脸使用,破坏了原告肖像的完整性,系利用信息技术手段伪造等方式侵害原告的肖像权,应当认定侵害了原告的肖像权。”因此,除知识产权外,《暂行办法》还规定生成式人工智能需尊重他人合法权益,不得危害他人身心健康,不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益。[6]


三、《暂行办法》对生成人工智能服务提供者的具体行为规范



(一)提高生成内容的准确性和可靠性

由于生成式人工智能存在算法“黑箱”的特性,提供者无法控制生成内容的真实性,人工智能本身也不能对其生成内容的真实性与准确性进行验证,导致人工智能可能出现“一本正经地胡说八道”的现象,故服务提供者需开展严格规范的数据标注工作以提高训练数据的质量。数据标注是对未经处理过的文本、图片、音频、视频等非结构化原始数据进行框选、提取、添加标签、分类等加工处理,从而转变成机器可识别信息的过程,它是人工智能算法得以有效运行的关键,只有经过标注处理后的结构化数据才能被用于算法模型训练使用。数据标注对于生成内容的纠偏发挥着重要作用,有利于纠正人工智能自然存在的固有算法偏见,将生成结果引导至所需的正确方向。换言之,数据标注的质量一定程度上决定了人工智能学习结果的优良。因此,《暂行办法》第九条强调了数据标注的重要性,要求提供者应当清晰、具体、可操作的标注规则,及时开展数据标注质量评估,抽样核验标注内容的准确性,并要对标注人员进行必要培训,提升尊法守法意识,监督指导标注人员规范开展标注工作。


(二)对人工智能生成内容进行标识

针对目前服务生成内容难以被分辨,甚至出现技术被滥用、误用等问题,《暂行办法》第十二条规定,生成式人工智能服务提供者应当按照《互联网信息服务深度合成管理规定》(以下简称“《深度合成规定》”)对图片、视频等生成内容进行标识。
对于如何确认需要标识的场景和如何进行标识,参考《深度合成规定》中第十六条及第十七条的规定,可归纳出以下两个方面要点:
一方面,生成式人工智能服务提供者应当采取技术措施对使用其服务生成或者编辑的信息内容添加不影响用户使用的标识,并依照法律、行政法规和国家有关规定保存日志信息。[7]
另一方面,生成式人工智能服务提供者提供的服务可能导致公众混淆或者误认的,应当在生成或者编辑信息内容的合理位置、区域进行显著标识。关于何种服务可能导致公众混淆或误认,可参考以下几种情形进行确定:
①智能对话、智能写作等模拟自然人进行文本的生成或者编辑服务;
②合成人声、仿声等语音生成或者显著改变个人身份特征的编辑服务;
③人脸生成、人脸替换、人脸操控、姿态操控等人物图像、视频生成或者显著改变个人身份特征的编辑服务;
④沉浸式拟真场景等生成或者编辑服务;
⑤其他具有生成或者显著改变信息内容功能的服务。[8]

(三)针对未成年人设定防沉迷模式

《暂行办法》第十条规定了针对未成年需设立防沉迷模式,要求生成式人工智能服务提供者应当明确并公开其服务的适用人群、场合、用途,指导使用者科学理性认识和依法使用生成式人工智能技术,采取有效措施防范未成年人用户过度依赖或者沉迷生成式人工智能服务。对于如何设定防沉迷模式,可以参考《国家新闻出版署关于进一步严格管理切实防止未成年人沉迷网络游戏的通知》(国新出发〔2021〕14号)中的规定:一方面要严格限制向未成年人提供网络游戏服务的时间;另一方面,要严格落实网络游戏用户账号实名注册和登录要求。

(四)办理安全评估与算法备案手续

《暂行办法》第十七条对提供具有舆论属性或者社会动员能力的生成式人工智能服务的提供者进行了特殊规定,要求此类提供者应当按照国家有关规定开展安全评估,并按照《互联网信息服务算法推荐管理规定》(以下简称“《算法推荐规定》”)履行算法备案和变更、注销备案手续。
第十七条中的“具有舆论属性或者社会动员能力”可以参照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》(以下简称“《安全评估规定》”)的相关条款予以理解。具体而言,“具有舆论属性或者社会动员能力”是指提供公众舆论表达渠道或者具有发动社会公众从事特定活动的能力,具体包括开办论坛、博客、微博客、聊天室、通讯群组、公众账号、短视频、网络直播、信息分享、小程序等,以及开办提供公众舆论表达渠道或者具有发动社会公众从事特定活动能力的其他互联网信息服务。[9]实务中,如提供虚拟主播、AI聊天及社交、AI创作及教育等相关AIGC技术服务的从业者,被要求开展安全评估和履行算法备案的可能性较高。
关于安全评估,根据《安全评估规定》的相关规定,服务提供者可以自行实施安全评估,也可以委托第三方安全评估机构实施,[10]服务提供者主要对信息服务和新技术新应用的合法性,落实法律、行政法规、部门规章和标准规定的安全措施的有效性,防控安全风险的有效性等情况进行全面评估,经过安全评估,符合法律、行政法规、部门规章和标准的,应当形成安全评估报告。服务提供者重点评估内容主要如下:
①确定与所提供服务相适应的安全管理负责人、信息审核人员或者建立安全管理机构的情况;
②用户真实身份核验以及注册信息留存措施;
③对用户的账号、操作时间、操作类型、网络源地址和目标地址、网络源端口、客户端硬件特征等日志信息,以及用户发布信息记录的留存措施;
④对用户账号和通讯群组名称、昵称、简介、备注、标识,信息发布、转发、评论和通讯群组等服务功能中违法有害信息的防范处置和有关记录保存措施;
⑤个人信息保护以及防范违法有害信息传播扩散、社会动员功能失控风险的技术措施;
⑥建立投诉、举报制度,公布投诉、举报方式等信息,及时受理并处理有关投诉和举报的情况;
⑦建立为网信部门依法履行互联网信息服务监督管理职责提供技术、数据支持和协助的工作机制的情况;
⑧建立为公安机关、国家安全机关依法维护国家安全和查处违法犯罪提供技术、数据支持和协助的工作机制的情况。[11]
关于算法备案,《算法推荐规定》指明,备案主体为算法推荐服务提供者,备案的对象是算法推荐服务,具体的算法类别包括生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类等算法技术。[12]算法备案应通过互联网信息服务算法备案系统(以下简称“备案系统”)进行,网址为https://beian.。《算法推荐规定》对具有舆论属性或者社会动员能力的算法推荐服务提供者的备案内容作了详细规定,要求服务提供者应当在提供服务之日起十个工作日内通过备案系统填报服务提供者的名称、服务形式、应用领域、算法类型、算法自评估报告、拟公示内容等信息,履行备案手续。[13]值得注意的是,备案以“算法”为备案单位,而非以“产品”为备案单位,即对于同一产品中使用的不同算法,应分别进行备案,而所属不同产品使用同一个算法的,则仅需进行一项备案。

(五)履行服务平台的管理义务

由于生成式人工智能所提供服务的特殊性,服务提供者除需按照《暂行办法》第九条规定承担网络信息内容生产者责任外,还需根据第十四条、第十五条的规定承担服务平台的管理责任。对此,可将其分别概括为违法行为内容处置及报告义务与健全投诉举报机制义务两种类型。具体而言,违法行为内容处置及报告义务,是指生成式人工智能服务提供者发现违法内容的,应当及时采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施进行整改,并向有关主管部门报告。提供者发现使用者利用生成式人工智能服务从事违法活动的,应当依法依约采取警示、限制功能、暂停或者终止向其提供服务等处置措施,保存有关记录,并向有关主管部门报告。投诉举报机制义务,是指生成式人工智能服务提供者应当建立健全投诉、举报机制,设置便捷的投诉、举报入口,公布处理流程和反馈时限,及时受理、处理公众投诉举报并反馈处理结果。
此外,《暂行办法》此处所规定的管理义务与网络信息内容服务平台所应履行的管理义务相类似,可以参考《网络信息内容生态治理规定》第九条[14]的规定进一步完善平台的治理机制,通过遵守科学合法的规范、积极履行相关的管理义务以减少相应的经营风险。


四、具体建议



(一)聚焦生成内容安全,引导服务向上向善

生成式人工智能服务提供者需注意内容的合法合规性,也要注重提高生产内容的准确性和可靠性。
一方面,应当遵守法律、法规、社会公德及伦理道德,禁止生成法律法规明确禁止的内容,也不得生成含有歧视性的内容,需在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取有效措施防止歧视,还需注意所生成的内容不得侵犯他人的知识产权、肖像权、隐私权及名誉权等合法权益。
另一方面,生成式人工智能的技术原理决定其具有准确性和偏见层面的风险,服务提供者需制定清晰、具体、可操作的标注规则以提升生成式人工智能服务的透明度。


(二)突出用户权益保护,保障服务合法合规

生成式人工智能服务给社会大众带来方便的同时,也带来了新的安全问题与安全风险,结合其现有的技术特点可知,服务过程极易涉及用户敏感数据,故需对此进行重点保护。服务提供者对使用者的输入信息和使用记录应当依法履行保护义务,不得收集非必要个人信息,不得非法留存能够识别使用者身份的输入信息和使用记录,不得非法向他人提供使用者的输入信息和使用记录,以便为用户安全使用服务提供保障。此外,服务提供者需履行对用户的提醒义务,针对图片、视频等生成内容设置明显标识,防止出现技术被滥用、误用等现象。

(三)强化服务主体责任,构建全面治理架构

首先,服务提供者应依法承担网络安全信息内容生产者责任,履行网络信息安全义务,尤其具有舆论属性或者社会动员能力的服务是有关部门监管的重点,在提供此类服务时,服务提供者需就监管重点关注的高风险事项开展安全评估,及时进行合规自查和整改,并需按要求对训练数据来源、规模、类型、标注规则、算法机制机理等予以说明,及时办理备案手续,积极配合相关监管工作。
其次,提供者需明确并公开服务的适用人群、场合、用途,严格落实网络游戏用户账号实名注册和登录要求,并严格限制向未成年人提供服务的时间,通过采取年龄限制、访问控制、时间提醒等防沉迷手段防范未成年人用户的过度依赖。
最后,提供者除需承担网络信息内容生产者责任、履行网络信息安全义务外,还需履行服务平台的管理义务,如当服务提供者发现使用者利用生成式人工智能服务从事违法活动的,应当依法依约采取警示、限制、暂停或者终止向其提供服务等处置措施,保存有关记录,并向有关主管部门报告。总之,服务提供者需通过完善制度建设及操作规范等措施,建立合法合规的长效运行机制。

五、小结


随着技术的不断更新和迭代,生成式人工智能正给现代产业、教育、生活、娱乐、医疗等领域带来革命性的变革。技术的进步不仅为各行各业带来了新的机遇和挑战,同时也对相关管理规范提出了更高的要求。相关行业从业者应当持续关注国家的立法和司法动态,确保落实相应的合规要求,以便更好地应对生成式人工智能带来的挑战和机遇。

注释(上下滑动阅览)

【1】参见《生成式人工智能服务管理暂行办法》第四条。
【2】同注释1。
【3】参见李成:《人工智能歧视的法律治理》,载《中国法学》2021年第2期。
【4】同注释1。
【5】参见上海市金山区人民法院(2022)沪0116民初13222号民事判决书。
【6】同注释1。
【7】参见《互联网信息服务深度合成管理规定》第十六条。
【8】参见《互联网信息服务深度合成管理规定》第十七条。
【9】参见《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》第二条。
【10】参见《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》第四条。
【11】参见《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》第五条。
【12】参见《互联网信息服务算法推荐管理规定》第二条。
【13】参见《互联网信息服务算法推荐管理规定》第二十四条。
【14】参见《网络信息内容生态治理规定》第九条 网络信息内容服务平台应当建立网络信息内容生态治理机制,制定本平台网络信息内容生态治理细则,健全用户注册、账号管理、信息发布审核、跟帖评论审核、版面页面生态管理、实时巡查、应急处置和网络谣言、黑色产业链信息处置等制度。网络信息内容服务平台应当设立网络信息内容生态治理负责人,配备与业务范围和服务规模相适应的专业人员,加强培训考核,提升从业人员素质。




作者简介

贾常巍律师,北京金诚同达 (深圳)律师事务所合伙人
贾常巍律师在知识产权领域具有丰富的执业经验。贾常巍律师曾先后为众多国内外知名企业提供上百余起知识产权相关法律服务,其中代理及参与的诉讼案件多次被各级法院评为“知识产权典型案例”。
贾常巍律师尤其擅长互联网相关法律业务,例如游戏侵权、互联网新型不正当竞争、电商、新媒体侵权等各类网络侵权案件,以及网络安全、数据合规等相关法律业务。贾常巍律师能够准确把握客户需求,提供行之有效的整体解决方案。同时,贾常巍律师也密切关注高速发展的人工智能等新兴领域,经常为企业就相关问题提供法律意见。

联系方式:
+86-15013807561
+86-75522235827
jiachangwei@jtn.com

周惠珍,北京金诚同达 (深圳)律师事务所实习生,中南财经政法大学法律硕士。






🔍 【知产前沿特别推荐】 🔍

🌟 “合规plus” 🌟

全行业合规领域的新光点!

📜时刻关注最新的合规及监管动态
💡 为您解读行业最新政策,助您走在合规前沿
🛡️ 与“知产前沿”媒体矩阵同行,为您的搭建知识产权与合规的双重保障

👉立即关注“合规plus”,共同开启合规新篇章👈

扫描下方二维码添加合规小助手,加入合规读者交流群,更有赠书、抽奖等精彩活动!

作者:贾常巍 周惠珍

编辑:Eleven

点击图片查看文章

(www.pharmaip.cn)

(www.meddeviceip.com)

(www.caiips.com)

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多