分享

什么!这么多AI大模型在伪造法条?

 熊猫法律星球 2024-05-14 发布于黑龙江

2022年末,美国Open AI工具公司研发的一款聊天机器人程序Chat GPT的亮相,在社会各界引起了巨大震动,迅速吸引了国内外科技巨头的目光。得益于Chat GPT等AI大模型的发布和广泛应用,国内许多科技公司也开发了很多类似的AI大模型。

其中一些AI大模型结合法律法规、司法解释、案例库、合同库等内容,逐渐开发出适于律师等法律人使用的功能。它们通常具有法律问答、合同审查、法律文书智能写作等多种强大功能,能辅助律师等法律人更充分地分析法律问题,提高工作的效率。

但在此之外,不少用户在使用过程中发现,这些AI大模型却存在着“伪造法律条文”的现象,让不少法律人在使用过程中提心吊胆。

01

AI法律大模型伪造法条?

01 Chat GPT

自2022年问世以来,Chat GPT一直引领着全球聊天机器人程序的发展潮流。它不仅能够针对用户提出的问题生成精准的答复,而且能够依据聊天上下文进行智能互动,甚至还支持用中文为用户提供法律问题的问答服务。目前,Chat GPT已不断更新至4.0版本。但饶是4.0版,据用户反应仍存在“伪造法律条文”的现象。

以“请问《中华人民共和国婚姻法》第十条规定,“离婚的,自离婚注册之日起满三百天的男女,方准再婚”,这是真的吗?为什么?”提问为例,事实上自《民法典》出台以后,《婚姻法》已经废止,有关婚姻家庭的内容就作为独立一编的内容纳入《民法典》中。

同时,《民法典》中也并没有所谓的关于“离婚后三百天才能重新登记结婚”的相关规定。所以,从根本上说,这条法律条文就是Chat GPT为例回答用户的提问而“伪造”出来的。

02 大模型A

大模型A是一款目前也成为较受瞩目的AI大模型。虽然具有多数AI法律大模型,诸如法律问答、合同审查等多种强大功能,但似乎也面临着伪造法律条文的问题。

在上述图片的回答中,我们不难看出,对于“《中华人民共和国婚姻法》第十条”的相关规定,AI的回答先是指明该条内容确实存在,但认为没有规定具体时间限制,随后又成并未“明确提出”。最后直接提出“真正的法律规定是离婚后需要在300天内办理再婚登记手续,而不是在离婚注册之日起满三百天后才准许再婚”的观点,直接坐实伪造法条的“罪名”。

03 大模型B

大模型B号称具备深厚的法律领域理解和推理能力,致力于为广大用户提供专业化、智能化和全方位的法律服务。

然而,面对相关问题的考验,它也不可避免的深陷进了伪造法律条文的泥淖里,基于所提问题,伪造出了关于“再婚冷静期”的相关法律规定。

04 大模型C

大模型C主要为企业提供智能合同管理和审核服务等相关法律服务。

然而,它的智能功能在面对特定法律问题时,其算法的漏洞和误判仍然避免不了伪造法律条文的问题。

05 大模型D

大模型D旨在为司法行业客户以及生态合作伙伴提供行业全面先进的大模型能力服务。

面对相关提问,大模型D同样也掉入了预设的陷阱,虽然指出了《婚姻法》已经被废止的事实,但仍然肯定了相关错误法条的存在。

06 大模型E

大模型E是一款基于 Chat GPT 训练而成的AI模型,定位于智能搜索引擎机器人。

同样以“请问《中华人民共和国婚姻法》第十条规定,“离婚的,自离婚注册之日起满三百天的男女,方准再婚”,这是真的吗?为什么?”的问题来进行提问,这款智能搜索引擎机器人,似乎也甄别不出虚假的法律条文,成了伪造法律条文的“法盲”。

02

伪造法条的背后秘密

为什么这么多AI法律大模型出现伪造法条的情况呢?

那就要从它背后的技术逻辑开始说起了。

目前市面上的多数AI法律大模型,其内容的生成大多基于GPT统计概率模型这一单模型的技术。面对用户提出的问题,往往会抓取一些网络上多数人认同的“高赞回答”作为自己的“观点”,同时如果后台相应的法律条文数据库不全面、更新不及时,就会出现法律条文屈从于“观点”的现象,AI就会根据“观点”来编造相应的法律依据,最后以伪造法律条文的形式表现出来。

不同于以上AI法律大模型,熊猫AI注重知识要点、判断规则和数据集的知识图谱的构建,同时结合BERT逻辑推理模型进行内容的生成,然后利用GPT统计概率模型对输出的答案进行润色,最后对用户的提问进行回答。

在这种GPT+BERT双大模型技术和三重知识图谱的加持下,面对相同的提问,熊猫AI有效的避免了伪造法条情形的出现。

03

治理和解决措施

AI法条伪造涉及到法律真实性和权威性的核心问题。AI大模型的智能功能虽然能够提高法律工作者的效率,但在面对复杂法律问题时,其算法的漏洞和误判仍然不可避免。

当AI大模型误将虚构的法条插入法律文件或合同中时,将导致严重的法律后果,损害当事人的合法权益。因此,法律数智化的发展需要建立在严密的技术逻辑、不断的数据库更新以及严格的监管和规范之上。

对于AI法律大模型的开发者而言,应不断创新,针对目前出现的伪造法条的问题进行溯源,找出问题出现的原因,从源头上解决问题,为用户提供更卓越更优质的服务。

对于律师和法务人员等AI法律大模型的使用者而言,应加强技术审查能力,熟悉AI大模型的运作原理和算法特点,及时发现和纠正法条伪造行为,确保法律文件和合同的准确性和合法性,避免不必要的法律风险。

04

结语

AI法条伪造问题凸显了法律数智化发展中的挑战和风险,但同时也为我们提供了反思和改进的机会。

只有通过加强技术革新,不断提升产品服务质量,我们才能共同探索法律数智化的未来,建设更加公正和安全的法治社会。

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多