如果你是DeepSeek的深度用户,这些坑可能已经踩过了:虚构法律条文、编造案例、翻译及数据统计出错等。这些隐患不仅可能影响案件进展,还可能带来执业风险。 所以,法律人使用DeepSeek时,必须严谨审慎,避开“天坑”,才能发挥其优势。 本文浓缩了法律人在使用DeepSeek时必须避开的24大禁忌,助你安全、高效地驾驭这一强大工具。 文章有点长,毕竟浓缩了我们近3万字的手册中的内容,记得收藏起来,慢慢看。 (想要看完整版手册的小伙伴也可以直接戳下方链接购买,附录内容还有超干货等你来↓) 01 把DeepSeek当数据库做检索,查完直接用 DeepSeek擅长做推理、归纳、总结,但在检索方面,尤其是对精准性要求极高的法律专业领域的检索,我们还是得留个心眼。 DeepSeek的本质是语言模型,不是法律数据库。它的检索实质上还是在互联网上搜索相关信息,然后归纳总结,因此依旧存在检索到错误、过时信息的可能。 正确操作: 将DeepSeek作为“模糊搜索器”——输入精准指令,并在专业数据库中交叉验证结果,最后请团队成员人工复核。 02用DeepSeek生成法律文书,只改个名字就用 现在还有大量教程在教律师用DeepSeek写法律文书。但请注意,AI不是“法律文书自动售货机”,它的底层逻辑是模仿人类文书结构,而非理解法律要件。 AI很可能分不清“诉讼请求”和“炒菜放多少盐”的本质区别,遇到陌生案由时,不仅可能遗漏法律法规,甚至还会混搭不同法律领域的条款。 正确操作: 将DeepSeek作为“文书写作加速器”,输入正确指令,提供范例,并在完成后仔细检查,尤其是法律依据和关键条款。 03用DeepSeek快速生成案例比对、裁判规则分析和类案检索报告后直接应用 这么做确实能节省下来不少的时间,但是一细看就会发现问题贼多,比如:
为了解决这些问题,我们只能手动逐个核实案例。 正确操作: 给出正确的分析指令、核查原文信息、换一个AI交叉核验。 04直接用DeepSeek制定法律服务方案 AI生成的方案往往有一定的“AI味儿”,客户也不是傻子,他们本来也可能是使用AI的高手,很容易一眼就看出方案是AI生成的。 因为AI的逻辑是基于历史数据拼接,非从实际法律关系推理中推理得到的,看似专业的部分,实则是术语的堆砌。 且AI无法真正做到理解当事人的处境,而律师可以。 正确操作: 把DeepSeek作为没有想法的时候头脑风暴的工具,方案要结合具体案情调整优化,并在与客户沟通时强调定制化服务;拿到方案后多渠道验证并人工润色,确保语气严谨、内容符合客户预期。 05应付潜在客户的“白嫖”咨询 被“白嫖”是令几乎所有律师都头疼的问题,来自朋友、熟人、八竿子打不着的亲戚等等,都打着“有个简单问题想请教一下”的旗号,实际想让你免费帮他们解决法律问题。 有些律师懒得应付,干脆让DeepSeek回答,然后直接复制粘贴发给客户,这确实是一个不错的做法。 但是其实我们可以做得更好。 用AI应付“白嫖”咨询可能导致我们的专业价值被稀释,同时AI缺乏情感和同理心,无法满足客户的个性化需求,直接用AI回复也可能失去本来有希望签下的客户。 正确操作: 掌控人工沟通主导权,坚持“半AI半人工”模式,结合AI的基础部分进行个性化解答;设定“专业门槛”,并引导客户进入正式服务。 06 把客户发过来的文件不脱敏就上传给AI处理AI在分析链接、文件、提取信息等方面确实做的不错,用好了事半功倍,但涉及客户隐私的内容还是得多留个心眼,不然后果可能会很“刑”。 毕竟输入给AI工具的内容可能会被运营商收集、存储,甚至用于训练AI模型,你上传的文件或许就在不经意间暴露了客户的隐私信息! 脱敏也不仅仅是把名字一匿,在处理一些复杂案件时即使已经匿名化,一些关键细节没有处理,就仍有泄密的风险。 正确操作: 谨慎脱敏信息再上传给AI,或选择本地部署AI(需注意硬件要求),确保数据安全。 07 审查合同的时候,只是简单下达审查任务,不交代谈判背景和重点审查合同是一项关键且复杂的工作。 毕竟合同审查不只是当事人、标的物、数量等等,还需要考虑签约背景、强弱势地位等因素。 这些看似微小的细节,往往对合同的履行、双方的权利义务以及可能出现的风险等有着重大影响,而AI恰恰缺乏对这些细节的理解能力。 AI缺乏人类的思维能力和对实际情况的敏锐洞察力,同时其了解的事实情况有限,无法像专业律师那样综合考虑各种因素。 用AI审了一轮,拿到手一看结果,大失所望,最后还得自己从头来过。不仅浪费时间,还降低了工作效率。 正确操作: 可以给AI一些正确示例,同时校对结果。 还可以使用接入DeepSeek推理模型的合同审查专业工具,帮助用户在短时间内完成大量合同的审查工作。 08 案子拿到手直接让AI分析,被局限了思考框架,少了自己的思考DeepSeek用时不到60秒,就能给出一份只需要稍加润色,就可以使用的分析框架,无疑帮律师减少了工作内容。 既然如此,那能不能所有案子都让DeepSeek先跑一遍再上手做?这种'AI先行'的工作惯性是需要我们警惕的。 过度依赖AI分析可能导致法律思维钝化,限制独立思考能力。 另一方面,过早导入AI分析结论易形成认知锚定效应,削弱法律人独立构建论证体系的能力,且它的观点也不一定是正确的、完善的。(认知锚定效应是指人们在做决策时,会受到第一印象或初始信息的影响,从而对后续的信息产生偏差。当律师在案件初期就接触 AI 的分析结论时,很可能会不自觉地受到其影响,从而限制了自己的思维空间。) 正确操作: 先进行独立思考,再用AI辅助分析,并从精准度和全面度两方面审核结果。 09 忽略未联网状态下的信息滞后性AI数据更新滞后问题大家应该都有所了解了,比如,未联网状态的DeepSeek,数据库截止时间是2024年7月。 AI工具的训练数据是有时间限制的,而法律领域又是高度动态的,法律法规和司法实践经常会有新的变化。 未联网状态下,DeepSeek的信息滞后,可能导致引用过时法规、忽视最新司法解释、案例信息不全面等不利后果,影响对案件事实的准确判断。 正确操作: 联网使用AI,并用专业法律数据库交叉验证。 10 忽略联网状态下,AI信息整合了过多广告、质量差的信息AI搜索时网罗不同渠道、五花八门的信息,这样才能做到多方位多角度的输出。 很多人只看到它全面的信息搜集、整合能力,忽略了在这个海量信息数据库中除了有知识、有正向信息,还包含很多低质、广告甚至垃圾信息来干扰视听。 在我们的示例中就可以发现,搜索结果整合的网页中,几乎没有权威网站的信息。 正确操作: 复查AI引用的网页内容与来源,并明确指令排除某些网页作为结果来源。 11让AI独立进行法律风险评估前面也说过,法律法规更新换代太快、司法裁判案例也是每天在增加,AI未及时同步最新法律动态,会导致评估结果过时; AI也可能因数据不全面、算法局限性等原因,无法准确识别和评估所有潜在风险,导致评估结果不准确或不完整; AI还可能无法识别复杂案件中的细微法律问题,导致风险评估遗漏关键点;且AI的法律预测基于历史数据,可能无法准确预测新型或复杂案件的结果…… 最后,别忘了,如果AI的评估结果存在错误或遗漏,承担职业责任的只会是律师本人,因为AI没办法背锅啊。 正确操作: 是将AI作为辅助工具而非独立决策者,结合专业知识复核,定期评估AI的产出质量。 12 忽视AI生成内容的版权问题在“泰勒诉美国版权局AI绘画版权登记案”中,法院认为完全由AI生成的内容因缺乏人类创作贡献而不享有版权。 而在去年,北京互联网法院审理首个AI文生图案例中,认为AI作品中有作者个性化的表达,具有独创性,认可其享有著作权。 这些案例说明,AI生成的内容是否享有版权以及版权归属谁至今存在较大争议。毕竟AI生成的内容本就源于人类的智力成果,可能涉及第三方著作权侵权;同时,使用别人用AI生成的内容也可能构成侵权。 正确操作: 了解AI平台的使用条款,对生成内容进行实质性修改,保证原创性;反问AI,并反复确认不涉及版权问题。 13忽视AI生成内容的潜在偏见也许你觉得AI只是冷冰冰的机器,不会带有偏见或主观色彩?并不一定,毕竟AI数据库的来源就是人们先前的输出。 就算AI是“冷酷”客观的,谁能保证它生成的内容完全中立呢? AI的训练数据可能包含社会文化、语言、历史、行业和政治等很多方面的偏见,导致生成内容存在不公平倾向。 打个比方,AI的训练数据如果大多来自特定群体或地区,那就可能会导致生成内容偏向某一群体的观点或利益。 就法律领域来说,AI可能更倾向于生成基于某一法域或文化背景的法律意见,而忽略其他地区的法律实践,生成内容可能不符合多元化的法律需求,导致不公平或片面的结论。 正确操作: 加强人工审核,及时纠偏;同时律师本人也应保持中立立场,保证客观公正。 14直接用AI审核错别字AI审核错别字可不是审学生的作文,一个不留神就可能导致误判或专业术语处理不当。 例如,一些专业术语或特定语境下的用词,比如“定金”和“订金”,如果AI错误替换,必然会影响合同效力。 它可能将正确的字词误判为错别字,生僻字和专业术语上也可能被标注为非常用词。 最后,不仅没挑出bug还往里塞了几个bug。 正确操作: 初审先标注,可以通过指令明确不要改变原文,这时候如果有误判就能及时发现、提出,然后再针对其余部分进行修改。 重点内容手动核查,并结合语义上下文做出准确判断。 还可以建立法律术语白名单,这样就不用担心如“执业律师”“非诉”等明明是正确的专业术语被AI认为是非常用词了。 15直接用AI翻译专业法律文本无论是读文献自我提升,还是有涉外的案子需要处理,都绕不开法律文本翻译的问题。 *朝阳法院的正确英文翻译应该是“Chaoyang People's Court” 看完这个例子你就知道了,不加校验直接用大模型来做翻译,专业性是无法得到保障的…… 法律文本里专业术语尤多,AI翻译的不准,会扭曲相关方要表达的真实意思,还可能影响相关文本的法律效力。 这就是需要人工复核,人工来做翻译,体现人的专业水平的地方。 正确操作: 人工专业校验,留心可能有歧义的词句。 使用多个AI工具翻译方便多版本对比,最后结合法律背景再次审核。 16 直接用AI出具的数据做统计报告,而不查验数据原始来源法律领域,数据是否精准可靠至关重要。 AI可能会出错,这在法律统计报告里是不能容忍的。 之前看到的一些案例中,AI在处理复杂数据时可能会有偏差。AI模型可能因训练数据偏差、数据更新不及时、编纂数据等问题,导致出具的数据存在错误或偏差,影响统计报告的准确性。 正确操作: 从权威网站获取数据,多源数据人工交叉验证,同时结合自身专业知识审核。 而且,我们作为律师也要时刻关注数据的更新和时效性。 17直接用AI写的营销文案,而不看是否存在虚假宣传与过于绝对化的效果描述不能否认,DeepSeek在总结爆款模板方面确实有一套,以DeepSeek为辅助工具打造的爆款营销内容不计其数。我们当然可以把它应用在个人/律所的自媒体经营或业务营销方面。 比如让DeepSeek给某律所写一篇小红书营销笔记: 在这张的截图中如“98%胜诉率”、“3000+企业”字眼,确实够吸引眼球。但这种绝对化的口吻和虚假的数据,可能给自己带来风险,一不小心就构成虚假宣传,违反《广告法》。 除此之外,盲目相信AI的营销文案,也可能面临平台的监管处罚,下架内容甚至被封号! 正确操作: 理解营销的思维脉络而不是生搬硬套,从思路入手,先看爆款拆解,再结合自身情况创作营销内容,同时积极自查避免产生法律隐患。 18联网状态下,无法检索微信公众号生态里的内容微信搜索作为一个独立的生态系统,里面整合了公众号、小程序、视频号等各类内容,汇聚了大量优质内容创作者。 微信搜索靠前显示的内容,都是经过筛选后,受用户欢迎的文章。可能更加高质可靠。且微信搜索中的内容更新速度快,广告内容少,用户可以获取一手信息。 但因为数据限制,DeepSeek无法联网搜索微信公众号数据库里的内容。 正确操作: 我们可以使用腾讯元宝——它作为唯一一个接入微信公众号数据的AI工具,它的联网搜索覆盖了微信公众号、视频号等腾讯生态内容。而且,腾讯元宝也接入了DeepSeek R1。 19 因为DeepSeek官网经常卡顿,就以为用不了DeepSeek R1了经常用DeepSeek的小伙伴应该都没少看见这句话:“服务器繁忙,请稍后再试。”每次问两三个问题就被迫暂停了,真的特别影响用户体验。 DeepSeek官网之所以会出现卡顿,也是事出有因。 其一,春节前至今,网络攻击频繁,导致服务器负载过高。 其二,用户数量的高速增长也给服务器带来了巨大压力。 尽管DeepSeek官网可能会卡顿,但DeepSeek R1是开源模型,可通过第三方平台使用。 正确操作: 寻找“平替”,如腾讯元宝、纳米AI、秘塔AI搜索等,避免官网卡顿影响使用。 20以为用了接入DeepSeek R1的其他大模型,就获得了满血版DeepSeek紧接上一条,也许你已经知道这些部署DeepSeek R1的平台并已在使用中,又或者你刚刚看完上一条正准备去试用,我们都要再提醒你一点,有些平台即使接入了DeepSeek R1,也并不是满血版的DeepSeek,而是蒸馏版。 “满血版”DeepSeek指DeepSeek-R1 671B模型,这是DeepSeek系列中参数规模最大、能力最完整的版本,参数规模小的,还有32B和7B等版本。 671B、32B和7B模型的区别主要在于参数量大小、性能和适用场景:参数量越大,模型越“聪明”,但对硬件要求越高,推理速度越慢。 正确操作: 普通用户优先选择支持满血版的平台(注意部分平台可能宣传不实);对于开发者或企业用户,可根据需求选择参数更小的版本本地部署。 21以为本地化部署DeepSeek,就获得了满血版的DeepSeek前面在关于隐私保护的章节,正确操作建议中就提到了本地化部署,不过本地化部署到底是个啥? 本地部署就是将DeepSeek模型下载并安装到本地设备(如个人电脑、服务器等)上,使其能够在本地运行,无需依赖网络连接或第三方平台。 本地部署虽有数据安全和隐私保护优势,但对硬件要求高,可能会增加成本。 正确操作: 根据需求选择是否本地部署,避免因硬件不足导致性能下降。 对于处理敏感数据、打造自己的知识库、或需要高度定制化的律师或律所推荐使用本地部署 DeepSeek; 对于没有那么高需求的法律人,我们只要正确认识,不盲目跟风本地部署,按需选择就好。 22使用时加入各类提示词试图控制过程,而不讲清楚你的目标DeepSeek 是推理型大模型,如果连目标都不明确,它就难以准确理解用户需求,导致输出的信息可能与我们实际期望的相差甚远。 没有明确目标,模型不清楚需要涵盖哪些方面,可能只给出片面或零散的信息,无法形成完整、系统的回答。 DeepSeek 有深度思考能力,但不明确的目标会使模型无法确定需要进行哪些推理和分析,从而使其推理优势无用武之地。 用户需要反复与模型沟通,才能获得接近自己需求的答案,增加了使用成本和时间成本,使交互过程变得繁琐和低效。且如果长期获得不符合预期的答案,还怎么有心情继续使用呢? 正确操作: 拒绝无效提示词(如“最厉害的”),多用具体、简明扼要的方式说明。 多给背景信息,并及时反馈调整。 23一直在一个对话框里问问题,忽略大模型会在多轮对话后“发癫”DeepSeek有一个必须要大量实操才能发现的问题:对话越多,质量越低,越容易不按自己的指令行事,会发癫。 多轮对话后,DeepSeek可能会成为一个有点“疯癫”的大模型,不按指令行事。 这个时候,哪怕你想办法告诉DeepSeek,你错了,赶紧改一下,我重新给你范例和要求,也无济于事。 出现这个情况的原因目前还不清楚,但是这类情况不仅在DeepSeek上出现,在ChatGPT上也很容易这样。可能得原因是:它出现过一次不符合我们预期的回答后,这个回答成为了其短期记忆的一部分,这个不良影响比较难摸出。 至于解决,其实也不麻烦。 正确操作: 重开对话框,保存之前的提问文字和范例,以便在新的对话框里开始新一轮提问。 24付费买了多个大模型、课程,收藏了N篇使用攻略,但是自己一直疏于使用x度、小x书、x音上随便一搜,就是各种大模型指南、攻略、课程。 很多人刷到的时候眼前一亮火速点赞、评论、收藏、购买,秉持收藏了、购买了,就是学会了、赚到了,到头来只是徒留这些干货在收藏夹吃灰。 我们常说:“工具决定技能的下限,思维决定技能的上限。”有资料收藏癖,但就是一直不用,就算掌握再多“攻略”,你也没办法获取工具带来的价值。 尤其是对于大模型这类强大的工具,只有通过不断的实践和应用,才能为我们带来实质性的帮助。 正确操作: 每天使用,开发AI的使用场景;还可以加入学习打卡社群,保持学习热情。 25 结语 AI技术为法律行业带来了巨大的变革,但法律人必须清醒认识到,AI只是工具,不具备法律人的专业判断和职业道德。 在使用DeepSeek等AI工具时,要充分发挥其优势,同时警惕潜在风险。 法律AI的价值在于帮助法律人从重复劳动中解脱,将精力投入到更具价值的工作中。 因此,法律人要积极探索AI的应用方式,但更要保持谨慎的态度,确保每一次使用都符合法律和职业伦理的要求。 希望本文“避坑”的同时,能为法律人正确使用DeepSeek提供思路,让我们在AI时代更好地为客户提供专业、高效的服务。 |
|