过年我们也没闲着,大年初一就来给大家更新一篇教程,零基础小白也完全没问题! 想象一下:
以后就不用担心了,因为Deepseek R1登场了!! 想必这几天Deepseek R1取得的成功已经在各位的手机中刷屏了。它在许多方面追平了OpenAI o1!更重要的是,它轻量!!它还开源!!! 话不多说,如题所见,我们直接开始教大家在本地部署Deepseek R1!零基础也完全没问题! 第一步:部署Deepseek R11.首先,搜索引擎搜索ollama,在官网上下载并安装到电脑上 2.安装完毕后,运行cmd终端。可以输入以下命令查看ollama是否安装成功。成功的话,会显示ollama的版本。 ollama -v 3.接着就可以用ollama下载部署deepseek啦。
我这里安装的是7b,我的显卡是笔记本版的3070ti,显存是8G。运行毫无压力,反应速度非常快。仅供大家参考! 当然,你的配置更好或者更差的话也可以选择其他的模型。据说1.5b模型,4G显存就能跑;7b、8b的模型,8G显存就能跑;14b 模型,12GB显存能跑;32b 模型,24GB显存能跑: ollama run deepseek-r1:1.5b 下载完后,发现出现了“>>>”,输入文字就可以对话啦!
想使用更多指令,可以直接在中输入 4.我们的目的是把deepseek接入Zotero,所以我们现在需要找到它的api。
找到了端口是11434 所以,我的API就是: http://localhost:11434(端口号) 只要本地启动了ollama服务,我们就可以用这个API在内网任意地调用我们部署的大模型啦。比如写进VSCode的Cline插件中辅助写代码~ 第二步:将部署好的Deepseek接入Zotero1.安装Zotero的GPT插件。现在Zotero中已经有GPT插件了,使用比较广泛的插件是Awesome GPT。可以在“Zotero中文社区”中搜到它,这里的下载安装就不细说咯 2.安装好后,在Zotero中按 3.接着就是在召唤的界面中填入你的模型信息。
接着,在插件中输入密钥。因为我们这里没有密钥,所以直接敲一个空格按回车即可: /secretKey 接下来指定要用的模型:
最后根据deepseek r1的官方README的推荐,把temperature设置在0.5~0.7(推荐0.6)。 /temperature 0.6 这就配置好啦! 4.最后,可以在插件中查看配置的信息:
测试一下功能我输入 非常迅速地得到了输出结果: 芜湖~~爽! |
|