你好啊,我是雨飞,见字如面。感谢阅读,期待我们下一次的相遇。 ![]() 1、Ollama、LM studio 这种一键安装 gguf 格式模型的软件,差不多可以实现 2 分钟完成本地部署 2、Chatbox 、CherryStudio、AnythingLLM 这种客户端软件,配合 ollama 可以进行可视化使用,并且添加 RAG 等功能。 今天给大家介绍下如何通过下载模型权重进行部署,包括 DeepSeek-R1 以及最新的 Janus-Pro 都可以按这个方式来部署。由于我们采用 transformers 下载了模型权重的方式部署,理论上所有模型都会支持,属于比较通用的方法,这个方法的缺点就是没有额外的加速推理的功能,推理速度会低于 Vllm、SGLang 等推理框架。 掌握了这个方法,你就又比别人更进一步。 一、模型下载 我们推荐国内用户使用 modelscope 去下载相关模型权重,下载速度更快、更稳定。ms 地址:https://www./organization/deepseek-ai 点击这个网址,就能看到 DeepSeek 的页面,红框里的模型就是我们熟悉的 R1 以及 Janus-Pro 模型,两者的下载过程是一样的,这里雨飞就以 Janus-Pro 为例,给大家演示下具体下载过程。 ![]() 点击下方网址或者从红框内容进入,找到 Janus-Pro-1B 模型,打开如下方所示的页面,点击如图所示的「模型文件」按钮。 网址:https://www./models/deepseek-ai/Janus-Pro-1B 注意: Janus 是多模态的模型,1B 大小的模型显存占用在 8GB。如果低于 8GB 的,考虑用云服务器,或者去部署 DeepSeek R1 模型。 我们推荐使用 Git 进行下载,这种方式更稳定,也比较常用。Git lfs 是用于下载大型文件必备的软件,可以根据下面所示的安装教程去进行安装:https:/// git lfs install git clone https://www./deepseek-ai/Janus-Pro-1B.git 执行上面命令,会在本地生成一个文件夹,等待下载模型完成。 二、环境配置首先,需要下载 Janus 的项目,网址:https://github.com/deepseek-ai/Janus 点击右上角的 Code 按钮,在弹出的对话框中点击「Download ZIP」,将项目下载到本地,然后解压缩到一个目录。 ![]()
pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
![]() DeepSeek R1 模型,目前只有后缀带 qwen、llama 的蒸馏模型可以在本地使用 transformers 进行部署,也就是可以参考我们上面的安装步骤。 以 qwen 为后缀名的示例代码可以参考这个网站: https://qwen./zh-cn/latest/getting_started/quickstart.html 成功执行后,可以在本地看到 <think> 标识符,这个就是思维链的推导过程,由于默认情况下只输出 512 个字符,推理过程偏长时,输出不完整。这个时候,需要在代码中,找到 512,把它调大些,比如 2048、4096 就可以看到完整的输出内容了。下面是我把输出长度调整到 2048 之后的结果,可以看到 <think>、</think> 的标识符就都出来了。 ![]() 最后,上面网站的代码只支持以 qwen 为后缀名的模型,大家可以根据自己的显存大小去体验下本地部署。蒸馏出来的模型,效果肯定要比原版的671B的模型差不少,根据我们自己的体验,要想在本地获得还不错的结果,最低选用32b的模型。因此,很多文章说着可以在本地体验R1模型,但也就是简单体验下,32b模型部署至少要32G内存,很多人电脑远达不到这个配置。 |
|