分享

DeepSeek服务用不了?4个步骤,轻松在本地部署DeepSeek-R1大模型(保姆级教程)

 长沙7喜 2025-01-30

DeepSeek 太火了。

火到直接出天际了,火到最近不但海量的涌入使用,更招致黑客的攻击。

多方原因,导致官网时不时的崩掉,无法使用。

就像这个样子:

图片

因此,这会来分享一下,如何在本地,自己的电脑上部署一个 DeepSeek 智能助手。

流程很容易,很简单的几个步骤,这篇文章教会你。

Mac 和 Windows 系统相通,基本一致的流程。

第一步,下载 Ollama

官网:https://

打开官网,是这个样,很醒目的一个「Download」。

图片

点击一下,下载对应系统的版本,即可。

图片

我这里是 Mac 系统,所以直接显示的就是下载 macOS 版。

如果你们的网络不太好,我把 Mac 版和 Windows 版的都下载好附在文末的网盘了,提取就行了

下载之后,Mac 版解压后,移到到应用目录中,Windows 版直接点击安装即可。

安装好后,在电脑上会看到这个图标,就说明安装成了,最简单的一步。

图片

打开命令行终端,输入 ollama -v 测试一下,显示出对应版本,表示没问题。

图片

命令式就是电脑上一个黑不溜秋的窗口,使用 Mac系统的,打开 Terminal,中文名叫「终端」。

Windows 系统上,搜cmd 就出来了,中文名叫「命令提示符」。

图片

第二步,安装 DeepSeek-R1 模型

在 Ollama 官网的「Models」导航处,搜索「deepseek」。

第一个就是「deepseek-r1」模型,可见有多火。

图片

点进去,可以看到有多个不同的模型,1.5b、7b、8b 等等。

这个 b 代表什么意思呢?

b 是 billion 首字母,十亿的意思。

代表的是参数的数量规模,越大,模型能够处理的任务越复杂。

图片

不过下载哪一个,要根据自己的电脑配置来。

1.5b 是最小模型,大部分电脑都没有问题,可以带得动。

7b 版本,8G 的内存,配上 4G 的显卡,是 OK 的。

所以 7b 的版本,大部分电脑也都能支持。

电脑配置更高的,选更大的模型即可。

我这里选择的是 32b 的模型做演示。

将模型旁边对应的指令复制下来,也就是 「ollama run deepseek-r1」,粘贴到终端命令行里。

粘贴到终端的时候,后面会自动带上参数规模,比如 「deepseek-r1:7b」,我这里是 「deepseek-r1:32b」。

回车,等待下载成功。

图片

看到 success,这就是下载好了。

第三步,和 DeepSeek 对话

模型下载好后,在终端里就可以和 deepseek 进行对话了。

图片

到这一步,已经成功了,可以正常使用了。

如果觉得不够直观,可以安装个直观一点的客户端,ChatBox、Cherry Studio 等都可以。

第四步,安装客户端

这里我使用 ChatBox 集成 DeepSeek。

ChatBox 官网链接:https://chatboxai.app,下载对应系统的版本安装即可。

网络不好的,我安装包打包放在文末了。

然后打开,做个配置。

刚开始打开,会弹出这个框,点击「使用自己的 API Key 或本地模型」。

图片

如果没有这个框,点击左边的设置,一样弹出参数设置框。

图片

选好模型提供方为 ollama 和模型 deepseek-r1,然后保存即可。

然后开个新对话,选择「deepseek-r1」模型,这样就可以了。

图片

可以愉快地玩耍了。

图片

当然,也可以给 DeepSeek 设定一个角色,圈定大模型回答的范围。

图片

这个样子:

图片

以上,安装部署使用 DeepSeek-R1 的全过程。

Ollama 和 ChatBox安装包:https://pan./s/f78780d503c9

好了,分享到此,再会。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多