分享

本地部署DeepSeek,工作效率提升300%,再也不宕机

 江海博览 2025-01-31
AI偶然
AI偶然
2025-01-30 23:53

最近这几天DeepSeek火了之后,哪哪都有 DeepSeek 的影子。

本地部署DeepSeek,工作效率提升300%,再也不宕机

但当我们想去用的时候就提示【请过一会再提问】。

本地部署DeepSeek,工作效率提升300%,再也不宕机

图片上这个情况,你肯定也遇见过,等它回复一次需要重复好多次才成功。

现在是过年时间,出现这种情况不知道是国外的黑客对 DeepSeek 进行攻击,还是各位大牛太卷了,过年也要去学习学习 AI 。

为了人多的情况,我甚至在早上七点拜年的时候去使用,仍然显示很多人。

但是我又很想用,怎么办呢?

为了解决这一问题,我去研究了一下本地部署 DeepSeek ,直接把它装进你的电脑里,从此不需要再排队。

超简单,有手就行,废话不多说,上教程!

第一步:将 ollama 解压到自己的电脑上

我看了大多数的博主第一步是去 Ollama 网站上下载,我刚开始也去了,然后我下载的时候它显示需要授权许可证。

本地部署DeepSeek,工作效率提升300%,再也不宕机

如果你没有授权许可证的话,那你就需要花钱去买。太贵了,终生的要一百多块钱,留着这钱买点吃的香。

本地部署DeepSeek,工作效率提升300%,再也不宕机

所以这里,我直接给大家准备了免米的软件压缩包,直接解压就能用了。后台滴一下我

本地部署DeepSeek,工作效率提升300%,再也不宕机

第二步:安装软件 ollama

解压后选择第一个文件ollama 部署,进入文件之后先安装 OllamaSetup ,这个是免米的,不需要授权许可证。

本地部署DeepSeek,工作效率提升300%,再也不宕机

安装完成后,键盘输入Windows+R,弹出窗口,输入 powershell ,这里不展示Mac版本,因为我没有苹果电脑。

本地部署DeepSeek,工作效率提升300%,再也不宕机

输入 ollama -v 显示版本就表示已经成功下载了。

本地部署DeepSeek,工作效率提升300%,再也不宕机

进入网站(
https:///library/deepseek-r1:7b),选择合适自己电脑的模型,模型需要的显存越大,那它回复的效果也就越好。需要根据自己的电脑选择合适的模型,然后复制右边的指令。

本地部署DeepSeek,工作效率提升300%,再也不宕机

将指令复制到刚刚打开的窗口(我换了个窗口的背景颜色),按回车开始下载,等它下载完成。下载完成后会有success。

效果如下图所示。

本地部署DeepSeek,工作效率提升300%,再也不宕机

第三步:安装软件 Chatbox

我把两个软件都放在一个压缩包里了,方便大家直接用,这里安装 Chatbox 就行。

本地部署DeepSeek,工作效率提升300%,再也不宕机

完成安装后进入软件,点击设置,然后模型提供方选择 ollama API ,模型选择你下载的就行。

本地部署DeepSeek,工作效率提升300%,再也不宕机

设置好之后,点击新对话就可以使用了。

本地部署DeepSeek,工作效率提升300%,再也不宕机

总结

整体的步骤很简单,只需要下载两个软件,然后调一下配置就可以了,十分简单。

整个过程都是免米的,而且每一步都有清晰的截图,只要你跟着做就能部署到自己的电脑上。

不过我手上只有 Windows 设备,文中的安装步骤全部是针对 Windows 的,其他系统的安装步骤可能会稍有区别。

如果有啥问题,可以评论区交流。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多