分享

在本地部署 DeepSeek-R1 模型,包含电脑和手机,附带硬件和模型版本

 勇敢的芯2 2025-01-30
本文将引导您完成在本地机器上设置和运行 DeepSeek-R1 模型的全过程,涵盖硬件要求、必要工具的安装以及客户端的使用。
DeepSeek 的 R1 模型因其先进的功能和成本效益而备受关注。在本地运行此模型将是有益的体验,能够深入了解最先进的 AI 技术。
1、DeepSeek-R1 模型各个版本说明和硬件需求
DeepSeek-R1 提供多种版本,每个版本都有特定的硬件要求,下面分别列出:
全参数的模型
这是 R1 的原始版本,包含大量的参数,精度高,但需要大量计算资源;
参数为 671B,需要显存为 1342GB。
两个模型都要求使用多 GPU,比如 NVDIA-A100 80GB 显卡一共 16 张。
不支持单独的 Mac 电脑,但是支持 Mac 电脑集群。
蒸馏模型
蒸馏模型是“老师教学生”,通过知识蒸馏,教小的模型学会复制较大模型的行为,扩充性能,减少资源需求。
可以看到蒸馏模型对显存的需求相比全参数模型来说可以忽略不计了。
其中 7B 和 8B 模型可以用于 32GB 的 Mac 算是性能和参数平衡后最佳选择。
Quantized Models (4-bit) 精度为 4bit 的模型
在了解什么 Quantized Models 前,我们先了解以下几个关键点:
2、电脑安装推荐 Ollama:安装指南
Ollama 是一款流行的在本地运行大模型的工具。
现在不论是 macOS 还是 Windows 都可以直接下载客户端安装。
注意:安装 Ollama 后,操作一般是在终端中操作。
通过命令运行 Ollama,比如在 Ollama 官网搜索DeepSeek
安装后,一般就会在本地的 11434 端口开启服务了。
你可以在终端实时体验,但是要获得像官网一样的体验,还是需要额外的套壳 UI 客户端
3、开源大模型 UI 客户端
关于套壳 UI 有很多可以选择,可以根据喜好自行选择。
我这里推荐两个。
一个是 Open WebUI
Open WebUI 可以使用 Docker 部署,简单方便。
一个是 Chatbox
Chatbox可以使用各种模型的 api,也可以使用本地 Ollama 11434 端口的服务。
4、安卓手机部署
手机目前的话推荐使用安卓部署本地模型。
推荐 MNN 框架。
可以直接下载目前打包好的 apk-MNN 大模型 Android App
下载安装后,可以在模型列表里下载 DeepSeek-R1-1.5B-Qwen-MNN

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多