一、安装ollama打开ollama网站https:///,下载客户端 ![]() ![]() 打开下载好的OllamaSetup.exe进行安装,一直默认安装即可 ![]() 二、修改ollama模型保存位置和启动ollama右键点击【此电脑】→【属性】→【高级系统设置】→【高级】→【环境变量】→【系统变量】→【新建】→【变量名】OLLAMA_MODELS →【变量值】D:\Ollama\Models(盘符根据自己的需求修改,硬盘大小尽量在500G以上) ![]() ![]() WIN+R启动运行,进入CMD,输入ollama help调取ollama的各项命令 Large language model runner Usage: ollama [flags] ollama [command] Available Commands: serve Start ollama 开始ollama create Create a model from a Modelfile 从一个Modelfile创建一个模型 show Show information for a model 显示模型的信息 run Run a model 运行一个模型 stop Stop a running model 停止正在运行的模型 pull Pull a model from a registry 从注册表中拉取一个模型 push Push a model to a registry 将一个模型推送到注册表 list List models 列出模型 ps List running models 列出正在运行的模型 cp Copy a model 复制一个模型 rm Remove a model 删除一个模型 help Help about any command 关于任何命令的帮助 Flags: -h, --help help for ollama -v, --version Show version information Use 'ollama [command] --help' for more information about a command. WIN+R启动运行,进入CMD,输入ollama serve启动 ![]() 三、安装Page Assist - 本地 AI 模型的 Web UI打开谷歌浏览器(Google Chrome)或GPT浏览器(官方网站: 本地安装Page Assist插件( 安装完成后在菜单中顶置 ![]() ![]() ![]() 四、配置Page Assist - 本地 AI 模型的 Web UI打开Page Assist,选择设置,进入后对一般设置、RAG模型、ollama设置进行修改,同时可以对管理知识进行添加。 ![]() ![]() ![]() ![]() 五、安装模型打开ollama网站https:///,进入模型页面,打开所需的模型页面后通过Page Assist进行拉取下载。 ![]() 也可以通过Page Assist设置界面中的管理模型中进行拉取模型。 ![]() 除此之外,也可以通过ollma命令拉取模型。如ollama run 六、模型推荐
动态量化后的模型deepseek-r1 Huzderu/deepseek-r1-671b-1.73bit:latest 08d46664e5ce 168 GB Huzderu/deepseek-r1-671b-2.22bit:latest aff1a536ee6b 196 GB Huzderu/deepseek-r1-671b-2.51bit:latest bf80bdb59818 227 GB SIGJNF/deepseek-r1-671b-1.58bit:latest a2138b47f53d 140 GB DeepSeek-Janus-Pro模型 erwan2/DeepSeek-Janus-Pro-7B:latest e877a212a6a7 4.2 GB 越狱版deepseek-r1 huihui_ai/deepseek-r1-abliterated:7b 9e25a373f069 4.7 GB huihui_ai/deepseek-r1-abliterated:8b f72bcec0a6da 4.9 GB huihui_ai/deepseek-r1-abliterated:14b 6b2209ffd758 9.0 GB huihui_ai/deepseek-r1-abliterated:32b fb53b3296912 19 GB huihui_ai/deepseek-r1-abliterated:70b 50f8d0fe980f 42 GB 嵌入模型(必须) nomic-embed-text:latest 0a109f422b47 274 MB 官方模型deepseek-r1 deepseek-r1:1.5b a42b25d8c10a 1.1 GB deepseek-r1:7b 0a8c26691023 4.7 GB deepseek-r1:8b 28f8fd6cdc67 4.9 GB deepseek-r1:14b ea35dfe18182 9.0 GB deepseek-r1:32b 38056bbcbb2d 19 GB deepseek-r1:70b 0c1615a8ca32 42 GB deepseek-r1:671b 739e1b229ad7 404 GB 七、配置目前我使用的电脑配置如下,跑32B模型很轻松(20tok/s),跑 CPU:13th Gen Intel(R) Core(TM) i5-13400 2.50 GHz 内存:2根5代32G内存条 保存模型的硬盘:2TB SSD 显卡:navida 2080ti 22GB 主板:微星 PRO Z790-P DDR5代 八、其他 DeepSeek-R1-671B 的不同量化版本(1.73bit、2.22bit、2.51bit)的主要区别在于量化精度、模型性能(如推理速度、显存占用)和模型效果(如准确率)之间的权衡。以下是具体分析: 1.量化位数与压缩效率
2.性能与效果的权衡
3.技术实现差异
4.如何选择?
总结这些版本的差异本质是**“压缩率 vs 精度”的权衡**。量化通过牺牲少量模型性能来大幅降低资源需求,用户需根据自身场景选择最合适的版本。 5.虚拟内存创建
|
|
来自: 金木鱼23897029 > 《Deepseek》