今天我们继续。 话接上文,如何使用上稳定可靠不繁忙、不跑路、不卡顿、不截断的 话不多说,直接开整,集合! 第1步:安装 Ollama
![]() 本地部署推荐使用开源工具Ollama,对小白极其友好——既提供命令行界面,又提供图形界面,让你能够方便地管理和使用本地的AI模型。 打开上面那个Ollama官网,点击 接下来的操作以macOS为例。 双击打开Ollama客户端安装包,点击 ![]() 点击 ![]() 点击 ![]() 不放心的小伙伴可以双重验证一下Ollama是不是真正安装完成了。打开 # 验证安装 第2步:下载 DeepSeek-R1 模型有了Ollama,就可以通过Ollama方便地下载 ![]() 参数量越大,代表模型推理能力越强,满血版的 同时,每个参数量的模型所需的计算资源也各不相同,这里我总结了一份这7个模型各自所需的配置,供参考。其中, ![]() 打开
下载进度显示100%即完成,1.5B模型大小约1.1GB,7B模型大约4.7GB,8B为4.9GB。因为下载速度受限,我这里以1.5B模型为例。 ![]() 安装完成后会自动进入模型会话模式,意味着你已经可以开始和你的专属模型聊天了! 比如下面这样。
![]() 其实到这里,整个本地部署的过程就已经完成了,是不是超级简单,有手就行! 但这还只是第2步,接下来还有第3步。为什么?因为图形界面!总不能让小伙伴们一直在终端里使用 第3步:在Chatbox里使用本地部署的模型
![]() 之前在《DeepSeek R1 个人知识库,直接起飞!》介绍过了第三方客户端Cherry Studio,今天趁着这个机会介绍另一款也很好用的客户端:Chatbox。 相比Cherry Studio,Chatbox支持的客户端类型更多更全,从桌面客户端到手机app,都支持。按照上面的Chatbox官网链接下载安装即可。 接下来重点讲怎么把部署在本地电脑上的 打开Chatbox,点击左下角的 ![]() 设置好,就可以和你自己部署的模型聊起来了! ![]() 写在最后小参数模型的优势是需要的算力资源小,便于本地部署使用;但随之而来的是推理能力的“骤降”。比如下面这样。 ![]() 再尝试一次,虽然能回答了,但答案属实很离谱。 ![]() 写文章的过程中,我又下载安装了一个7B版本的 ![]() 所以,如果想要进行比较复杂的任务,比如科研、数学、代码等等,还是去寻求满血版 如果只是进行一些普通任务,或者对数据隐私和数据安全有很高的要求,那么毫无疑问,本地部署更合适。
|
|