在快速发展的人工智能领域,2025 年 1 月,DeepSeek 正式推出了备受瞩目的 DeepSeek-R1 推理大模型。这款模型凭借其低廉的成本和卓越的性能,一经发布便迅速在 AI 行业掀起波澜,吸引了众多研究者、开发者以及企业的广泛关注。 DeepSeek-R1 之所以能够在竞争激烈的 AI 市场中脱颖而出,其性价比优势功不可没。相较于其他同类型的大模型,它在保证出色性能的同时,大大降低了使用成本,这使得更多的个人开发者、科研团队以及预算有限的企业能够轻松应用,为推动 AI 技术的普及和发展提供了新的契机。
DeepSeek 充分考虑到不同用户的多样化需求和使用场景,提供了多种灵活的使用方式。其中,本地部署方式具有诸多显著优势。在数据安全方面,将模型部署在本地,用户的数据无需上传至云端,极大地降低了数据泄露的风险,尤其适用于对数据保密性要求较高的行业和领域,如医疗、金融等。在性能上,本地部署可以根据本地硬件配置进行优化,减少网络延迟,实现更快速的响应。对于有定制化需求的用户,能够在本地对模型进行个性化调整和训练,以满足特定的业务需求。从成本角度来看,长期使用本地部署可能会比依赖云端服务更具成本效益,特别是对于大规模应用的场景。此外,本地部署还确保了离线可用性,即使在没有网络连接的情况下,依然能够正常运行。对于追求技术自主性的用户和团队来说,本地部署让他们能够更好地掌控模型的运行和维护,减少对外部服务的依赖。
对于广大开发者以及习惯使用命令行操作的技术爱好者而言,在电脑上部署 Deepseek 其实并非难事。整个过程只需准备安装一款名为Ollama的软件,以下是详细的安装步骤: 一、下载 Ollama 安装程序Ollama官方网站:https:///
- 打开常用的浏览器,如 Chrome、Firefox 或 Edge。
- 在官网的下载页面,找到适用于 Windows 系统的安装包,通常为.exe 格式。根据你的系统是 32 位还是 64 位,选择对应的版本进行下载。下载完成后,文件会保存在你浏览器设置的默认下载路径中,或者你在下载时指定的保存位置。
同样使用 Safari、Chrome 等浏览器,访问 Ollama 官方网站。 在下载页面,找到 macOS 版本的安装文件,一般为.dmg 格式。点击下载,下载完成后,在 “访达” 的 “下载” 文件夹中可以找到该文件。
打开终端。对于基于 Debian 或 Ubuntu 的系统,在终端中输入命令:sudo apt-get install -y wget && wget <Ollama官方下载链接>,这里的<Ollama官方下载链接>需要替换为官网提供的实际下载链接。下载完成后,文件会保存在当前工作目录。 对于基于 Red Hat 或 CentOS 的系统,在终端输入:sudo yum install -y wget && wget <Ollama官方下载链接> ,同样替换为实际下载链接。
 二、安装 Ollama找到下载好的 Ollama 安装文件(.exe 格式),双击运行。 安装向导启动后,首先会弹出用户账户控制窗口,询问是否允许该程序对你的设备进行更改,点击 “是”。 在安装界面,按照提示逐步操作。一般会先显示许可协议,仔细阅读后勾选 “我接受协议”,然后点击 “下一步”。 选择安装路径,你可以使用默认路径,也可以点击 “浏览” 选择其他磁盘位置进行安装,确定路径后点击 “下一步”。 接着可以选择是否创建桌面快捷方式等附加任务,根据个人需求勾选或取消,之后点击 “安装”。 安装过程中会显示进度条,等待安装完成,安装完成后点击 “完成” 即可。
打开 “访达”,找到下载的 Ollama 安装文件(.dmg 格式),双击打开。 会弹出一个包含 Ollama 图标和应用程序文件夹图标的窗口,将 Ollama 图标拖动到应用程序文件夹图标上,即可完成安装。安装完成后,你可以在 “应用程序” 文件夹中找到 Ollama。
对于基于 Debian 或 Ubuntu 的系统,下载完成后,在终端中输入命令:sudo dpkg -i <Ollama安装包文件名>,这里的<Ollama安装包文件名>替换为你实际下载的文件名。如果安装过程中提示缺少依赖包,根据提示使用sudo apt - get install命令安装相应依赖后,再次运行安装命令。 对于基于 Red Hat 或 CentOS 的系统,在终端输入:sudo rpm -ivh <Ollama安装包文件名>,同样替换为实际文件名。若提示依赖问题,按照提示安装依赖后重新安装。
需要注意的是,Ollama没有直观的用户界面,它在后台默默运行。 三、验证 Ollama 是否成功安装安装完成后,打开浏览器,在地址栏中输入 “http://localhost:11434/” 。 如果页面显示 “Ollama is running”,则表明Ollama已经成功启动并正在运行。若显示无法访问或其他错误信息,可能是端口被占用,需要检查系统中占用 11434 端口的程序并进行处理,或者重新配置 Ollama 的运行端口。
 四、了解 ollama 命令用法打开一个命令行终端。在 Windows 系统中,可以通过搜索 “命令提示符” 或 “PowerShell” 打开;在 macOS 系统中,打开 “终端” 应用;在 Linux 系统中,本身就在终端环境下操作。 在终端中输入ollama命令,此时会显示详细的命令用法,这些用法为后续的操作提供了重要的指导。例如,显示的命令可能包括ollama run(用于运行模型)、ollama pull(用于下载模型)等基本命令及其参数说明。
 五、下载 DeepSeek-R1 模型通过 ollama 客户端命令,我们可以轻松下载所需的模型。它支持的模型种类丰富,具体的模型和对应的下载命令,可以在官网进行查询。 打开浏览器,访问 Ollama 官网,切换到官网的 “Models” 页面。 在 Models 页面中,找到 DeepSeek-R1 模型。可以看到它拥有多种参数可供选择,通常情况下,对于使用 macOS 系统的用户,选择 7b、8b 参数即可满足日常使用需求。需要注意的是,参数越大,对显卡和内存的要求也就越高。如果你的电脑配备了 3090 显卡、4090 显卡等高性能硬件,那么可以尝试选择 32b、70b 等更大的参数。一般来说,参数越大,模型的效果越好,性能也越强大,但同时也需要更多的存储和计算资源来支持其运行。例如,1.5b 模型的参数规模为 15 亿,占用存储空间约 1.1GB;7b 模型的参数约为 70 亿,占用空间约 4.7GB;14b 模型的参数约为 140 亿,占用空间约 9GB。 根据自己的硬件条件和需求,选择对应的蒸馏模型,将官网提供的对应的下载命令复制到 ollama 控制台。例如,如果选择 7b 参数的 DeepSeek-R1 模型,复制对应的ollama pull deepseek-r1:7b命令到终端,然后按回车键即可开始本地安装。
六、安装过程及等待输入下载命令后,终端会显示下载进度,包括已下载的字节数、下载速度以及预计剩余时间等信息。 下载过程中,可能会因为网络波动等原因出现下载中断的情况。如果出现这种情况,可以重新输入下载命令,Ollama 通常会支持断点续传,继续从上次中断的位置开始下载。 下载完成后,Ollama 会自动进行模型的安装和配置,这个过程可能需要一些时间,根据硬件性能不同,时间长短会有所差异。在安装配置过程中,终端会显示相关的日志信息,如模型文件的解压、依赖项的检查等。
 七、开启对话当安装完成的那一刻,你就可以开启与 DeepSeek-R1 的对话之旅。在命令行终端中输入ollama run deepseek - r1:7b(这里的参数根据你实际下载的模型参数而定),然后输入你想要询问的问题或指令,即可体验它强大的语言处理能力和智能交互功能,探索无限的 AI 应用可能。
|