一、安装三部曲 1、下载Ollama并安装; 2、通过Ollama下载Deepseek模型; 3、运行并使用Deepseek。 二、简要三说明 1、如何下载并安装Ollama; 1.1、找到Ollama的官网https:///; 1.2、点击首页中的“Download”; 1.3、点击屏幕中的“Download for Windows”(由于下载人数众多,点击后需要等待几秒或更长时间),等待下载,下载的文件名为“OllamaSetup.exe”; 1.4、下载完成后,找到下载文件“OllamaSetup.exe”点击安装。 说明:Ollama是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。 2、如何选择Deepseek的模型及下载; 2.1、Deepseek-r1的模型包括: 1.5b、7b、8b、14b、32b、70b和671b; 说明:参数规模(B = Billion/十亿)代表模型的复杂度和学习能力,参数越多,通常理解和生成能力越强。 2.2、Deepseek-r1的模型分类: 1.5B - 14B:轻量级模型,适合基础任务(文本生成、简单问答)。 32B - 70B:中等规模,平衡性能与资源消耗,适合复杂任务(逻辑推理、代码生成)。 671b:大模型。 2.3、Deepseek-r1的模型所需的配置: 详见“附表一”; 2.4、Deepseek-r1的模型下载: 按Win+R键,在对话框内输入cmd后回车; 在命令提示符后面,输入“ollama run deepseek-r1:xxxb”,xxx代表你所下载模型的版本,如“ollama run deepseek-r1:7b”,等待模型下载并运行;具体的下载示例详见“附表二”。 3、如何运行Deepseek。 3.1、方式一:命令行模式; 按Win+R键,在对话框内输入cmd后回车; 在命令提示符后面,输入“ollama run deepseek-r1:xxxb”(如“ollama run deepseek-r1:7b”); 这时Deepseek已经启动,输入问题即可获得回答。 3.2、方式二:浏览器模式; 此浏览器模式留待后面分享; 附表一:Deepseek-r1的模型所需的电脑配置 1.5B:CPU最低4核,内存8GB+,硬盘3GB+存储空间。 7B:CPU 8核以上,内存16GB+,硬盘8GB+,显卡8GB+,适用于本地开发测试等场景。 8B:硬件需求同比7B相近适当略高,适合需更高精度的轻量级任务。 14B:CPU 12核以上,内存32GB+,硬盘15GB+,显卡16GB+,适用于企业级复杂任务等场景。 32B:CPU 16核以上,内存64GB+,硬盘30GB+,显卡24GB+,适用专业领域任务等场景。 70B:CPU 32核以上,内存128GB+,硬盘70GB+,需多显卡并行,适用高复杂度任务等场景。 附表二:Deepseek-r1的模型下载的具体运行命令 模型名称: 模型名称: 模型名称: 模型名称: 模型名称: 模型名称: |
|