|
在家运行670B参数超级AI DeepSeek R1 的方案来了!
Hugging Face工程师Matthew Carrigan公布了一套超详细的配置指南,让普通人也能用6000美元在家运行DeepSeek R1这样的超大模型,对应人民币则约4万元。 现在,我来带大家一步一步看看该怎么做。 第一步:准备硬件这套方案最让人兴奋的点是:不需要买昂贵的显卡! 我们只需要购买以下配件: 主板选择要买双路EPYC主板,建议选择Gigabyte MZ73-LM0或MZ73-LM1。
为什么选这个? 因为它有24条内存插槽,能让我们接入足够多的内存。 CPU选择需要买两个AMD EPYC处理器。 别担心,不需要买最贵的型号,因为运行AI主要吃内存带宽,所以可以选择便宜一点的EPYC 9115或9015。 内存配置这是最关键的部分! 需要买24条32GB的DDR5内存条,总共768GB。 Matthew建议用V-color或Nemix的内存,性价比更高。 其他配件
![]() 第二步:组装电脑
第三步:软件配置系统安装
安装AI运行环境
git clone https://github.com/ggerganov/llama.cppcd llama.cppmake
第四步:运行模型准备工作都做完了,接下来就是激动人心的启动时刻:
Roland Fernandez(@rolandalong)问了大家最关心的问题:
Matthew给出了具体数据:每秒能生成6-8个字。虽然不算快,但已经够用了! 虽然速度不够快,但重要的是,这套方案让普通人也有机会亲手玩转顶级AI模型了! 虽然要花6000美元,但比起企业级的动辄几十万的解决方案,这已经是一个巨大的进步。 One More Thing!本地运行时,还有一个神奇用法! Matthew Carrigan 透露了一个秘密:在本地运行Deepseek-R1时,我们可以窥探并参与它的「内心独白」! 这意味着,我们可以直接编写模型的内部思考过程,让模型顺着我们的思路去走。 从而让我们更好地理解和控制AI的决策过程,这不仅很有趣,可能还很危险! 想试试的朋友,赶紧整起来吧! 相关链接
|
|
|