5 分钟用满血 DeepSeek R1 搭建个人 AI 知识库(含本地部署)
最近很多朋友都在问:怎么本地部署 DeepSeek 搭建个人知识库。老实说,如果你不是为了研究技术,或者确实需要保护涉密数据,我真不建议去折腾本地部署。为什么呢?目前 Ollama 从 1.5B 到 70B 都只是把 R1 的推理能力提炼到 Qwen 和 Llama 的蒸馏版本上。虽说性能是提升了不少,但跟原汁原味的 R1 模型比起来,还是差太多了。官方的满血版本可是 671B 的参数量,说实话,

