第五部分 本地部署準備工作:各個版本、推理框架、硬件資源
DeepSeek-R1的多個版本:加上2個原裝671B的,總計8個參數版本
主流的大模型推理框架:分為PC端和Android端
不同參數的模型所要求的硬件
蒸餾版和滿血版的兩類部署
第六部分 通過Ollama、vLLM本地部署DeepSeek-R1蒸餾版:支持聯網搜索及知識庫問答
1、基于Ollama和各類插件構建智能對話:終端、open-webui(支持聯網)、Chatbox
1) Ollama下的終端命令行交互
2) Ollama下的open-webui交互:基于docker安裝,且支持聯網搜索
3) 基于Ollama + ChatBox部署deepseek-r1:7b
2、基于Ollama和Page Assist/AnythingLLM構建本地知識庫問答系統
1) 基于Ollama + Page Assist搭建本地知識庫問答系統:且支持聯網搜索
2) 基于Ollama + AnythingLLM搭建本地知識庫問答
3、通過vLLM推理deepseek-r1
1) 基于vLLM的命令行交互——R1-Distill-Llama-8B
2) 基于vllm + open WebUi 部署r1 7b
4、本地手機端部署DeepSeek-R1蒸餾Llama/Qwen后的版本
第七部分 無蒸餾前提下本地部署R1 or R1-Zero 671B滿血版
1、折中路徑:無蒸餾但量化部署Deepseek-R1 671B滿血版
1) 本地CPU上運行 Deepseek-R1 的完整的硬件 + 軟件設置
2) GPU上跑無蒸餾但量化的Deepseek-R1 671B滿血版
2、企業級部署:無蒸餾不量化部署Deepseek-R1 671B滿血版