星屿浅奈 ✧ Saneko

Back

本地部署deepseek-r1Blur image

模型参数#

deepseek-r1模型不同参数的特点,适用场景及硬件配置如下,根据自己实际情况选择对应版本。

DeepSeek 模型版本参数量特点适用场景推荐硬件配置
DeepSeek - R1 - 1.5B1.5B轻量级,参数量与规模小短文本生成、基础问答等轻量级任务4 核处理器、8G 内存,无需显卡
DeepSeek - R1 - 7B7B性能与硬件需求较平衡文案撰写、表格处理、统计分析等中等复杂度任务8 核处理器、16G 内存,Ryzen 7 或更高 CPU,RTX 3060(12GB)或更高显卡
DeepSeek - R1 - 8B8B性能略优于 7B 模型代码生成、逻辑推理等高精度轻量级任务8 核处理器、16G 内存,Ryzen 7 或更高 CPU,RTX 3060(12GB)或 4060 显卡
DeepSeek - R1 - 14B14B高性能,擅长复杂任务长文本生成、数据分析等复杂任务i9 - 13900K 或更高 CPU、32G 内存,RTX 4090(24GB)或 A5000 显卡
DeepSeek - R1 - 32B32B专业级,性能强大语言建模、大规模训练、金融预测等超大规模任务Xeon 8 核(80GB)或更高配置
DeepSeek - R1 - 70B70B顶级性能,适合大规模与高复杂计算多模态任务预处理等高精度专业领域任务,适用于预算充足的企业或研究机构Xeon 8 核、128GB 内存或更高,8 张 A100/H100(80GB)或更高
DeepSeek - R1 - 671B671B超大规模,性能卓越、推理快气候建模、基因组分析等国家级 / 超大规模 AI 研究及通用人工智能探索64 核、512GB 或更高,8 张 A100/H100

百亿云互联

DeepSeek-R1模型1.5B/7B/14B/70B/671B区别及硬件配置要求

August 2021

本人部署的是8b版本,可以做到流畅推理。

部署#

安装ollama#

进入ollama 🌊官网,点击download后,选择对应电脑系统进行下载安装

下载Ollama

下载模型#

回到ollama 🌊官网,在搜索栏中搜索deepseek-r1

搜索deepseek

选择对应参数模型,复制指令。

下载模型

这里选择8b的模型,以管理员身份打开终端,运行复制的指令。

ollama run deepseek-r1:8b
bash

等待模型下载安装完成。后续在终端中执行刚才的指令,就可以调用该模型来推理了。

模型推理

可视化#

安装chatbox#

进入Chatbox 🌊官网,点击下载后,选择对应电脑系统进行下载安装

下载Chatbox

模型设置#

打开安装好后的chatbox,点击设置,将模型提供方选择为OLLAMA API,模型中会自动加载在ollama中下载部署好的模型。

模型设置

使用#

模型对话

本地部署deepseek-r1
https://saneko.me/blog/149181eaf3aa
Author Saneko
Published at February 18, 2025
Buy me a cup of coffee ☕.
Comment seems to stuck. Try to refresh?✨