DeepSeek 介绍
引言
在当今大模型的主流榜单中,DeepSeek-V3 作为开源模型的佼佼者,表现优异,甚至与世界上最先进的闭源模型不相上下。本文将详细介绍 DeepSeek 系列模型的构成、特点、部署步骤以及常见问题的解决方案,帮助读者更好地理解和使用这些强大的 AI 工具。
DeepSeek 模型家族
DeepSeek 系列模型涵盖了多个领域,每个模型都有其独特的专长。以下是 DeepSeek 模型家族的概览:
DeepSeek 模型列表
- DeepSeek LLM:基础通用语言模型
- DeepSeek Coder:代码专用模型
- DeepSeek Math:数学专用模型
- DeepSeek VL:多模态专用模型
- DeepSeek V2:通用模型升级版
- DeepSeek Coder V2:代码模型升级版
- DeepSeek V3:最新通用模型
- DeepSeek R1:经济适用型模型
模型关系图
DeepSeek LLM (基础模型)
├── DeepSeek Coder (代码专用)
│ └── DeepSeek Coder V2 (代码模型升级)
├── DeepSeek Math (数学专用)
├── DeepSeek VL (多模态专用)
├── DeepSeek V2 (通用模型升级)
│ └── DeepSeek V3 (最新通用模型)
各模型的特点与发布时间1
DeepSeek-LLM(基础模型)
- 发布时间:2024 年 1 月 5 日
- 定位:基础通用语言模型,专注于自然语言处理任务。
- 模型大小:670 亿参数
- 训练数据集:2 万亿涵盖中英文的 token 数据集
DeepSeek-Coder(代码专家)
- 发布时间:2024 年 1 月 25 日
- 功能特点:专为代码生成和调试设计,能够补全代码、查找 Bug,甚至从零生成小程序。
- 训练数据集:87% 的训练数据为代码
DeepSeek-Math(数学学霸)
- 发布时间:2024 年 2 月 5 日
- 功能特点:擅长解决高难度数学问题,解题步骤清晰,水平接近 GPT-4 和谷歌 Gemini。
DeepSeek-V3(全能战士)
- 发布时间:2024 年 12 月 26 日
- 功能特点:综合能力最强,擅长推理、文案撰写、数据分析等任务,与 GPT-4、Claude 3.5 等顶级模型竞争。
- 模型大小:6710 亿参数的 MoE 模型
DeepSeek-R1(经济适用型)
- 发布时间:2025 年 1 月 20 日
- 功能特点:性价比高,性能与 OpenAI 商用模型相当,且开源免费。支持多种部署规模,从手机到服务器均可运行。
DeepSeek-R1 部署配置需求2

根据实际部署情况,70B 模型占用显存约为 44332MB。
DeepSeek 的优势
- 高性能低成本:在保持 SOTA 性能的基础上,训练成本和 API 定价都非常亲民。
- 开源:所有模型均开源,用户可以自由使用和修改。
问题6:不同DeepSeek模型性能区别?
| Category | Benchmark (Metric) | Claude-3.5-Sonnet-1022 | GPT-4o 0513 | DeepSeek V3 | OpenAI o1-mini | OpenAI o1-1217 | DeepSeek R1 |
|---|---|---|---|---|---|---|---|
| Architecture | - | - | MoE | - | - | MoE | |
| # Activated Params | - | - | 37B | - | - | 37B | |
| # Total Params | - | - | 671B | - | - | 671B | |
| English | MMLU (Pass@1) | 88.3 | 87.2 | 88.5 | 85.2 | 91.8 | 90.8 |
| MMLU-Redux (EM) | 88.9 | 88.0 | 89.1 | 86.7 | - | 92.9 | |
| MMLU-Pro (EM) | 78.0 | 72.6 | 75.9 | 80.3 | - | 84.0 | |
| DROP (3-shot F1) | 88.3 | 83.7 | 91.6 | 83.9 | 90.2 | 92.2 | |
| IF-Eval (Prompt Strict) | 86.5 | 84.3 | 86.1 | 84.8 | - | 83.3 | |
| GPQA-Diamond (Pass@1) | 65.0 | 49.9 | 59.1 | 60.0 | 75.7 | 71.5 | |
| SimpleQA (Correct) | 28.4 | 38.2 | 24.9 | 7.0 | 47.0 | 30.1 | |
| FRAMES (Acc.) | 72.5 | 80.5 | 73.3 | 76.9 | - | 82.5 | |
| AlpacaEval2.0 (LC-winrate) | 52.0 | 51.1 | 70.0 | 57.8 | - | 87.6 | |
| ArenaHard (GPT-4-1106) | 85.2 | 80.4 | 85.5 | 92.0 | - | 92.3 | |
| Code | LiveCodeBench (Pass@1-COT) | 33.8 | 34.2 | - | 53.8 | 63.4 | 65.9 |
| Codeforces (Percentile) | 20.3 | 23.6 | 58.7 | 93.4 | 96.6 | 96.3 | |
| Codeforces (Rating) | 717 | 759 | 1134 | 1820 | 2061 | 2029 | |
| SWE Verified (Resolved) | 50.8 | 38.8 | 42.0 | 41.6 | 48.9 | 49.2 | |
| Aider-Polyglot (Acc.) | 45.3 | 16.0 | 49.6 | 32.9 | 61.7 | 53.3 | |
| Math | AIME 2024 (Pass@1) | 16.0 | 9.3 | 39.2 | 63.6 | 79.2 | 79.8 |
| MATH-500 (Pass@1) | 78.3 | 74.6 | 90.2 | 90.0 | 96.4 | 97.3 | |
| CNMO 2024 (Pass@1) | 13.1 | 10.8 | 43.2 | 67.6 | - | 78.8 | |
| Chinese | CLUEWSC (EM) | 85.4 | 87.9 | 90.9 | 89.9 | - | 92.8 |
| C-Eval (EM) | 76.7 | 76.0 | 86.5 | 68.9 | - | 91.8 | |
| C-SimpleQA (Correct) | 55.4 | 58.7 | 68.0 | 40.3 | - | 63.7 |
| Model | AIME 2024 pass@1 | AIME 2024 cons@64 | MATH-500 pass@1 | GPQA Diamond pass@1 | LiveCodeBench pass@1 | CodeForces rating |
|---|---|---|---|---|---|---|
| GPT-4o-0513 | 9.3 | 13.4 | 74.6 | 49.9 | 32.9 | 759.0 |
| Claude-3.5-Sonnet-1022 | 16.0 | 26.7 | 78.3 | 65.0 | 38.9 | 717.0 |
| o1-mini | 63.6 | 80.0 | 90.0 | 60.0 | 53.8 | 1820.0 |
| QwQ-32B | 44.0 | 60.0 | 90.6 | 54.5 | 41.9 | 1316.0 |
| DeepSeek-R1-Distill-Queen-1.5B | 28.9 | 52.7 | 83.9 | 33.8 | 16.9 | 954.0 |
| DeepSeek-R1-Distill-Queen-7B | 55.5 | 83.3 | 92.8 | 49.1 | 37.6 | 1189.0 |
| DeepSeek-R1-Distill-Queen-14B | 69.7 | 80.0 | 93.9 | 59.1 | 53.1 | 1481.0 |
| DeepSeek-R1-Distill-Queen-32B | 72.6 | 83.3 | 94.3 | 62.1 | 57.2 | 1691.0 |
| DeepSeek-R1-Distill-Llama-8B | 50.4 | 80.0 | 89.1 | 49.0 | 39.6 | 1205.0 |
| DeepSeek-R1-Distill-Llama-70B | 70.0 | 86.7 | 94.5 | 65.2 | 57.5 | 1633.0 |