DeepSeek本地部署全攻略

本地部署 DeepSeek-R1 简明指南

1. 先准备好你的电脑环境

系统建议:优先选Ubuntu(其他Linux发行版也行,但Mac和Windows可能有坑)

Python:3.8或更高(保险起见用3.10)

硬件:有NVIDIA显卡的话体验更好(显存至少8G起步,不然大模型跑不动)

bash

新手注意:下面这行是安装基础工具,如果系统没装过git和pip就执行

sudo apt update && sudo apt install -y git python3-pip

建议搞个虚拟环境,避免包冲突(用conda或venv都行)

python3 -m venv myenv 创建

source myenv/bin/activate 激活(退出时用deactivate)

第1步:安装ollama
官方下载地址:https://ollama.com,下载安装。

安装完在cmd里运行 ollama -v ,能正确显示版本号就表示安装成功了

DeepSeek本地部署全攻略

第2步:运行模型(仅需1条命令)
进入 ollama 的 deepseek-r1 介绍页面,根据自己的硬件情况,选择一个合适的版本,复制命令到cmd运行即可(建议32b及以上)

https://ollama.com/library/deepseek-r1:32b

DeepSeek本地部署全攻略

例如7b模型: ollama run deepseek-r1:7b

首次运行会自动下载模型(最后1%下载很慢,可 ctrl+c 中断后重新运行命令,续传就快了)
运行完命令可在控制台直接对话,如下图(Windows),linux同样的命令:

DeepSeek本地部署全攻略

第3步:将API地址配置到后台
Ollama默认服务端口是11434,其提供的OpenAI格式的API地址为:

http://[ip地址]:11434/v1/chat/completions

将此地址填到后台就可以在线调用了:

最后,附几个ollama常用命令:
ollama -v :查看ollama版本号

ollama run [模型名称] :运行一个模型

ollama serve :启动ollama服务

ollama list :列出本地所有可用的模型

ollama rm [模型名称] :删除一个已安装的模型

2. 下载模型文件(关键步骤!)

重点提醒:模型文件通常很大(几十GB),确保硬盘空间足够!

官方源:如果有GitHub仓库,直接clone(但可能不带权重文件)

Hugging Face:更可能找到完整模型,用git lfs下载:

bash

git lfs install 首次使用需要安装lfs

git clone https://huggingface.co/作者名/模型名

如果断线了可以加这句恢复下载:git lfs pull

3. 安装依赖(容易踩坑的地方)

PyTorch:一定要选对CUDA版本!用`nvidia-smi`看右上角CUDA Version,比如11.8就装`cu118`

bash

示例:CUDA 11.8的安装命令

pip3 install torch torchvision torchaudio index-url https://download.pytorch.org/whl/cu118

其他依赖(假设项目有requirements.txt)

pip install -r requirements.txt

如果报错,试试逐个安装,可能版本冲突

4. 跑个简单测试(验证是否成功)

python

from transformers import AutoTokenizer, AutoModel

model_path = “./你下载的模型文件夹路径”

tokenizer = AutoTokenizer.from_pretrained(model_path)

model = AutoModel.from_pretrained(model_path).to(“cuda”😉 有GPU的话

随便问个问题试试

input_text = “北京有什么好玩的地方?”

inputs = tokenizer(input_text, return_tensors=”pt”😉.to(model.device)

output = model.generate(**inputs, max_new_tokens=100)

print(“模型回答:”, tokenizer.decode(output))

真人经验提醒

1. 显存不足

– 尝试`model.half()`用半精度

– 加`load_in_8bit=True`参数(需要`bitsandbytes`库)

– 终极方案:换卡/租云服务器(A10/A100)

2. 下载卡住

– Hugging Face经常断连,用`HTTPS_PROXY=http://你的代理IP:端口`加代理

3. 报错找不到模块

– 检查虚拟环境是否激活

– 用`pip list`看是否漏装包

4. 回答乱码

– 调低`temperature`参数

– 检查tokenizer是否加载正确

最后啰嗦一句

– 模型文件路径别带中文!

– 首次加载会较慢(可能要5-10分钟)

– 记得看官方文档的额外说明(比如是否需要申请权重许可)

本站内容由用户自发贡献,该文观点仅代表作者观点。本站仅提供存储服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,请联系我删除。

(0)
hanbang2014的头像hanbang2014
上一篇 2025-03-07 19:08
下一篇 2023-04-27 18:10

相关推荐

  • ai智能降重神器,好用到哭,笑不活了!

    AI智能降重神器是一种利用人工智能技术和自然语言处理算法,帮助用户检测和降低文档、文章的相似度的在线工具。它通过分析文本内容,识别相似性程度,并提供修改建议,以帮助用户减少重复内容和提升原创性。 1. AI智能降重神器的原理 AI智能降重神器基于深度学习和自然语言处理技术,通过训练模型来识别文本之间的相似性。它使用预训练的语言模型和文本表示方法,将输入的文本…

    新手入门 2023-03-11
    52000
  • 如何写一篇文言文作文?需要注意什么细节?

    写一篇文言文作文需要注意多个细节,以确保语言的准确性和表达的优雅。以下是一些关键要点: 基础知识的掌握 – 文言文基础:你需要具备一定的文言文基础,包括对常用词汇和句式的理解。熟悉文言文的实词和虚词,了解它们的多义性和用法是写作的前提。 – 句法结构:掌握文言文的句法结构,如被动句、省略句、倒装句等。这些句式的运用能够使你的文章更具文…

    2024-12-06
    47800
  • chat ai4.0国内版手机版登陆入口(附网址+教程)

    Chat4.0国内版手机版是一款集成了先进人工智能技术的聊天机器人应用。这款应用提供了多种功能,旨在为用户提供高效便捷的沟通体验。 主要特点包括: 1. 智能对话:用户可以与软件内的机器人进行各种问题交流,体验流畅的AI智能对话。 2. AI写作生成器和AI艺术生成器:可以帮助用户生成各种文案和图片。 3. 内容创作:软件可以改写文章,创作文案,编辑程序代码…

    2024-10-12
    3.0K00
  • AI智能问答免费服务(AI秘方揭晓)

    欢迎使用AI智能问答免费服务!本文将详细介绍AI智能问答的定义、特点以及免费使用的相关信息。无论您是在寻找解答还是进行交互,AI智能问答将为您提供快速、准确的答案,而且这项服务完全免费。 1. AI智能问答概述 本节将介绍AI智能问答的定义和特点。我们将解释AI智能问答如何利用自然语言处理、机器学习和知识图谱等技术,以实现智能问答功能。同时,我们也会探讨AI…

    新手入门 2023-07-20
    43100
  • 跑大模型推荐GPU

    运行大型机器学习模型时,选择合适的GPU对于确保训练过程的效率和性能至关重要。以下是推荐的GPU选项: 1. NVIDIA RTX 4090:这是一款消费级顶级GPU,拥有24GB显存,适合个人研发项目和中等规模的模型训练。 2. NVIDIA A100:提供80GB显存,适合大规模数据和复杂模型的公司级应用。 3. NVIDIA A800:作为A100的后…

    2024-05-08
    1.5K00
  • ai绘画软件mj和sd哪个好

    在AI绘画领域,Midjourney(MJ)和Stable Diffusion(SD)是两款非常受欢迎的工具,它们各有优势和特点。以下得出的两款软件的对比分析: Midjourney (MJ)– 易用性: Midjourney以其简单易用的界面和操作而受到用户的喜爱。用户只需在Discord平台上输入文本提示,即可生成图像,无需复杂的设置或命令。…

    2024-04-12
    50800

发表回复

登录后才能评论

联系我们

13798528222

在线咨询: QQ交谈

邮件:364586434@qq.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信
ai写作生成器限时秒杀。甄选多种大模型无限制使用,ai绘画限时抢购>>点击进入