DeepSeek本地部署全攻略

本地部署 DeepSeek-R1 简明指南

1. 先准备好你的电脑环境

系统建议:优先选Ubuntu(其他Linux发行版也行,但Mac和Windows可能有坑)

Python:3.8或更高(保险起见用3.10)

硬件:有NVIDIA显卡的话体验更好(显存至少8G起步,不然大模型跑不动)

bash

新手注意:下面这行是安装基础工具,如果系统没装过git和pip就执行

sudo apt update && sudo apt install -y git python3-pip

建议搞个虚拟环境,避免包冲突(用conda或venv都行)

python3 -m venv myenv 创建

source myenv/bin/activate 激活(退出时用deactivate)

第1步:安装ollama
官方下载地址:https://ollama.com,下载安装。

安装完在cmd里运行 ollama -v ,能正确显示版本号就表示安装成功了

DeepSeek本地部署全攻略

第2步:运行模型(仅需1条命令)
进入 ollama 的 deepseek-r1 介绍页面,根据自己的硬件情况,选择一个合适的版本,复制命令到cmd运行即可(建议32b及以上)

https://ollama.com/library/deepseek-r1:32b

DeepSeek本地部署全攻略

例如7b模型: ollama run deepseek-r1:7b

首次运行会自动下载模型(最后1%下载很慢,可 ctrl+c 中断后重新运行命令,续传就快了)
运行完命令可在控制台直接对话,如下图(Windows),linux同样的命令:

DeepSeek本地部署全攻略

第3步:将API地址配置到后台
Ollama默认服务端口是11434,其提供的OpenAI格式的API地址为:

http://[ip地址]:11434/v1/chat/completions

将此地址填到后台就可以在线调用了:

最后,附几个ollama常用命令:
ollama -v :查看ollama版本号

ollama run [模型名称] :运行一个模型

ollama serve :启动ollama服务

ollama list :列出本地所有可用的模型

ollama rm [模型名称] :删除一个已安装的模型

2. 下载模型文件(关键步骤!)

重点提醒:模型文件通常很大(几十GB),确保硬盘空间足够!

官方源:如果有GitHub仓库,直接clone(但可能不带权重文件)

Hugging Face:更可能找到完整模型,用git lfs下载:

bash

git lfs install 首次使用需要安装lfs

git clone https://huggingface.co/作者名/模型名

如果断线了可以加这句恢复下载:git lfs pull

3. 安装依赖(容易踩坑的地方)

PyTorch:一定要选对CUDA版本!用`nvidia-smi`看右上角CUDA Version,比如11.8就装`cu118`

bash

示例:CUDA 11.8的安装命令

pip3 install torch torchvision torchaudio index-url https://download.pytorch.org/whl/cu118

其他依赖(假设项目有requirements.txt)

pip install -r requirements.txt

如果报错,试试逐个安装,可能版本冲突

4. 跑个简单测试(验证是否成功)

python

from transformers import AutoTokenizer, AutoModel

model_path = “./你下载的模型文件夹路径”

tokenizer = AutoTokenizer.from_pretrained(model_path)

model = AutoModel.from_pretrained(model_path).to(“cuda”😉 有GPU的话

随便问个问题试试

input_text = “北京有什么好玩的地方?”

inputs = tokenizer(input_text, return_tensors=”pt”😉.to(model.device)

output = model.generate(**inputs, max_new_tokens=100)

print(“模型回答:”, tokenizer.decode(output))

真人经验提醒

1. 显存不足

– 尝试`model.half()`用半精度

– 加`load_in_8bit=True`参数(需要`bitsandbytes`库)

– 终极方案:换卡/租云服务器(A10/A100)

2. 下载卡住

– Hugging Face经常断连,用`HTTPS_PROXY=http://你的代理IP:端口`加代理

3. 报错找不到模块

– 检查虚拟环境是否激活

– 用`pip list`看是否漏装包

4. 回答乱码

– 调低`temperature`参数

– 检查tokenizer是否加载正确

最后啰嗦一句

– 模型文件路径别带中文!

– 首次加载会较慢(可能要5-10分钟)

– 记得看官方文档的额外说明(比如是否需要申请权重许可)

本站内容由用户自发贡献,该文观点仅代表作者观点。本站仅提供存储服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,请联系我删除。

(0)
hanbang2014的头像hanbang2014
上一篇 2025-03-07 19:08
下一篇 2023-07-16 14:19

相关推荐

  • 个人电脑怎么训练ai

    个人电脑训练AI模型是一个既有趣又有挑战性的过程。虽然个人电脑的计算资源通常无法与专业的服务器或云计算资源相比,但对于一些小型项目和实验,个人电脑已经足够。以下是在个人电脑上训练AI模型的基本步骤: 1. 硬件检查: – CPU:确保你的处理器性能足够好,因为很多AI任务在初期可以使用CPU进行。 – GPU:对于深度学习任务,一个强…

    2024-05-10
    2.0K00
  • 如何写一篇文言文作文?需要注意什么细节?

    写一篇文言文作文需要注意多个细节,以确保语言的准确性和表达的优雅。以下是一些关键要点: 基础知识的掌握 – 文言文基础:你需要具备一定的文言文基础,包括对常用词汇和句式的理解。熟悉文言文的实词和虚词,了解它们的多义性和用法是写作的前提。 – 句法结构:掌握文言文的句法结构,如被动句、省略句、倒装句等。这些句式的运用能够使你的文章更具文…

    2024-12-06
    58300
  • ai绘画stable diffusion电脑配置cpu要求

    要运行Stable Diffusion AI绘图软件,电脑配置是一个重要的考虑因素。以下是根据搜索结果得出的详细电脑配置要求和推荐: 最低配置要求– CPU: Intel酷睿i5或更高级别的处理器,或者AMD的R5处理器。– 内存: 至少8GB的RAM。– 显卡: 支持CUDA的显卡,至少8GB显存,例如NVIDIA的RT…

    2024-04-09
    1.1K00
  • Chat4.0国内版手机版免费在哪里找?官方链接

    一、Chat4.0国内版手机版简介 Chat4.0是一款集成了自然语言处理(NLP)技术的智能对话软件,能够理解和回应用户的各种问题和需求。它不仅支持文本对话,还具备语音识别、图像处理等多种功能,适用于多种场景,如写作辅助、编程支持、日常问答等。 该软件的主要特点包括: 高效的自然语言理解能力,能够进行流畅的对话。 支持多种输入方式,包括文字、语音和图像。 …

    2024-11-11
    82200
  • ai人工智能代写是怎么回事

    随着科技的飞速发展,人工智能(AI)已经渗透到我们生活的方方面面。在写作领域,AI代写服务也逐渐兴起,成为许多人的写作助手。本文将详细探讨AI人工智能代写的概念、优势与挑战,并对其未来发展进行展望。 一、AI人工智能代写的概念 1 定义 AI人工智能代写是指利用人工智能技术,通过自然语言处理、机器学习等手段,自动生成高质量、符合用户需求的文本内容。 2 应用…

    2024-10-09
    2.3K00
  • stable diffusion下载安装地址(附教程)

    Stable Diffusion是一款开源的AI图像生成工具,它可以通过文本描述生成图像。以下是Stable Diffusion的下载和安装步骤: 1. 安装环境准备:确保你的计算机上安装了Python和Git。对于Python,建议安装3.10.6版本,这是Stable Diffusion WebUI作者推荐的版本。安装Python时,记得勾选将Pytho…

    2024-05-15
    80200

发表回复

登录后才能评论

联系我们

13798528222

在线咨询: QQ交谈

邮件:364586434@qq.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信
ai写作生成器限时秒杀。甄选多种大模型无限制使用,ai绘画限时抢购>>点击进入