DeepSeek本地部署全攻略

本地部署 DeepSeek-R1 简明指南

1. 先准备好你的电脑环境

系统建议:优先选Ubuntu(其他Linux发行版也行,但Mac和Windows可能有坑)

Python:3.8或更高(保险起见用3.10)

硬件:有NVIDIA显卡的话体验更好(显存至少8G起步,不然大模型跑不动)

bash

新手注意:下面这行是安装基础工具,如果系统没装过git和pip就执行

sudo apt update && sudo apt install -y git python3-pip

建议搞个虚拟环境,避免包冲突(用conda或venv都行)

python3 -m venv myenv 创建

source myenv/bin/activate 激活(退出时用deactivate)

第1步:安装ollama
官方下载地址:https://ollama.com,下载安装。

安装完在cmd里运行 ollama -v ,能正确显示版本号就表示安装成功了

DeepSeek本地部署全攻略

第2步:运行模型(仅需1条命令)
进入 ollama 的 deepseek-r1 介绍页面,根据自己的硬件情况,选择一个合适的版本,复制命令到cmd运行即可(建议32b及以上)

https://ollama.com/library/deepseek-r1:32b

DeepSeek本地部署全攻略

例如7b模型: ollama run deepseek-r1:7b

首次运行会自动下载模型(最后1%下载很慢,可 ctrl+c 中断后重新运行命令,续传就快了)
运行完命令可在控制台直接对话,如下图(Windows),linux同样的命令:

DeepSeek本地部署全攻略

第3步:将API地址配置到后台
Ollama默认服务端口是11434,其提供的OpenAI格式的API地址为:

http://[ip地址]:11434/v1/chat/completions

将此地址填到后台就可以在线调用了:

最后,附几个ollama常用命令:
ollama -v :查看ollama版本号

ollama run [模型名称] :运行一个模型

ollama serve :启动ollama服务

ollama list :列出本地所有可用的模型

ollama rm [模型名称] :删除一个已安装的模型

2. 下载模型文件(关键步骤!)

重点提醒:模型文件通常很大(几十GB),确保硬盘空间足够!

官方源:如果有GitHub仓库,直接clone(但可能不带权重文件)

Hugging Face:更可能找到完整模型,用git lfs下载:

bash

git lfs install 首次使用需要安装lfs

git clone https://huggingface.co/作者名/模型名

如果断线了可以加这句恢复下载:git lfs pull

3. 安装依赖(容易踩坑的地方)

PyTorch:一定要选对CUDA版本!用`nvidia-smi`看右上角CUDA Version,比如11.8就装`cu118`

bash

示例:CUDA 11.8的安装命令

pip3 install torch torchvision torchaudio index-url https://download.pytorch.org/whl/cu118

其他依赖(假设项目有requirements.txt)

pip install -r requirements.txt

如果报错,试试逐个安装,可能版本冲突

4. 跑个简单测试(验证是否成功)

python

from transformers import AutoTokenizer, AutoModel

model_path = “./你下载的模型文件夹路径”

tokenizer = AutoTokenizer.from_pretrained(model_path)

model = AutoModel.from_pretrained(model_path).to(“cuda”😉 有GPU的话

随便问个问题试试

input_text = “北京有什么好玩的地方?”

inputs = tokenizer(input_text, return_tensors=”pt”😉.to(model.device)

output = model.generate(**inputs, max_new_tokens=100)

print(“模型回答:”, tokenizer.decode(output))

真人经验提醒

1. 显存不足

– 尝试`model.half()`用半精度

– 加`load_in_8bit=True`参数(需要`bitsandbytes`库)

– 终极方案:换卡/租云服务器(A10/A100)

2. 下载卡住

– Hugging Face经常断连,用`HTTPS_PROXY=http://你的代理IP:端口`加代理

3. 报错找不到模块

– 检查虚拟环境是否激活

– 用`pip list`看是否漏装包

4. 回答乱码

– 调低`temperature`参数

– 检查tokenizer是否加载正确

最后啰嗦一句

– 模型文件路径别带中文!

– 首次加载会较慢(可能要5-10分钟)

– 记得看官方文档的额外说明(比如是否需要申请权重许可)

本站内容由用户自发贡献,该文观点仅代表作者观点。本站仅提供存储服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,请联系我删除。

(0)
hanbang2014的头像hanbang2014
上一篇 2025-03-07 19:08
下一篇 2024-11-19 08:32

相关推荐

  • Chat4.0国内版手机版免费在哪里找?官方链接

    一、Chat4.0国内版手机版简介 Chat4.0是一款集成了自然语言处理(NLP)技术的智能对话软件,能够理解和回应用户的各种问题和需求。它不仅支持文本对话,还具备语音识别、图像处理等多种功能,适用于多种场景,如写作辅助、编程支持、日常问答等。 该软件的主要特点包括: 高效的自然语言理解能力,能够进行流畅的对话。 支持多种输入方式,包括文字、语音和图像。 …

    2024-11-11
    84700
  • 个人电脑怎么训练ai

    个人电脑训练AI模型是一个既有趣又有挑战性的过程。虽然个人电脑的计算资源通常无法与专业的服务器或云计算资源相比,但对于一些小型项目和实验,个人电脑已经足够。以下是在个人电脑上训练AI模型的基本步骤: 1. 硬件检查: – CPU:确保你的处理器性能足够好,因为很多AI任务在初期可以使用CPU进行。 – GPU:对于深度学习任务,一个强…

    2024-05-10
    2.2K00
  • chat ai中文免费版入口+使用教程

    随着人工智能技术的迅速发展,越来越多的用户开始关注和使用基于AI的聊天工具。Chat AI中文免费版作为一款集成了多种AI技术的智能聊天应用,提供了丰富的功能和便捷的使用体验。本文将详细介绍Chat AI中文免费版的入口、功能以及使用教程,帮助用户更好地利用这一工具。 一、Chat AI中文免费版入口 用户可以通过以下方式访问Chat AI中文免费版: 官方…

    2024-12-10
    1.3K00
  • 跑大模型推荐GPU

    运行大型机器学习模型时,选择合适的GPU对于确保训练过程的效率和性能至关重要。以下是推荐的GPU选项: 1. NVIDIA RTX 4090:这是一款消费级顶级GPU,拥有24GB显存,适合个人研发项目和中等规模的模型训练。 2. NVIDIA A100:提供80GB显存,适合大规模数据和复杂模型的公司级应用。 3. NVIDIA A800:作为A100的后…

    2024-05-08
    1.6K00
  • AI智能写作生成器,10秒上手,别再说写作没灵感了!

    你是否经常与文字打交道?是否会遇到以下困扰? – 写作难以启笔,写不出好的内容? – 制作课程时缺乏灵感? – 营销文案没有吸引力? – 制作PPT耗费时间和精力? – 短视频脚本缺乏创意? 随着ai智能写作生成器的出现,先行者已经开始利用ai构建自己的新商业模式。他们利用ai强大的文案能力,快速实…

    2023-03-28
    45000
  • ai人工智能代写是怎么回事

    随着科技的飞速发展,人工智能(AI)已经渗透到我们生活的方方面面。在写作领域,AI代写服务也逐渐兴起,成为许多人的写作助手。本文将详细探讨AI人工智能代写的概念、优势与挑战,并对其未来发展进行展望。 一、AI人工智能代写的概念 1 定义 AI人工智能代写是指利用人工智能技术,通过自然语言处理、机器学习等手段,自动生成高质量、符合用户需求的文本内容。 2 应用…

    2024-10-09
    2.3K00

发表回复

登录后才能评论

联系我们

13798528222

在线咨询: QQ交谈

邮件:364586434@qq.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信
ai写作生成器限时秒杀。甄选多种大模型无限制使用,ai绘画限时抢购>>点击进入