DeepSeek本地部署全攻略

本地部署 DeepSeek-R1 简明指南

1. 先准备好你的电脑环境

系统建议:优先选Ubuntu(其他Linux发行版也行,但Mac和Windows可能有坑)

Python:3.8或更高(保险起见用3.10)

硬件:有NVIDIA显卡的话体验更好(显存至少8G起步,不然大模型跑不动)

bash

新手注意:下面这行是安装基础工具,如果系统没装过git和pip就执行

sudo apt update && sudo apt install -y git python3-pip

建议搞个虚拟环境,避免包冲突(用conda或venv都行)

python3 -m venv myenv 创建

source myenv/bin/activate 激活(退出时用deactivate)

第1步:安装ollama
官方下载地址:https://ollama.com,下载安装。

安装完在cmd里运行 ollama -v ,能正确显示版本号就表示安装成功了

DeepSeek本地部署全攻略

第2步:运行模型(仅需1条命令)
进入 ollama 的 deepseek-r1 介绍页面,根据自己的硬件情况,选择一个合适的版本,复制命令到cmd运行即可(建议32b及以上)

https://ollama.com/library/deepseek-r1:32b

DeepSeek本地部署全攻略

例如7b模型: ollama run deepseek-r1:7b

首次运行会自动下载模型(最后1%下载很慢,可 ctrl+c 中断后重新运行命令,续传就快了)
运行完命令可在控制台直接对话,如下图(Windows),linux同样的命令:

DeepSeek本地部署全攻略

第3步:将API地址配置到后台
Ollama默认服务端口是11434,其提供的OpenAI格式的API地址为:

http://[ip地址]:11434/v1/chat/completions

将此地址填到后台就可以在线调用了:

最后,附几个ollama常用命令:
ollama -v :查看ollama版本号

ollama run [模型名称] :运行一个模型

ollama serve :启动ollama服务

ollama list :列出本地所有可用的模型

ollama rm [模型名称] :删除一个已安装的模型

2. 下载模型文件(关键步骤!)

重点提醒:模型文件通常很大(几十GB),确保硬盘空间足够!

官方源:如果有GitHub仓库,直接clone(但可能不带权重文件)

Hugging Face:更可能找到完整模型,用git lfs下载:

bash

git lfs install 首次使用需要安装lfs

git clone https://huggingface.co/作者名/模型名

如果断线了可以加这句恢复下载:git lfs pull

3. 安装依赖(容易踩坑的地方)

PyTorch:一定要选对CUDA版本!用`nvidia-smi`看右上角CUDA Version,比如11.8就装`cu118`

bash

示例:CUDA 11.8的安装命令

pip3 install torch torchvision torchaudio index-url https://download.pytorch.org/whl/cu118

其他依赖(假设项目有requirements.txt)

pip install -r requirements.txt

如果报错,试试逐个安装,可能版本冲突

4. 跑个简单测试(验证是否成功)

python

from transformers import AutoTokenizer, AutoModel

model_path = “./你下载的模型文件夹路径”

tokenizer = AutoTokenizer.from_pretrained(model_path)

model = AutoModel.from_pretrained(model_path).to(“cuda”😉 有GPU的话

随便问个问题试试

input_text = “北京有什么好玩的地方?”

inputs = tokenizer(input_text, return_tensors=”pt”😉.to(model.device)

output = model.generate(**inputs, max_new_tokens=100)

print(“模型回答:”, tokenizer.decode(output))

真人经验提醒

1. 显存不足

– 尝试`model.half()`用半精度

– 加`load_in_8bit=True`参数(需要`bitsandbytes`库)

– 终极方案:换卡/租云服务器(A10/A100)

2. 下载卡住

– Hugging Face经常断连,用`HTTPS_PROXY=http://你的代理IP:端口`加代理

3. 报错找不到模块

– 检查虚拟环境是否激活

– 用`pip list`看是否漏装包

4. 回答乱码

– 调低`temperature`参数

– 检查tokenizer是否加载正确

最后啰嗦一句

– 模型文件路径别带中文!

– 首次加载会较慢(可能要5-10分钟)

– 记得看官方文档的额外说明(比如是否需要申请权重许可)

本站内容由用户自发贡献,该文观点仅代表作者观点。本站仅提供存储服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,请联系我删除。

(0)
hanbang2014的头像hanbang2014
上一篇 2025-03-07 19:08
下一篇 2024-04-11 15:47

相关推荐

  • ?搞钱必看?,Chat4.0免费版,助力你的财富增长!

    一、了解Chatai 4.0的优势 Chatai 4.0是chatai推出的一款强大的语言模型,它能够生成高质量的文本内容,帮助用户在多个领域中实现目标。以下是Chatai 4.0的一些主要优势: 高效性:Chatai能够快速生成内容,节省用户的时间和精力。 多样性:无论是撰写文章、生成营销文案,还是进行数据分析,Chatai都能提供多种解决方案。 个性化:…

    2024-11-21
    24200
  • ai绘画入门,认识Midjourney 提示词

    U1U2U3U4 U 按钮放大图像,生成所选图像的更大版本并添加更多细节。 V1V2V3V4 V 按钮创建所选网格图像的轻微变化。创建变体会生成与所选图像的整体风格和构图相似的新图像网格。 ? ?(重新滚动)重新运行作业。在这种情况下,它将重新运行原始提示,生成新的图像网格 ? Make VariationsWeb ↗️❤️ Favorite 制作变体:创建…

    2023-05-08
    39100
  • chat人工智能免费入口(网页版)

    随着人工智能技术的飞速发展,Chat人工智能已经成为我们日常生活中不可或缺的一部分。它能够提供即时信息查询、语言翻译、情感交流等多种服务,极大地方便了用户的生活和工作。然而,对于许多用户来说,找到一个可靠且免费的Chat人工智能入口仍然是一个挑战。本文将详细介绍如何找到并使用这些免费入口,以及它们的优势和潜在的局限性。 1. 什么是Chat人工智能? Cha…

    2024-08-19
    1.4K00
  • 小白一键安装sd部署教程

    对于没有技术背景的用户来说,想要一键安装并部署一个SD(Super Deformed,超变形)风格的AI绘画模型可能会比较困难,因为这通常涉及到复杂的编程和系统配置。不过,一些平台和服务提供了简化的安装和部署流程,使得即使是技术小白也能够使用AI绘画工具。以下是一个简化的步骤指南,帮助你尝试一键安装和部署SD模型: 1. 选择合适的平台或服务:–…

    2024-04-18
    55300
  • 每天被ChatGPT刷屏却不知道用它来干什么的,要小心了!

    相信大家应该跟我一样,最近几个月每天醒来,都在接受ChatGPT颠覆式的“洗礼”。短短一个月内ChatGPT开放API接口、ChatGPT升级GPT-4、ChatGPT联网了、OpenAI开放了第三方插件、马斯克呼吁暂停ChatgGPT的训练……跟ChatGPT相关的新闻“迭代”频率堪比吃饭。 短短2个月,ChatGPT就创造了过亿的月活用户,打破了tikt…

    2023-05-17 新手入门
    44700
  • 文言一心人工智能如何使用?有什么优势?

    文言一心的使用方法 文言一心的使用相对简单,用户只需按照以下步骤进行操作: 注册与登录:用户需要在百度平台注册一个账户,登录后即可使用文言一心的各项功能。 选择文言写作模式:在文言一心的界面中,用户可以选择不同的写作模式,包括古文写作、现代汉语翻译等。 输入文本:用户可以直接在输入框中输入需要处理的文本,文言一心将提供相应的反馈和建议,帮助用户优化文本。 文…

    2024-11-22
    2.6K00

发表回复

登录后才能评论

联系我们

13798528222

在线咨询: QQ交谈

邮件:364586434@qq.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信
ai写作生成器限时秒杀。甄选多种大模型无限制使用,ai绘画限时抢购>>点击进入