阿里千问通义本地大模型一键运行包

本来打算假期前更新出来的,因为一些事情拖到现在更新。今天带来的是阿里的千问通义本地大模型运行包,无需任何key,下载压缩点击即可运行。文件一共15G左右,需要准备最低20G以上的硬盘和最低显存4G。

通义千问的开源工作做得非常棒。他们在两个平台上发布了模型,一个是自家的魔搭(ModelScope)平台,可以快速地在阿里云上运行;另一个是在huggingface平台上,为国际玩家提供服务。此外,在Github上也提供了非常完善的文档,其中包括中文、英文和日文版本。

目前发布的模型有7B和14B,其中包括基础模型、聊天模型和量化模型。此外,还有VL模型,即大规模视觉语言模型。Qwen-VL可以以图像、文本和检测框作为输入,并以文本和检测框作为输出。

在本次尝试中,我主要测试了7B和14B的量化版本。我使用的是NVIDIA GeForce 3060显卡,并且能够流畅对话。

硬件准备:

需要一张显存4G+的英伟达显卡。比如1070+,2060s+,3060+, 3090,+,4060+,4090等等

2. 软件环境

操作系统Win11/Win10

其他基本不需要自己准备。

3. 使用方法

首先,获取软件包并解压。最好是解压在某个盘的根路径下面。如果是子路径,注意不要用中文和空格。

特色:

无需任何其他环境配置,只需硬件跟上,解压即可使用,无需安装其他扩展。

下载解压后的文件包为:

阿里千问通义本地大模型,一键运行包

本模型为千问通义一键运行包,本模型默认使用的1.8B小模型,支持显卡显存最低3.5G即可。本一键安装包另外带7B模型,支持显卡为7G以上,如果你是高配显卡可以自己设置。
如果你想加入更高的千问模型,可以把模型包放入/models下 然后配置下即可。

阿里千问通义本地大模型,一键运行包

本一键运行包,包括窗口运行,web运行,api运行三种方式
窗口运行文件为根目录的:cli_demo.py 如果要替换7B大模型,可以打开这个文件找到Qwen-1_8B-Chat-Int4,替换为Qwen-7B-Chat-Int4

阿里千问通义本地大模型,一键运行包
web运行文件为根目录的:web_demo.py 如果要替换7B大模型,可以打开这个文件找到Qwen-1_8B-Chat-Int4,替换为Qwen-7B-Chat-Int4

阿里千问通义本地大模型,一键运行包
api运行文件为根目录的:api.py 如果要替换7B大模型,可以打开这个文件找到Qwen-1_8B-Chat-Int4,替换为Qwen-7B-Chat-Int

本地搭建api的为post请求,请求的接口以php为例:

并且api的为post请求,你请求的接口以php为例:
// 创建一个cURL资源  
$ch = curl_init();  
// 设置URL和其他选项  

$url = 'http://127.0.0.1:8001/v1/chat/completions'; // 替换为你的目标URL  
curl_setopt($ch, CURLOPT_URL, $url);  
curl_setopt($ch, CURLOPT_POST, true);  
curl_setopt($ch, CURLOPT_TIMEOUT, 6000); 
curl_setopt($ch, CURLOPT_SSL_VERIFYPEER, false);
curl_setopt($ch, CURLOPT_SSL_VERIFYHOST, false);  

curl_setopt($ch, CURLOPT_POSTFIELDS, json_encode([  
    'model' => 'gpt-3.5-turbo',  
    'messages' => [  
        ['role' => 'user', 'content' => $keyword]  
    ]  
]));  

curl_setopt($ch, CURLOPT_HTTPHEADER, array(  
    'Connection: keep-alive', 
    'Content-Type: application/json',  
    'Content-Length: ' . strlen(json_encode([  
        'model' => 'gpt-3.5-turbo', 
        'messages' => [  
            ['role' => 'user', 'content' => $keyword]  
        ]  
    ]))  
));  

curl_setopt($ch, CURLOPT_RETURNTRANSFER, true);  
// 执行请求并获取响应  
$response = curl_exec($ch); 
var_dump($response);

欢迎大家开心使用吧!本模型本来就是开源不收费的,因为需要自己时间打包整合,所以象征性收30元,如果有其他问题也可以一起讨论学习!

阿里千问通义本地大模型一键运行包

通义千问-7B-Chat¥9.90

黄金会员黄金会员免费
已付费?登录刷新

本站内容由用户自发贡献,该文观点仅代表作者观点。本站仅提供存储服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,请联系我删除。

(1)
hanbang2014的头像hanbang2014
上一篇 2024-05-06 17:19
下一篇 2024-05-07 12:57

相关推荐

  • 跑sd是吃显存还是内存?

    跑sd是吃显存还是内存 跑Stable Diffusion(SD)主要消耗的是显卡的显存(VRAM),因为SD是一个基于深度学习的模型,其核心计算过程依赖于GPU进行高效的并行计算。显存用于存储模型的权重、激活函数的中间数据以及其他临时计算结果。当进行图像生成时,模型需要处理大量的数据,这些数据在计算过程中需要在显存中快速读写,因此显存的大小直接影响到能够处…

    2024-04-11
    1.2K00
  • 讯飞星火和文心一言哪个更强

    我们可以从几个维度来比较讯飞星火和文心一言的性能: 1. 技术性能: – 讯飞星火在最新的升级中表现出色,其交互能力超过了GPT-4 Turbo,综合能力逼近GPT-4 Turbo。讯飞星火4.0版本在数学能力、代码能力上超过了GPT-4o,并在国内外14项主流测试集中实现了9项第一。 – 文心一言在沙利文发布的《2024年中国大模型…

    2024-12-05
    38200
  • StableDiffusion网页版部署

    部署Stable Diffusion网页版(WebUI)可以通过多种方式进行,包括在本地搭建运行环境、使用Docker容器技术、部署在云服务平台,或者直接使用现成的Colab笔记本。以下是详细的部署方法:本地搭建运行环境1. 安装Python: 需要安装Python 3.10或更高版本,并确保在安装过程中选中了Add Python to PATH选项。2. …

    2024-04-10
    1.8K00
  • AI自动文章生成器 打破写作困境

    AI自动文章生成器是一种利用人工智能技术,能够自动生成文章内容的工具。它通过深度学习和自然语言处理算法,分析大量的文本数据,学习语言的结构、词汇的用法和文章的写作风格,从而能够生成与人类写作相似的高质量文章。本文将详细介绍AI自动文章生成器的原理、应用和影响。 1. AI自动文章生成器的原理AI自动文章生成器的原理基于强大的机器学习算法。它使用大量的文本数据…

    新手入门 2023-06-18
    28200
  • chat ai4.0国内版手机版登陆入口(附网址+教程)

    Chat4.0国内版手机版是一款集成了先进人工智能技术的聊天机器人应用。这款应用提供了多种功能,旨在为用户提供高效便捷的沟通体验。 主要特点包括: 1. 智能对话:用户可以与软件内的机器人进行各种问题交流,体验流畅的AI智能对话。 2. AI写作生成器和AI艺术生成器:可以帮助用户生成各种文案和图片。 3. 内容创作:软件可以改写文章,创作文案,编辑程序代码…

    2024-10-12
    2.9K00
  • 国内人工智能龙头公司 ai大模型十强

    国内人工智能行业的龙头公司主要包括百度、阿里巴巴、腾讯、华为、科大讯飞、小米、商汤科技等。这些企业不仅在人工智能技术的研发上处于领先地位,而且在商业应用和市场拓展方面也展现出强大的实力。例如,百度在自动驾驶、智能云服务方面有显著的成就;阿里巴巴和腾讯则在云计算、大数据处理以及人工智能应用领域有广泛的布局;华为在AI芯片和智能计算领域具有竞争力;科大讯飞在语音…

    2024-09-25
    80800

发表回复

登录后才能评论

评论列表(1条)

联系我们

13798528222

在线咨询: QQ交谈

邮件:364586434@qq.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信
ai写作生成器限时秒杀。甄选多种大模型无限制使用,ai绘画限时抢购>>点击进入