登录社区云,与社区用户共同成长
邀请您加入社区
使用gptq量化的模型,比如qwen-1.5-14B,对于auto-gptq 和optimum两个依赖有着版本要求。
使用gptq量化的模型,比如qwen-1.5-14B,对于auto-gptq 和optimum两个依赖有着版本要求。这里实验出的一个可行组合是:
auto-gptq==0.4.2 optimum==1.13.1 transformers==4.38.1 #在model card上写的是>=4.37.0
在这里稍微记录一下
ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!
更多推荐
基于 Qwen-0.5B Lora 微调训练英语问答任务
LLM大模型:QWen2-72B-Instruct模型安装部署过程
Qwen-1.5-7b指令微调实战:SwanLab可视化训练
扫一扫分享内容
所有评论(0)