使用 int4 + QLora 训练(效果并不会比Full-finetuning差多少,lora rank设置较大且应用到所有层) 8K 上下文时,显存16GB的显卡则可以训练 20B 以下模型,显存24GB的显卡则可以训练 32B(含)以下模型。
推荐微调 1-7B 模型。推荐性价比显卡:4090,计算能力和显存带宽都足够好,比L40等商业卡还好用。
- https://colab.research.google.com/ 【需翻墙】免费提供 T4 等显卡,显存16GB
- https://modelscope.cn/