基于LoRa的ChatGLM模型微调训练
在ChatGLM的模型微调训练中,我们选择了与官方方案不同的方法,采用了一种效果卓越的方案。与传统方案相比,这种方法对显存的利用更为友好,仅需24GB显存即可完成垂直领域大模型的训练。在实验过程中,我们发现这一方法的训练效果非常出色,特别适用于机器资源有限的同学需要进行实验的场景。
下载地址
用户评论