1. 首页
  2. 编程语言
  3. C
  4. 基于LoRa的ChatGLM模型微调训练

基于LoRa的ChatGLM模型微调训练

上传者: 2023-11-27 05:09:53上传 ZIP文件 13.07MB 热度 63次

在ChatGLM的模型微调训练中,我们选择了与官方方案不同的方法,采用了一种效果卓越的方案。与传统方案相比,这种方法对显存的利用更为友好,仅需24GB显存即可完成垂直领域大模型的训练。在实验过程中,我们发现这一方法的训练效果非常出色,特别适用于机器资源有限的同学需要进行实验的场景。

下载地址
用户评论