Found 58 repositories(showing 30)
mymusise
基于ChatGLM-6B + LoRA的Fintune方案
hiyouga
Fine-tuning ChatGLM-6B with PEFT | 基于 PEFT 的高效 ChatGLM 微调
liucongg
基于ChatGLM-6B、ChatGLM2-6B、ChatGLM3-6B模型,进行下游具体任务微调,涉及Freeze、Lora、P-tuning、全参微调等
unit-mesh
《AI 研发提效:自己动手训练 LoRA》,包含 Llama (Alpaca LoRA)模型、ChatGLM (ChatGLM Tuning)相关 Lora 的训练。训练内容:用户故事生成、测试代码生成、代码辅助生成、文本转 SQL、文本生成代码……
WangRongsheng
🛰️ 基于真实医疗对话数据在ChatGLM上进行LoRA、P-Tuning V2、Freeze、RLHF等微调,我们的眼光不止于医疗问答
shibing624
ChatGLM-6B fine-tuning.
CSHaitao
deepspeed+trainer简单高效实现多卡微调大模型
thinksoso
微调ChatGLM
thaumstrial
Simple implementation of using lora form the peft library to fine-tune the chatglm-6b
minghaochen
chatglm3base模型的有监督微调SFT
zejunwang1
基于 LoRA 和 P-Tuning v2 的 ChatGLM-6B 高效参数微调
taishan1994
使用LoRA对ChatGLM进行微调。
wjn1996
基于ChatGLM2-6B进行微调,包括全参数、参数有效性、量化感知训练等,可实现指令微调、多轮对话微调等。
paulxin001
This project is mainly to explore what effect can be achieved by fine-tuning LLM model (ChatGLM-6B)of about 6B in vertical field (Romance of The Three Kingdoms).
ArtificialZeng
No description available
uglyghost
ChatGLM-Peft-Tuning
Markz1122
基于AI和文档的大规模数据集生成和验证工具|ChatGLM、 P-Tuning v2、ChatGPT
Hello-MLClub
本项目主要针对ChatGLM、ChatGLM2和ChatGLM3模型进行不同方式的微调(Freeze方法、Lora方法、P-Tuning方法、全量参数等),并对比大模型在不同微调方法上的效果,主要针对信息抽取任务、生成任务、分类任务等。
michael-wzhu
Fine-tuning ChatGLM on medical corpus!
unit-mesh
Minions processor 是一个代码处理工具,用于预处理 ChatGLM Tuning、Alpaca LoRA 等所需要的 Instruction 代码分析和处理。
mingminyu
基于 ChatGLM3-6B 的 LORA-Finetuning
Stardust-hyx
Tuning ChatGLM with Lora to follow instructions and solve downstream tasks.
wangdayaya
finetune ChatGLM6B model by lora with aipaca english data and aipaca chinese data 。
ArtificialZeng
ChatGLM-Efficient-Tuning-New-explained
linJZhong
chatglm3模型微调实战
nikaiming
No description available
ZeyuanGuo
No description available
benkang-chen
No description available
Negus25
No description available
yxk9810
Finetune chatglm using p-tuning v2 on kesai dataset