训练用模型

pretrained_model_name_or_path

底模文件路径

数据集设置

train_data_dir

训练数据集路径

reg_data_dir

正则化数据集路径。默认留空,不使用正则化图像

resolution

训练图片分辨率,宽x高。支持非正方形,但必须是 64 倍数。

保存设置

output_name

模型保存名称

output_dir

模型保存文件夹

save_every_n_epochs

每 N epoch(轮)自动保存一次模型

训练相关参数

max_train_epochs

最大训练 epoch(轮数)

train_batch_size

批量大小

学习率与优化器设置

unet_lr

U-Net 学习率

text_encoder_lr

文本编码器学习率

lr_scheduler

学习率调度器设置

lr_warmup_steps

学习率预热步数

lr_scheduler_num_cycles

重启次数

optimizer_type

优化器设置

训练预览图设置

enable_preview

启用训练预览图

网络设置

network_weights

从已有的 LoRA 模型上继续训练,填写路径

network_dim

网络维度,常用 4~128,不是越大越好

network_alpha

常用值:等于 network_dim 或 network_dim*1/2 或 1。使用较小的 alpha 需要提升学习率。

caption 选项

shuffle_caption

训练时随机打乱 tokens

keep_tokens

在随机打乱 tokens 时,保留前 N 个不变

速度优化选项

mixed_precision

混合精度

no_half_vae

不使用半精度 VAE,当出现 NaN detected in latents 报错时使用

xformers

启用 xformers

cache_latents

缓存图像 latent

LoRA 训练 新手模式

默认设置为你准备好了所有需要的参数,只需要你修改底模路径、训练集路径、训练轮数即可一键训练模型。

参数预览
pretrained_model_name_or_path = "./sd-models/model.safetensors" train_data_dir = "./train/aki" resolution = "512,512" output_name = "aki" output_dir = "./output" save_every_n_epochs = 2 max_train_epochs = 10 train_batch_size = 1 unet_lr = 0.0001 text_encoder_lr = 0.00001 lr_scheduler = "cosine_with_restarts" lr_warmup_steps = 0 lr_scheduler_num_cycles = 1 optimizer_type = "AdamW8bit" network_dim = 32 network_alpha = 32 shuffle_caption = true keep_tokens = 0 mixed_precision = "fp16" xformers = true cache_latents = true
Output