训练用模型

model_train_type

训练种类

pretrained_model_name_or_path

底模文件路径

resume

从某个 save_state 保存的中断状态继续训练,填写文件路径

vae

(可选) VAE 模型文件路径,使用外置 VAE 文件覆盖模型内本身的

v2

底模为 sd2.0 以后的版本需要启用

数据集设置

train_data_dir

训练数据集路径

reg_data_dir

正则化数据集路径。默认留空,不使用正则化图像

prior_loss_weight

正则化 - 先验损失权重

resolution

训练图片分辨率,宽x高。支持非正方形,但必须是 64 倍数。

enable_bucket

启用 arb 桶以允许非固定宽高比的图片

min_bucket_reso

arb 桶最小分辨率

max_bucket_reso

arb 桶最大分辨率

bucket_reso_steps

arb 桶分辨率划分单位,SDXL 可以使用 32

保存设置

output_name

模型保存名称

output_dir

模型保存文件夹

save_model_as

模型保存格式

save_precision

模型保存精度

save_every_n_epochs

每 N epoch(轮)自动保存一次模型

save_state

保存训练状态 配合 resume 参数可以继续从某个状态训练

训练相关参数

max_train_epochs

最大训练 epoch(轮数)

train_batch_size

批量大小

gradient_checkpointing

梯度检查点

gradient_accumulation_steps

梯度累加步数

network_train_unet_only

仅训练 U-Net

network_train_text_encoder_only

仅训练文本编码器

学习率与优化器设置

learning_rate

总学习率,在分开设置 U-Net 与文本编码器学习率后这个值失效。

unet_lr

U-Net 学习率

text_encoder_lr

文本编码器学习率

lr_scheduler

学习率调度器设置

lr_warmup_steps

学习率预热步数

lr_scheduler_num_cycles

重启次数

optimizer_type

优化器设置

min_snr_gamma

最小信噪比伽马值,如果启用推荐为 5

optimizer_args_custom

自定义 optimizer_args,一行一个

网络设置

network_module

训练网络模块

network_weights

从已有的 LoRA 模型上继续训练,填写路径

network_dim

网络维度,常用 4~128,不是越大越好

network_alpha

常用值:等于 network_dim 或 network_dim*1/2 或 1。使用较小的 alpha 需要提升学习率。

network_dropout

dropout 概率 (与 lycoris 不兼容,需要用 lycoris 自带的)

scale_weight_norms

最大范数正则化。如果使用,推荐为 1

network_args_custom

自定义 network_args,一行一个

enable_block_weights

启用分层学习率训练(只支持网络模块 networks.lora)

enable_base_weight

启用基础权重(差异炼丹)

训练预览图设置

enable_preview

启用训练预览图

日志设置

log_with

日志模块

log_prefix

日志前缀

log_tracker_name

日志追踪器名称

logging_dir

日志保存文件夹

caption(Tag)选项

caption_extension

Tag 文件扩展名

shuffle_caption

训练时随机打乱 tokens

weighted_captions

使用带权重的 token,不推荐与 shuffle_caption 一同开启

keep_tokens

在随机打乱 tokens 时,保留前 N 个不变

keep_tokens_separator

保留 tokens 时使用的分隔符

max_token_length

最大 token 长度

caption_dropout_rate

丢弃全部标签的概率,对一个图片概率不使用 caption 或 class token

caption_dropout_every_n_epochs

每 N 个 epoch 丢弃全部标签

caption_tag_dropout_rate

按逗号分隔的标签来随机丢弃 tag 的概率

噪声设置

noise_offset

在训练中添加噪声偏移来改良生成非常暗或者非常亮的图像,如果启用推荐为 0.1

multires_noise_iterations

多分辨率(金字塔)噪声迭代次数 推荐 6-10。无法与 noise_offset 一同启用

multires_noise_discount

多分辨率(金字塔)衰减率 推荐 0.3-0.8,须同时与上方参数 multires_noise_iterations 一同启用

数据增强

color_aug

颜色改变

flip_aug

图像翻转

random_crop

随机剪裁

高级设置

seed

随机种子

clip_skip

CLIP 跳过层数 玄学

no_metadata

不保存模型元数据

ui_custom_params

危险 自定义参数,请输入 TOML 格式,将会直接覆盖当前界面内任何参数。实时更新,推荐写完后再粘贴过来

速度优化选项

mixed_precision

训练混合精度

full_fp16

完全使用 FP16 精度

full_bf16

完全使用 BF16 精度

fp8_base

对基础模型使用 FP8 精度

no_half_vae

不使用半精度 VAE

xformers

启用 xformers

lowram

低内存模式 该模式下会将 U-net、文本编码器、VAE 直接加载到显存中

cache_latents

缓存图像 latent

cache_latents_to_disk

缓存图像 latent 到磁盘

cache_text_encoder_outputs

缓存文本编码器的输出,减少显存使用。使用时需要关闭 shuffle_caption

cache_text_encoder_outputs_to_disk

缓存文本编码器的输出到磁盘

persistent_data_loader_workers

保留加载训练集的worker,减少每个 epoch 之间的停顿。

分布式训练

ddp_timeout

分布式训练超时时间

ddp_gradient_as_bucket_view

LoRA 训练 专家模式

你所热爱的 就是你的参数

参数预览
model_train_type = "sd-lora" pretrained_model_name_or_path = "./sd-models/model.safetensors" v2 = false train_data_dir = "./train/aki" prior_loss_weight = 1 resolution = "512,512" enable_bucket = true min_bucket_reso = 256 max_bucket_reso = 1024 bucket_reso_steps = 64 output_name = "aki" output_dir = "./output" save_model_as = "safetensors" save_precision = "fp16" save_every_n_epochs = 2 max_train_epochs = 10 train_batch_size = 1 gradient_checkpointing = false network_train_unet_only = false network_train_text_encoder_only = false learning_rate = 0.0001 unet_lr = 0.0001 text_encoder_lr = 0.00001 lr_scheduler = "cosine_with_restarts" lr_warmup_steps = 0 lr_scheduler_num_cycles = 1 optimizer_type = "AdamW8bit" network_module = "networks.lora" network_dim = 32 network_alpha = 32 log_with = "tensorboard" logging_dir = "./logs" caption_extension = ".txt" shuffle_caption = true keep_tokens = 0 max_token_length = 255 seed = 1337 clip_skip = 2 mixed_precision = "fp16" xformers = true lowram = false cache_latents = true cache_latents_to_disk = true persistent_data_loader_workers = true
Output