训练用模型

model_train_type

模型种类

pretrained_model_name_or_path

底模文件路径

vae

(可选) VAE 模型文件路径,使用外置 VAE 文件覆盖模型内本身的

v2

底模为 sd2.0 以后的版本需要启用

数据集设置

train_data_dir

训练数据集路径

reg_data_dir

正则化数据集路径。默认留空,不使用正则化图像

prior_loss_weight

正则化 - 先验损失权重

resolution

训练图片分辨率,宽x高。支持非正方形,但必须是 64 倍数。

enable_bucket

启用 arb 桶以允许非固定宽高比的图片

min_bucket_reso

arb 桶最小分辨率

max_bucket_reso

arb 桶最大分辨率

bucket_reso_steps

arb 桶分辨率划分单位,SDXL 可以使用 32

保存设置

output_name

模型保存名称

output_dir

模型保存文件夹

save_model_as

模型保存格式

save_precision

模型保存精度

save_every_n_epochs

每 N epoch(轮)自动保存一次模型

训练相关参数

max_train_epochs

最大训练 epoch(轮数)

train_batch_size

批量大小

stop_text_encoder_training

仅 sd-dreambooth 可用。在第 N 步时,停止训练文本编码器。设置为 -1 不训练文本编码器

gradient_checkpointing

梯度检查点

gradient_accumulation_steps

梯度累加步数

学习率与优化器设置

learning_rate

学习率

learning_rate_te

文本编码器学习率

learning_rate_te1

仅 SDXL 可用。文本编码器 1 (ViT-L) 学习率

learning_rate_te2

仅 SDXL 可用。文本编码器 2 (BiG-G) 学习率

lr_scheduler

学习率调度器设置

lr_warmup_steps

学习率预热步数

lr_scheduler_num_cycles

重启次数

optimizer_type

优化器设置

min_snr_gamma

最小信噪比伽马值,如果启用推荐为 5

optimizer_args_custom

自定义 optimizer_args,一行一个

训练预览图设置

enable_preview

启用训练预览图

日志设置

log_with

日志模块

log_prefix

日志前缀

log_tracker_name

日志追踪器名称

logging_dir

日志保存文件夹

caption(Tag)选项

caption_extension

Tag 文件扩展名

shuffle_caption

训练时随机打乱 tokens

weighted_captions

使用带权重的 token,不推荐与 shuffle_caption 一同开启

keep_tokens

在随机打乱 tokens 时,保留前 N 个不变

keep_tokens_separator

保留 tokens 时使用的分隔符

max_token_length

最大 token 长度

caption_dropout_rate

丢弃全部标签的概率,对一个图片概率不使用 caption 或 class token

caption_dropout_every_n_epochs

每 N 个 epoch 丢弃全部标签

caption_tag_dropout_rate

按逗号分隔的标签来随机丢弃 tag 的概率

噪声设置

noise_offset

在训练中添加噪声偏移来改良生成非常暗或者非常亮的图像,如果启用推荐为 0.1

multires_noise_iterations

多分辨率(金字塔)噪声迭代次数 推荐 6-10。无法与 noise_offset 一同启用

multires_noise_discount

多分辨率(金字塔)衰减率 推荐 0.3-0.8,须同时与上方参数 multires_noise_iterations 一同启用

高级设置

seed

随机种子

clip_skip

CLIP 跳过层数 玄学

no_token_padding

禁用 token 填充(与 Diffusers 的旧 Dreambooth 脚本一致)

速度优化选项

mixed_precision

训练混合精度

full_fp16

完全使用 FP16 精度

full_bf16

完全使用 BF16 精度 仅支持 SDXL

xformers

启用 xformers

lowram

低内存模式 该模式下会将 U-net、文本编码器、VAE 直接加载到显存中

cache_latents

缓存图像 latent

cache_latents_to_disk

缓存图像 latent 到磁盘

persistent_data_loader_workers

保留加载训练集的worker,减少每个 epoch 之间的停顿。

分布式训练

ddp_timeout

分布式训练超时时间

ddp_gradient_as_bucket_view

Dreambooth 训练 专家模式

你所热爱的 就是你的参数

参数预览
model_train_type = "sd-dreambooth" pretrained_model_name_or_path = "./sd-models/model.safetensors" v2 = false train_data_dir = "./train/aki" resolution = "512,512" enable_bucket = true min_bucket_reso = 256 max_bucket_reso = 1024 bucket_reso_steps = 64 output_name = "aki" output_dir = "./output" save_model_as = "safetensors" save_precision = "fp16" save_every_n_epochs = 2 max_train_epochs = 10 train_batch_size = 1 gradient_checkpointing = false learning_rate = 0.000001 learning_rate_te = 5e-7 lr_scheduler = "cosine_with_restarts" lr_warmup_steps = 0 lr_scheduler_num_cycles = 1 optimizer_type = "AdamW8bit" log_with = "tensorboard" logging_dir = "./logs" caption_extension = ".txt" shuffle_caption = true weighted_captions = false keep_tokens = 0 max_token_length = 255 seed = 1337 clip_skip = 2 no_token_padding = false mixed_precision = "fp16" xformers = true lowram = false cache_latents = true cache_latents_to_disk = true persistent_data_loader_workers = true
Output