当前位置: 首页 > news >正文

flux_train_network的参数

flux_train_network的参数

这是一份Flux lora训练的参数清单,总是忘记参数,记下来一下,方便自己查找。

usage: flux_train_network.py [-h] [--console_log_level {DEBUG,INFO,WARNING,ERROR,CRITICAL}] [--console_log_file CONSOLE_LOG_FILE] [--console_log_simple] [--v2] [--v_parameterization][--pretrained_model_name_or_path PRETRAINED_MODEL_NAME_OR_PATH] [--tokenizer_cache_dir TOKENIZER_CACHE_DIR] [--train_data_dir TRAIN_DATA_DIR] [--cache_info][--shuffle_caption] [--caption_separator CAPTION_SEPARATOR] [--caption_extension CAPTION_EXTENSION] [--caption_extention CAPTION_EXTENTION][--keep_tokens KEEP_TOKENS] [--keep_tokens_separator KEEP_TOKENS_SEPARATOR] [--secondary_separator SECONDARY_SEPARATOR] [--enable_wildcard][--caption_prefix CAPTION_PREFIX] [--caption_suffix CAPTION_SUFFIX] [--color_aug] [--flip_aug] [--face_crop_aug_range FACE_CROP_AUG_RANGE] [--random_crop][--debug_dataset] [--resolution RESOLUTION] [--cache_latents] [--vae_batch_size VAE_BATCH_SIZE] [--cache_latents_to_disk] [--skip_cache_check][--enable_bucket] [--min_bucket_reso MIN_BUCKET_RESO] [--max_bucket_reso MAX_BUCKET_RESO] [--bucket_reso_steps BUCKET_RESO_STEPS] [--bucket_no_upscale][--token_warmup_min TOKEN_WARMUP_MIN] [--token_warmup_step TOKEN_WARMUP_STEP] [--alpha_mask] [--dataset_class DATASET_CLASS][--caption_dropout_rate CAPTION_DROPOUT_RATE] [--caption_dropout_every_n_epochs CAPTION_DROPOUT_EVERY_N_EPOCHS][--caption_tag_dropout_rate CAPTION_TAG_DROPOUT_RATE] [--reg_data_dir REG_DATA_DIR] [--in_json IN_JSON] [--dataset_repeats DATASET_REPEATS][--output_dir OUTPUT_DIR] [--output_name OUTPUT_NAME] [--huggingface_repo_id HUGGINGFACE_REPO_ID] [--huggingface_repo_type HUGGINGFACE_REPO_TYPE][--huggingface_path_in_repo HUGGINGFACE_PATH_IN_REPO] [--huggingface_token HUGGINGFACE_TOKEN] [--huggingface_repo_visibility HUGGINGFACE_REPO_VISIBILITY][--save_state_to_huggingface] [--resume_from_huggingface] [--async_upload] [--save_precision {None,float,fp16,bf16}][--save_every_n_epochs SAVE_EVERY_N_EPOCHS] [--save_every_n_steps SAVE_EVERY_N_STEPS] [--save_n_epoch_ratio SAVE_N_EPOCH_RATIO][--save_last_n_epochs SAVE_LAST_N_EPOCHS] [--save_last_n_epochs_state SAVE_LAST_N_EPOCHS_STATE] [--save_last_n_steps SAVE_LAST_N_STEPS][--save_last_n_steps_state SAVE_LAST_N_STEPS_STATE] [--save_state] [--save_state_on_train_end] [--resume RESUME] [--train_batch_size TRAIN_BATCH_SIZE][--max_token_length {None,150,225}] [--mem_eff_attn] [--torch_compile][--dynamo_backend {eager,aot_eager,inductor,aot_ts_nvfuser,nvprims_nvfuser,cudagraphs,ofi,fx2trt,onnxrt,tensort,ipex,tvm}] [--xformers] [--sdpa] [--vae VAE][--max_train_steps MAX_TRAIN_STEPS] [--max_train_epochs MAX_TRAIN_EPOCHS] [--max_data_loader_n_workers MAX_DATA_LOADER_N_WORKERS][--persistent_data_loader_workers] [--seed SEED] [--gradient_checkpointing] [--gradient_accumulation_steps GRADIENT_ACCUMULATION_STEPS][--mixed_precision {no,fp16,bf16}] [--full_fp16] [--full_bf16] [--fp8_base] [--ddp_timeout DDP_TIMEOUT] [--ddp_gradient_as_bucket_view] [--ddp_static_graph][--clip_skip CLIP_SKIP] [--logging_dir LOGGING_DIR] [--log_with {tensorboard,wandb,all}] [--log_prefix LOG_PREFIX] [--log_tracker_name LOG_TRACKER_NAME][--wandb_run_name WANDB_RUN_NAME] [--log_tracker_config LOG_TRACKER_CONFIG] [--wandb_api_key WANDB_API_KEY] [--log_config] [--noise_offset NOISE_OFFSET][--noise_offset_random_strength] [--multires_noise_iterations MULTIRES_NOISE_ITERATIONS] [--ip_noise_gamma IP_NOISE_GAMMA] [--ip_noise_gamma_random_strength][--multires_noise_discount MULTIRES_NOISE_DISCOUNT] [--adaptive_noise_scale ADAPTIVE_NOISE_SCALE] [--zero_terminal_snr] [--min_timestep MIN_TIMESTEP][--max_timestep MAX_TIMESTEP] [--loss_type {l1,l2,huber,smooth_l1}] [--huber_schedule {constant,exponential,snr}] [--huber_c HUBER_C][--huber_scale HUBER_SCALE] [--lowram] [--highvram] [--sample_every_n_steps SAMPLE_EVERY_N_STEPS] [--sample_at_first][--sample_every_n_epochs SAMPLE_EVERY_N_EPOCHS] [--sample_prompts SAMPLE_PROMPTS][--sample_sampler {ddim,pndm,lms,euler,euler_a,heun,dpm_2,dpm_2_a,dpmsolver,dpmsolver++,dpmsingle,k_lms,k_euler,k_euler_a,k_dpm_2,k_dpm_2_a}][--config_file CONFIG_FILE] [--output_config] [--metadata_title METADATA_TITLE] [--metadata_author METADATA_AUTHOR][--metadata_description METADATA_DESCRIPTION] [--metadata_license METADATA_LICENSE] [--metadata_tags METADATA_TAGS] [--prior_loss_weight PRIOR_LOSS_WEIGHT][--conditioning_data_dir CONDITIONING_DATA_DIR] [--masked_loss] [--deepspeed] [--zero_stage {0,1,2,3}] [--offload_optimizer_device {None,cpu,nvme}][--offload_optimizer_nvme_path OFFLOAD_OPTIMIZER_NVME_PATH] [--offload_param_device {None,cpu,nvme}] [--offload_param_nvme_path OFFLOAD_PARAM_NVME_PATH][--zero3_init_flag] [--zero3_save_16bit_model] [--fp16_master_weights_and_gradients] [--optimizer_type OPTIMIZER_TYPE] [--use_8bit_adam][--use_lion_optimizer] [--learning_rate LEARNING_RATE] [--max_grad_norm MAX_GRAD_NORM] [--optimizer_args [OPTIMIZER_ARGS ...]][--lr_scheduler_type LR_SCHEDULER_TYPE] [--lr_scheduler_args [LR_SCHEDULER_ARGS ...]] [--lr_scheduler LR_SCHEDULER] [--lr_warmup_steps LR_WARMUP_STEPS][--lr_decay_steps LR_DECAY_STEPS] [--lr_scheduler_num_cycles LR_SCHEDULER_NUM_CYCLES] [--lr_scheduler_power LR_SCHEDULER_POWER] [--fused_backward_pass][--lr_scheduler_timescale LR_SCHEDULER_TIMESCALE] [--lr_scheduler_min_lr_ratio LR_SCHEDULER_MIN_LR_RATIO] [--dataset_config DATASET_CONFIG][--min_snr_gamma MIN_SNR_GAMMA] [--scale_v_pred_loss_like_noise_pred] [--v_pred_like_loss V_PRED_LIKE_LOSS] [--debiased_estimation_loss] [--weighted_captions][--cpu_offload_checkpointing] [--no_metadata] [--save_model_as {None,ckpt,pt,safetensors}] [--unet_lr UNET_LR] [--text_encoder_lr [TEXT_ENCODER_LR ...]][--fp8_base_unet] [--network_weights NETWORK_WEIGHTS] [--network_module NETWORK_MODULE] [--network_dim NETWORK_DIM] [--network_alpha NETWORK_ALPHA][--network_dropout NETWORK_DROPOUT] [--network_args [NETWORK_ARGS ...]] [--network_train_unet_only] [--network_train_text_encoder_only][--training_comment TRAINING_COMMENT] [--dim_from_weights] [--scale_weight_norms SCALE_WEIGHT_NORMS] [--base_weights [BASE_WEIGHTS ...]][--base_weights_multiplier [BASE_WEIGHTS_MULTIPLIER ...]] [--no_half_vae] [--skip_until_initial_step] [--initial_epoch INITIAL_EPOCH][--initial_step INITIAL_STEP] [--validation_seed VALIDATION_SEED] [--validation_split VALIDATION_SPLIT] [--validate_every_n_steps VALIDATE_EVERY_N_STEPS][--validate_every_n_epochs VALIDATE_EVERY_N_EPOCHS] [--max_validation_steps MAX_VALIDATION_STEPS] [--cache_text_encoder_outputs][--cache_text_encoder_outputs_to_disk] [--text_encoder_batch_size TEXT_ENCODER_BATCH_SIZE] [--disable_mmap_load_safetensors][--weighting_scheme {sigma_sqrt,logit_normal,mode,cosmap,none,uniform}] [--logit_mean LOGIT_MEAN] [--logit_std LOGIT_STD] [--mode_scale MODE_SCALE][--blocks_to_swap BLOCKS_TO_SWAP] [--clip_l CLIP_L] [--t5xxl T5XXL] [--ae AE] [--controlnet_model_name_or_path CONTROLNET_MODEL_NAME_OR_PATH][--t5xxl_max_token_length T5XXL_MAX_TOKEN_LENGTH] [--apply_t5_attn_mask] [--guidance_scale GUIDANCE_SCALE][--timestep_sampling {sigma,uniform,sigmoid,shift,flux_shift}] [--sigmoid_scale SIGMOID_SCALE] [--model_prediction_type {raw,additive,sigma_scaled}][--discrete_flow_shift DISCRETE_FLOW_SHIFT] [--split_mode]options:-h, --help            show this help message and exit--console_log_level {DEBUG,INFO,WARNING,ERROR,CRITICAL}Set the logging level, default is INFO / ログレベルを設定する。デフォルトはINFO--console_log_file CONSOLE_LOG_FILELog to a file instead of stderr / 標準エラー出力ではなくファイルにログを出力する--console_log_simple  Simple log output / シンプルなログ出力--v2                  load Stable Diffusion v2.0 model / Stable Diffusion 2.0のモデルを読み込む--v_parameterization  enable v-parameterization training / v-parameterization学習を有効にする--pretrained_model_name_or_path PRETRAINED_MODEL_NAME_OR_PATHpretrained model to train, directory to Diffusers model or StableDiffusion checkpoint / 学習元モデル、Diffusers形式モデルのディレクトリまたはStableDiffusionのckptファイル--tokenizer_cache_dir TOKENIZER_CACHE_DIRdirectory for caching Tokenizer (for offline training) / Tokenizerをキャッシュするディレクトリ(ネット接続なしでの学習のため)--train_data_dir TRAIN_DATA_DIRdirectory for train images / 学習画像データのディレクトリ--cache_info          cache meta information (caption and image size) for faster dataset loading. only available for DreamBooth /メタ情報(キャプションとサイズ)をキャッシュしてデータセット読み込みを高速化する。DreamBooth方式のみ有効--shuffle_caption     shuffle separated caption / 区切られたcaptionの各要素をshuffleする--caption_separator CAPTION_SEPARATORseparator for caption / captionの区切り文字--caption_extension CAPTION_EXTENSIONextension of caption files / 読み込むcaptionファイルの拡張子--caption_extention CAPTION_EXTENTIONextension of caption files (backward compatibility) / 読み込むcaptionファイルの拡張子(スペルミスを残してあります)--keep_tokens KEEP_TOKENSkeep heading N tokens when shuffling caption tokens (token means comma separated strings) / captionのシャッフル時に、先頭からこの個数のトークンをシャッフルしないで残す(トークンはカンマ区切りの各部分を意味する)--keep_tokens_separator KEEP_TOKENS_SEPARATORA custom separator to divide the caption into fixed and flexible parts. Tokens before this separator will not be shuffled. If not specified, '--keep_tokens' willbe used to determine the fixed number of tokens. / captionを固定部分と可変部分に分けるためのカスタム区切り文字。この区切り文字より前のトークンはシャッフルされない。指定しない場合、'--keep_tokens'が固定部分のトークン数として使用される。--secondary_separator SECONDARY_SEPARATORa secondary separator for caption. This separator is replaced to caption_separator after dropping/shuffling caption /captionのセカンダリ区切り文字。この区切り文字はcaptionのドロップやシャッフル後にcaption_separatorに置き換えられる--enable_wildcard     enable wildcard for caption (e.g. '{image|picture|rendition}') / captionのワイルドカードを有効にする(例:'{image|picture|rendition}')--caption_prefix CAPTION_PREFIXprefix for caption text / captionのテキストの先頭に付ける文字列--caption_suffix CAPTION_SUFFIXsuffix for caption text / captionのテキストの末尾に付ける文字列--color_aug           enable weak color augmentation / 学習時に色合いのaugmentationを有効にする--flip_aug            enable horizontal flip augmentation / 学習時に左右反転のaugmentationを有効にする--face_crop_aug_range FACE_CROP_AUG_RANGEenable face-centered crop augmentation and its range (e.g. 2.0,4.0) / 学習時に顔を中心とした切り出しaugmentationを有効にするときは倍率を指定する(例:2.0,4.0)--random_crop         enable random crop (for style training in face-centered crop augmentation) / ランダムな切り出しを有効にする(顔を中心としたaugmentationを行うときに画風の学習用に指定する)--debug_dataset       show images for debugging (do not train) / デバッグ用に学習データを画面表示する(学習は行わない)--resolution RESOLUTIONresolution in training ('size' or 'width,height') / 学習時の画像解像度('サイズ'指定、または'幅,高さ'指定)--cache_latents       cache latents to main memory to reduce VRAM usage (augmentations must be disabled) / VRAM削減のためにlatentをメインメモリにcacheする(augmentationは使用不可)--vae_batch_size VAE_BATCH_SIZEbatch size for caching latents / latentのcache時のバッチサイズ--cache_latents_to_diskcache latents to disk to reduce VRAM usage (augmentations must be disabled) / VRAM削減のためにlatentをディスクにcacheする(augmentationは使用不可)--skip_cache_check    skip the content validation of cache (latent and text encoder output). Cache file existence check is always performed, and cache processing is performed if thefile does not exist / cacheの内容の検証をスキップする(latentとテキストエンコーダの出力)。キャッシュファイルの存在確認は常に行われ、ファイルがなければキャッシュ処理が行われる--enable_bucket       enable buckets for multi aspect ratio training / 複数解像度学習のためのbucketを有効にする--min_bucket_reso MIN_BUCKET_RESOminimum resolution for buckets, must be divisible by bucket_reso_steps / bucketの最小解像度、bucket_reso_stepsで割り切れる必要があります--max_bucket_reso MAX_BUCKET_RESOmaximum resolution for buckets, must be divisible by bucket_reso_steps / bucketの最大解像度、bucket_reso_stepsで割り切れる必要があります--bucket_reso_steps BUCKET_RESO_STEPSsteps of resolution for buckets, divisible by 8 is recommended / bucketの解像度の単位、8で割り切れる値を推奨します--bucket_no_upscale   make bucket for each image without upscaling / 画像を拡大せずbucketを作成します--token_warmup_min TOKEN_WARMUP_MINstart learning at N tags (token means comma separated strinfloatgs) / タグ数をN個から増やしながら学習する--token_warmup_step TOKEN_WARMUP_STEPtag length reaches maximum on N steps (or N*max_train_steps if N<1) / N(N<1ならN*max_train_steps)ステップでタグ長が最大になる。デフォルトは0(最初から最大)--alpha_mask          use alpha channel as mask for training / 画像のアルファチャンネルをlossのマスクに使用する--dataset_class DATASET_CLASSdataset class for arbitrary dataset (package.module.Class) / 任意のデータセットを用いるときのクラス名 (package.module.Class)--caption_dropout_rate CAPTION_DROPOUT_RATERate out dropout caption(0.0~1.0) / captionをdropoutする割合--caption_dropout_every_n_epochs CAPTION_DROPOUT_EVERY_N_EPOCHSDropout all captions every N epochs / captionを指定エポックごとにdropoutする--caption_tag_dropout_rate CAPTION_TAG_DROPOUT_RATERate out dropout comma separated tokens(0.0~1.0) / カンマ区切りのタグをdropoutする割合--reg_data_dir REG_DATA_DIRdirectory for regularization images / 正則化画像データのディレクトリ--in_json IN_JSON     json metadata for dataset / データセットのmetadataのjsonファイル--dataset_repeats DATASET_REPEATSrepeat dataset when training with captions / キャプションでの学習時にデータセットを繰り返す回数--output_dir OUTPUT_DIRdirectory to output trained model / 学習後のモデル出力先ディレクトリ--output_name OUTPUT_NAMEbase name of trained model file / 学習後のモデルの拡張子を除くファイル名--huggingface_repo_id HUGGINGFACE_REPO_IDhuggingface repo name to upload / huggingfaceにアップロードするリポジトリ名--huggingface_repo_type HUGGINGFACE_REPO_TYPEhuggingface repo type to upload / huggingfaceにアップロードするリポジトリの種類--huggingface_path_in_repo HUGGINGFACE_PATH_IN_REPOhuggingface model path to upload files / huggingfaceにアップロードするファイルのパス--huggingface_token HUGGINGFACE_TOKENhuggingface token / huggingfaceのトークン--huggingface_repo_visibility HUGGINGFACE_REPO_VISIBILITYhuggingface repository visibility ('public' for public, 'private' or None for private) / huggingfaceにアップロードするリポジトリの公開設定('public'で公開、'private'またはNoneで非公開)--save_state_to_huggingfacesave state to huggingface / huggingfaceにstateを保存する--resume_from_huggingfaceresume from huggingface (ex: --resume {repo_id}/{path_in_repo}:{revision}:{repo_type}) / huggingfaceから学習を再開する(例: --resume{repo_id}/{path_in_repo}:{revision}:{repo_type})--async_upload        upload to huggingface asynchronously / huggingfaceに非同期でアップロードする--save_precision {None,float,fp16,bf16}precision in saving / 保存時に精度を変更して保存する--save_every_n_epochs SAVE_EVERY_N_EPOCHSsave checkpoint every N epochs / 学習中のモデルを指定エポックごとに保存する--save_every_n_steps SAVE_EVERY_N_STEPSsave checkpoint every N steps / 学習中のモデルを指定ステップごとに保存する--save_n_epoch_ratio SAVE_N_EPOCH_RATIOsave checkpoint N epoch ratio (for example 5 means save at least 5 files total) / 学習中のモデルを指定のエポック割合で保存する(たとえば5を指定すると最低5個のファイルが保存される)--save_last_n_epochs SAVE_LAST_N_EPOCHSsave last N checkpoints when saving every N epochs (remove older checkpoints) / 指定エポックごとにモデルを保存するとき最大Nエポック保存する(古いチェックポイントは削除する)--save_last_n_epochs_state SAVE_LAST_N_EPOCHS_STATEsave last N checkpoints of state (overrides the value of --save_last_n_epochs)/ 最大Nエポックstateを保存する(--save_last_n_epochsの指定を上書きする)--save_last_n_steps SAVE_LAST_N_STEPSsave checkpoints until N steps elapsed (remove older checkpoints if N steps elapsed) / 指定ステップごとにモデルを保存するとき、このステップ数経過するまで保存する(このステップ数経過したら削除する)--save_last_n_steps_state SAVE_LAST_N_STEPS_STATEsave states until N steps elapsed (remove older states if N steps elapsed, overrides --save_last_n_steps) /指定ステップごとにstateを保存するとき、このステップ数経過するまで保存する(このステップ数経過したら削除する。--save_last_n_stepsを上書きする)--save_state          save training state additionally (including optimizer states etc.) when saving model / optimizerなど学習状態も含めたstateをモデル保存時に追加で保存する--save_state_on_train_endsave training state (including optimizer states etc.) on train end / optimizerなど学習状態も含めたstateを学習完了時に保存する--resume RESUME       saved state to resume training / 学習再開するモデルのstate--train_batch_size TRAIN_BATCH_SIZEbatch size for training / 学習時のバッチサイズ--max_token_length {None,150,225}max token length of text encoder (default for 75, 150 or 225) / text encoderのトークンの最大長(未指定で75、150または225が指定可)--mem_eff_attn        use memory efficient attention for CrossAttention / CrossAttentionに省メモリ版attentionを使う--torch_compile       use torch.compile (requires PyTorch 2.0) / torch.compile を使う--dynamo_backend {eager,aot_eager,inductor,aot_ts_nvfuser,nvprims_nvfuser,cudagraphs,ofi,fx2trt,onnxrt,tensort,ipex,tvm}dynamo backend type (default is inductor) / dynamoのbackendの種類(デフォルトは inductor)--xformers            use xformers for CrossAttention / CrossAttentionにxformersを使う--sdpa                use sdpa for CrossAttention (requires PyTorch 2.0) / CrossAttentionにsdpaを使う(PyTorch 2.0が必要)--vae VAE             path to checkpoint of vae to replace / VAEを入れ替える場合、VAEのcheckpointファイルまたはディレクトリ--max_train_steps MAX_TRAIN_STEPStraining steps / 学習ステップ数--max_train_epochs MAX_TRAIN_EPOCHStraining epochs (overrides max_train_steps) / 学習エポック数(max_train_stepsを上書きします)--max_data_loader_n_workers MAX_DATA_LOADER_N_WORKERSmax num workers for DataLoader (lower is less main RAM usage, faster epoch start and slower data loading) /DataLoaderの最大プロセス数(小さい値ではメインメモリの使用量が減りエポック間の待ち時間が減りますが、データ読み込みは遅くなります)--persistent_data_loader_workerspersistent DataLoader workers (useful for reduce time gap between epoch, but may use more memory) / DataLoader のワーカーを持続させる(エポック間の時間差を少なくするのに有効だが、より多くのメモリを消費する可能性がある)--seed SEED           random seed for training / 学習時の乱数のseed--gradient_checkpointingenable gradient checkpointing / gradient checkpointingを有効にする--gradient_accumulation_steps GRADIENT_ACCUMULATION_STEPSNumber of updates steps to accumulate before performing a backward/update pass / 学習時に逆伝播をする前に勾配を合計するステップ数--mixed_precision {no,fp16,bf16}use mixed precision / 混合精度を使う場合、その精度--full_fp16           fp16 training including gradients / 勾配も含めてfp16で学習する--full_bf16           bf16 training including gradients / 勾配も含めてbf16で学習する--fp8_base            use fp8 for base model / base modelにfp8を使う--ddp_timeout DDP_TIMEOUTDDP timeout (min, None for default of accelerate) / DDPのタイムアウト(分、Noneでaccelerateのデフォルト)--ddp_gradient_as_bucket_viewenable gradient_as_bucket_view for DDP / DDPでgradient_as_bucket_viewを有効にする--ddp_static_graph    enable static_graph for DDP / DDPでstatic_graphを有効にする--clip_skip CLIP_SKIPuse output of nth layer from back of text encoder (n>=1) / text encoderの後ろからn番目の層の出力を用いる(nは1以上)--logging_dir LOGGING_DIRenable logging and output TensorBoard log to this directory / ログ出力を有効にしてこのディレクトリにTensorBoard用のログを出力する--log_with {tensorboard,wandb,all}what logging tool(s) to use (if 'all', TensorBoard and WandB are both used) / ログ出力に使用するツール (allを指定するとTensorBoardとWandBの両方が使用される)--log_prefix LOG_PREFIXadd prefix for each log directory / ログディレクトリ名の先頭に追加する文字列--log_tracker_name LOG_TRACKER_NAMEname of tracker to use for logging, default is script-specific default name / ログ出力に使用するtrackerの名前、省略時はスクリプトごとのデフォルト名--wandb_run_name WANDB_RUN_NAMEThe name of the specific wandb session / wandb ログに表示される特定の実行の名前--log_tracker_config LOG_TRACKER_CONFIGpath to tracker config file to use for logging / ログ出力に使用するtrackerの設定ファイルのパス--wandb_api_key WANDB_API_KEYspecify WandB API key to log in before starting training (optional). / WandB APIキーを指定して学習開始前にログインする(オプション)--log_config          log training configuration / 学習設定をログに出力する--noise_offset NOISE_OFFSETenable noise offset with this value (if enabled, around 0.1 is recommended) / Noise offsetを有効にしてこの値を設定する(有効にする場合は0.1程度を推奨)--noise_offset_random_strengthuse random strength between 0~noise_offset for noise offset. / noise offsetにおいて、0からnoise_offsetの間でランダムな強度を使用します。--multires_noise_iterations MULTIRES_NOISE_ITERATIONSenable multires noise with this number of iterations (if enabled, around 6-10 is recommended) / Multires noiseを有効にしてこのイテレーション数を設定する(有効にする場合は6-10程度を推奨)--ip_noise_gamma IP_NOISE_GAMMAenable input perturbation noise. used for regularization. recommended value: around 0.1 (from arxiv.org/abs/2301.11706) / input perturbationnoiseを有効にする。正則化に使用される。推奨値: 0.1程度 (arxiv.org/abs/2301.11706 より)--ip_noise_gamma_random_strengthUse random strength between 0~ip_noise_gamma for input perturbation noise./ input perturbation noiseにおいて、0からip_noise_gammaの間でランダムな強度を使用します。--multires_noise_discount MULTIRES_NOISE_DISCOUNTset discount value for multires noise (has no effect without --multires_noise_iterations) / Multires noiseのdiscount値を設定する(--multires_noise_iterations指定時のみ有効)--adaptive_noise_scale ADAPTIVE_NOISE_SCALEadd `latent mean absolute value * this value` to noise_offset (disabled if None, default) / latentの平均値の絶対値 * この値をnoise_offsetに加算する(Noneの場合は無効、デフォルト)--zero_terminal_snr   fix noise scheduler betas to enforce zero terminal SNR / noise schedulerのbetasを修正して、zero terminal SNRを強制する--min_timestep MIN_TIMESTEPset minimum time step for U-Net training (0~999, default is 0) / U-Net学習時のtime stepの最小値を設定する(0~999で指定、省略時はデフォルト値(0))--max_timestep MAX_TIMESTEPset maximum time step for U-Net training (1~1000, default is 1000) / U-Net学習時のtime stepの最大値を設定する(1~1000で指定、省略時はデフォルト値(1000))--loss_type {l1,l2,huber,smooth_l1}The type of loss function to use (L1, L2, Huber, or smooth L1), default is L2 / 使用する損失関数の種類(L1、L2、Huber、またはsmooth L1)、デフォルトはL2--huber_schedule {constant,exponential,snr}The scheduling method for Huber loss (constant, exponential, or SNR-based). Only used when loss_type is 'huber' or 'smooth_l1'. default is snr /Huber損失のスケジューリング方法(constant、exponential、またはSNRベース)。loss_typeが'huber'または'smooth_l1'の場合に有効、デフォルトは snr--huber_c HUBER_C     The Huber loss decay parameter. Only used if one of the huber loss modes (huber or smooth l1) is selected with loss_type. default is 0.1 /Huber損失の減衰パラメータ。loss_typeがhuberまたはsmooth l1の場合に有効。デフォルトは0.1--huber_scale HUBER_SCALEThe Huber loss scale parameter. Only used if one of the huber loss modes (huber or smooth l1) is selected with loss_type. default is 1.0 /Huber損失のスケールパラメータ。loss_typeがhuberまたはsmooth l1の場合に有効。デフォルトは1.0--lowram              enable low RAM optimization. e.g. load models to VRAM instead of RAM (for machines which have bigger VRAM than RAM such as Colab and Kaggle) /メインメモリが少ない環境向け最適化を有効にする。たとえばVRAMにモデルを読み込む等(ColabやKaggleなどRAMに比べてVRAMが多い環境向け)--highvram            disable low VRAM optimization. e.g. do not clear CUDA cache after each latent caching (for machines which have bigger VRAM) /VRAMが少ない環境向け最適化を無効にする。たとえば各latentのキャッシュ後のCUDAキャッシュクリアを行わない等(VRAMが多い環境向け)--sample_every_n_steps SAMPLE_EVERY_N_STEPSgenerate sample images every N steps / 学習中のモデルで指定ステップごとにサンプル出力する--sample_at_first     generate sample images before training / 学習前にサンプル出力する--sample_every_n_epochs SAMPLE_EVERY_N_EPOCHSgenerate sample images every N epochs (overwrites n_steps) / 学習中のモデルで指定エポックごとにサンプル出力する(ステップ数指定を上書きします)--sample_prompts SAMPLE_PROMPTSfile for prompts to generate sample images / 学習中モデルのサンプル出力用プロンプトのファイル--sample_sampler {ddim,pndm,lms,euler,euler_a,heun,dpm_2,dpm_2_a,dpmsolver,dpmsolver++,dpmsingle,k_lms,k_euler,k_euler_a,k_dpm_2,k_dpm_2_a}sampler (scheduler) type for sample images / サンプル出力時のサンプラー(スケジューラ)の種類--config_file CONFIG_FILEusing .toml instead of args to pass hyperparameter / ハイパーパラメータを引数ではなく.tomlファイルで渡す--output_config       output command line args to given .toml file / 引数を.tomlファイルに出力する--metadata_title METADATA_TITLEtitle for model metadata (default is output_name) / メタデータに書き込まれるモデルタイトル、省略時はoutput_name--metadata_author METADATA_AUTHORauthor name for model metadata / メタデータに書き込まれるモデル作者名--metadata_description METADATA_DESCRIPTIONdescription for model metadata / メタデータに書き込まれるモデル説明--metadata_license METADATA_LICENSElicense for model metadata / メタデータに書き込まれるモデルライセンス--metadata_tags METADATA_TAGStags for model metadata, separated by comma / メタデータに書き込まれるモデルタグ、カンマ区切り--prior_loss_weight PRIOR_LOSS_WEIGHTloss weight for regularization images / 正則化画像のlossの重み--conditioning_data_dir CONDITIONING_DATA_DIRconditioning data directory / 条件付けデータのディレクトリ--masked_loss         apply mask for calculating loss. conditioning_data_dir is required for dataset. / 損失計算時にマスクを適用する。datasetにはconditioning_data_dirが必要--deepspeed           enable deepspeed training--zero_stage {0,1,2,3}Possible options are 0,1,2,3.--offload_optimizer_device {None,cpu,nvme}Possible options are none|cpu|nvme. Only applicable with ZeRO Stages 2 and 3.--offload_optimizer_nvme_path OFFLOAD_OPTIMIZER_NVME_PATHPossible options are /nvme|/local_nvme. Only applicable with ZeRO Stage 3.--offload_param_device {None,cpu,nvme}Possible options are none|cpu|nvme. Only applicable with ZeRO Stage 3.--offload_param_nvme_path OFFLOAD_PARAM_NVME_PATHPossible options are /nvme|/local_nvme. Only applicable with ZeRO Stage 3.--zero3_init_flag     Flag to indicate whether to enable `deepspeed.zero.Init` for constructing massive models.Only applicable with ZeRO Stage-3.--zero3_save_16bit_modelFlag to indicate whether to save 16-bit model. Only applicable with ZeRO Stage-3.--fp16_master_weights_and_gradientsfp16_master_and_gradients requires optimizer to support keeping fp16 master and gradients while keeping the optimizer states in fp32.--optimizer_type OPTIMIZER_TYPEOptimizer to use / オプティマイザの種類: AdamW (default), AdamW8bit, PagedAdamW, PagedAdamW8bit, PagedAdamW32bit, Lion8bit, PagedLion8bit, Lion, SGDNesterov,SGDNesterov8bit, DAdaptation(DAdaptAdamPreprint), DAdaptAdaGrad, DAdaptAdam, DAdaptAdan, DAdaptAdanIP, DAdaptLion, DAdaptSGD, AdaFactor. Also, you can use anyoptimizer by specifying the full path to the class, like 'bitsandbytes.optim.AdEMAMix8bit' or 'bitsandbytes.optim.PagedAdEMAMix8bit'.--use_8bit_adam       use 8bit AdamW optimizer (requires bitsandbytes) / 8bit Adamオプティマイザを使う(bitsandbytesのインストールが必要)--use_lion_optimizer  use Lion optimizer (requires lion-pytorch) / Lionオプティマイザを使う( lion-pytorch のインストールが必要)--learning_rate LEARNING_RATElearning rate / 学習率--max_grad_norm MAX_GRAD_NORMMax gradient norm, 0 for no clipping / 勾配正規化の最大norm、0でclippingを行わない--optimizer_args [OPTIMIZER_ARGS ...]additional arguments for optimizer (like "weight_decay=0.01 betas=0.9,0.999 ...") / オプティマイザの追加引数(例: "weight_decay=0.01 betas=0.9,0.999 ...")--lr_scheduler_type LR_SCHEDULER_TYPEcustom scheduler module / 使用するスケジューラ--lr_scheduler_args [LR_SCHEDULER_ARGS ...]additional arguments for scheduler (like "T_max=100") / スケジューラの追加引数(例: "T_max100")--lr_scheduler LR_SCHEDULERscheduler to use for learning rate / 学習率のスケジューラ: linear, cosine, cosine_with_restarts, polynomial, constant (default), constant_with_warmup, adafactor--lr_warmup_steps LR_WARMUP_STEPSInt number of steps for the warmup in the lr scheduler (default is 0) or float with ratio of train steps /学習率のスケジューラをウォームアップするステップ数(デフォルト0)、または学習ステップの比率(1未満のfloat値の場合)--lr_decay_steps LR_DECAY_STEPSInt number of steps for the decay in the lr scheduler (default is 0) or float (<1) with ratio of train steps /学習率のスケジューラを減衰させるステップ数(デフォルト0)、または学習ステップの比率(1未満のfloat値の場合)--lr_scheduler_num_cycles LR_SCHEDULER_NUM_CYCLESNumber of restarts for cosine scheduler with restarts / cosine with restartsスケジューラでのリスタート回数--lr_scheduler_power LR_SCHEDULER_POWERPolynomial power for polynomial scheduler / polynomialスケジューラでのpolynomial power--fused_backward_passCombines backward pass and optimizer step to reduce VRAM usage. Only available in SDXL, SD3 and FLUX /バックワードパスとオプティマイザステップを組み合わせてVRAMの使用量を削減します。SDXL、SD3、FLUXでのみ利用可能--lr_scheduler_timescale LR_SCHEDULER_TIMESCALEInverse sqrt timescale for inverse sqrt scheduler,defaults to `num_warmup_steps` / 逆平方根スケジューラのタイムスケール、デフォルトは`num_warmup_steps`--lr_scheduler_min_lr_ratio LR_SCHEDULER_MIN_LR_RATIOThe minimum learning rate as a ratio of the initial learning rate for cosine with min lr scheduler and warmup decay scheduler / 初期学習率の比率としての最小学習率を指定する、cosine withmin lr と warmup decay スケジューラ で有効--dataset_config DATASET_CONFIGconfig file for detail settings / 詳細な設定用の設定ファイル--min_snr_gamma MIN_SNR_GAMMAgamma for reducing the weight of high loss timesteps. Lower numbers have stronger effect. 5 is recommended by paper. /低いタイムステップでの高いlossに対して重みを減らすためのgamma値、低いほど効果が強く、論文では5が推奨--scale_v_pred_loss_like_noise_predscale v-prediction loss like noise prediction loss / v-prediction lossをnoise prediction lossと同じようにスケーリングする--v_pred_like_loss V_PRED_LIKE_LOSSadd v-prediction like loss multiplied by this value / v-prediction lossをこの値をかけたものをlossに加算する--debiased_estimation_lossdebiased estimation loss / debiased estimation loss--weighted_captions   Enable weighted captions in the standard style (token:1.3). No commas inside parens, or shuffle/dropout may break the decoder. /「[token]」、「(token)」「(token:1.3)」のような重み付きキャプションを有効にする。カンマを括弧内に入れるとシャッフルやdropoutで重みづけがおかしくなるので注意--cpu_offload_checkpointing[EXPERIMENTAL] enable offloading of tensors to CPU during checkpointing for U-Net or DiT, if supported / 勾配チェックポイント時にテンソルをCPUにオフロードする(U-NetまたはDiTのみ、サポートされている場合)--no_metadata         do not save metadata in output model / メタデータを出力先モデルに保存しない--save_model_as {None,ckpt,pt,safetensors}format to save the model (default is .safetensors) / モデル保存時の形式(デフォルトはsafetensors)--unet_lr UNET_LR     learning rate for U-Net / U-Netの学習率--text_encoder_lr [TEXT_ENCODER_LR ...]learning rate for Text Encoder, can be multiple / Text Encoderの学習率、複数指定可能--fp8_base_unet       use fp8 for U-Net (or DiT), Text Encoder is fp16 or bf16 / U-Net(またはDiT)にfp8を使用する。Text Encoderはfp16またはbf16--network_weights NETWORK_WEIGHTSpretrained weights for network / 学習するネットワークの初期重み--network_module NETWORK_MODULEnetwork module to train / 学習対象のネットワークのモジュール--network_dim NETWORK_DIMnetwork dimensions (depends on each network) / モジュールの次元数(ネットワークにより定義は異なります)--network_alpha NETWORK_ALPHAalpha for LoRA weight scaling, default 1 (same as network_dim for same behavior as old version) / LoRaの重み調整のalpha値、デフォルト1(旧バージョンと同じ動作をするにはnetwork_dimと同じ値を指定)--network_dropout NETWORK_DROPOUTDrops neurons out of training every step (0 or None is default behavior (no dropout), 1 would drop all neurons) /訓練時に毎ステップでニューロンをdropする(0またはNoneはdropoutなし、1は全ニューロンをdropout)--network_args [NETWORK_ARGS ...]additional arguments for network (key=value) / ネットワークへの追加の引数--network_train_unet_onlyonly training U-Net part / U-Net関連部分のみ学習する--network_train_text_encoder_onlyonly training Text Encoder part / Text Encoder関連部分のみ学習する--training_comment TRAINING_COMMENTarbitrary comment string stored in metadata / メタデータに記録する任意のコメント文字列--dim_from_weights    automatically determine dim (rank) from network_weights / dim (rank)をnetwork_weightsで指定した重みから自動で決定する--scale_weight_norms SCALE_WEIGHT_NORMSScale the weight of each key pair to help prevent overtraing via exploding gradients. (1 is a good starting point) / 重みの値をスケーリングして勾配爆発を防ぐ(1が初期値としては適当)--base_weights [BASE_WEIGHTS ...]network weights to merge into the model before training / 学習前にあらかじめモデルにマージするnetworkの重みファイル--base_weights_multiplier [BASE_WEIGHTS_MULTIPLIER ...]multiplier for network weights to merge into the model before training / 学習前にあらかじめモデルにマージするnetworkの重みの倍率--no_half_vae         do not use fp16/bf16 VAE in mixed precision (use float VAE) / mixed precisionでも fp16/bf16 VAEを使わずfloat VAEを使う--skip_until_initial_stepskip training until initial_step is reached / initial_stepに到達するまで学習をスキップする--initial_epoch INITIAL_EPOCHinitial epoch number, 1 means first epoch (same as not specifying). NOTE: initial_epoch/step doesn't affect to lr scheduler. Which means lr scheduler will startfrom 0 without `--resume`. / 初期エポック数、1で最初のエポック(未指定時と同じ)。注意:initial_epoch/stepはlr schedulerに影響しないため、`--resume`しない場合はlr schedulerは0から始まる--initial_step INITIAL_STEPinitial step number including all epochs, 0 means first step (same as not specifying). overwrites initial_epoch. /初期ステップ数、全エポックを含むステップ数、0で最初のステップ(未指定時と同じ)。initial_epochを上書きする--validation_seed VALIDATION_SEEDValidation seed for shuffling validation dataset, training `--seed` used otherwise / 検証データセットをシャッフルするための検証シード、それ以外の場合はトレーニング `--seed` を使用する--validation_split VALIDATION_SPLITSplit for validation images out of the training dataset / 学習画像から検証画像に分割する割合--validate_every_n_steps VALIDATE_EVERY_N_STEPSRun validation on validation dataset every N steps. By default, validation will only occur every epoch if a validation dataset is available /検証データセットの検証をNステップごとに実行します。デフォルトでは、検証データセットが利用可能な場合にのみ、検証はエポックごとに実行されます--validate_every_n_epochs VALIDATE_EVERY_N_EPOCHSRun validation dataset every N epochs. By default, validation will run every epoch if a validation dataset is available /検証データセットをNエポックごとに実行します。デフォルトでは、検証データセットが利用可能な場合、検証はエポックごとに実行されます--max_validation_steps MAX_VALIDATION_STEPSMax number of validation dataset items processed. By default, validation will run the entire validation dataset / 処理される検証データセット項目の最大数。デフォルトでは、検証は検証データセット全体を実行します--cache_text_encoder_outputscache text encoder outputs / text encoderの出力をキャッシュする--cache_text_encoder_outputs_to_diskcache text encoder outputs to disk / text encoderの出力をディスクにキャッシュする--text_encoder_batch_size TEXT_ENCODER_BATCH_SIZEtext encoder batch size (default: None, use dataset's batch size) / text encoderのバッチサイズ(デフォルト: None, データセットのバッチサイズを使用)--disable_mmap_load_safetensorsdisable mmap load for safetensors. Speed up model loading in WSL environment / safetensorsのmmapロードを無効にする。WSL環境等でモデル読み込みを高速化できる--weighting_scheme {sigma_sqrt,logit_normal,mode,cosmap,none,uniform}weighting scheme for timestep distribution. Default is uniform, uniform and none are the same behavior / タイムステップ分布の重み付けスキーム、デフォルトはuniform、uniform と none は同じ挙動--logit_mean LOGIT_MEANmean to use when using the `'logit_normal'` weighting scheme / `'logit_normal'`重み付けスキームを使用する場合の平均--logit_std LOGIT_STDstd to use when using the `'logit_normal'` weighting scheme / `'logit_normal'`重み付けスキームを使用する場合のstd--mode_scale MODE_SCALEScale of mode weighting scheme. Only effective when using the `'mode'` as the `weighting_scheme` / モード重み付けスキームのスケール--blocks_to_swap BLOCKS_TO_SWAP[EXPERIMENTAL] Sets the number of blocks to swap during the forward and backward passes.Increasing this number lowers the overall VRAM used during training at theexpense of training speed (s/it). / 順伝播および逆伝播中にスワップするブロックの数を設定します。この数を増やすと、トレーニング中のVRAM使用量が減りますが、トレーニング速度(s/it)も低下します。--clip_l CLIP_L       path to clip_l (*.sft or *.safetensors), should be float16 / clip_lのパス(*.sftまたは*.safetensors)、float16が前提--t5xxl T5XXL         path to t5xxl (*.sft or *.safetensors), should be float16 / t5xxlのパス(*.sftまたは*.safetensors)、float16が前提--ae AE               path to ae (*.sft or *.safetensors) / aeのパス(*.sftまたは*.safetensors)--controlnet_model_name_or_path CONTROLNET_MODEL_NAME_OR_PATHpath to controlnet (*.sft or *.safetensors) / controlnetのパス(*.sftまたは*.safetensors)--t5xxl_max_token_length T5XXL_MAX_TOKEN_LENGTHmaximum token length for T5-XXL. if omitted, 256 for schnell and 512 for dev / T5-XXLの最大トークン長。省略された場合、schnellの場合は256、devの場合は512--apply_t5_attn_mask  apply attention mask to T5-XXL encode and FLUX double blocks / T5-XXLエンコードとFLUXダブルブロックにアテンションマスクを適用する--guidance_scale GUIDANCE_SCALEthe FLUX.1 dev variant is a guidance distilled model--timestep_sampling {sigma,uniform,sigmoid,shift,flux_shift}Method to sample timesteps: sigma-based, uniform random, sigmoid of random normal, shift of sigmoid and FLUX.1 shifting. / タイムステップをサンプリングする方法:sigma、randomuniform、random normalのsigmoid、sigmoidのシフト、FLUX.1のシフト。--sigmoid_scale SIGMOID_SCALEScale factor for sigmoid timestep sampling (only used when timestep-sampling is "sigmoid"). / sigmoidタイムステップサンプリングの倍率(timestep-samplingが"sigmoid"の場合のみ有効)。--model_prediction_type {raw,additive,sigma_scaled}How to interpret and process the model prediction: raw (use as is), additive (add to noisy input), sigma_scaled (apply sigma scaling). /モデル予測の解釈と処理方法:raw(そのまま使用)、additive(ノイズ入力に加算)、sigma_scaled(シグマスケーリングを適用)。--discrete_flow_shift DISCRETE_FLOW_SHIFTDiscrete flow shift for the Euler Discrete Scheduler, default is 3.0. / Euler Discrete Schedulerの離散フローシフト、デフォルトは3.0。--split_mode          [Deprecated] This option is deprecated. Please use `--blocks_to_swap` instead. / このオプションは非推奨です。代わりに`--blocks_to_swap`を使用してください。
http://www.xdnf.cn/news/259147.html

相关文章:

  • new的几种形式
  • 深入理解 C++ 变量:从基础到高级应用
  • 5月2日日记
  • (六——下)RestAPI 毛子(Http resilience/Refit/游标分页/异步大文件上传)
  • Linux-常用监控工具
  • 第 12 届蓝桥杯 C++ 青少组中 / 高级组省赛 2021 年 4 月 24 日真题(选择题)
  • Python Cookbook-6.16 用 Borg 惯用法来避免“单例”模式
  • Codeforces Round 1022 (Div. 2)(ABC)
  • GESP2024年6月认证C++八级( 第三部分编程题(1)最远点对)
  • 【愚公系列】《Manus极简入门》011-习惯养成教练:“习惯塑造师”
  • 【Java IO流】File类基础详解
  • 【IPMV】图像处理与机器视觉:Lec9 Laplace Blending 拉普拉斯混合
  • 常见工业汽车行业通讯接口一览表
  • vulkanscenegraph显示倾斜模型(6.2)-记录与提交
  • 数字智慧方案5877丨智慧交通项目方案(122页PPT)(文末有下载方式)
  • OpenLayers+WebGIS实时协作黑科技!多人同步标绘神器
  • 使用xlwings将两张顺序错乱的表格进行数据核对
  • 二叉搜索树的判断(双指针解决)
  • 深度残差网络ResNet
  • Controller层接收参数方式
  • 瑞萨 EZ-CUBE2 调试器
  • AI赋能新媒体运营:效率提升与能力突破实战指南
  • ZYNQ工业级串口方案:AXI UART 16550扩展RS-485实战(自动方向控制+Linux驱动)
  • AI大模型-微调和RAG方案选项
  • 友元函数和友元类
  • 【学习笔记】深入理解Java虚拟机学习笔记——第1章 走进Java
  • 4.1 模块概述
  • JavaScript基础-逻辑运算符
  • 【质量管理】现代TRIZ问题识别中的功能分析——组件分析
  • 网站怎样备份网站,备份网站数据的方法