Files
Kohya-ss-sd-scripts/docs/gen_img_README-ja.md
Kohya S. a9af52692a feat: add pyramid noise and noise offset options to generation script (#2252)
* feat: add pyramid noise and noise offset options to generation script

* fix: fix to work with SD1.5 models

* doc: update to match with latest gen_img.py

* doc: update README to clarify script capabilities and remove deprecated sections
2026-01-18 16:56:48 +09:00

36 KiB
Raw Blame History

SD 1.x、2.x、およびSDXLのモデル、当リポジトリで学習したLoRA、ControlNet、ControlNet-LLLiteなどに対応した、独自の推論画像生成スクリプトです。コマンドラインから用います。

概要

  • 独自の推論(画像生成)スクリプト。
  • SD 1.x、2.x (base/v-parameterization)、およびSDXLモデルに対応。
  • txt2img、img2img、inpaintingに対応。
  • 対話モード、およびファイルからのプロンプト読み込み、連続生成に対応。
  • プロンプト1行あたりの生成枚数を指定可能。
  • 全体の繰り返し回数を指定可能。
  • fp16だけでなくbf16にも対応。
  • xformers、SDPAScaled Dot-Product Attentionに対応。
  • プロンプトの225トークンへの拡張。ネガティブプロンプト、重みづけに対応。
  • Diffusersの各種samplerに対応。
  • Text Encoderのclip skip最後からn番目の層の出力を用いるに対応。
  • VAEの別途読み込み、VAEのバッチ処理やスライスによる省メモリ化に対応。
  • Highres. fix独自実装およびGradual Latent、upscale対応。
  • LoRA、DyLoRA対応。適用率指定、複数LoRA同時利用、重みのマージに対応。
  • Attention Couple、Regional LoRAに対応。
  • ControlNet (v1.0/v1.1)、ControlNet-LLLiteに対応。
  • 途中でモデルを切り替えることはできませんが、バッチファイルを組むことで対応できます。

基本的な使い方

対話モードでの画像生成

以下のように入力してください。

python gen_img.py --ckpt <モデル名> --outdir <画像出力先> --xformers --fp16 --interactive

--ckptオプションにモデルStable Diffusionのcheckpointファイル、またはDiffusersのモデルフォルダ--outdirオプションに画像の出力先フォルダを指定します。

--xformersオプションでxformersの使用を指定します。--fp16オプションでfp16半精度での推論を行います。RTX 30系以降のGPUでは --bf16オプションでbf16bfloat16での推論を行うこともできます。

--interactiveオプションで対話モードを指定しています。

Stable Diffusion 2.0(またはそこからの追加学習モデル)を使う場合は--v2オプションを追加してください。v-parameterizationを使うモデル768-v-ema.ckptおよびそこからの追加学習モデル)を使う場合はさらに--v_parameterizationを追加してください。

SDXLモデルを使う場合は--sdxlオプションを追加してください。

--v2--sdxlの指定有無が間違っているとモデル読み込み時にエラーになります。--v_parameterizationの指定有無が間違っていると茶色い画像が表示されます。

Type prompt:と表示されたらプロンプトを入力してください。

image

※画像が表示されずエラーになる場合、headless画面表示機能なしのOpenCVがインストールされているかもしれません。pip install opencv-pythonとして通常のOpenCVを入れてください。または--no_previewオプションで画像表示を止めてください。

画像ウィンドウを選択してから何らかのキーを押すとウィンドウが閉じ、次のプロンプトが入力できます。プロンプトでCtrl+Z、エンターの順に打鍵するとスクリプトを閉じます。

単一のプロンプトで画像を一括生成

以下のように入力します実際には1行で入力します

python gen_img.py --ckpt <モデル名> --outdir <画像出力先> 
    --xformers --fp16 --images_per_prompt <生成枚数> --prompt "<プロンプト>"

--images_per_promptオプションで、プロンプト1件当たりの生成枚数を指定します。--promptオプションでプロンプトを指定します。スペースを含む場合はダブルクォーテーションで囲んでください。

--batch_sizeオプションでバッチサイズを指定できます(後述)。

ファイルからプロンプトを読み込み一括生成

以下のように入力します。

python gen_img.py --ckpt <モデル名> --outdir <画像出力先> 
    --xformers --fp16 --from_file <プロンプトファイル名>

--from_fileオプションで、プロンプトが記述されたファイルを指定します。1行1プロンプトで記述してください。--images_per_promptオプションを指定して1行あたり生成枚数を指定できます。

ネガティブプロンプト、重みづけの使用

プロンプトオプション(プロンプト内で--xのように指定、後述)で--nを書くと、以降がネガティブプロンプトとなります。

またAUTOMATIC1111氏のWeb UIと同様の () [](xxx:1.3) などによる重みづけが可能です実装はDiffusersのLong Prompt Weighting Stable Diffusionからコピーしたものです)。

コマンドラインからのプロンプト指定、ファイルからのプロンプト読み込みでも同様に指定できます。

image

主なオプション

コマンドラインから指定してください。

モデルの指定

  • --ckpt <モデル名>:モデル名を指定します。--ckptオプションは必須です。Stable Diffusionのcheckpointファイル、またはDiffusersのモデルフォルダ、Hugging FaceのモデルIDを指定できます。

  • --v1Stable Diffusion 1.x系のモデルを使う場合に指定します。これがデフォルトの動作です。

  • --v2Stable Diffusion 2.x系のモデルを使う場合に指定します。1.x系の場合には指定不要です。

  • --sdxlStable Diffusion XLモデルを使う場合に指定します。

  • --v_parameterizationv-parameterizationを使うモデルを使う場合に指定します768-v-ema.ckptおよびそこからの追加学習モデル、Waifu Diffusion v1.5など)。

    --v2--sdxlの指定有無が間違っているとモデル読み込み時にエラーになります。--v_parameterizationの指定有無が間違っていると茶色い画像が表示されます。

  • --zero_terminal_snrnoise schedulerのbetasを修正して、zero terminal SNRを強制します。

  • --pyramid_noise_prob:ピラミッドノイズを適用する確率を指定します。

  • --pyramid_noise_discount_range:ピラミッドノイズの割引率の範囲を指定します。

  • --noise_offset_prob:ノイズオフセットを適用する確率を指定します。

  • --noise_offset_range:ノイズオフセットの範囲を指定します。

  • --vae:使用する VAE を指定します。未指定時はモデル内の VAE を使用します。

  • --tokenizer_cache_dir:トークナイザーのキャッシュディレクトリを指定します(オフライン利用のため)。

画像生成と出力

  • --interactive:インタラクティブモードで動作します。プロンプトを入力すると画像が生成されます。

  • --prompt <プロンプト>:プロンプトを指定します。スペースを含む場合はダブルクォーテーションで囲んでください。

  • --from_file <プロンプトファイル名>プロンプトが記述されたファイルを指定します。1行1プロンプトで記述してください。なお画像サイズやguidance scaleはプロンプトオプション後述で指定できます。

  • --from_module <モジュールファイル>Pythonモジュールからプロンプトを読み込みます。モジュールはget_prompter(args, pipe, networks)関数を実装している必要があります。

  • --prompter_module_argsprompterモジュールに渡す追加の引数を指定します。

  • --W <画像幅>:画像の幅を指定します。デフォルトは512です。

  • --H <画像高さ>:画像の高さを指定します。デフォルトは512です。

  • --steps <ステップ数>:サンプリングステップ数を指定します。デフォルトは50です。

  • --scale <ガイダンススケール>unconditionalガイダンススケールを指定します。デフォルトは7.5です。

  • --sampler <サンプラー名>:サンプラーを指定します。デフォルトはddimです。 ddim, pndm, lms, euler, euler_a, heun, dpm_2, dpm_2_a, dpmsolver, dpmsolver++, dpmsingle, k_lms, k_euler, k_euler_a, k_dpm_2, k_dpm_2_a が指定可能です。

  • --outdir <画像出力先フォルダ>:画像の出力先を指定します。

  • --images_per_prompt <生成枚数>プロンプト1件当たりの生成枚数を指定します。デフォルトは1です。

  • --clip_skip <スキップ数>CLIPの後ろから何番目の層を使うかを指定します。デフォルトはSD1/2の場合1、SDXLの場合2です。

  • --max_embeddings_multiples <倍数>CLIPの入出力長をデフォルト75の何倍にするかを指定します。未指定時は75のままです。たとえば3を指定すると入出力長が225になります。

  • --negative_scale : uncoditioningのguidance scaleを個別に指定します。gcem156氏のこちらの記事を参考に実装したものです。

  • --emb_normalize_modeembedding正規化モードを指定します。"original"(デフォルト)、"abs"、"none"から選択できます。プロンプトの重みの正規化方法に影響します。

  • --force_scheduler_zero_steps_offset:スケジューラのステップオフセットを、スケジューラ設定の steps_offset の値に関わらず強制的にゼロにします。

SDXL固有のオプション

SDXL モデル(--sdxlフラグ付き)を使用する場合、追加のコンディショニングオプションが利用できます:

  • --original_heightSDXL コンディショニング用の元の高さを指定します。これはモデルの対象解像度の理解に影響します。

  • --original_widthSDXL コンディショニング用の元の幅を指定します。これはモデルの対象解像度の理解に影響します。

  • --original_height_negativeSDXL ネガティブコンディショニング用の元の高さを指定します。

  • --original_width_negativeSDXL ネガティブコンディショニング用の元の幅を指定します。

  • --crop_topSDXL コンディショニング用のクロップ上オフセットを指定します。

  • --crop_leftSDXL コンディショニング用のクロップ左オフセットを指定します。

メモリ使用量や生成速度の調整

  • --batch_size <バッチサイズ>:バッチサイズを指定します。デフォルトは1です。バッチサイズが大きいとメモリを多く消費しますが、生成速度が速くなります。

  • --vae_batch_size <VAEのバッチサイズ>VAEのバッチサイズを指定します。デフォルトはバッチサイズと同じです。1未満の値を指定すると、バッチサイズに対する比率として扱われます。 VAEのほうがメモリを多く消費するため、デイジング後stepが100%になった後でメモリ不足になる場合があります。このような場合にはVAEのバッチサイズを小さくしてください。

  • --vae_slices <スライス数>VAE処理時に画像をスライスに分割してVRAM使用量を削減します。Noneデフォルトで分割なし。16や32のような値が推奨されます。有効にすると処理が遅くなりますが、VRAM使用量が少なくなります。

  • --no_half_vaeVAE処理でfp16/bf16精度の使用を防ぎます。代わりにfp32を使用します。VAE関連の問題やアーティファクトが発生した場合に使用してください。

  • --xformersxformersを使う場合に指定します。

  • --sdpa最適化のためにPyTorch 2のscaled dot-product attentionを使用します。

  • --diffusers_xformersDiffusers経由でxformersを使用しますHypernetworksと互換性がありません

  • --fp16fp16半精度での推論を行います。fp16bf16をどちらも指定しない場合はfp32単精度での推論を行います。

  • --bf16bf16bfloat16での推論を行います。RTX 30系以降のGPUでのみ指定可能です。--bf16オプションはRTX 30系以外のGPUではエラーになります。SDXLではfp16よりもbf16のほうが推論結果がNaNになる真っ黒の画像になる可能性が低いようです。

追加ネットワークLoRA等の使用

  • --network_module使用する追加ネットワークを指定します。LoRAの場合は--network_module networks.loraと指定します。複数のLoRAを使用する場合は--network_module networks.lora networks.lora networks.loraのように指定します。

  • --network_weights:使用する追加ネットワークの重みファイルを指定します。--network_weights model.safetensorsのように指定します。複数のLoRAを使用する場合は--network_weights model1.safetensors model2.safetensors model3.safetensorsのように指定します。引数の数は--network_moduleで指定した数と同じにしてください。

  • --network_mul:使用する追加ネットワークの重みを何倍にするかを指定します。デフォルトは1です。--network_mul 0.8のように指定します。複数のLoRAを使用する場合は--network_mul 0.4 0.5 0.7のように指定します。引数の数は--network_moduleで指定した数と同じにしてください。

  • --network_merge:使用する追加ネットワークの重みを--network_mulに指定した重みであらかじめマージします。--network_pre_calc と同時に使用できません。プロンプトオプションの--am、およびRegional LoRAは使用できなくなりますが、LoRA未使用時と同じ程度まで生成が高速化されます。

  • --network_pre_calc:使用する追加ネットワークの重みを生成ごとにあらかじめ計算します。プロンプトオプションの--amが使用できます。LoRA未使用時と同じ程度まで生成は高速化されますが、生成前に重みを計算する時間が必要で、またメモリ使用量も若干増加します。Regional LoRA使用時は無効になります 。

  • --network_regional_mask_max_color_codesリージョナルマスクに使用する色コードの最大数を指定します。指定されていない場合、マスクはチャンネルごとに適用されます。Regional LoRAと組み合わせて、マスク内の色で定義できるリージョン数を制御するために使用されます。

  • --network_argskey=value形式でネットワークモジュールに渡す追加引数を指定します。例: --network_args "alpha=1.0,dropout=0.1"

  • --network_merge_n_models:ネットワークマージを使用する場合、マージするモデル数を指定します(全ての読み込み済みネットワークをマージする代わりに)。

主なオプションの指定例

次は同一プロンプトで64枚をバッチサイズ4で一括生成する例です。

python gen_img.py --ckpt model.ckpt --outdir outputs 
    --xformers --fp16 --W 512 --H 704 --scale 12.5 --sampler k_euler_a 
    --steps 32 --batch_size 4 --images_per_prompt 64 
    --prompt "beautiful flowers --n monochrome"

次はファイルに書かれたプロンプトを、それぞれ10枚ずつ、バッチサイズ4で一括生成する例です。

python gen_img.py --ckpt model.ckpt --outdir outputs 
    --xformers --fp16 --W 512 --H 704 --scale 12.5 --sampler k_euler_a 
    --steps 32 --batch_size 4 --images_per_prompt 10 
    --from_file prompts.txt

Textual Inversion後述およびLoRAの使用例です。

python gen_img.py --ckpt model.safetensors 
    --scale 8 --steps 48 --outdir txt2img --xformers 
    --W 512 --H 768 --fp16 --sampler k_euler_a 
    --textual_inversion_embeddings goodembed.safetensors negprompt.pt 
    --network_module networks.lora networks.lora 
    --network_weights model1.safetensors model2.safetensors 
    --network_mul 0.4 0.8 
    --clip_skip 2 --max_embeddings_multiples 1 
    --batch_size 8 --images_per_prompt 1 --interactive

プロンプトオプション

プロンプト内で、--nのように「ハイフンふたつ+アルファベットn文字」でプロンプトから各種オプションの指定が可能です。対話モード、コマンドライン、ファイル、いずれからプロンプトを指定する場合でも有効です。

プロンプトのオプション指定--nの前後にはスペースを入れてください。

  • --n:ネガティブプロンプトを指定します。

  • --w:画像幅を指定します。コマンドラインからの指定を上書きします。

  • --h:画像高さを指定します。コマンドラインからの指定を上書きします。

  • --s:ステップ数を指定します。コマンドラインからの指定を上書きします。

  • --dこの画像の乱数seedを指定します。--images_per_promptを指定している場合は「--d 1,2,3,4」のようにカンマ区切りで複数指定してください。 ※様々な理由により、Web UIとは同じ乱数seedでも生成される画像が異なる場合があります。

  • --lguidance scaleを指定します。コマンドラインからの指定を上書きします。

  • --timg2img後述のstrengthを指定します。コマンドラインからの指定を上書きします。

  • --nlネガティブプロンプトのguidance scaleを指定します後述。コマンドラインからの指定を上書きします。

  • --am:追加ネットワークの重みを指定します。コマンドラインからの指定を上書きします。複数の追加ネットワークを使用する場合は--am 0.8,0.5,0.3のように カンマ区切りで 指定します。

  • --owSDXLのoriginal_widthを指定します。

  • --ohSDXLのoriginal_heightを指定します。

  • --nwSDXLのoriginal_width_negativeを指定します。

  • --nhSDXLのoriginal_height_negativeを指定します。

  • --ctSDXLのcrop_topを指定します。

  • --clSDXLのcrop_leftを指定します。

  • --cCLIPプロンプトを指定します。

  • --f:生成ファイル名を指定します。

※これらのオプションを指定すると、バッチサイズよりも小さいサイズでバッチが実行される場合があります(これらの値が異なると一括生成できないため)。(あまり気にしなくて大丈夫ですが、ファイルからプロンプトを読み込み生成する場合は、これらの値が同一のプロンプトを並べておくと効率が良くなります。)

例:

(masterpiece, best quality), 1girl, in shirt and plated skirt, standing at street under cherry blossoms, upper body, [from below], kind smile, looking at another, [goodembed] --n realistic, real life, (negprompt), (lowres:1.1), (worst quality:1.2), (low quality:1.1), bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, normal quality, jpeg artifacts, signature, watermark, username, blurry --w 960 --h 640 --s 28 --d 1

image

プロンプトのワイルドカード (Dynamic Prompts)

Dynamic Prompts (Wildcard) 記法に対応しています。Web UIの拡張機能等と完全に同じではありませんが、以下の機能が利用可能です。

  • {A|B|C} : A, B, C の中からランダムに1つを選択します。
  • {e$$A|B|C} : A, B, C のすべてを順に利用します(全列挙)。プロンプト内に複数の {e$$...} がある場合、すべての組み合わせが生成されます。
    • 例:{e$$red|blue} flower, {e$$1girl|2girls}red flower, 1girl, red flower, 2girls, blue flower, 1girl, blue flower, 2girls の4枚が生成されます。
  • {n$$A|B|C} : A, B, C の中から n 個をランダムに選択して結合します。
    • 例:{2$$A|B|C}A, BB, C など。
  • {n-m$$A|B|C} : A, B, C の中から n 個から m 個をランダムに選択して結合します。
  • {$$sep$$A|B|C} : 選択された項目を sep で結合します(デフォルトは , )。
    • 例:{2$$ and $$A|B|C}A and B など。

これらは組み合わせて利用可能です。

img2img

オプション

  • --image_pathimg2imgに利用する画像を指定します。--image_path template.pngのように指定します。フォルダを指定すると、そのフォルダの画像を順次利用します。

  • --strengthimg2imgのstrengthを指定します。--strength 0.8のように指定します。デフォルトは0.8です。

  • --sequential_file_name:ファイル名を連番にするかどうかを指定します。指定すると生成されるファイル名がim_000001.pngからの連番になります。

  • --use_original_file_name指定すると生成ファイル名がオリジナルのファイル名の前に追加されますimg2imgモード用

  • --clip_vision_strength指定した強度でimg2img用のCLIP Vision Conditioningを有効にします。CLIP Visionモデルを使用して入力画像からのコンディショニングを強化します。

コマンドラインからの実行例

python gen_img.py --ckpt trinart_characters_it4_v1_vae_merged.ckpt 
    --outdir outputs --xformers --fp16 --scale 12.5 --sampler k_euler --steps 32 
    --image_path template.png --strength 0.8 
    --prompt "1girl, cowboy shot, brown hair, pony tail, brown eyes, 
          sailor school uniform, outdoors 
          --n lowres, bad anatomy, bad hands, error, missing fingers, cropped, 
          worst quality, low quality, normal quality, jpeg artifacts, (blurry), 
          hair ornament, glasses" 
    --batch_size 8 --images_per_prompt 32

--image_pathオプションにフォルダを指定すると、そのフォルダの画像を順次読み込みます。生成される枚数は画像枚数ではなく、プロンプト数になりますので、`--images_per_promptPPオプションを指定してimg2imgする画像の枚数とプロンプト数を合わせてください。

ファイルはファイル名でソートして読み込みます。なおソート順は文字列順となりますので(1.jpg→2.jpg→10.jpgではなく1.jpg→10.jpg→2.jpgの順、頭を0埋めするなどしてご対応ください01.jpg→02.jpg→10.jpg)。

img2imgを利用したupscale

img2img時にコマンドラインオプションの--W--Hで生成画像サイズを指定すると、元画像をそのサイズにリサイズしてからimg2imgを行います。

またimg2imgの元画像がこのスクリプトで生成した画像の場合、プロンプトを省略すると、元画像のメタデータからプロンプトを取得しそのまま用います。これによりHighres. fixの2nd stageの動作だけを行うことができます。

img2img時のinpainting

画像およびマスク画像を指定してinpaintingできますinpaintingモデルには対応しておらず、単にマスク領域を対象にimg2imgするだけです

オプションは以下の通りです。

  • --mask_image:マスク画像を指定します。--img_pathと同様にフォルダを指定すると、そのフォルダの画像を順次利用します。

マスク画像はグレースケール画像で、白の部分がinpaintingされます。境界をグラデーションしておくとなんとなく滑らかになりますのでお勧めです。

image

その他の機能

Textual Inversion

--textual_inversion_embeddingsオプションで使用するembeddingsを指定します複数指定可。拡張子を除いたファイル名をプロンプト内で使用することで、そのembeddingsを利用しますWeb UIと同様の使用法です。ネガティブプロンプト内でも使用できます。

モデルとして、当リポジトリで学習したTextual Inversionモデル、およびWeb UIで学習したTextual Inversionモデル画像埋め込みは非対応を利用できます

Highres. fix

AUTOMATIC1111氏のWeb UIにある機能の類似機能です独自実装のためもしかしたらいろいろ異なるかもしれません。最初に小さめの画像を生成し、その画像を元にimg2imgすることで、画像全体の破綻を防ぎつつ大きな解像度の画像を生成します。

2nd stageのstep数は--steps--strengthオプションの値から計算されます(steps*strength)。

img2imgと併用できません。

以下のオプションがあります。

  • --highres_fix_scaleHighres. fixを有効にして、1st stageで生成する画像のサイズを、倍率で指定します。最終出力が1024x1024で、最初に512x512の画像を生成する場合は--highres_fix_scale 0.5のように指定します。Web UI出の指定の逆数になっていますのでご注意ください。

  • --highres_fix_steps1st stageの画像のステップ数を指定します。デフォルトは28です。

  • --highres_fix_strength1st stageのimg2img時のstrengthを指定します。省略時は--strengthと同じ値になります。

  • --highres_fix_save_1st1st stageの画像を保存するかどうかを指定します。

  • --highres_fix_latents_upscaling指定すると2nd stageの画像生成時に1st stageの画像をlatentベースでupscalingしますbilinearのみ対応。未指定時は画像をLANCZOS4でupscalingします。

  • --highres_fix_upscaler2nd stageに任意のupscalerを利用します。現在は--highres_fix_upscaler tools.latent_upscaler のみ対応しています。

  • --highres_fix_upscaler_args--highres_fix_upscalerで指定したupscalerに渡す引数を指定します。 tools.latent_upscalerの場合は、--highres_fix_upscaler_args "weights=D:\Work\SD\Models\others\etc\upscaler-v1-e100-220.safetensors"のように重みファイルを指定します。

  • --highres_fix_disable_control_netHighres fixの2nd stageでControlNetを無効にします。デフォルトでは、ControlNetは両ステージで使用されます。

コマンドラインの例です。

python gen_img.py  --ckpt trinart_characters_it4_v1_vae_merged.ckpt
    --n_iter 1 --scale 7.5 --W 1024 --H 1024 --batch_size 1 --outdir ../txt2img 
    --steps 48 --sampler ddim --fp16 
    --xformers 
    --images_per_prompt 1  --interactive 
    --highres_fix_scale 0.5 --highres_fix_steps 28 --strength 0.5

Deep Shrink

Deep Shrinkは、異なるタイムステップで異なる深度のUNetを使用して生成プロセスを最適化する技術です。生成品質と効率を向上させることができます。

以下のオプションがあります:

  • --ds_depth_1第1フェーズでこの深度のDeep Shrinkを有効にします。有効な値は0から8です。

  • --ds_timesteps_1このタイムステップまでDeep Shrink深度1を適用します。デフォルトは650です。

  • --ds_depth_2Deep Shrinkの第2フェーズの深度を指定します。

  • --ds_timesteps_2このタイムステップまでDeep Shrink深度2を適用します。デフォルトは650です。

  • --ds_ratioDeep Shrinkでのダウンサンプリングの比率を指定します。デフォルトは0.5です。

これらのパラメータはプロンプトオプションでも指定できます:

  • --dsd1プロンプトからDeep Shrink深度1を指定します。

  • --dst1プロンプトからDeep Shrinkタイムステップ1を指定します。

  • --dsd2プロンプトからDeep Shrink深度2を指定します。

  • --dst2プロンプトからDeep Shrinkタイムステップ2を指定します。

  • --dsrプロンプトからDeep Shrink比率を指定します。

ControlNet

現在はControlNet 1.0のみ動作確認しています。プリプロセスはCannyのみサポートしています。

以下のオプションがあります。

  • --control_net_modelsControlNetのモデルファイルを指定します。 複数指定すると、それらをstepごとに切り替えて利用しますWeb UIのControlNet拡張の実装と異なります。diffと通常の両方をサポートします。

  • --guide_image_pathControlNetに使うヒント画像を指定します。--img_pathと同様にフォルダを指定すると、そのフォルダの画像を順次利用します。Canny以外のモデルの場合には、あらかじめプリプロセスを行っておいてください。

  • --control_net_prepsControlNetのプリプロセスを指定します。--control_net_modelsと同様に複数指定可能です。現在はcannyのみ対応しています。対象モデルでプリプロセスを使用しない場合は none を指定します。 cannyの場合 --control_net_preps canny_63_191のように、閾値1と2を'_'で区切って指定できます。

  • --control_net_multipliersControlNetの適用時の重みを指定します1.0で通常、0.5なら半分の影響力で適用)。--control_net_modelsと同様に複数指定可能です。

  • --control_net_ratiosControlNetを適用するstepの範囲を指定します。0.5の場合は、step数の半分までControlNetを適用します。--control_net_modelsと同様に複数指定可能です。

コマンドラインの例です。

python gen_img.py --ckpt model_ckpt --scale 8 --steps 48 --outdir txt2img --xformers 
    --W 512 --H 768 --bf16 --sampler k_euler_a 
    --control_net_models diff_control_sd15_canny.safetensors --control_net_multipliers 1.0 
    --guide_image_path guide.png --control_net_ratios 1.0 --interactive

ControlNet-LLLite

ControlNet-LLLiteは、類似の誘導目的に使用できるControlNetの軽量な代替手段です。

以下のオプションがあります:

  • --control_net_lllite_modelsControlNet-LLLiteモデルファイルを指定します。

  • --control_net_multipliersControlNet-LLLiteの倍率を指定します重みに類似

  • --control_net_ratiosControlNet-LLLiteを適用するステップの比率を指定します。

注意ControlNetとControlNet-LLLiteは同時に使用できません。

Attention Couple + Reginal LoRA

プロンプトをいくつかの部分に分割し、それぞれのプロンプトを画像内のどの領域に適用するかを指定できる機能です。個別のオプションはありませんが、mask_pathとプロンプトで指定します。

まず、プロンプトでANDを利用して、複数部分を定義します。最初の3つに対して領域指定ができ、以降の部分は画像全体へ適用されます。ネガティブプロンプトは画像全体に適用されます。

以下ではANDで3つの部分を定義しています。

shs 2girls, looking at viewer, smile AND bsb 2girls, looking back AND 2girls --n bad quality, worst quality

次にマスク画像を用意します。マスク画像はカラーの画像で、RGBの各チャネルがプロンプトのANDで区切られた部分に対応します。またあるチャネルの値がすべて0の場合、画像全体に適用されます。

上記の例では、Rチャネルがshs 2girls, looking at viewer, smile、Gチャネルがbsb 2girls, looking backに、Bチャネルが2girlsに対応します。次のようなマスク画像を使用すると、Bチャネルに指定がありませんので、2girlsは画像全体に適用されます。

image

マスク画像は--mask_pathで指定します。現在は1枚のみ対応しています。指定した画像サイズに自動的にリサイズされ適用されます。

ControlNetと組み合わせることも可能です細かい位置指定にはControlNetとの組み合わせを推奨します

LoRAを指定すると、--network_weightsで指定した複数のLoRAがそれぞれANDの各部分に対応します。現在の制約として、LoRAの数はANDの部分の数と同じである必要があります。

その他のオプション

  • --no_preview : 対話モードでプレビュー画像を表示しません。OpenCVがインストールされていない場合や、出力されたファイルを直接確認する場合に指定してください。

  • --n_iter : 生成を繰り返す回数を指定します。デフォルトは1です。プロンプトをファイルから読み込むとき、複数回の生成を行いたい場合に指定します。

  • --tokenizer_cache_dir : トークナイザーのキャッシュディレクトリを指定します。(作業中)

  • --seed : 乱数seedを指定します。1枚生成時はその画像のseed、複数枚生成時は各画像のseedを生成するための乱数のseedになります--from_fileで複数画像生成するとき、--seedオプションを指定すると複数回実行したときに各画像が同じseedになります

  • --iter_same_seed : プロンプトに乱数seedの指定がないとき、--n_iterの繰り返し内ではすべて同じseedを使います。--from_fileで指定した複数のプロンプト間でseedを統一して比較するときに使います。

  • --diffusers_xformers : Diffuserのxformersを使用します。

  • --opt_channels_last : 推論時にテンソルのチャンネルを最後に配置します。場合によっては高速化されることがあります。

  • --shuffle_prompts:繰り返し時にプロンプトの順序をシャッフルします。--from_fileで複数のプロンプトを使用する場合に便利です。

  • --network_show_meta:追加ネットワークのメタデータを表示します。


Gradual Latent について

latentのサイズを徐々に大きくしていくHires fixです。

  • --gradual_latent_timesteps : latentのサイズを大きくし始めるタイムステップを指定します。デフォルトは None で、Gradual Latentを使用しません。750 くらいから始めてみてください。
  • --gradual_latent_ratio : latentの初期サイズを指定します。デフォルトは 0.5 で、デフォルトの latent サイズの半分のサイズから始めます。
  • --gradual_latent_ratio_step: latentのサイズを大きくする割合を指定します。デフォルトは 0.125 で、latentのサイズを 0.625, 0.75, 0.875, 1.0 と徐々に大きくします。
  • --gradual_latent_ratio_every_n_steps: latentのサイズを大きくする間隔を指定します。デフォルトは 3 で、3ステップごとに latent のサイズを大きくします。
  • --gradual_latent_s_noiseGradual LatentのS_noiseパラメータを指定します。デフォルトは1.0です。
  • --gradual_latent_unsharp_paramsGradual Latentのアンシャープマスクパラメータをksize,sigma,strength,target-x形式で指定しますtarget-x: 1=True, 0=False。推奨値3,0.5,0.5,1または3,1.0,1.0,0

それぞれのオプションは、プロンプトオプション、--glt--glr--gls--gle でも指定できます。

サンプラーに手を加えているため、サンプラーに euler_a を指定してください。 他のサンプラーでは動作しません。

SD 1.5 のほうが効果があります。SDXL ではかなり微妙です。