update readme

This commit is contained in:
Kohya S
2024-02-22 23:41:46 +09:00
parent 3368fb1af7
commit df7648245e

View File

@@ -2,6 +2,8 @@
This is an experimental feature. There may be bugs.
__Feb 22, 2024 Update:__ Fixed a bug that LoRA is not applied to some modules (to_q/k/v and to_out) in Attention.
__Feb 20, 2024 Update:__ There was a problem with the preprocessing of the EffcientNetEncoder, and the latents became invalid (the saturation of the training results decreases). If you have cached `_sc_latents.npz` files with `--cache_latents_to_disk`, please delete them before training.
## Usage
@@ -78,6 +80,8 @@ The following prompt options are available.
実験的機能です。不具合があるかもしれません。
__2024/2/22 追記:__ LoRAが一部のモジュールAttention の to_q/k/v および to_outに適用されない不具合を修正しました。
__2024/2/20 追記:__ EffcientNetEncoder の前処理に不具合があり、latents が不正になっていました(学習結果の彩度が低下する現象が起きます)。`--cache_latents_to_disk` でキャッシュした `_sc_latents.npz` がある場合、いったん削除してから学習してください。
## 使い方