Sign In

[全改訂] EmoVoid で LoRA をつくろう!「v3.9」 [NEW] Let's build a LoRA model with EmoVoid !!

2

Mar 25, 2026

(Updated: 10 hours ago)

training guide
[全改訂] EmoVoid で LoRA をつくろう!「v3.9」 [NEW] Let's build a LoRA model with EmoVoid !!

EmoVoid で LoRA をつくろう! (Animaモデル)

※ v3.9 以降を必ずお使いください (v3.8以前はclosure周りに問題あり機能しません)

銭形警部:
「奴はとんでもないものを盗んでいきました……。あなたの"学習コスト"と"VRAM制限"です!」

まず EmoVoid を用意してください。github から DownLoad するだけ

ここからが大事、そして簡単です、スケジューラは constant ですよ!
Rank: ""、Alpha:1(以下:Rに対して0.125~0.25倍)
もし Alpha: "" で過学習ぽい場合は 1以下にしましょう

step数 は、およそ 1画像60step くらいを目安にしてください

はい、これだけ、守るべきことは以上のみ

いいですか? Rank/Alpha は、0.125~0.25倍です、 constant、これだけです!
面倒な他の設定は不要です、各種の低VRAM設定は必要に応じて適用してください
ちゃんと設定すれば、Animaモデル なら VRAM6GB 以下で学習可能です


Kohya-SD-Script で学習させる場合はレイヤスキップを22くらいにします


アーリーストップとLoRA選定は、X がアーリーストップ点灯stepとしたとき、
|A|-----|X|-|X|------------|B|--------------|X|------------------|C|-------------
|X| に近い保存を第一候補にしてください、この図の場合は |A| を第一候補にします

|A|--|X|-----|B|---|X|-|X|-|X|-----|X|-|X|-|X|-|C|----|X|----|X|-|X|-|X|-|X|-|D|-|X|-|X|-----|X||X|----
この図の場合は |D| |C| を第一候補にします

アーリーストップはユーザー設定で目標値(loss値)を変更できます
現在はデフォルトで0.04です、ただし単純な0.04ではなく安定した0.04を判定します
これを 0.02 など任意の数値に変更できます、これはLoRAの目的に合わせてください
キャラ、画風、弱め、等々で、どういう収束を目指すかにより数値を合わせてください

※ v3.9 以降を必ずお使いください (v3.8以前はclosure周りに問題あり機能しません)


(Corrected) Let’s Make a LoRA with EmoVoid! (Anima)

※ Please be sure to use version 3.9 or later (versions prior to 3.8 have issues with closures and will not work).

Inspector Zenigata:
“That guy stole something absolutely outrageous... Your ‘learning cost’ and ‘VRAM limit’!”

First, get EmoVoid ready. You can simply download it from GitHub. Now, here comes the important—yet simple—part. Make sure your Scheduler is set to constant!

Key Training Settings

  • Rank : "4"

  • Alpha : "1" or lower (Recommended: 1 or lower, ideally between 0.125 and 0.25)

  • Pro Tip : If you notice signs of overfitting at Alpha 1, drop it below 0.5 immediately.

Steps and Dataset

  • Steps : As a general guideline, aim for about 60 steps per image.

Yes, that’s all there is to it—those are the only settings you need to adjust.

Summary of Rules

It’s that simple. Just remember:

  1. Rank/Alpha Ratio : Keep Alpha between 0.125 to 0.25x the Rank.

  2. Steps : As a general guideline, aim for about 60 steps per image.

  3. Scheduler : constant.

You don't need to mess with any other complicated settings. Just apply low-VRAM optimizations as needed. If configured correctly, you can train on an Anima model with under 6GB of VRAM.


Kohya-script Example

When training using the Kohya-SD-Script, set the layer skip to around 22.


For early stopping and LoRA selection, when X is set as the early stopping step,
|A|-----|X|-|X|------------|B|--------------|X|------------------|C|-------------
|X| Please prioritize the save closest to |X| as the top candidate; in this diagram, |A| is the top candidate.

|A|--|X|-----|B|---|X|-|X|-|X|-----|X|-|X|-|X|-|C|----|X|----|X|-|X|-|X|-|X|-|D|-|X|-|X|-----|X||X|----
In this diagram, |D| and |C| are the top candidates.

You can change the target value (loss value) for the early stop in the user settings.
The default value is currently 0.04, but it does not simply use 0.04; rather, it determines a stable value of 0.04.
You can change this to any value, such as 0.02; please adjust it to suit the purpose of LoRA.
Please adjust the values based on your goals regarding characters, art style, difficulty level, and other factors.

※ Please be sure to use version 3.9 or later (versions prior to 3.8 have issues with closures and will not work).

2