Stable Diffusion「LoRAの作り方」わずか3ステップ!

スポンサーリンク
Stable DiffusionのLoRAモデルを学習させているKohya's GUIの画面と、生成された高品質なAIイラストの比較画像。 AI テクノロジー解説
あなただけのオリジナルLoRAを作る旅へ!Kohya's GUIを使って、思い通りのAIイラストを生成しましょう。

  • 「自分だけのオリジナルのAIイラストを生成したい」
  • 「既存のStable Diffusionのモデルにはない、特定のキャラクターや服装を再現したい」

そう思って、LoRAの作り方に興味を持たれたのではないでしょうか。

LoRA(ローラ/Low-Rank Adaptation)は、画像生成AIの世界で最も革新的な技術の一つです。

この技術を使えば、大規模な学習を必要とするモデル作成とは違います。

あなたのPC(Windows、Mac問わず)のVRAMリソースが少ない場合でも、特定のスタイルやキャラクターを再現できる追加学習モデルを作成する方法を知ることが可能になります。

しかし、いざ作り方を調べてみると、「環境構築が難しそう」「設定項目が多すぎる」と途中で挫折してしまいそうになります。

ご安心ください。

今回の記事は、2025年最新の情報に基づき、Windows PC、Mac PCユーザー、そしてAIイラストの初心者でも、最後まで迷うことなく、自分だけの高品質なLoRAを自作し、Stable DiffusionのWeb UIで使えるようになる完全ガイドです。

  • 必要な知識
  • 環境構築
  • 学習方法の手順
  • 失敗しない設定のコツ

そして商用利用の注意点まで、全てを体系的に解説します。

さあ、あなただけのオリジナルモデルを作成し、AIイラストの表現の幅を広げていきましょう!

  1. LoRAの基礎知識
    1. LoRAの仕組みとメリット
  2. LoRA作成の全体像
    1. LoRA 学習方法を紹介
    2. LoRA作成に必要な準備
  3. ステップ1:環境構築
    1. AnacondaのインストールとKohya’s GUIの導入の環境づくり
  4. ステップ2:データセット作成
    1. 画像の選び方と集め方
    2. キャプションの整備とコツ
  5. ステップ3:Kohya’s GUIでの学習方法
    1. Kohya’s GUIを使って学習する方法
  6. 高品質なLoRAを作るためのコツ(ランキング)
    1. LoRAの作り方のコツ:高品質に仕上げる3つの工夫
  7. 完成したLoRAの活用法
    1. LoRA モデルの使い方を解説
  8. 2025年最新のトラブル解決と応用
    1. よくある質問とトラブル対処法
    2. LoRAを配布する場合のマナーとライセンス
    3. LoRAの最新応用技術
  9. LoRA作成と活用に関するFAQ
    1. Q. スマホ(iPhone/Android)でもLoRA作成は可能ですか?
    2. Q. LoRAがうまく反映されない、または画像が崩れてしまいます。
    3. Q. LoRAとTextual Inversion(TI)の違いは何ですか?
  10. LoRA作成成功のためのチェックリスト
  11. 次のステップへ(関連コンテンツ)
  12. LoRAの作成プロセス詳細と応用
    1. LoRAモデルの構造と役割
    2. LoRAの適用とWeight値の調整例
    3. SD1.5モデル、SDXLモデルでのLoRAの使用と注意点
  13. データセット作成の重要性と応用
    1. タグ整理とキャプション精度の上げ方(詳細なテクニック)
    2. 画像枚数・エポック数の目安と調整法
  14. 収益化と著作権・ライセンス
    1. LoRAを配布する場合のマナーとライセンス
  15. 2025年最新トレンドと応用技術
    1. LoRA学習方法の進化:より効率的な設定
    2. GPUSOROBANを活用したLoRA学習
  16. 環境構築と推奨スペック
    1. AnacondaのインストールとKohya’s GUIの導入の環境づくり(Windows/Mac)
    2. おすすめの高性能GPUと周辺機器
    3. LoRA作成後の収益化の道筋
  17. 専門用語解説とQ&A
    1. LoRA関連の用語集
  18. LoRA学習の応用的なQ&A
    1. Q. 崩壊したLoRAを修正することはできますか?
    2. Q. LoRAとCheckpointモデルを混ぜることはできますか?

LoRAの基礎知識

LoRAの仕組みとメリット

LoRAとは?少ないリソースでもできる仕組み

LoRA(ロー・ランク・アダプテーション)は、大規模言語モデル(LLM)の学習効率を向上させるために開発された技術です。

Stable Diffusionのような画像生成AIに適用することで、既存のモデル(Checkpointファイル)の画風を変えることなく、特定の要素(キャラクター、服装、ポーズ、絵柄など)を追加で学習させることが可能になります。

通常のモデル学習(ファインチューニングやDreamboothなど)では、数十GB以上の大きなVRAM容量と長い時間が必要でした。

しかし、LoRAは差分ファイルという小さいデータ(数MB~数百MB程度)を既存のモデルに上乗せする形で機能するため、VRAM 8GBや12GBのPCでも比較的簡単に学習を実行できます。

少ないリソースで作成できることが、LoRAの一番の特徴です。

個人のクリエイターに広まった理由です。

LoRAモデル自作のメリット

メリット詳細
好きなキャラクターの再現既存のモデルに存在しない、あなたの好きなアニメやゲームのキャラを生成することが可能です。
オリジナルスタイルの作成あなた自身の絵柄や写真の雰囲気を学習させ、誰とも違う唯一無二のAIイラストを作れるようになります。
商用利用の自由度自作したLoRAは、ライセンスの制限を気にすることなく、収益化や副業に活用できる可能性が高まります。
知識・技術の習得学習の仕組みを理解することで、プロンプトの調整スキルやトラブル解決能力が大幅に向上します。

LoRA作成の全体像

LoRA 学習方法を紹介

LoRAの作り方を簡単に試そう!ステップごとの進め方

LoRAの作り方は、大きく分けて以下の3つのステップで完了します。

ステップ作業内容ツール・知識
ステップ1: 環境構築学習用ツール(Kohya’s GUIなど)をPCに導入し、必要なファイルを用意します。Python、Git、Anacondaなど
ステップ2: データセット作成学習元となる画像を集め、キャプション(タグ)を付けます。AIタグ付けツール(WD1.4 Taggerなど)
ステップ3: 学習・出力Kohya’s GUIでパラメータを設定し、学習を実行してLoRAファイルを生成します。Kohya’s GUI、VRAM、Learning Rateなど

この記事では、初心者が一番難しいと感じる「ステップ1」と「ステップ2」を特に丁寧に解説します。

LoRA作成に必要な準備

必要な作業とツール一覧

Stable Diffusion LoRA 作り方を開始するために、必要なものを一覧にまとめました。

項目詳細と推奨
PCスペックVRAM 12GB 以上の NVIDIA GPU(GeForce RTX 3060や4060以上)を搭載したPCが推奨されます。8GBでも可能ですが、設定を工夫する必要があります。
学習ツールKohya’s GUI(Kohya’s Stable Diffusion webui)が最も一般的で機能が豊富です。
環境構築ツールPython(3.10.11など、特定のバージョンが推奨)、Git、Anaconda(またはvenv)
データセット学習させたい対象の画像(20枚~100枚程度)
タグ付けツールWD1.4 TaggerやDeepBooruなど、画像に自動でキャプションを付けるツール(Kohya’s GUIに内蔵されている場合もあります)

必要なGPUスペック LoRA学習にはGPUが必須です。特にVRAM(GPU専用メモリ)の容量が重要で、学習時間や設定の自由度に大きく影響します。

  • 推奨:VRAM 12GB以上(RTX 3060、4060、4070系列)
  • 最低:VRAM 8GB(設定で--lowvramなどを使う必要があります)
  • SDXL モデルのLoRAを作る場合:VRAM 16GB 以上(RTX 4090、A100など)

注釈(VRAM): Video RAM(ビデオラム)の略称で、GPU(グラフィックボード)専用のメモリのこと。AIの学習や画像生成の際に大きなデータを一時的に保存する場所で、容量が不足するとエラーになったり、処理速度が遅くなります。

PCのスペックが不足している方は、高性能なGPUをインターネット経由で利用できる「GPUクラウドサービス」の利用を強く推奨します。(→ GPUSOROBAN公式サイト])

ステップ1:環境構築

AnacondaのインストールとKohya’s GUIの導入の環境づくり

LoRAの学習方法の中で、環境構築が最も挫折しやすいところです。

ここではWindowsを中心に、初心者でも確実に成功する手順を解説します。

  1. Gitのインストール: GitHubからKohya’s GUIのソースコードをダウンロードするために必須です。(→ [サイト外リンク:Git公式サイト])
  2. Anacondaのインストール:Pythonのバージョン管理を簡単に行うため、Anacondaのインストーラー(.exe)をダウンロードして導入します。
  3. 仮想環境の作成:Anaconda Promptを開き、Python 3.10.11を使った新しい仮想環境を作ります。

Bash

conda create -n lora-train python=3.10.11
conda activate lora-train
  1. Kohya’s GUIのダウンロード:GitHubからリポジトリをcloneしてフォルダに保存します。

Bash

git clone https://github.com/kohya-ss/sd-scripts.git
cd sd-scripts
  1. GUI起動と必要なライブラリのインストール:フォルダ内のsetupファイルを実行し、必要なファイル(PyTorch、CUDAなど)を自動的にダウンロードさせます。

注釈(仮想環境): PCの中に隔離した別の作業場所を作る機能。AI学習ツールは特定のPythonバージョンを必要とすることが多いため、既存の環境を壊さないように作ります。

Mac PCやGoogle Colabでの環境構築

  • Mac PC: Windowsと同様にGitとPythonの環境を作り、ターミナルでコマンドを実行します。ただし、Apple Silicon(M1/M2/M3)チップ搭載機の場合は、特別なライブラリ(PyTorchのMPS対応版など)のインストールが必要になる点に注意が必要です。
  • Google Colab: GPUクラウドサービスの一つで、ブラウザ上で簡単にLoRA学習を実行できます。Colab上で公開されているノートブック(学習用コードと設定が書かれているファイル)をコピーし、実行ボタンを押すだけで完了するため、初心者に最も簡単な方法です。(→ [内部リンク:Google Colabを使ったLoRA作成ガイド])

ステップ2:データセット作成

画像の選び方と集め方

高品質なLoRAを作るために最も重要な要素は、学習元となるデータセット(画像素材の集まり)の質です。

  • 対象を決める:特定のキャラクター、特定の服装、特定の絵柄など、LoRAで再現したい対象を明確にします。
  • 画像の枚数:最低 10枚、推奨 20枚~50枚程度が目安です。多すぎると学習時間がかかり、少なすぎると過学習(特定の1枚の画像を記憶しすぎて応用が利かない状態)の原因になります。
  • バリエーションを持たせる:正面、側面、背面、異なるポーズ、異なる背景など、多様な条件の画像を用意することで、応用力の高いLoRAが完成します。同一のポーズや背景ばかりだと、生成時も同じ構図になりやすいです。

注釈(過学習): AIがデータセットの画像を丸暗記してしまい、新しいプロンプトや環境で試すと破綻したり、学習元の画像と全く同じものしか出せない状態のこと。

キャプションの整備とコツ

画像のタグ付け(キャプション)は、AIに「この画像は何が写っているか」を教えるための必須作業です。

  • 自動タグ付け:Kohya’s GUIに内蔵されているWD1.4 Taggerなどのツールを使って、最初に自動でタグを付けます。
  • トリガーワードの設定:特定のタグを、LoRAを呼び出すための「トリガーワード」に設定します。(例:1girlの代わりに、キャラ名のsaku_chanに変更して、全ての画像のキャプションに入れます。)
  • 不要なタグの削除:自動的に付いたタグの中から、学習に必要ない要素(low qualitytextbad anatomyなど)や、モデル本体が既に知っている一般的なタグ(long hairblue eyesなど)を削除します。

タグの整備は、生成時にプロンプトで細かい調整を行うための土台作りです。

キャプションの精度が高いほど、LoRAの応用力が増します。

LoRA学習用のデータセットフォルダ構造。画像ファイルとキャプションのテキストファイルが対になっている様子。
LoRA データセットは、画像とキャプションのセットが基本。キャプションの精度が品質を左右します。

ステップ3:Kohya’s GUIでの学習方法

Kohya’s GUIを使って学習する方法

Stable Diffusion 学習方法として最も一般的なKohya’s GUIを使った手順を解説します。

  1. 設定ファイルの準備:GUIを起動し、「LoRA」タブを選択します。
    • Source Model: 学習のベースとなるStable Diffusionのモデル(sd-v1-5.ckptなど)を選択します。
    • Folders: 画像を入れたデータセットフォルダ、出力フォルダ(完成したLoRAの保存場所)、ログフォルダを指定します。
  2. パラメータの設定:学習の結果に大きく影響する重要な設定です。
パラメータ役割(意味)初心者向け推奨値
Network Rank (Rank, Dim)LoRAファイルの大きさと表現力。高いほど詳細な表現が可能ですが、ファイルサイズが大きくなります。128(推奨)、64(軽量モデル向け)
Learning Rate (LR)AIがどれだけ大きく学習内容を反映させるかの速度。高すぎると崩壊し、低すぎると時間がかかります。0.0001 程度(AdamW系最適化手法の場合)
Epoch (エポック)データセット全体を何回繰り返して学習するかの回数。10~20(画像枚数に応じて調整)
Batch Size1回の学習で使う画像の枚数。大きいほど高速ですが、VRAMを消費します。1(VRAM 8GBなど少ない場合の推奨)、2~4(VRAM 16GB以上)
  1. 学習開始:「Train」ボタンを押すと、学習が開始します。

学習中は、コマンドプロンプトにloss(損失)の値が表示されます。このlossの値が安定して下がり続け、0.01~0.05程度になったあたりが「完成」の目安です。

Kohya's GUIでのLoRA学習中の画面。コマンドプロンプトに表示されるlossの値の推移。
学習中はlossの値を確認。値が下がり続けたら成功ですが、下がりすぎると過学習になります。

高品質なLoRAを作るためのコツ(ランキング)

LoRAの作り方のコツ:高品質に仕上げる3つの工夫

タグ整理とキャプション精度の上げ方

AIイラスト LoRAの例を見ると、細部までしっかり再現されています。その裏側には、徹底したタグ整理があります。

  • トリガーワードの単一化:トリガーワード(例:saku_chan)は、データセット全体で一貫して使用します。また、プロンプトで呼び出しやすいよう、他の一般的な単語と被らない名前にすることが重要です。
  • ノイズタグの徹底排除:背景の影響を除きたい場合は、背景に関するタグ(outdoorscityscapeなど)を削除し、キャラクターの特徴に集中させます。
  • 強調タグの使用:キャラクターの目の色や髪型など、特に再現したい部分のタグを手動で調整し、重みを付けることで学習を強化します。

画像枚数・エポック数の目安と調整法 画像枚数とエポック数は、学習の「量」を決める重要なパラメータです。

画像枚数(Dataset Size)推奨エポック数(Epochs)調整のコツ
20枚程度20~30枚数が少ないため、エポック数を多くして学習を深くします。過学習に注意。
50枚程度10~15安定した学習が可能。lossの値を見て調整しやすい枚数です。
100枚以上5~10学習の時間がかかりますが、汎用性の高いLoRAが作れます。

Epoch数を増やすと、過学習のリスクが高まるため、途中で保存されるファイルを定期的にチェックして、最も良い結果のものを選択します。

LoRA学習におけるエポック数とLoss値の関係を示すグラフ。過学習のカーブを解説。
エポック数は多すぎないように。Lossの値が一番低いところで学習を止めるのがコツです。

失敗しない学習率&ステップ設定 Learning Rate(学習率)は、LoRA作り方の中で最も繊細な調整が必要なパラメータです。

項目推奨の値失敗しないコツ
Learning Rate0.0001(1e-4)程度大きく変えない。高くしすぎると画像が「崩壊」します。
Optimizer(最適化手法)AdamWやAdafactorAdafactorはLearning Rateの設定が比較的不要なため、初心者に簡単です。
Steps(ステップ数)画像枚数 × Epoch数 / Batch Size総ステップ数が1000~3000程度になるよう、Epochを調整します。

学習率を低く設定して、何回も繰り返し学習する(Epochを増やす)ほうが、急激に学習して崩壊するよりも、結果的に高品質なLoRAが完成しやすい方法です。

完成したLoRAの活用法

LoRA モデルの使い方を解説

学習が完了して出力された.safetensors(または.ckpt)ファイルがLoRAモデル本体です。

  1. Web UIへの読み込み方:ダウンロードしたLoRAファイルを、Stable Diffusion Web UI(AUTOMATIC1111など)のインストールフォルダ内のstable-diffusion-webui/models/Loraフォルダに入れます。
  2. Web UIの再起動:LoRAを格納した後、Web UIを一度閉じて再起動します。
  3. 反映の確認:Web UIの右上にある「再読み込み」ボタンを押すか、プロンプト欄の下にある「Show/hide extra networks」ボタンを押して、一覧に自分のLoRAの名前が表示されるかを確認します。
Stable Diffusion Web UIのフォルダ階層。LoRAファイルをmodels/Loraフォルダに入れている様子。
LoRAファイルをWeb UIで使うためには、models/Loraフォルダに入れて再起動します。

Promptへの適用とweight値の調整例 LoRAを実際に画像生成に使う際は、プロンプトに特定の文字列を入力する必要があります。

  1. LoRAの呼び出し:プロンプト欄の下にある「Show/hide extra networks」ボタンを押すか、手動で以下の形式で入力します。<lora:ファイル名:強度>
  2. トリガーワードの入力:LoRAを学習させた時に設定したトリガーワード(例:saku_chan)を、プロンプトの先頭に入れることで効果を発揮させます。
  3. Weight(強度)の調整:強度の値を変更することで、LoRAの影響度合を調整します。
    • 0.6~0.8:推奨の範囲。元のモデルの画風を保ちつつ、LoRAの特徴を反映させます。
    • 1.0:LoRAの影響を強くするため、過学習の傾向があると崩壊しやすいです。
プロンプト例効果
saku_chan, <lora:saku_chan-v1:0.7>, masterpiece, white dressLoRAで学習したキャラクター(saku_chan)を、0.7の強度で反映させます。

SD1.5モデル、SDXLモデルでのLoRAの使用と注意点

  • SD1.5 モデル:現在、LoRA学習で最も使われているベースモデルです。特に注意点はありません。
  • SDXL モデル:2023年に登場した最新のモデルで、LoRA学習にもSDXL専用の設定(SDXL-LoRA)が必要になります。SDXLの特徴として、高解像度(1024×1024以上)を前提とするため、VRAM 16GB 以上の高性能PCが必要になります。

2025年最新のトラブル解決と応用

よくある質問とトラブル対処法

学習中に止まる/保存エラーになる原因 LoRA学習を実行している途中で処理が止まる(フリーズ)、あるいは「CUDA out of memory」などのエラーが表示されて保存が失敗する主要な原因は、VRAM不足です。

エラー内容主な原因解決策
CUDA out of memoryBatch Sizeが大きすぎる、または画像サイズが大きすぎる。Batch Sizeを1に下げる。画像サイズを512×512に統一する。Kohya’s GUIの設定でMemory Efficientを有効にする。
学習が進まないLearning Rateが低すぎる、またはlossが既に十分低い。Learning Rateを微調整(0.0001程度に上げる)する。学習を停止して結果を確認する。
ファイルに名前がない出力ファイルの名前を指定していない。GUIの設定でModel output nameを必ず記述します。

Mac PCの場合は、out of memoryではなく、メインメモリの不足で処理速度が極端に遅くなることがあります。

崩壊・色ずれなどを防ぐTips

  • 崩壊:学習率(Learning Rate)が高すぎる時、画像がノイズのように崩壊します。
  • 色ずれ:学習元の画像の色味が極端に偏っている場合(例:全て白背景)、LoRAを使った時に色がずれることがあります。この場合はデータセットに別の背景の画像を追加したり、プロンプトでwhite backgroundなどをネガティブプロンプトに入れます。
  • 汎用性の向上:定期的に別のプロンプトと別のモデルで試して、LoRAの汎用性を確認します。
LoRAの学習率が高すぎて画像が崩壊した例と、適切に調整して高品質に生成された画像の比較。
学習率(LR)の調整を誤ると、画像が崩壊します。繊細な調整が成功の鍵です。

LoRAを配布する場合のマナーとライセンス

LoRAを自作した後、CivitaiやHugging Faceなどのサイトで公開することで、収益化(アドセンスや寄付)に繋がる可能性があります。

  • ベースモデルのライセンス:最も重要な点は、学習に使ったベースモデル(例:Stable Diffusion 1.5)のライセンスを確認することです。派生モデルは、元のモデルの規約に従う必要があります。
    • Commercial Use Allowed(商用利用可能):収益化を目的とした利用が可能です。
    • Non-commercial Use(非商用利用):個人の趣味の範囲内に限定されます。
  • マナー:公開時は、必ず推奨するプロンプト、トリガーワード、推奨強度を記載します。また、LoRAのバージョン管理を行い、更新情報を明記します。

LoRAの最新応用技術

最新のデータセット作成ツール:より高度なタグ付け 2025年最新のLoRA学習では、より高度なタグ付けツールが登場しています。

  • Caption-AIO:画像の解析精度が高く、一括でキャプションの編集やトリガーワードの挿入が可能なツールです。タグ付けの作業時間を大幅に短縮します。
  • 多属性学習:特定のキャラクターの服装、髪型、表情など、複数の属性を個別に学習させる方法も一般的になりました。(→ [内部リンク:LoRA学習用データセット作成完全マニュアル:画像集め・キャプション付与の全て])
最新のAIキャプションツール(Caption-AIOのイメージ)の画面。画像に対して詳細なタグが自動で付与されている様子。
最新のAIツールを使えば、キャプション付与の作業が格段に楽になります。

LoRA作成と活用に関するFAQ

Q. スマホ(iPhone/Android)でもLoRA作成は可能ですか?

A. スマホ単体でLoRAの学習を実行することはできません。

しかし、解決策は二つあります。

一つは、Google Colab(有料のPro/Pro+を推奨)のノートブックをスマホのブラウザから操作して学習を開始する方法です。

もう一つは、GPUSOROBANなどのGPUクラウドサービスに接続して学習を行います。

その進捗をスマホで確認する方法です。

スマホは「学習を開始/停止するリモートコントローラー」として活用できます。

Q. LoRAがうまく反映されない、または画像が崩れてしまいます。

A. LoRAがうまく反映しない問題は、主に3つの原因が考えられます。

  • Web UIに読み込まれていない:ファイル名や格納場所(stable-diffusion-webui/models/Lora)を確認し、Web UIを再起動して反映させます。
  • トリガーワードを入れていない:プロンプトに、学習時に設定したトリガーワード(例:saku_chan)を入れていないと、AIがLoRAの存在を認識できません。
  • Weight(強度)の設定が不適切:画像が崩れる場合は強度を0.8以下に下げ、反映が弱い場合は0.6以上に上げて調整します。

Q. LoRAとTextual Inversion(TI)の違いは何ですか?

A. LoRAとTextual Inversion(TI/テキストual インバージョン)は、どちらも追加学習モデルですが、仕組みが違います。

  • LoRA:AIモデル本体の一部の重み(重さ)を調整するため、キャラクターのポーズや服装など「画像の構造」に大きく影響させることが可能です。ファイルサイズは数十MB~数百MB程度です。
  • Textual Inversion:新しいプロンプトの「単語」を作り出す技術で、「絵柄」や「雰囲気」を変えるのに向いています。ファイルサイズは数百KBと非常に軽量です。

LoRA作成成功のためのチェックリスト

本記事で解説したLoRAの作り方の知識、解決策、最新のコツをまとめて最終チェックリストとします。

項目チェックポイント
知識・環境VRAM 12GB 以上のPC、またはGPUクラウドサービス(→ [アフィリエイトリンク:GPUSOROBAN])を用意しましたか? Kohya’s GUIの環境構築(Git、Python 3.10)は完了しましたか?
データセット学習画像は20枚~50枚程度用意しましたか? キャプション(タグ)に、トリガーワードを追加して不要なタグを削除しましたか?
設定・学習Learning Rateは0.0001程度に設定しましたか? Epoch数は過学習を防ぐために少なめに調整しましたか? Batch SizeはPCのVRAMに応じて1~4に設定しましたか?
活用完成したLoRAをstable-diffusion-webui/models/Loraフォルダに入れましたか? プロンプトに<lora:ファイル名:0.7>とトリガーワードを両方入れましたか?

あなただけのオリジナルモデルを作成することは、AIイラストの可能性を大きく広げます。

今回作ったLoRAを使って、さらに高品質な画像生成を追求していきましょう。

次のステップへ(関連コンテンツ)

LoRAの作り方をマスターしたら、次は以下の記事を参考にして、さらなるスキルアップを目指しましょう。

[Stable Diffusion Web UI (AUTOMATIC1111) 2025年最新の使い方:初心者向けインストールから神プロンプトまで徹底解説](関連記事):LoRAを使って画像を生成するためのWeb UIの基礎を固めます。

LoRAの作成プロセス詳細と応用

LoRAモデルの構造と役割

LoRA 学習 方法を深く理解するために、AIモデル内でのLoRAの役割を把握しましょう。

LoRAはTransformerブロックのAttention層に追加される 2 つの低ランク行列 (Rank Matrix) で構成されています。

学習時、この行列を調整します。

既存のモデル全体(Checkpoint)は変更しない状態で学習内容を追加します。

  • Network Rank (Dim) の値が大きいほど、この行列の表現能力が増し、より複雑な髪型や衣装の細部を再現できる可能性が高まります。
  • しかし、Rankを大きくしすぎると 過学習の傾向が強まります。学習時間とファイルサイズも増えます。
  • 一般的にキャラクター学習では128が推奨されますが、特定の画風(絵柄)のLoRAを作る場合は 256など高めの設定も試す価値があります。

この知識は、生成結果が理想と違った時にパラメータを調整するための基礎となります。

LoRAの適用とWeight値の調整例

LoRA モデル の使い方を解説します。Stable Diffusion Web UIでLoRAを使う際、プロンプトへの入力形式は以下の通りです。

<lora:ファイル名:強度>

強度(Weight)の値は通常0から1の間で調整します。

  • 強度 0:LoRA の影響は全くありません。
  • 強度 0.5 程度:元のモデルの雰囲気を活かしつつ、LoRA の特徴を微妙に反映させたい時に向いています。
  • 強度 0.7 程度:キャラクターの顔や髪型など核となる特徴を確実に再現したい時に推奨される標準的な値です。
  • 強度 1.0:LoRA の特徴を最大限に反映させます。過学習している LoRA の場合は画像の崩壊や色ずれの原因になります。

プロンプト内で複数のLoRAを使用することも可能です。

例えば、キャラクターLoRA (強度 0.7)と特定の衣装 LoRA (強度 0.5)を組み合わせて使うことで、より複雑な表現を実現できます。

この時、全体のバランスを見て調整することが重要です。

SD1.5モデル、SDXLモデルでのLoRAの使用と注意点

現在(2025年)、Stable Diffusion の学習方法で使われるモデルは SD1.5系列 と SDXL系列 に大別されます。

  • SD1.5のLoRA:基本的に 512×512 や 512×768 などの小さめのサイズの画像で学習されることが多く、VRAMの消費も少なめで済みます。多くの Web UI や拡張機能に対応しているため、初心者はまずこのモデルで LoRA 作り を始めることを推奨します。
  • SDXL の LoRA:高解像度(1024×1024以上)を前提としているため、学習の際により大きな VRAM(最低 16GB)が必要となります。SDXL はプロンプトの理解力が高いため、タグの付け方も SD1.5 に比べてシンプルで構いません。しかし、SDXL 専用の学習設定が必要な点に注意が必要です。

LoRA ファイル自体は SD1.5とSDXLで互換性はありません。

ベースモデルとLoRA モデルの系列は必ず一致させる必要があります。

Stable Diffusion 1.5で生成したLoRA画像と、SDXL LoRAで生成した高解像度画像の比較。
SDXL モデル で LoRA を 使えば、格段 に 高 画質 な 画像 が 生成 できます。VRAM の 容量 を 確認 しましょう。

データセット作成の重要性と応用

タグ整理とキャプション精度の上げ方(詳細なテクニック)

AIイラストの LoRAで特定のキャラを高精度で作るためには、キャプションの中で 「学習させたい要素」 と 「学習させたくない要素」 を区別することが鍵です。

  1. 汎用タグの削除1girllong hairblue eyes などはベースモデルが既に知っている単語です。これらのタグは全て削除し、代わりに トリガーワード(例:saku_chan)を挿入します。これにより、LoRAは 「saku_chan という単語が持つ特徴」だけを効率的に学習します。
  2. 服装のタグ付け:もし特定の衣装を学習させたい場合は、その衣装に関するタグ(例:school uniformwhite kimono)を残します。しかし、生成時に別の服装を着せたい場合は、これらのタグをキャプションから削除。服装の学習を 「抑える」 ことが可能です。
  3. ブレンド(Mix)用データセット:LoRA を使って多様な服装やポーズを生成したい場合は、学習画像の中に 「全く関係ない背景や服装の画像」を少なく(10%程度)混ぜるテクニックもあります。これにより汎用性が増します。過学習を防ぐ効果もあります。
LoRA学習におけるタグ付けの最適化プロセス。自動付与されたタグと、最終的に手動で選別されたタグのテキストファイル。
キャプションの精度を上げることが、思い通りのAIイラストを作る最短 ルートです

画像枚数・エポック数の目安と調整法

LoRA 学習 の成功は「いつ学習を止めるか」にかかっています。

エポック数と過学習の関係を理解しましょう。

  • エポック数が少なすぎる(未学習):LoRA を使ってもほとんど変化がありません。
  • エポック数が適切(ゴール):キャラクターの特徴が反映されつつ、プロンプトの自由が利く状態です。
  • エポック数が多すぎる(過学習):生成画像がぼやけたり崩壊します。また、学習画像と全く同じ画像しか作れなくなります。

Kohya’s GUIでは、学習の途中で「保存」の間隔を設定できます。

例えば5エポックごとに保存するように設定します。

完成後に一番良い結果のファイルを選ぶ(選別)ことが一般的な方法です。

LoRAのエポック数違いによる画像の変化。学習不足、最適化、過学習(崩壊)の3段階比較。
エポック数の違いで画像の出来は大きく変わる 。途中保存のファイルを比較しましょう。

収益化と著作権・ライセンス

LoRAを配布する場合のマナーとライセンス

LoRA モデル を作ることで収益化を目指す方へは、ライセンスの知識が必須です。

  • ベースモデルの確認:SD1.5 は CreativeML Open RAIL-M ライセンスが適用されている場合が多い。基本的に商用利用は可能です。しかし、AI生成物の著作権は国や地域の法に依存するため、不安な場合は専門家に問い合わせることを推奨します。
  • Civitai で の配布ルール
    • CC0:著作権を放棄し、全ての利用が可能な状態です。
    • CC-BYクレジット表記(作者名を書くこと)が必要な状態です。

モデルの中で 「特定のAIモデルとの利用禁止」 などの制限が書かれている場合もあります。そのため、ライセンス情報は必ず読む必要があります。

自作のLoRAを使って生成した画像を販売する場合は、その画像がベースモデルとLoRAの両方の規約を満たしているかを確認しましょう。

LoRAモデルの配布サイト(Civitaiなど)で設定されるライセンスの種類と、商用利用の可否を示すグラフィック。
商用利用を目指すなら、ベースモデルのライセンスは必ず確認が必要 です。

2025年最新トレンドと応用技術

LoRA学習方法の進化:より効率的な設定

2025年のLoRA学習方法はより効率的に進化しています。

  • Resolution(解像度):SD1.5 の場合でも512×512より大きい解像度(例:640×640)で学習することで、出力時の細部の再現性が高まります。
  • DPM-Solver(スケジューラー):学習の最適化手法でDPM-SolverやDPM-Solver++などを使用することで、学習速度を向上させつつ安定させることが可能になっています。
  • Batch Size の工夫:VRAM が少ないPCでもBatch Size を1に設定。その分Epoch数を増やすことで結果的なSteps数を確保する方法が一般化しています。
Kohya's GUIの高度な設定画面。ResolutionやOptimizer(スケジューラー)の設定箇所。
Kohya’s GUIでは高度な設定が可能 。解像度やスケジューラーも試す価値があります。

GPUSOROBANを活用したLoRA学習

LoRA学習に必要な VRAM(最低 12GB以上)を持っていないユーザーにとって、GPUクラウドサービスは最適な選択肢です。

  • GPUSOROBAN:日本の企業が提供する業界最安級のサービスで、特にAI学習に特化した GPU(RTX 3090、RTX 4090 など)を時間貸しで利用できます。Kohya’s GUIの環境構築もサポートされていることが多く、初心者でも安定して学習が可能です。(→ [アフィリエイトリンク:GPUSOROBAN公式サイト])
  • Google Colab:無料枠があるため「試しに」LoRA を作ってみるのには最適です。しかし、無料版は使える GPU に制限があります。長時間の学習や高性能なGPUは有料版(Pro、Pro+)が必要となります。

LoRAの作り方の中で 「高スペックPCが必要」という問題は、GPUクラウドサービスを使うことで完全に解決できます。

GPUSOROBANなどのGPUクラウドサービスを利用し、高性能なサーバー上でLoRA学習を行っている様子。
GPUクラウドサービスを利用すれば、低スペックPCでも高性能なLoRAが作れます。

環境構築と推奨スペック

AnacondaのインストールとKohya’s GUIの導入の環境づくり(Windows/Mac)

Kohya’s GUIの環境構築に失敗する原因の多くは「パスの通し方」 と「バージョンの不一致」です。

  • PythonのPATH設定:Anacondaで仮想環境を作った場合でも、一部のプログラムはPC全体の Pythonのインストールパス(PATH)を参照することがあります。インストール時に必ず 「Add Python to PATH」にチェックを入れる必要があります。
  • Gitの導入git clone コマンドが認識されない場合は、Gitのインストールが正しく行われていないか、再起動が必要な場合があります。
  • 仮想環境の有効化:Kohya’s GUIを起動する際は、必ずconda activate lora-train などで作成した仮想環境を有効化(activate)してから、学習を開始します。
Anacondaの仮想環境が正しく起動し、Kohya's GUIのフォルダをGitでクローンしているコマンド画面。
環境構築は最初の関門 。conda activateを忘れずに行いましょう。

おすすめの高性能GPUと周辺機器

ローカル PCでLoRA学習を安定的に行いたい方向けに、2025年最新の推奨スペックと製品を紹介します。

  • 推奨 GPU(NVIDIA)
    • RTX 4060 Ti(VRAM 16GB 版):コストと性能のバランスが最適。SDXLのLoRA学習も可能な最低ラインです。
    • RTX 4070 / 4080(VRAM 12GB ~ 16GB):速度を重視するクリエイターに向いています。
  • 学習用データの保存:大量の学習画像(LoRA データセット)を高速で読み込み、保存するためには高速なM.2 SSDが必須です。
スト	LoRA学習に推奨されるNVIDIA GeForce RTX 4000シリーズの高性能GPU。
ーカル環境で学習するなら、VRAM12GB以上のRTX 4000系列がおすすめ です。

LoRA作成後の収益化の道筋

作成したLoRAを使って生成した画像を「商品」として販売するためには、画像編集ツールが必要です。

  • Canva Pro:ブログのアイキャッチ、SNS投稿、電子書籍の表紙など、生成した画像を簡単にデザインに落とし込めるツールです。(→ [アフィリエイトリンク:Canva Pro])
  • Adobe Photoshop:より高度なレタッチや合成、色の調整を行いたいプロのクリエイター向けです。

LoRA で生成した画像に 付加価値を付けて販売することが、継続的な収益化の鍵となります。

専門用語解説とQ&A

LoRA関連の用語集

用語注釈(初心者向け解説)
CheckpointStable Diffusion本体の大規模AIモデルファイル(数 GB)。LoRA はこれに追加されて動きます。
Optimizer学習時に AI が一番効率良く知識を吸収するための計算アルゴリズム(手法)。AdamWや Adafactor が有名です。
Learning Rate学習率。AIがどれだけ大きく設定変更を受け入れるかの度合。大きいと速いが崩壊しやすい。
Batch Size1回の学習で同時に処理する画像の枚数。VRAM の消費量に直接影響します。
Epochデータセット全体を使って学習を行った回数。多いと過学習のリスクが高まります。
Triger Word生成時にLoRAを「呼び出す」ための特定のプロンプト(呪文)。
LoRA学習におけるLearning RateやOptimizerなどの専門用語の解説。
LoRA学習の専門用語を理解して、設定の意味を知りましょう。

LoRA学習の応用的なQ&A

Q. 崩壊したLoRAを修正することはできますか?

A. 一度過学習(崩壊)してしまったLoRAファイルを直接修正することは難しいです。しかし、解決策はあります。

  • 途中保存のファイルを使う:過学習を起こす前に保存されたファイル(例:Epoch 15 のファイル)があれば、それを使えば問題ありません。
  • 新しいデータセットで再学習:「背景のバリエーションを増やした新しいデータセット」を使って再学習することで、汎用性の高い LoRA を作り直すことが可能です。

Q. LoRAとCheckpointモデルを混ぜることはできますか?

A. はい、可能です。

LoRAモデル は Checkpointモデルと同様に 「追加学習」の要素を持つため、Merge(混合)ツールを使って既存のCheckpointにLoRAの学習結果を統合し、新しい Checkpoint モデルを作ることができます。

これにより、LoRAを使わなくても常に特定のキャラクターを出せる「専用モデル」 を作ることが可能になります。

LoRAモデルとベースのCheckpointモデルを統合(マージ)して新しいモデルを作成する概念図。
LoRAはCheckpointと統合(マージ)して、「専用モデル 」を作ること も可能です。