ComfyUI Scribble/Lineart|スケッチから建築パース生成法
「ラフなスケッチを描くだけで、フォトリアルな画像に変換できたら」と考えたことはありませんか。ComfyUI(ノードをつないで画像生成AIを動かすツール)ControlNet(コントロールネット)のScribble(スクリブル)とLineart(ラインアート)を使えば、手描きのスケッチを構図の指示として取り込み、高品質な画像を生成できます。建築設計の初期段階で描いたラフスケッチをそのまま入力し、フォトリアルなパースとして出力する。そんなワークフローが、特別なスキルなしで構築できる時代になりました。
この記事では、ScribbleとLineartの違いからComfyUIでの具体的なワークフロー構築、ペンタブレットを使った直接描画による即時生成、そして建築パースへの応用まで、手描きスケッチを起点とした画像生成の全手順を解説します。
ScribbleとLineartの違いを理解する
ComfyUI ControlNetで手描きスケッチを活用する際、まず把握しておきたいのがScribbleとLineartの特性です。建築のたとえで言えば、Scribbleは「トレペに描いた粗描きの読み取り」、Lineartは「清書された立面図の読み取り」という役割分担です。どちらも線画ベースの構図制御モデルですが、得意とする入力の精度と派生プリプロセッサ(前処理モジュール)の種類が異なります。
Scribble派生4種の使い分け
Scribbleは、ざっくりとした手描きの落書きやラフスケッチから画像を生成するために設計されたモデルです。ComfyUIのControlNet Auxiliary Preprocessorsには、Scribble系として以下の4種類が用意されています(2026年4月現在)。
| プリプロセッサ | 特徴 | 適した用途 |
|---|---|---|
| Scribble_HED | 粗めで手描き風の線を抽出 | ラフなスケッチ感を残したいとき |
| Scribble_PiDiNet | ノイズが少なくクリーンな線 | 建築・プロダクト等の整った線 |
| Scribble_XDoG | threshold値で線の強弱を制御 | 線の量を細かく調整したいとき |
| FakeScribble(HED) | HED出力を細線化した派生 | 写真からスクリブル風を作る |
建築用途でラフスケッチを入力する場合、クリーンな線を拾えるScribble_PiDiNetが扱いやすい選択肢です。ノイズが少ないほど線の意図が素直に伝わりやすくなるため、迷ったらScribble_PiDiNetから始めてみてください。
Lineart 4種の用途別選択
Lineartは、入力画像から精密な線画を抽出し、それを忠実に反映した画像を生成します。Scribbleよりも細い線や微妙なディテールを拾える点が特徴です。Lineart系にもStandard/Realistic/Anime/Mangaの4種があります。
| プリプロセッサ | 特徴 | 適した用途 |
|---|---|---|
| Lineart_Standard | 汎用的な線画抽出 | 迷ったらこれ |
| Lineart_Realistic | 写実寄りの線を抽出 | 建築・インテリア |
| Lineart_Anime | アニメ調の線を抽出 | イラスト・キャラクター |
| Lineart_Manga | 漫画風の強い線 | 漫画風ラフ |
建築の立面図やインテリアのスケッチなど、線の精度が仕上がりに直結するケースではLineart_Realisticが有力な候補です。用途の幅が広いため、建築系で最初に試すのに扱いやすい選択肢となります。
Cannyとの使い分け早見表
ControlNetには、写真のエッジを検出するCanny(エッジ検出)もあります。3つのモデルは入力ソースによって使い分けると作業の手戻りが減ります。
| モデル | 最適な入力 | 特徴 |
|---|---|---|
| Scribble | 手描きラフスケッチ、落書き | 太い線・ざっくりした構図でもOK |
| Lineart | 精密な線画、完成度の高いスケッチ | 細い線やディテールまで反映 |
| Canny | 写真・レンダリング画像 | エッジ検出で既存画像の構図を抽出 |
手描きのスケッチから始めるならScribbleかLineart、既存の写真から構図を取り出すならCannyという選び方が基本です。ControlNetの各モデルを体系的に押さえたい場合は、ComfyUI ControlNet・構図制御ガイドで全体像を確認できます。
ComfyUIでScribble/Lineartを使う準備
ワークフローを構築する前に、必要なモデルとカスタムノードを導入します。2026年4月現在、SD1.5用・SDXL(Stable Diffusionの高解像度版)用・Flux(高品質な新世代画像生成モデル)用の3系統が利用可能です。
ControlNetモデル3つの選択肢
Scribble/Lineartで使えるControlNetモデルには大きく3つの選択肢があります(2026年4月現在)。
1. SD1.5単体モデル(初学者向け)
control_v11p_sd15_scribble.pth:Scribble用control_v11p_sd15_lineart.pth:Lineart用
Hugging Faceからダウンロードし、ComfyUI/models/controlnet/ に保存します。実績と情報量が豊富で、初めて試す方に扱いやすい選択肢です。
2. SDXL ControlNet Union
SDXL向けの統合モデルです。Scribble/Canny/Depth/Pose等を1つのモデルファイルで切り替えられます。SDXL環境で複数の制御を使い分けたい場合にファイル管理の手間が減ります。
3. Flux.1-dev ControlNet Union Pro 2.0
InstantX社が2025年に公開したFlux向けの統合モデルです。Scribbleを含む7種の制御を1ファイルに統合しており、2026年現在、Flux系ControlNetの事実上の標準となっています。最新のFluxベースでフォトリアル品質を追求する場面で候補となるモデルです。
最新版の配布状況は公式のHugging Faceリポジトリで確認してください。初めての方は1のSD1.5単体モデルから始めると情報量が多く、学習コストを抑えられます。
ControlNet Auxiliary Preprocessorsの導入
スケッチ画像をControlNetが読み取れる形式に変換するには、プリプロセッサ(前処理ノード)が必要です。ComfyUI Managerから「comfyui_controlnet_aux」を検索してインストールしてください。
このパッケージをインストールすると、先述のScribble系4種・Lineart系4種のプリプロセッサノードが使えるようになります。
手描きスケッチをそのまま入力する場合は、プリプロセッサを通さずに直接ControlNetへ接続することも可能です。既存の写真や画像からスクリブル風の線画を抽出したい場合にプリプロセッサを使います。
手描きスケッチからフォトリアル画像を生成するワークフロー
準備が整ったら、実際にワークフローを組み立てます。レンダラーでマテリアルと照明を組み直すように、ノードをつないで条件を整えていく工程です。ここではSD1.5ベースのScribbleワークフローを例に、ノードの接続手順を説明します。
基本ワークフローの構成
ComfyUIで以下のノードを配置し、順番に接続してください。
- Load Image:手描きスケッチ画像を読み込む
- Load ControlNet Model:
control_v11p_sd15_scribble.pthを選択 - Apply ControlNet:ControlNetモデルと画像を接続し、条件付けを生成
- KSampler(画像生成の中核ノード):ポジティブ条件にApply ControlNetの出力を接続
- VAE Decode(潜在空間から画像へ戻す処理)→ Save Image:生成結果を出力
Apply ControlNetノードには2つの入力があります。「conditioning」にはCLIP(テキストを数値化する処理)テキストエンコーダからのポジティブ条件を、「image」にはLoad Imageからのスケッチ画像を接続します。「control_net」にはLoad ControlNet Modelの出力をつなぎます。
Lineartを使う場合は、モデルファイルをcontrol_v11p_sd15_lineart.pthに差し替えるだけで、同じワークフロー構成がそのまま使えます。
プリプロセッサの選び方と解像度設定
手描きスケッチを直接入力するか、画像から線画を抽出するかで、プリプロセッサの要否が変わります。
手描きスケッチを直接入力する場合
白背景に黒い線で描いたスケッチであれば、プリプロセッサなしで直接Apply ControlNetに接続できます。最もシンプルな構成で、線がそのまま意図として伝わります。
既存画像から線画を抽出する場合
Load ImageとApply ControlNetの間にプリプロセッサノードを挟みます。建築用途では、Scribble_PiDiNetかLineart_Realisticが有力な選択肢です。
プリプロセッサにはresolutionパラメータがあり、デフォルトは512です。SDXLなら1024、Flux系なら1024〜1280程度まで上げると線の精度が向上します(2026年4月現在の目安)。建築パースのように線の忠実度が品質を左右する用途では、解像度を上げておくと後工程での破綻が減ります。
strength・end_percent・guidanceの調整ポイント
Apply ControlNetノードには、生成結果へのスケッチの反映度合いを調整するパラメータがあります。
strength(強度)
- 0.0〜1.0の範囲で設定
- 値が高いほどスケッチの構図に忠実な画像が生成される
- 推奨値は0.7〜0.9。1.0にするとスケッチに縛られすぎて不自然な画像になることがある
end_percent(終了タイミング)
- ControlNetの制御をサンプリングのどの段階まで適用するかを指定
- 1.0で最後まで適用、0.5なら前半だけ適用
- 推奨値は0.8〜1.0。値を下げると後半の生成でAIが自由に描き足す余地が生まれる
guidance(Flux使用時のみ)
Flux.1-dev系のControlNet Union Pro 2.0を使う場合、Flux固有のguidanceパラメータが生成品質に影響します。推奨は3.5前後で、SDXL系では存在しない必須パラメータです(2026年4月現在)。値を上げるとプロンプトへの追従が強まりますが、破綻も起きやすくなります。
スケッチの構図を厳密に守りたいならstrength=0.9、end_percent=1.0に設定します。ある程度AIに任せたいならstrength=0.7、end_percent=0.8に設定すると、構図とAIの自由度のバランスが取れます。
ペンタブレットで直接描画して即時生成する方法
スケッチ画像をいちいち書き出してから読み込む手間を省きたい場合、ComfyUI上で直接描画できるカスタムノードが便利です。紙とペンでラフを起こしてそのまま清書に移るのと近い感覚で、試行錯誤のテンポが大きく変わります。
ComfyUI-Olm-Sketchノードの導入
ComfyUI-Olm-Sketchは、ワークフロー内に描画キャンバスを埋め込めるカスタムノードです。2025年7月に1.0正式版がリリースされ、以降は機能追加が続いています(2026年4月現在)。
主な機能は以下のとおりです。
- ブラシ幅:1〜1024pxまで可変、ペンタブの筆圧検知に対応
- 複数のブレンドモード:通常/加算/乗算などをブラシごとに切替
- カラーピッカー:RGB/HEX/HSVに対応
- 図形ツール:矩形・楕円・直線を一発描画
- 画像操作:反転/回転/クロップ/ブラーを内蔵
導入手順は以下のとおりです。
- ComfyUI Managerで「Olm-Sketch」を検索してインストール
- ノード検索メニューから「Olm Sketch」を追加
- ブラシの太さやブレンドモードを設定
軽量な設計のため、レイヤー機能やアンドゥ/リドゥには対応していません。あくまでControlNet用の素早いスケッチ入力に特化したノードです。
描画から生成までのリアルタイムフロー
Olm Sketchノードの出力をApply ControlNetのimage入力に接続すれば、描画から生成までの一連のフローがComfyUI内で完結します。
- Olm Sketchノード上でスケッチを描く
- ワークフローを実行(Queue Prompt)
- 数秒〜十数秒で生成結果がプレビューに表示される
- スケッチを修正して再実行
このフローなら、外部の画像編集ソフトを経由せずに試行錯誤を繰り返せます。建築設計の初期段階で「こんな感じの外観にしたい」というイメージを素早く可視化する場面で力を発揮するワークフローです。
建築スケッチをフォトリアルパースに変換する実践例
ControlNet Scribbleは、建築設計のプロセスと相性の良い技術です。ここでは、手描きの建築スケッチをフォトリアルなパースに変換する具体的な流れを紹介します。
初期スケッチからの変換ワークフロー
建築のラフスケッチは、線が太くディテールが省略されていることがほとんどです。こうした入力にはScribbleモデルが扱いやすい選択肢になります。
実践手順は以下のようになります。
- 紙に描いた建築スケッチをスキャンまたは撮影する
- Load Imageで読み込み、Scribble_PiDiNetで前処理する(白背景に黒線のスケッチならプリプロセッサなしでも可)
- Apply ControlNetでstrength=0.8、end_percent=0.9に設定
- プロンプトで建築の素材感や光の方向を指定
- 生成結果を確認し、strengthやプロンプトを微調整
より精密な立面図や断面図を入力する場合は、LineartモデルとLineart_Realisticプリプロセッサに切り替えると、線の再現度が上がります。スケッチの精度に合わせてモデルを選択することが、仕上がりの品質を安定させるカギになります。
建築スケッチからレンダリング画像への変換をさらに掘り下げたい方は、ComfyUI×建築スケッチで始めるフォトリアルレンダリング変換5手順で詳しくまとめています。
生成品質を高めるプロンプトの書き方
Scribble/Lineartでスケッチの構図は制御できますが、素材感やライティングはプロンプトで指定する必要があります。建築パースの場合、以下の要素を含めると品質が安定します。
ポジティブプロンプトの例
modern residential house, white concrete walls, large glass windows,
wooden deck, green garden, blue sky, photorealistic, architectural photography,
golden hour lighting, high quality, 8k
ネガティブプロンプトの例
low quality, blurry, distorted, cartoon, anime, sketch lines visible,
unrealistic proportions
海外の建築ビジュアライゼーション系チュートリアルでは、プロンプトに「architectural photography」と「photorealistic」を含める運用が広く紹介されています。この2つのキーワードがあるだけで、生成結果のリアリティが大きく変わります。
SDXL単体とSDXL→Flux 2段階の選び分け
海外の建築ビジュアライゼーション系ワークフローでは、SDXL単体で完結させる方法と、SDXLで骨格を生成した後にFluxでフォトリアル仕上げを行う2段階構成の両方が使われています(2026年4月現在)。
- SDXL単体:処理が軽く、試行錯誤しやすい
- SDXL→Flux 2段階:質感とディテールの密度が上がる、処理コストは増加
実務では、検討段階ではSDXL単体で数案並べて比較し、最終案のみFluxで仕上げる使い分けが効率的です。ControlNetを複数組み合わせて精度を高める方法は、ComfyUI 複数ControlNet併用テクニック|実務の組み合わせ5選で詳しく解説しています。Scribbleで構図を指定しつつ、Depthで奥行きを加えるといった応用が可能です。
まとめ
ComfyUI ControlNetのScribbleとLineartを使えば、手描きスケッチをそのまま入力して高品質な画像を生成できます。Scribbleはラフなスケッチ向き、Lineartは精密な線画向きです。プリプロセッサもScribble系4種・Lineart系4種が用意されており、建築用途ならScribble_PiDiNetかLineart_Realisticが有力候補になります。
ワークフローの構築自体はシンプルで、Load Image、Load ControlNet Model、Apply ControlNetの3つのノードが基本です。Olm Sketchノードを導入すれば、ペンタブレットでComfyUI上に直接描画し、即座に生成結果を確認する運用も実現できます。
Flux.1-dev ControlNet Union Pro 2.0を選ぶ場合は、guidanceパラメータと高めの解像度設定を押さえておくと安定した出力を得やすくなります。strengthやend_percentの調整とプロンプトの工夫で、スケッチの意図を反映しつつリアルな仕上がりへ近づけていけます。
あわせて読みたい
- ComfyUI ControlNet・構図制御ガイド — ControlNetの全モデルと構図制御の基本を押さえたい方へ
- ComfyUI ControlNet Cannyの使い方|線画から実務パース生成 — 写真や完成度の高い線画から構図を取り出したい方へ
- ControlNet概要と使い方|ComfyUIでの接続方法 — ControlNetの初期セットアップから確認したい方へ
- ComfyUI×建築スケッチで始めるフォトリアルレンダリング変換5手順 — スケッチを建築パースへ落とし込む実践フローを知りたい方へ
- ComfyUI 複数ControlNet併用テクニック|実務の組み合わせ5選 — ScribbleとDepthを重ねて精度を上げたい方へ




