TensorStackAI Amuse  

【定義】
絵心の知識・経験・スキル無し、ゼロから始める画像生成

1)AMD GPU環境で気軽に画像生成AIを楽しむ
2)コマンドプロンプトとかPythonとかメンドクセ
3)余ってる苗床パーツや10年前のGPUでも動かしたい
4)商用活動は考えてない
5)18禁(NSFW)も同様...と、いいたいとこだが...どうせなら...ね。

って限定的な内容。
 
Amuse v3.0.7
・PC環境:Ryzen7 3700X+RX580 8GB+RAM16GBからスタート
・「このスペックで画像生成AIが使えるのか?」が始まり
・調べた結果、Amuseに辿り着く
・結果:できる(当然制限はある) 
・本格的に画像生成AIをやりたい方はここまで
    NVIDIA GPU購入して「Stable Diffusion WebUI」で検索開始。

Amuse v3.1.0(最新版)
・現在の環境:Ryzen7 3700X+RX9060XT 16GB+RAM64GB
・FLUX.1も動く(当然時間はかかる) 
・後は特になし、体感的に不自由なく遊べる

<20250813>
    時間溶けていく...ひとまず整理
        ・Image to Image

            Extractor, ControlNet  *20250820 一旦テスト終了
        ・
Paint to image
        ・Image inpaint
            各種Mode 

        ・Upscaler
        ・Feature Extractor 
*20250820 一旦テスト終了
        ・ComtrolNET *20250824 一旦テスト停止
        ・SDXL MODEL *20250903 ようやく開始
        ・Promptの勉強 
*20250903 ついでに開始

NSFWの文字を入れたから記載。
・Amuse v3とSDXLまでは内部的な制限なし
    (本体の自主規制的なものや、苦手なMODELは存在する)
・Web検索見る限り「Amuseは規制が厳しい」「モデル改変」などの意見多数
    v2.xの一部verの情報はあるが、それ以降は変わったそう。
    v3.xから触ったので詳しく知らんが、v2.xにはNGワードフィルターがあったそうな。

・SD3以降やFLUX.1他、一部のMODELは〇房〇首が上手くない、当然シモも。 
    一応脱ぐ、脱ぐけど描写がマネキンのような感じ。
もしくは梅干しと縦シワ。
・なのでSD3以降はモデル改変が必要なのかもしれない(そこまでやる気ない)
        2025/07/31付でStability AI社の利用規約が変更 
        今後どうなるか不明なので、情報収集はマメに、ご利用は計画的に。
         

・結論:Amuse「本体のNSFW化の方法」(ここ大事)は知らん
・「本体のNSFW化の方法」は知らんが...
    本体の自主規制的なものは解除◎

    この方法を「Amuse本体のNSFW化」と表現するには
    少し無理があると思ったので面倒な書き方にした。 
    
    本体の不適切判定でブラー発動
        →ってことは判定時のブラー外せばいいんじゃね?
    本体にそんな設定項目ないよ!!
        →Windowsで設定変更可能なファイルは
        Program Filesだけじゃないよ!!
    後はWindowsに慣れ親しんでいるかの問題。

<20250812>
・削除されてるしChatGPTも答えてくれなくなった...
・当時のログが一部残ってる状態、検索難易度が上がった。 
<20250818>
・時間の問題かな?誰かそろそろupしそうな雰囲気ではある。
<20250824>
・ChatGPTだと質問アプローチを代えたら大きなヒントは答えてくれた。 
<20250903>
・note界隈で有料記事になってるのは知ってたが200~1500円か...
200円の方と(たぶん)同じ方法、新規インストールでも同じく可能。
2.xとは違う方法なので今後修正される可能性もある。
まあSD3やFLUX.1なんかは非NSFWが既定路線だし
今後出てくるであろう新規MODELも規約云々で制限されそうだし
ヒントは書いたんで後は各々の自己責任の範疇、あとは他人任せ。
 

 Amuse v3で扱ってるモデル一覧 -SD MODEL-
(当環境下における一方的な主観的体感とメモと寸評)  

【寸評:日本人は東アジア系の顔に分類されてるモデルが多数】

・StableDiffusion
    BASE MODEL、論外
・StableDiffusion(AMD GPU)
    BASE MODEL、AMD GPUにファインチューニングされたモデル
    他モデルがあるので出番なし

A-Zovya Photoreal
Absolute RealityAnalogMadnessunStable Illusion
    SDモデルで無難なReal系MODEL。テスト生成時には良く使っている
    
Absolute Reality:25~30STEP, GuidanceScale:4.5~10
    他は詳細なかったり404やら。
        A-Zovya PhotorealでLCMスケジューラーを使ってみた 

            設定メモ
            Scheduler:LCM, SIZE:768x1024, STEP:16, GuidanceScale:2.00
            Optimization:Level 4, BetaSchedule:Liner, 
            BetaStart:0.00085, BataEnd:0.0145
            Decoder TileMode:Overlap, 
Decoder TileOverlap:256,

・AziibPixelMix
    ドット絵モデル

Colorful
Copax Timeless
    Colorful:Real系、Copax Timeles:semi-Real系
    この辺からクセが強くなる、Default settingのままだと使い辛い印象
    Colorfulは色彩豊かではあるが人物(特に女性)生成にかなりバラつきがある。
    PromptとSettingが嚙み合った時は思いのほか良い。

Dark Sushi MIXMeinaMixReal Cartoon 3DSXZ LumaToonYou
YesMix
    *Amuseで使えるPony系と呼べる(呼べそうな)モデル
        Real Cartoon 3D、ToonYou、SXZ LumaはCartoon系
            Pinup・Cover系グラビアを生成するのはコレかな
            
SXZ Lumaはsemi-real系cartoonモデルと呼べばいいのか?
            スケジューラー次第でどっちかに寄る、色相暗め。
            LCMとの相性は良いように思える。
         
    
    Dark Sushi MIX、MeinaMix、YesMixはanime/2Dキャラ系か?
            YesMixにクセの強さはある、総じてKDPM2やLCMは良い感じに
            Eular系だとMODEL本来の質感が出せそう。

            [20250805] YesMixはコッチのカテゴリーに移動

Dreamshaper v8
Juggernaut v11
    全SDモデル中、動作が重い。
    BASE MODELとして捉えると他モデルが見えてくる気がした

EpicRealismExperience 
    共にReal系、特徴がないのが特徴の無難なモデル
    代替として残せるが基本使う機会は少ない。
    日本人女性はどうしても東アジア系統の顔付きに分類される

Fluently v4
    ウェザリング描写が特徴的なCartoon+Realartのようなモデル
    ライティングなどの光源Prompt次第で化けそうな感じ
    使っていて面白いモデルの一つ
 、詳細メモはLCM版にて。

LyrielPhoton 
    Lyriel:semi-Real系、Photon:Real系

    使ってみると一見無難なモデルなのだがスクエアサイズではなく
    縦長サイズ膝上~全身生成は一気に安定度が増す
    目のサイズを変える場合はanime styleの指定をすると良さげ


MajicMIX Realistic
    日本人女性の顔立ちが近いモデル、ただしちょっと気を抜くと
    すぐに崩れて胴長・足長のバランス悪い構図になり
    スクエアサイズで上半身~鼠径部ショットは安定してた。

Neverending Dream
    Dreamshaperの派生形なのかもしれないが
    なぜかPony系タグの方が効きやすく
    リアル系プロンプトを使っても楽しませてくれるモデルだが使い道に悩む
    ファンタジー系のディテールをきめ細かく出してくれたりする    

RealDosMix
    Neverending Dreamに似た感じのsemi-realsticモデル...らしいが
    二次系ダッチワイフの商品紹介に見えてくる。

Realistic Vision v6
    
Lyriel、Photonと逆でスクエアサイズで安定する...というより
    縦長だとyoung・girlのプロンプトでもmature、顔が老ける

ReV Animated
    Pony系タグでCartoon系3Dアニメ風
    semi-real系の中では一番扱いやすかった

RPG
    一番厄介で苦労したモデル、japaneseって単語に何か恨みでもあるのか?
    ってぐらいNegative imageを誘発する
    onnx入れ替えてCustomで使おうと考えてるモデルの第一候補。

================
抜けがあったら追加予定、個人環境や使い方
個人の主観や体感などは同じではないので使ってみるのが一番

    ControlNET Canny(Part.1Part.2Part.3Part.4Part.5Part6
    
ControlNET Depthを使って生成した結果も踏まえて
・YesMix、RPG(安定生成低め、代替MODELが多い)
・Dreamshaper、Juggernaut(派生MODELが多い)
この辺のMODELはBackup取ってRemove
しても問題なさそうではある。 
    ***Removeについて

        Model ManagerタブでRemoveすると一覧から消えるので
        Setting→Stable DiffusionからRemoveする
================

SD MODELを使ってみて
    ・SD MODELのアップデートは望み薄
        統廃合の末にSDXLに移行していると思われる。
    
リンク先に推奨設定が載っていること多いので要確認
        Googleで検索するとSTEP数は多いほど良いとか
        GuidanceScaleは1.00のままで良いとか
        Amuseでも役に立ちそうな情報が少ないので

        STEP数、GuidanceScale(CFGと同等)などの微調整は必須
        一番目についた調整は、STEP:50、GuidanceScale:7.00
        現環境下ではコレを基準値にして調整している
    ・Promptはシンプルで短く明確に、目元のPromptは大切

    ・上手く書けたPromptは比較的破綻が少ない
    ・上手く書けてもPromptがモデルに合わないこともある
    ・Negative Promptの有効活用
        一度生成→Negativeな部分を書くとか、初めから全部入れとか手法を変える
    ・1024x1024のようなサイズは破綻前提で考える
        生成画が荒れてり崩れたり、Promptの効きが悪いと感じたら
        一度SIZEを落とすか、high resolution, masterpiece, best qualityなど
        おまじない程度のPromptを活用、512x512の推論MODELなので限界はある。

    ・image inpaintやupscalerの活用

    ・最近公開された「Stable Diffusion 3.0 Medium NPU最適化MODEL」で
        AMDは高品質の画像生成Promptのヒントとして
            シーン全体を記述
            構図の詳細  
            色やスタイル
        完璧な結果は複数回、同じPromptで複数シードを試すことを推奨している。
        MODELの違いがあるので目安、参考程度にするのが良いかもしれん。


MODELで遊びすぎて未だにControlNetやFeature Extractorを触ってない状態。
今後の課題の一つだが、やっとSD MODELが終わったのでLCM MODELで遊んでみる。

 Amuse v3で扱ってるモデル一覧 -LCM MODEL-
(当環境下における一方的な主観的体感とメモと寸評)

【寸評:総じて脱ぐ、あの方法で制限かけるのが手っ取り早いってことか?】

AngraRealflex LCM
    変なPrompt書いたかな?と思わせるぐらい
    Normal Promptが効きにくかった
    簡素なPonyタグで生成したほうが良い感じに仕上がった。
    
脱ぎまくるMODEL、nsfw系PromptをNegativeに入れて    
    Normal Promptで16/50、Ponyタグで48/50の生成率    
    1girlだとアジア系から離れ欧米/南米系の顔パーツに寄り
    ダイナマイトなボディラインになりやすかった。

Animatix LCM
    顔パーツの種類が少ないsemi-Real系、Anime3D寄り
    girl/young/woman/matureのPromptが意味を成さない
    言い訳並べてもCSAM判定されるレベル
    使い方を厳選すればいい感じのMODEL

Artifida LCM
    化粧品CMのモデル顔と構図が第一印象、素のままでは使い辛い
    Advanced調整、特にノイズ調整をするとバランスが良くなった
    もうすこし弄って調整を詰めたい。
    MODEL元の解説だと
    STEP:9~18, CFG:1~2(AmuseだとGuidanceScale相当)
    SIZE:960x960 が推奨されてたので試した。
    画像はBlueskyにup、改善されました。
    ちなみにNegativePromptはイラネって言ってるが
    必要な部分入れてSEEDで再生成でいいのかもしれない。

ComicCraft LCM
    semi-real系MODELの一つ
    Promptやtagで画風が変わりやすいので
    勉強するにはちょうどいいかもしれない。
    
推奨範囲はSTEP:6~15, GuidanceScale:1.00~2.00
    
CyberRealistic LCM
    AngraRealflexと似ている。
    画像サイズに合わせようと胴長生成が増えるのも一緒
    顔パーツの調整はコッチのが効きそうな感じではある
    体感の違いはPonyタグでアジア系にも寄る感じか。
    推奨はSTEP:6以上(たぶん15ぐらいまで)
    GuidanceScale:1.00~2.00

DreamCrafter LCM
    ComicCraft LCMとDreamShaper LCMの統合版
    RealもPonyも無難に遊べるMODEL
    推奨範囲はSTEP:6~15, GuidanceScaleは不明だが2.0までは問題なさそう。


Dreamshaper LCM
    LCM MODELの中で一番重い、SD MODELのLCM版
    
Real系を求めるならSD MODELのAbsolute Realityを勧めている。
    Ponyタグの効き目が良いのはそのせいかもしれない    
    LCMの特徴である生成速度を生かしたいなら他MODELを使う。

    良くも悪くも指針MODELといった感じ。
    推奨はSTEP:5~15, GuidanceScale:1.00~2.00
 

Fluently v4 LCM
    SD MODELにもあるLCM版、SDXLもある。
    MODEL元の説明だと様々なMODELのMerge
    何かクセがあると思ってたら...「RPG」の文字発見
    本当に他MODELのMergeなのか?と疑うことは辞めた。
    光源次第で化ける可能性はあるのだが
    CSAM判定くらいそうなぐらい女性は幼い顔になりがち
    MODELの画風は好みではあるので、使いどころを模索したい。
    推奨はSTEP4~8, GuidanceScale:1.2~1.5     
    NegativePromptは不要(らしい)...いや、必要だろ(体験談)

Momentary LCM
    <20250730 疑問が出てきて一旦中止>
    <20250801 再開>
    MODEL元の注意書き
        「このモデルはLCM専用モデルです」
        「通常のモデルの設定ではまともに動作しません」
        「LCMモデル用の設定を使用してください」
    説明文
        
通常のモデルに比べて破綻は多いです。」 
    一応推奨設定は、STEP:6, GuidanceScale: 2.0, SIZE:896x896
    いやぁ...こんなん書かれてたら悩みもする。
    使いどころを探すMODELの一つ
    img2imgのDecoderとしてテストしてみるかな。
    日本人顔が得意な数少ないMODELの一つ

PermissiveBeauty LCM
    PermissiveBeauty -ArtStyleが正式名称
    SD MODELのRestlessexistenceとMeichi-Light(双方Amuse未搭載)を
    ミックスして
Real Cartoon 3Dに適用したMODELだそうで
    Real Cartoon 3DのLCM版のような位置かな?
    サンプル見たけどimg2img使用時に、このMODELと相性良いMODELが
    結構ありそうで楽しみにしてる。    
    これもNegative Promptイラネと解説。
    STEP:6~15、25以上は安定するが平坦化
    GuidanceScaleは1.00を推奨、解説読むと1.00以上は
    Expressionism-Style(表現主義)の画風になるそう。

PhotographerAlpha LCM
    正式名称Photographer Alpha7_LCM
    色相の暗めで濃い顔パーツが特徴的な
    
AngraRealflex LCMにも通ずる普通のMODELだが
    攻めたPromptの効き目が良く、リアルなシモ描写をすることがある。
    
    このMODELでKDPM2スケジューラーを使ってみたい。
    推奨はSTEP:4~10, GuidanceScale:1.0~2.0

    

Quick LCM
    正式名称はQUICK_BY_STABLE_YOGI、最終版のLCMっぽい。
    Positive、Negative双方に
Embeddingと呼ばれる専用Promptがあるらしい。
    たぶんAmuseでは使えない。
    MODELは良いと思うが他MODELと比べて指の生成が弱く感じるのは
    本来
Embeddingで補う形のMODELなのかもしれない。
    指の生成が特に苦手みたいなので、それ以外での使いどころ探すとする。

Realistic LCM
    SDXLで人気のありそうなMODEL
    LCMの説明記述が見当たらず、適当に生成した感じだが
    PonyタグでもRealな表現で顔パーツの整い方は好み。
    SDXL MODELは未だ触ってないのでそちらに期待。    

RealModelBase LCM
    寸評・体感・メモなし
    MODEL元の説明には制作者の苦労が偲ばれ
    今後の拡張/発展は見込まれなさそうな感じ。
    
    onnx入れ替えてSD化も考えたが
    Amuse v3.1.0でLCMスケジューラー追加され行く先なくした。
    Remove対象の一つ。
       
SilversRealmix LCM 
    Fluently v4のウェザリング(って言っていいのか?)描写を減らした感じ。
    目元が個性的なMODEL、背景描写も結構頑張る印象。
    MODEL元の説明によると
        CFG:1.5~2.0、STEP:6~12を推奨
        768x1024は問題なく、SD Web-UIだとHires.fixで上のサイズもいけるそう。
        Amuse v3で試したところ1152x1536までは1発生成も可能(ただし遅い、しかも脱ぐ)
    クセが強め、
Fluently v4に鮮やかを足した感じのMODEL
    推奨Negative Prompt (必須ではない)
(worst quality, low quality, low res:1.0), (bad anatomy, deformed, long body, tall, extra leg, extra arm, extra limb, duplicate, copy, clone, twin:1.0), (3d, render, flat art, drawing, illustration, sketch, painting, fanart, anime, comic, fine-art, video game, sculpture, blender \(software\):1.0), (monochrome, desaturated. sepia, vignette, dull colors:1.0)
    Positeve Suffix (Positive Promptの最後に入れる:解説ページのオススメ)
(best quality, hi res, absurd res:1.0)
    写実的、リアル生成:解説ページのオススメ
(real, photorealism, real life, photography \(artwork\):1.0)
    ***効き目があるかは不明、時間出来たら試してみたい。

========================
抜けがあったら追加予定、それぞれの環境や使い方
個人の主観や体感などは同じではないので使ってみるのが一番。
    
ControlNET Depthを使って生成した結果を踏まえて
・RealModelBase LCM(表情が単一的生成になりがち)
コレはRemoveしても問題なさそう
    ***Removeについて
        Model ManagerタブでRemoveすると一覧から消えるので
        Setting→Stable DiffusionからRemoveする

========================


LCM MODELを使ってみて
・生成速度に優れているのでPromptやtagの勉強には丁度良い
    何はともあれPromptやtagがなきゃ始まらない。
    しっかりと組めたPromptは破綻リスクも減るし
    何度もトライするならLCM MODELが良さそう。

・ネット上での情報が少ないので鵜呑みにはせず、MODEL元の説明は一度確認する。
    少ないSTEP数、4~8がベストって情報が多かったが
    12~18STEP推奨MODELも多い、まあ色々試してから調べるのもアリ。
    直感的に操作して後でマニュアル読むタイプなので。
・初期のPC環境下でも普通遊べた。カジュアル感覚で遊ぶならLCM MODEL
    生成サイズは512x512が基本、PCIe x3.0世代のGPU VRAM8GBモデルで
    Amuseのセッティングサイズに従うなら問題なかった...が、たまにRAM不足で落ちた。
    Memory ModeをMinimumに変更してVRAM消費抑える手もあるが
    体感でVRAM:8GB、RAM:32GB以上は欲しい。
    Ryzen第三世代で使えるパーツも随分と安くなった。
・STEPやGuidanceScaleが少ない分、SD MODELより生成速度が速い
    実際はスペックに左右されるが、とある記事だと
    世代による帯域差はさほど気にしなくても良いらしいので
    GPUはVRAM16GBモデル、RAMも積めるだけ積んでおくと幸せになれる。
    NPU搭載モデルも視野に入るが、本格的にローカルAIを使う為に新規で揃えるのなら
    現状は性能や情報量などNVIDIA GPU+Stable Diffusion WebUIが圧倒的ではある。
・1024x1024以上では1boyや1girlなどのソロ単体指定Promptの効きが悪い
    LCM MODELはSD MODELの派生
    512x512=262,144ピクセルの推論が最適とされている
    
        縦長は、512x768、768x1024、768x1152

        横長は、768x512、1024x768、1152x768
 
    上記サイズは安定しやすいが、
AmuseにはHires.fixが無いので
    念の為、御守り代わりの
        high resolution, masterpiece, best quality
    等のPromptを必ず入れる。
もしくは
        1.素直にSDXL MODELを使う
        2.ROCmやZLUDAで検索
        3.NVIDIA GPU購入してStable Diffusion WebUIに移行
        等、Amuseを諦める。   
    生成速度重視ならAutoで生成しまくるのも一つの手段。
    個人的には1024x768 or 768x1024からのアップスケールをよく使う。
・setting項目を弄ってないが、もう少し上のサイズでも生成できる感じではある 

    時期が来たらチャレンジ、色々と考えてることやりたいことがあるので未定。
・v3.0.7より良い画質で生成されるようになった気がする(本当に気だけの可能性大)
・スケジューラーがLCM一択
    各種スケジューラーを選択したい場合はSD MODELとして読込認識させる
    
    非推奨・自己責任で行うこと、責任は負いません。
    
   ・対象LCM MODELフォルダを全コピー(バックアップも忘れずに)
    
        →全コピーしたフォルダをリネーム
            
Expert Modeの歯車Settingの項目で
            リネームしたLCM MODELをSD MODELとして読込認識させる

        ・LCM MODEL側UnetのonnxをSD MODELのUnetに入れれば動く(はず)
            →双方のMODELバックアップは忘れずに 

        ・歯車Setting→Stable Diffusion
            →installed ModelsでMODEL選択→下のダブル歯車
            →UpdateModel画面からonnxファイルを入替/組換
            ***ただしTokenizer項目は.jsonが必要だが.onnxしか選べず詰む
            

    KDPM2シリーズが使えるのは魅力ある。
    と、思ったこともありましたが...整える設定が結構手間かかる上
    MODELで向き/不向きがあるので考慮中。

    SD MODELでもLCMスケジューラーが使えるので試してみた
    無理にLCM MODELをSD MODEL化しなくてもいいようにも感じた。
    もう少し試行錯誤したいと思う。    

    ちなみにこの方法は手違い操作から偶然出会った手法なのでオススメしない。
    公式にSD MODELにLCMスケジューラーが追加(v3.1.0)されたので
    LCM MODELをSD MODELに追加しくれないかな?と思ってたり。

    

<20250730:一旦公開>
<20260730:不備多すぎで一旦公開停止>
<20250802:一旦テストは終了、再公開> 
<20250820:バレない程度に修正/追加>

  Amuse v3で扱ってるモデル一覧 -SDXL Lightning-
(当環境下における一方的な主観的体感とメモと寸評)

【寸評:総じて無難に遊べるMODEL、一部エラー吐く】

・SDXL Lightning、Dreamshaper Lightning
    SDXL LightningはBytedance製
    Dreamshaper LightningはCreator:Lykon氏製
    Amuse v3でも使えるが他MODELで賄えるので未テスト


Boltning Lightning 
        Scheduler:DDPM/Eular/DPM++ SDE(AmuseにはないがKDPM2で代替できるか?)
        Guidance Scale:1.5~2.0, STEP:10、SIZE:832x1216が推奨
    SIZEはそれ以上でも自信ありそうなコメント。
    遊ぶには十分な無難なMODEL、
SDXLを知るには丁度良いかもしれない。

Copax Timeless XL Lightning 
    このMODELは種類が豊富で
    Photorealism (SDXL 8step)と分類されるMODELかと推測。
        Scheduler:DPM++ SDE、Karras系
        Guidance Scale:2.0, STEP:8が推奨
    クセがなくSD MODELを素直にSDXL MODEL化した印象。
    問題点はControlNETでエラー吐くとこぐらい。
            
[ErrorCode:InvalidArgument] 
            Unexpected input data type 
            Actual: (tensor(float)), expected: (tensor(float16)) 

Dreamshaper Lightning (AMD GPU)
    リンクはLykon氏のCivitai解説ページ。
    定番MODELがAMD GPUに最適化されたDreamshaper Lightning
    無印もあるがそちらは使うことはないと思う。
        Scheduler:DPM++ SDE、Karras系
        Guidance Scale:2.0, STEP:3~6が推奨
    SD・LCMのMODELに比べると扱いやすく本領発揮といったところか。

Fenris Lightning
    解説だとテスト段階のMODELらしい。
        Scheduler:DPM++ SDE
        Guidance Scale:2.0~4.0, STEP:4~15
        作者は7stepを使用しているとのこと。

Juggernaut XL Lightning         
    リンクはHugging Face、毎度おなじみ定番MODELのSDXL Lightning版
        Scheduler:DPM++ SDE、Karras系
        Guidance Scale:1.5~2.0, STEP:5~7
        解像度は1024x1024の推奨...ってか作者お気に入り。 
    私的にSD MODEL版は扱いづらい印象だったが
    このMODELは扱いやすい印象、SDXL版も楽しめそう。


Lightning Fusion    
    色合いの光沢が印象的なSD MODELのColorfulを思い出させる。
    色々とMargeされたMODELだそうで詳しくは解説ページにて。
        Scheduler:DPM++ SDE/Euler a/Karras系など        
        Guidance Scale:1.0(STEP次第で~3.0ぐらいまで行けそう?) 
        STEP:6~10, ClipSkip:2 (AdvancedのStepOffset:2に相当)

PrefectPony Lightning 
    SDXL Lightningで唯一のPony MODEL
    人気のあるMODELだそうだが、AmuseではSDXL版が使えない。
    MODEL読み込み時のSettingでは描写が柔らかく感じるが
    AdvancedのSettingをしっかり詰めれば良くなる...ってか
    ローカル画像生成のメリットと呼ばれる部分が解るMODEL(NSFW的に)

    *現在使っているSetting
        Scheduler:Eular a Karras, STEP:9, GuidanceScale:2.10
        Optimization:Level4, BetaSchedule:Linar, TimestepSpacing:Linspace
        BetaStart:0.00085, BetaEnd:0.0145, TileMode:Overlap+256
    Scheduler:LCMも試してみたが面白かった。

Realities Edge Lightning 
    無難なReal系MODEL、anime系もしっかりカバー
    NSFW系もカバーしてるがPrefectPonyのように癖が強めなものは苦手な模様。
    

RealisticVision Lightning 
    SD MODELにもあるLightning版    
    無難なReal系かと思ったらit/sが出る、Lightning系では一番早い。
    Realities Edgeと同じ体感だがCopax Timeless XL Lightning同様に
    
ControlNETでエラーを吐く。
            
[ErrorCode:InvalidArgument] 
            Unexpected input data type 
            Actual: (tensor(float)), expected: (tensor(float16))  

================
抜けがあったら追加予定、個人環境や使い方
個人の主観や体感などは同じではないので使ってみるのが一番

特徴に差がなく代替となりうるMODELが多く
唯一のPony MODELがしっかり動くので
ControlNETでエラー吐くMODEL

    
Copax Timeless XL Lightning、 RealisticVision Lightning
BASEとなったMODEL
    ・
SDXL Lightning、Dreamshaper Lightning
特徴に差が感じなかった        
    Fenris Lightning、Realities Edge Lightning
の、6つはRemoveしても問題なさそう。 

        ***Removeについて
        Model ManagerタブでRemoveすると一覧から消えるので
        Setting→Stable DiffusionからRemoveする
================
 

 SDXL Lightningを使ってみて
    
・総じて使いやすい、SD MODELでの経験を感じた。
    ・MODEL Margeの問題だと思うが特徴に差がない
    ・Amuseで使えるMODELの数が乏しい
    ・Schedular:KDPM2シリーズとの相性があまりよく感じなかった
        KDPM2系を使うのであれば設定を詰める
    ・現在はEuler-Ancestral(Karras)をベース利用
    ・TimestepSpacingがTrailingがデフォ設定
        何か理由があるのかもしれないので後日調べるとする。
    ・BetaStart&Endの値がSD MODELより高め
        Start:0.0009, End:0.0135がデフォ
        推論値がSD MODELに比べ4倍になったからと推測
    ・ そう簡単には破綻生成しない
        SD MODELとの比較だが、経験しといて正解だった。
    
    ローカル生成の花形MODELであるSDXLに期待しつつ
    SDXLTurboやSD3をテストするかどうか考え中。

<20250910:テスト完了、公開開始>
<20250915:Remove完了>

Amuse v3のOptions, Advancedの項目
***メモ。解説ではない。TensorStackさん、作ると言ってた詳細解説と取説はよ。

【Options】
    ・Scheduler
        Text to Image/image inpaint:
Upscaler
        Image to Image/Paint to Image:Upscaler/ControlNet/Extractor
        のチェックボックスが出ることがある
        Upscalerはレ点入れて直接使うのもありだし、生成後でも良い。
        
ControlNet/Extractorを使用する場合はレ点を入れる

    ・Prompt/Negative Prompt
        AmuseのUI右上、歯車Setting→Stable DiffusionタブでPromptの保存可
        テスト用PromptやNegatevi Promptは入れておくと楽。
        初期の段階でいくつかPromptがあるので試してみるといいかも。


    ・Enable Live Update
        チェックを入れるとAutomationタブが開けない代わりに
        Cancel/GenerateがStop/Startに変更され、画像生成待機(のような)状態
        Prompt、STEPやGuidanceなど設定変更すると生成スタート。
        
スライダー類はキーやスクロールで操作可 
        細かい調整が必要な時の半自動的な使い方
        回数使うと稀にAmuseが落ちる時がある、おまじない程度にEmpty。
    
    ・Seed
        ▷=New Seed、🔀=Random Seed
    
    ・Resolution
        プルダウンで各MODELの推奨サイズ
        右のボタンでWidth/Heightのプルダウンに切替            
  
    
    ・Step 略
    ・GuidanceScale 略、CFGと(たぶん)同義

    ・Memory Mode 
        基本Auto Detect、右隣ボタンで調整可    
        緑レ点か青レ点が出てれば気にしない。
        黄の感嘆符は「共有メモリ使うから遅くなるぞ」のマーク
        赤の感嘆符は「無理スンナやめとけ」のマーク
            プルダウンでCustom選択後に調整可
                レ点入れてCacheをOFF、VRAM消費の低減ができる
                Enable VAE Tilingは低VRAMで高解像度が望める
                たぶん
Stable Diffusion web UIのTiled VAEと同義
        予算と相談で最大RAM積めば幸せに、余裕あるならGPU載せ替え。
        新規総入れ替えなら現状NVIDIAでAmuseのことは忘れる。

【Advanced】 
    *付は右下に出る↺マークで初期値に全リセ、注意
    <20250807>
        ChatGPTやGeminiに聞いても詳細ないよ!と返される
        Stable Diffusion WebUIに似たパラメーター群があるそうで
        それを模した理解で良いのか悩む。
    <20250809>
        メモ書きなんで見辛くなってきた、そのうち整理予定

    ・Optimization
        None/Level1~4
            最適化。どの部分の最適化か知らん
            都合良く解釈すればMODELの推論効率を上げるもの

                
                Geminiは
生成高速化、高解像度の画像生成を可能にする、VRAM消費の削減目的
                Stable Diffusionには「ToMe」という拡張機能があって同じとの解説。

            速度はit/sで比較、Level 4でnoneより15~20%ぐらい向上してた。
            使用MODELに左右されるのではないかと推測。            
            彩度もnone<<<Level 4で強くなるように感じる、気のせいでした。
            VRAM消費削減は...削減されて今の状態なのか?...(シビア
            1024x1024でVRAM MAX6GBぐらいまでにしてくれん?
            VRAM MAX8GBでキリよくない?
            Memory ModeのCustemでcache offにするのが良いのか?
        

        基本:Level 3Level 4をメインで使用中。

    ・Beta Schedule*
        Linear/ScaledLinear/(SquaredCosCapV2)/Sigmoid
            ノイズ拡散除去の方法、詳しく調べると頭痛くなるので始めたら本当に頭痛くなった。
            Linear=2D, anime、ScaledLinear=繊細表現、って解釈で使用中
            
(SquaredCosCapV2)はプルダウンをスクロールすると出てくる
            プルダウン内表示で「
SquaredCosCap\」に見えたがUI広げたらV2だった*_*

                Geminiの回答は
                「ノイズ除去の過程で、各ステップでどのくらいのノイズを除去するかを決定するスケジュール」                              拡散モデルにおけるノイズ除去
                    「ノイズ付加前の唯一である正解を当てに行く」のではなく
                    「ノイズ付加前の無数にある正解候補から一つを適当に選択」すること...らしい
                    ってことは
                    「各ステップでどのくらい選択処理するか?」を決定するスケジュール...でいいのか?

                    Linear=線形、ScaledLinear=均等線形、Sigmoid=S字型曲線までは理解した
                    
SquaredCosCapV2 平方コサインキャップ?cos²θ、二乗コサインキャップか!?
                    それのV2...
cos²(θ)⋅v²でいいの?
                    BetaStart/Endも絡んでくるんだろうなぁ
        
                    
SquaredCosCapV2
                        KDPM2シリーズとLCMを利用する場合は問題ないが
                        LMS系/Euler系/DDPM/DDIMを利用する場合は
                        TimestepSpacingでLinpaceを選択して生成すると黒ベタimageになった
                        DDIMの場合、特定のSettingでエラー吐く 
                        KDPM2系とLCMでも使えるが各Schedulerの持ち味が消える感じ
                        総じて何かもう一工夫しなきゃいけない設定があるような気がする。
  
            

        基本:ScaledLinear
            
            現段階でテスト時の印象は
                Linear:明確
                ScaledLinear:バランス            

                Sigmoid:繊細
            
    SquaredCosCapV2:バランスと繊細(ただしAdvancedで詳細な設定が必要)
 
                                      
        ***上記2つはクオリティと速度に直結する可能性。    

            
    ・TimestepSpacing*  
 
        拡散過程非拡散過程が、AI画像生成の前提とするなら
        この項目は拡散過程に関する設定なのかもしれない
        「ノイズをランダムに決める」「決めたノイズを足す」
        この処理を繰り返してデータにノイズを付加する
        これを拡散過程というらしい。

            Linspace/Leading/Trailing
                Linspace:均等に拡散過程を行う
                Leading:ノイズの決定が先?
                Tralilng:決めたノイズを足す?、
ノイズの決定が後?

             ノイズ付加が先か?ノイズ除去が先か?
            指数と対数?、予測と結果? ノイズ拡散の間隔指定、均等とか対数とか...頭痛くなるw

        基本:Linspace
            BetaScheduleの
SquaredCosCapV2を使う場合はLeading/Trailing
            現段階ではLeadingが多い            
              
    
    ・StepOffset
        Stepの開始位置を調整する、2D, anime系は2~3にすると良いらしい
        基本0、
SquaredCosCapV2の場合は-1~-3も使っている

    ・Prediction*

        ノイズの予測形式?、Epsilon(微小)だから
        Sample(抽出/見本/雛形)って認識でOK?

        VariablePredictionは変数予測でいいはず

        AI画像生成カテゴリでPredictionを検索すると
        「V-Prediction」なる単語に当たる。
VelocityPrediction(速度予測)というそうで
        極一部のSDXL MODELに適応していて発色が良くなるそうだ。
        Amuseには...あるのかな?それでも使い道はイマイチわからん。

            Epsilon/Sample/VariablePredictic
            
    Epsilon(ノイズ予測):ε予測、E-pred        
                Sample(元画像予測):x0
                VariablePredictic(変数予測):Velocityとはまた違う?

        基本:Epsilon
            現状Sampleは上手く扱えてないので未テスト
            image inpaintで処理する時や
            画風を大きく変える(特に2D.anime)時にVariablePredicticを使うことがある。
 
        
    VariablePredicticは色相が弱くなったりグレースケールになりがち
            BetaEndを必要以上に上げたり
            AlpheTransformをExponential設定の組み合わせで使った

            2D,anime系はそれなりに、Real系では上手く扱えてない。  
        

             
    ・AlpheTransform*          
        α(ノイズ拡散中の信号残存率)の変換
        ChatGPTは二か月ほど前にこう答えました。
        合ってるかどうか知らん。
        検索するとEulerの公式に当たるけどを勉強する気ないぞ?        
        SchedulerにもEulerって名前付いてるからした方が良いのだろうけど。
        Cosineはよく出てくるなぁ...
cos²θだとか。 

            
Cosine/Exponential
                Cosine:直線的(Linearとは違う?)          
                Exponential:指数関数的、倍々掛け算
のような感じ?
        
        基本:Cosine
            Exponentialは変化を求めるテスト時ぐらい
他Advancedの設定次第で使う。
            
    ・BetaStart*/BetaEnd*
        
BetaStart:ノイズの最小値:0.0001~0.001
        
BetaEnd:ノイズの最大値:0.01~0.02
            使用MODELや他Advancedの設定によって作画や色相描写に変化がある。
            デフォルト設定で問題なし、むしろそれが推奨かと
            設定を詰める場合は毎回細かく指定し直す方が良さげ。
            デフォルトはstart:0.00085、End:0.012が多い。           

    ・MaximumBeta*
        ノイズの最大値制限、特定条件下での抑え込み用
        デフォルト0.999
    
    
    ・Decoder TileMode
        None/Overlap/Blend/Clip/Blend+Clip
            拡散MODELは制約上の問題で分割ブロックで生成と合成をするそうで
            その分割ブロックをタイルと呼び、その扱い方や結合方法を制御するのがこのモード。
                None:画像一括処理、シンプルだが解像度に制限
                Overlap:タイルを重ねて合成、タイルの境界をなめらかに
                Blend:重ねる合成ではなく混ぜる合成?...ってまんまの解釈、言葉から推測
                Clip:タイルを並べる合成?
                Clip+Blend:タイル並べて境界を混ぜる合成ってことか?
            デフォルトはClip+Blend、好んで使っているのはOverlap

    
    ・Decoder Tile Overlap
        TileModeでOverlapを指定しない限り必要ない(らしい)
        境界が大きいほど高画質、Overlap=64以上を推奨された
        
数字上げれば当然重くなって処理に時間がかかる。
        (過度に必要ないとは思うが、高画質へのおまじない程度)

        実際は128、192、256、384、512の設定を使っている。        
        1024x1280, 768x1024, 512x758の場合は256
        768x1152の場合は192のように、8の倍数を頭の片隅に入れとく。



一通り試してみたメモ。解説として捉えるのはオススメしないし責任持たん。
    ・GPUメモリ不足の場合は他アプリ閉じてAmuseだけにする
        ブラウザ立ち上げっぱなしとかは結構浪費する
        RAM不足の場合はempty.exeを使うおまじないも必要。
        OS巻き込んで落ちるのもダルいし。
    ・Optionsの項目はSD/LCM/SDXL向け
        StableCascadeやらFLUX.1では設定項目が変わる
    ・Text to Imageのみのメモ
        Image to Image/Paint to Image/Image inpaintを使用する場合
        元imageと同じ設定があると良い、ただし修正・改変する場合は少し事情が変わる。  
    ・各MODELの初期設定値の変更
        MODELで違いはある。試してないが好みに合わせて改変はできそう。
        時間が出来次第やりたい。  
 
    ・設定を変える必要性は薄そう
        カジュアルに遊ぶ程度ならOptionの項目ぐらいで
        Advancedの項目は仕上がりにこだわる場合に設定を詰める
        好みは千差万別なんで一応用意しとくよ!って感じなのかもしれない。
    ・メモ、落としどころのSetting
        キリがない...時間溶ける...2025/08時点での落としどころ
        <
SquaredCosCapV2用>            
            Step:64, GuidanceScale:6.40, Optimization:Level 4,
            Beta Schedule:SquaredCosCapV2, TimestepSpacing:Linspace
            StepOffset:-2~2, Prediction:Epsilon, AlphaTransform:Cosine
            BetaStart:0.00085~0.0048, BetaEnd:0.0256, Overlap+256

            
***2D/anime系はLinspaceをなるべく使用しない(若干ソロtagの効き薄)

ここからスタート、今後も遊んで試して色々調べて書き足す。
TensorStackさん、取説作ると言ったよね?ホントマジお願い。


【参考】

        拡散モデルとは
 
            https://www.ibm.com/jp-ja/think/topics/diffusion-models
        拡散モデルの説明における『ノイズ除去』に対する誤解について
            https://zenn.dev/loiloi/articles/215a288c383a54 
        京都大学人工知能研究会KaiRA 生成Deap Learning 第2版 -拡散モデル 前半 
            https://www.docswell.com/s/kyoto-kaira/ZXEJ77-2025-05-29-211301



<20250806:公開開始> 

Amuse v3のFeature Extractor、ControlNET
***メモ、解説ではない

    Extractor
        Illyasviel製
            Canny/Depth/SoftEdge
                設定がTile Mode形式、Tile Mode/Tile Size/Tile Overlap
                Advanced設定のDecoder TileModeと似た感じ。効果は同じだと思う。

        TensorStack製
            Canny/SoftEdge
                v3.0.7では見かけた記憶がないがv3.1.0で追加?
                しかもMODELの指定ない状態で動いてる...
                本体の標準機能的なものなのか?
、Illyasviel製をスライダー調整にしてる?
                こっちはThrehold形式

    ***違いがイマイチわからん...Threholdのスライダーは使いやすいが。

    ControlNET
        1)画像生成
        2)
1)で生成した画像をExtractorで抽出
        3)Image to Image/Paint to ImageでMODEL選択
        4)直下にあるControlNETチェックボックスにレ点
        5)ContorlNETのプルダウンでMODEL選択
            Canny/Depth/Instuct/LineArt/LineArt-Anime/MLSD/
            Normal/OpenPose/Scribble/Segmention/Shuffle/SoftEdge/Tile
             *SD MODEL用、他にもSDXL、SD3用のMODELがある
             *必要に応じてDownloadするor全部Downloadしてバックアップ
        6)
2)で抽出した画像を読み込む
        7)生成
        ***使ったPromptやSEEDはメモること。Amuseには保存する機能はない。
        
        この方法で合ってる...のか?、何か違う気がする。
        Extractorで抽出生成した画像はいいが
        他のMODELはどうやって抽出生成すればいい?
        サンプル画像のようなInverted Imageを抽出生成したいのだが。
        <20250820>Amuse向けの情報量少なすぎ...できることから始めた。

    TensorStack Cannyを使い、SD MODELでテスト生成
    
    Part.1: https://bsky.app/profile/no-reg.bsky.social/post/3lwiunhjyz226 
        Part.2: https://bsky.app/profile/no-reg.bsky.social/post/3lwiw5l6wi226 
        Part.3: https://bsky.app/profile/no-reg.bsky.social/post/3lwixifplks26 
        Part.4: https://bsky.app/profile/no-reg.bsky.social/post/3lwkjylgkwc2i 
        Part.5: https://bsky.app/profile/no-reg.bsky.social/post/3lwkla6kmz22i 
        Part.6: https://bsky.app/profile/no-reg.bsky.social/post/3lwklwi43vs2i 
       
        強めのエッジ抽出(+軽い輝度抽出もしてる気がする)なので
        Promptの変更や追加をすると崩れやすかった
        MODELの特性を調べるにはDepthのが良いのかもしれない 
        次回はIllyasviel Depthを使って、SD MODELをテスト生成予定
    

    
Illyasviel Depthを使い、SD MODELでテスト生成
        https://bsky.app/profile/no-reg.bsky.social/post/3lwqdsz5wss2f


    Illyasviel Depthを使い、LCM MODELでテスト生成
        https://bsky.app/profile/no-reg.bsky.social/post/3lwri7zxwl22n


<20250820:一旦テスト終了、公開開始>