🤖 AI ローカル実行 スペックチェッカー

使いたいAIモデルを選択するだけで、必要なPCスペックと対応GPUが分かります | ℹ ボタンで各モデルの詳細を確認できます

🎨 リアル系写真を作りたい 🎬 動画生成したい(高品質) 💬 日本語が得意なLLM ⚡ 低スペックでも動くモデル 🎓 LoRA・画像学習したい 🎵 音声・音楽を生成したい 👤 顔スワップ・アニメーション 🧊 画像から3Dを作りたい
STEP 1 使いたいカテゴリを選択(複数可)
🎨
画像生成
🎬
動画生成
👤
顔・人物特化
💬
テキスト LLM
🎵
音声・音楽
🧊
3D・その他
STEP 2 使いたいモデルを選択
↑ カテゴリを選択してください
STEP 3使用条件を設定
複数モデルを同時に使用する
チェックなし:切り替えながら使用(VRAM = 最大値)
チェックあり:同時起動(VRAM = 合計値)
量子化(4bit / 8bit)を使用する
LLMのVRAM使用量を約50%削減(多少の精度低下あり)
CPUオフロードを許容する
VRAMを~40%削減できるが速度が大幅低下(VRAM不足時の最終手段)
📊 必要スペック
🖥️
モデルを選択すると
スペックが表示されます
🖥️ GPU 対応チェック
モデルを選択してください