V
Open-LLM-VTuber 詳細
AI VTuberツール比較
★ GitHubスター 6,000+

Open-LLM-VTuber

完全オフライン動作可能なAI VTuberフレームワーク。Live2D対応・モジュラー設計・日本語ドキュメント完備。コスト0円でのローカル完結運用が可能。

6,000+
GitHubスター
JP
日本語対応
README.JP.md 提供
$
0円〜
完全ローカル運用可
GitHub で見る →
概要

Open-LLM-VTuber(Open-LLM-VTuber/Open-LLM-VTuber)は、完全にオフラインでも動作するAI VTuberフレームワークです。Live2Dアバターを持ち、テキスト・音声で会話し、OBS経由で配信画面に組み込むことができます。

最大の特徴は「完全無料・完全オフライン」での運用が可能な点です。NVIDIA・AMD・Apple Siliconに対応したローカルLLM(Ollama等)と組み合わせることで、APIコストゼロのシステムが構築できます。

Python製のモジュラー設計で、LLM・STT・TTS・アバターシステムを独立したモジュールとして組み合わせ可能。日本語READMEが提供されており、Docker対応により環境構築の手間も軽減できます。

Python Live2D対応 完全オフライン 日本語ドキュメント Docker対応 モジュラー設計
特徴
O
完全オフライン動作
Ollamaなどのローカルモデル + ローカルSTT/TTSを組み合わせることで、インターネット接続なしの完全ローカル運用が可能。コスト0円を実現。
H
クロスプラットフォーム GPU 対応
NVIDIA CUDA・AMD ROCm・Apple Silicon(Metal)の3プラットフォームすべてに対応。持っているPCのGPUをそのまま活用できる。
D
Docker対応
Docker Composeで環境構築が完結。Pythonの依存関係の衝突やバージョン問題を回避できる。本番環境にも向いている。
P
デスクトップペットモード
配信だけでなく、デスクトップ上に常駐するAIキャラクターとして利用可能。作業中に話しかけると応答する「デスクトップペット」として動作する。
JP
日本語ドキュメント完備
README.JP.mdが提供されており、日本語での導入手順・設定方法が確認できる。英語ドキュメントが苦手な方でも安心。
M
モジュラー設計で柔軟な構成
LLM・音声認識(STT)・音声合成(TTS)・アバターシステムをそれぞれ独立して選択・変更できる。好みのコンポーネントの組み合わせが自由。
L
Live2Dアバター対応
Live2Dアバターに対応し、感情表現・口パクなどのアニメーションが可能。既存のLive2Dモデルを流用できる。
メリット・デメリット
メリット
  • ローカルLLM使用時は月額コスト0円の完全無料運用が可能
  • 完全オフライン動作でプライバシーを確保できる
  • 日本語READMEがあり日本語環境での導入がスムーズ
  • NVIDIA・AMD・Apple Siliconの全GPU対応
  • Docker対応で環境構築が安定・再現しやすい
  • モジュラー設計でコンポーネントの入れ替えが自由
  • デスクトップペットモードで配信以外にも活用できる
デメリット
  • 配信プラットフォームへの直接統合はなく、OBS経由での合成が必要
  • v1.0.0以降で破壊的変更があり、旧バージョンの設定は移行が必要
  • ゲーム連携機能(Minecraft等)はなし
  • Discord・Telegramなどのマルチプラットフォーム展開には非対応
システム要件
項目要件・推奨値
GPUクラウドAPI使用時は不要。ローカルLLM使用時はVRAM 6〜8GB推奨。Raspberry Piでの動作報告あり。
OSWindows 10/11・macOS 12以上・Linux(Ubuntu 20.04以上確認済み)。クロスプラットフォーム対応。
メモリ(RAM)クラウドAPI時: 8GB以上推奨。ローカルLLM時: 16GB以上推奨。
GPU 種別NVIDIA(CUDA対応)・AMD(ROCm対応)・Apple Silicon(Metal対応)の3プラットフォームすべてに対応。
PythonPython 3.10以上が必要。Dockerを使う場合は不要。
ストレージ基本インストール: 約1GB。ローカルLLMモデル追加時: 4〜40GB追加(モデルサイズによる)。
Docker(任意)Docker Desktop 4.0以上またはDocker Engine + Compose。使用する場合はPython環境構築が不要。
料金・コスト
軽量API運用
~¥600
/ 月($4程度)
Gemini Flash等の低コストAPIを使用。週2〜3回配信であれば十分なコスト感。
本格API運用
~¥7,000
/ 月($50程度)
GPT-4oやClaude Sonnet等の高品質APIで毎日配信。コメント返答を積極的に行う場合。
コスト優位点: ローカルLLM(Ollama + Llama / Gemma等)を使えばAPIコストが完全に0円になります。GPU付きPCを既に持っている場合は、最もコスト効率の高い選択肢です。
導入手順
1
リポジトリのクローン
GitHubからソースコードを取得します。
git clone https://github.com/Open-LLM-VTuber/Open-LLM-VTuber.git cd Open-LLM-VTuber
2
依存パッケージのインストール
Python仮想環境を作成してパッケージをインストールします。Dockerを使う場合はこの手順をスキップできます。
# 仮想環境の作成(推奨) python -m venv venv source venv/bin/activate # Windowsは: venv\Scripts\activate # パッケージインストール pip install -r requirements.txt
2-alt
Docker を使う場合(代替手順)
# Docker Composeで起動(GPU有りの場合) docker compose up -d # GPU無しの場合 docker compose -f docker-compose.cpu.yml up -d
3
設定ファイルの編集
conf.yamlを編集してLLMプロバイダ・STT・TTSの設定を行います。
cp conf.default.yaml conf.yaml # conf.yamlをエディタで開いて設定
4
起動して動作確認
python main.py # → ブラウザが自動的に開く(または http://localhost:12393)
5
OBSへの組み込み(配信用)
OBSのブラウザソースとしてOpen-LLM-VTuberの画面を追加します。
# OBSのブラウザソースに追加 # URL: http://localhost:12393 # 背景透過: チェックON(クロマキー合成)
運営イメージ

どんな配信スタイルに向いているか: 雑談配信・勉強配信・作業配信との相性が良いです。コスト重視でローカル完結したい個人クリエイターに最適です。

起動時
デスクトップ常駐 — PCを起動するとAIキャラがデスクトップに表示される。配信していなくても話しかけると音声で返答。
配信前
配信準備 — OBSのブラウザソースにAIキャラのURLを追加済み。配信開始ボタンを押すだけで画面にAIキャラが合成される。
配信中
視聴者との会話 — YouTubeチャットのコメントをAIが読み取り、Live2Dアバターが口パクしながら音声で返答。
深夜
ローカル処理 — ローカルLLMを使用しているためAPIコストはゼロ。深夜の長時間配信も追加費用なし。
こんな人におすすめ / おすすめしない人
おすすめの人
  • 月額コストをできる限り抑えたい・0円で始めたい人
  • プライバシー重視でオフライン動作にこだわる人
  • 日本語環境で導入したい・英語ドキュメントが苦手な人
  • 雑談配信・作業配信・勉強配信など穏やかな配信スタイルの人
  • Dockerを使って環境を安定させたい人
おすすめしない人
  • Minecraft・Factorioなどゲーム連携機能が欲しい人
  • YouTube以外にDiscord・Telegramでもマルチプラットフォーム展開したい人
  • モバイル(iOS等)からもアクセスしたい人
  • 大きなコミュニティのサポートを活用したい人