← ガイド一覧に戻る
LTX-2 導入・セットアップガイド
Lightricksが公開したオープンな動画生成モデル「LTX Video (LTX-2)」の導入手順です。ローカル環境またはクラウドGPUでの実行を想定しています。
前提条件
- Python 3.10以上
- GPU VRAM: 最低16GB (推奨 24GB以上) - RTX 3090/4090等
- CUDA Toolkit 12.1
1. 環境セットアップ
リポジトリをクローンし、依存関係をインストールします。
git clone https://github.com/Lightricks/LTX-Video.git
cd LTX-Video
python -m venv venv
# Windows: venv\Scripts\activate
# Mac/Linux: source venv/bin/activate
pip install -r requirements.txt
2. モデルのダウンロード
Hugging Faceからモデルの重みをダウンロードします。
pip install huggingface_hub
huggingface-cli download Lightricks/LTX-Video --local-dir checkpoints/
3. 推論の実行 (Inference)
基本的な生成コマンドの例です。
python inference.py \
--prompt "A cinematic drone shot of a futuristic city at sunset, neon lights, 4k" \
--height 480 --width 848 --num_frames 121 \
--checkpoint_path checkpoints/ltx-video-2b-v0.9.safetensors
Tips
- VRAM不足の場合: 解像度を下げるか、量子化版のモデルを探して利用することを検討してください。
- ComfyUI: ComfyUI用のカスタムノードもコミュニティによって開発されています。GUIで操作したい場合はそちらの利用を推奨します。