動画生成AIコンテンツ制作ワークフロー
Kling AI, Vidu, Midjourney, ElevenLabsを組み合わせた、現状最も品質が高くなる制作フローの解説です。
1. 画像素材の生成 (Midjourney)
動画生成AIは「Text to Video」よりも「Image to Video」の方が圧倒的に制御しやすく、高品質です。まずはMidjourneyで完璧なキービジュアルを作成します。
- アスペクト比:
--ar 16:9を必ず指定(動画用)。 - 構図: 動かしたときに破綻しないよう、被写体が明確な構図を選ぶ。
- 一貫性: キャラクターリファレンス (
--cref) を使い、同じキャラの別カットを量産しておく。
2. 動画化 (Kling AI / Vidu)
生成した画像を元に、動画生成AIで動きをつけます。用途によって使い分けます。
Kling AI (高画質・リアル寄り)
- プロンプトには「動き」のみを記述する(例: "The girl turns her head and smiles", "Camera slow zoom in")。
- Duration: 基本は5秒で生成し、良ければ10秒に延長。
- Motion Brush: 動かしたい部分だけを指定できる機能があれば活用する。
Vidu (高速・アニメーション寄り)
- 動きが大きく、アニメ調の表現に強い傾向があります。
- 生成スピードが速いため、試行回数を増やしたい場合に最適。
3. 音声・ナレーション生成 (ElevenLabs)
映像に合わせて、ナレーションやセリフを生成します。
- Speech to Speech: 自分の声を元にイントネーションを調整すると、より自然な演技が可能。
- Sound Effects: ElevenLabsの新機能(SE生成)で、環境音(足音、風の音など)も作成。
4. 編集・統合
最後に動画編集ソフト(Premiere Pro, CapCutなど)で統合します。
- アップスケール: 必要に応じてTopaz Video AIなどで4K化。
- リップシンク: キャラクターが喋る場合、SyncLabsなどで口パクを合わせる(オプション)。