【総集編】AI動画生成ツール9種類を導入方法から生成例まで初心者向けにわかりやすく解説

視聴回数 100,891
0
0
AIで動画ができるツールやサービスを9つ紹介します
これまで動画で紹介してきたHey Gen、Creative Reality™ Studio、mov2mov、Ebsynth、AnimateDiff、Stable Video Diffusion、Runway、Pika、SadTalkerの紹介をまとめたものになります

▼今回紹介している動画生成AI
1.Hey Gen(招待コード付き)
 https://app.heygen.com/guest/templates?cid=78b240f0

2.Creative Reality™ Studio
 https://www.d-id.com/creative-reality-studio/

3.mov2mov
 https://github.com/Scholar01/sd-webui-mov2mov.git
 動画から動画を作成するSD拡張機能です

 モーションエレメンツ(動画素材)
 https://www.motionelements.com/ja/
 このサイトのロイヤリティフリーの動画を使用させていただきました

 mov2movの作成の参考にさせていただきました
 【Stable Diffusion】【mov2mov】動画から動画を作る&コントロールネットについて
 https://www.youtube.com/watch?v=08VuMtHw3Ts

 Stable Diffusionで"AIダンス動画"を作る方法 - 『Mov2Mov』の簡単な使い方
 https://www.youtube.com/watch?v=m2wQsXC8AXM&t

4.Ebsynth
 https://ebsynth.com/

 s9roll7/ebsynth_utility
 https://github.com/s9roll7/ebsynth_utility

 【初心者】FFmpegのダウンロードとインストール手順~Windows/Mac/Linux
 https://jp.videoproc.com/edit-convert/how-to-download-and-install-ffmpeg.htm

 EBsynthを使ってAIでV2Vロトスコープ動画を作ってみりゅうう!
 https://www.youtube.com/watch?v=F0Vg5jdYys0&t

5.AnimateDiff
 AnimateDiff for Stable Diffusion Webui
 https://github.com/continue-revolution/sd-webui-animatediff

 モーションモジュール(huggingface)
 https://huggingface.co/guoyww/animatediff/tree/main

 A1111 extension of AnimateDiff is available
https://www.reddit.com/r/StableDiffusion/comments/152n2cr/a1111_extension_of_animatediff_is_available/

 簡単プロンプトアニメ
 https://github.com/Zuntan03/EasyPromptAnime
 ※動画内の画面ではSetup-EasyPromptAnime.bat をダウンロードする先が、「セットアップ」ではなく「つかい方」になっていましたが.batファイル自体は同じなので問題ありません


 AnimateDiff prompt travel
 https://github.com/s9roll7/animatediff-cli-prompt-travel

6.Stable Video Diffusion
 ■ComfyUIの導入
 1.ComfyUIのダウンロード(7zipで解凍)
  https://github.com/comfyanonymous/ComfyUI/releases
 2.\ComfyUI\models\checkpointsにモデルファイルを置く
 3.run_nvidia_gpu.batを実行して起動

 ■Stable Video Diffusionの導入
 1.ComfyUI-Managerのインストール
  \ComfyUI\custom_nodes でコマンドプロンプトを開いて
  git clone https://github.com/ltdrdata/ComfyUI-Manager.git
 2.run_nvidia_gpu.batを実行して起動
 3.メニューのManagerからInstall Custom Nodesを選択
 4.「Stable Video Diffusion」を検索しインストール
 5.再起動(コンソール、タブを閉じて、run_nvidia_gpu.batを実行)
 6.モデルがダウンロードできないので手動でダウンロード
  https://huggingface.co/stabilityai/stable-video-diffusion-img2vid/tree/main
  のsvd.safetensorsとsvd_image_decoder.safetensors
  https://huggingface.co/stabilityai/stable-video-diffusion-img2vid-xt/tree/main
  のsvd_xt.safetensorsとsvd_xt_image_decoder.safetensors
 7.svdモデルを
  \ComfyUI\models\svd と
  \ComfyUI\models\checkpoints に置く
 8.run_nvidia_gpu.batを実行して起動
 9.ワークフローのダウンロード
  https://comfyanonymous.github.io/ComfyUI_examples/video/

 Introducing Stable Video Diffusion
 https://stability.ai/news/stable-video-diffusion-open-ai-video-model

 【AIアニメ】ComfyUIでAnimateDiffをはじめよう!
 https://note.com/bakushu/n/n1024f94c6c73

7.Runway
 https://app.runwayml.com/

8.Pika
 https://pika.art/

9.SadTalker
 SadTalker導入方法
 ExtentionsのInstall from URLから以下のURLでインストール
 https://github.com/OpenTalker/SadTalker.git

 モデルファイルのダウンロード先
 GitHub
 https://github.com/OpenTalker/SadTalker/releases
 Google Drive
 https://drive.google.com/file/d/1gwWh45pF7aelNP_P78uDJL8Sycep-K7j/view

 webui_user.batに以下を追加
 set COMMANDLINE_ARGS=--no-gradio-queue --disable-safe-unpickle
 set SADTALKER_CHECKPOINTS=[モデルファイルのファイルパス]

 BDさんの記事を参考にさせていただきました
 https://br-d.fanbox.cc/posts/5685086

 メラチャッカ(メレブ):勇者ヨシヒコ完全図鑑 - テレビ東京
 https://sgttx-sp.mobile.tv-tokyo.co.jp/static/html/bangumi/yoshihiko-p/jumon/20.php


▼音声
 voicepeak 6ナレーターセット (https://www.ah-soft.com/voice/6nare/)

▼使用楽曲
騒音のない世界
https://www.youtube.com/channel/UC2KNOBqzElEs8TA7SR2Hm2w
 グラディエント
 晴れの日の私
 長靴とレインコート
 終わりのない物語
 夏の魔法
 ピースメン 

▼とうやのX(Twitter)
 このチャンネルに表示しているAIイラストや
 AI技術などについてポストしています
 https://twitter.com/towya_aillust

 ちちぷい(AIイラスト投稿サイト)でプロンプト公開中
 https://www.chichi-pui.com/users/user_txz5bKfZZx/