バーチャル受肉してみた話
3行で
経緯という名の茶番
~2019年1月~
bsf脳内会議
A「うーん、やはり変わった構図で手を描くときは鏡が欲しいな」
B「鏡を机に置くと夜中に自分で見て驚きそう」
C「PCカメラを買ってみては?そのまま写真にとってもいいし」
A「それはいい。ちょうど月末にamazonセールがあるみたいだしそこで買おう」
C「...ところで、Vtuber、バ美肉が流行ってそこそこ時間が経つ。ここは流行りが終わる前にバーチャル受肉すべきでは?」
A「確かに。PCカメラがあれば、ボイチャ用のマイクもあるし最低限の機材はそろう」
B「2D、3Dがあるがどちらの形式?結構時間がかかるのでは?」
C「以前に導入解説動画を見たが、2DでLive2D&FaceRigのパターンなら数日あれば行けそうな雰囲気だ」
A「よしPCカメラが手に入ったら挑戦してみよう」
~茶番終わり~
というわけで実際に作った
本当は作ってすぐにブログに記事を書こうかと思っていたのだが、めんどくさくて書いていなかった。
製作が終わった時点で興味関心が薄れてしまって、お披露目するのはぶっちゃけめんどくさいっていうのはあるあるだと思う。
今月にV受肉体をアップデートしたので、今度こそブログに書くことにした。
初めてのバーチャル受肉編
ここでの集大成
先にこの章で説明している動画を貼っておく
V受肉してみた動画だ
どんな方法で受肉するのか
発案時はLive2D&FaceRigを考えていたが、実際にやるなら他にいい方法があるか検討する必要がある。
まずV受肉するためには大きく二つのものが必要だ。
- モデル(2D or 3D)
- モーションキャプチャなどの撮影環境
(私の場合はさらにボイチェンとの連携が必要)
~閑話~
おっさんだとこれに加えてボイチェン連携とかが入るのが悲しいところだなぁ~と思っていたら、
女性ボイスを自力で出す勢がいると知ってたまげた。
というかボイチェンを使っても声質は変わらないため、自然なかわいい声をだすためには
自力での声調整が必須とのこと。
ボイチェンは最後の一押しでちょっと変えてやるくらいがいいらしい...
ちょっと挑戦してみたけど、かわいくならない上にかなり喉がしんどかったのであきらめた。
(自力で高い声を出す努力をしたほうがいいというのは実感できたのだが...難しい)
動画の声は普段通りに話しているのにボイチェンをかけた形
~閑話休題~
まずはモデル製作方法
前提として自作モデルで遊びたい。また、はまった時のことを考えるとモデルの自由度は高いほうがいい、というのがあった。
基本的に「自由度が高い」=「学習コストが高い」という問題はあるけど、ここを変えるとやる意味がない。
かといって3Dモデル自作は時間がかかることは明白だ。
となると、ドキュメントの充実具合や経験談の多さを考えると現在でもLive2Dがよさそうだった。
次にモーションキャプチャ用の環境
Vtuberが流行り始めた当初は、FaceRigが鉄板というイメージがあったのだが、
現在では色々なツールが登場していることが分かった。
しかし、Live2D連携の情報の多さ、導入の簡単さで言えば、やはりFaceRigがよさそうだった。
完全無料を目指すとLive2Dモデルの構築に加えてモーションキャプチャの環境を構築する羽目になりそうだったのでそこは諦めた。
物事を完了するためには諦められるとこはさっさと諦めたほうがいい。
というわけで茶番の通りLive2D & FaceRig(+ Live2Dモジュール)のパターンで製作してみた。
やや費用が必要だがその分手っ取り早いと考えたのは正解だった。
実際、2/9、10の二日間でイラスト製作から動画投稿まで持って行けたのでかなり手軽だと思う。
Live2用psd製作
まずはモデル用のpsdデータの作成だが、公式でテンプレートが用意されているのでそれを参考にレイヤーごとにパーツを分けて描いてあげればいい。
Live2Dモデルで動かすパーツごとにレイヤー分けされている形だ。
例えば目であれば下のようにレイヤーが分かれている。
テンプレートと見比べながらの作業だったので難しくはなかった。
普段ここまでレイヤーを分けて作業することはないので面倒ではあったが...
そうはいっても、正面であれば対称定規が使えるので線を引く回数は1/2だ。
面倒に感じるだけで、普通に絵を描くよりはらくちんに違いない......そう言い聞かせながらひたすら描く
Live2Dモデル作成
そうこうしてるうちにpsdデータが完成。
いよいよ本番のLive2Dのエディター作業だ。
Live2Dの基本的な考えは、パーツ画像にメッシュを作り、メッシュを変形させることでパーツの形に変化を与える。
動きの始点と終点でメッシュの形を指定することで変形前後の形を決めると、その間はLive2D側でいい感じに補間してくれるのでスムーズに瞬きなどをしているように見える。
という感じらしい。
本来はパーツごとにメッシュを割り当て、動きを指定し~ということをやらなければいけないが、
口と目の動き、ちょっとした体の傾き程度ならテンプレート化されているのでそれを適用してするだけでよい。
もろもろ自動でやってくれるとは言っても、顔などの複雑な部分は上手く割り当たらない箇所も多い。
そこを手動で調整していくのが主な作業になる。
psd取込
↓
メッシュ作成(自動)
↓
テンプレートへのパーツ割り当て(自動)
↓
パーツ割り当ての修正
↓
メッシュとモーションの調整
↓
FaceRig用のデータを出力!!
という感じ。
メッシュの変形指定はこんな感じ。
通常時の瞬きモーションによるメッシュ変化はこんな感じ。
あ、上の2枚はアップデート後のデータからもってきているのでちょっと顔が違う。
点を左右に動かすのに連動して瞬きをしているけど、この両端が動きの始点と終点になっている。
メッシュが大きく変形しているけど、ベースはテンプレートによるもの。
しかしテンプレートそのままだと画像の形が違うので例のように綺麗に変形してくれない。
これも初期状態ではうまく黒目を瞼で隠せていない、まつ毛よりも上瞼が下に来てしまう、まつ毛の位置や形が変~
といった状態だったのでメッシュの網目を一個ずつ動かして調整していった。
通常以外にも笑い時など必要なシチュエーションごとに変形を指定するので、じわ~~~りと時間がかかる作業。
これを妥協したからいいけど、妥協せずにやろうと思うとかなり大変になる。
その調整をパーツごとに繰り返してLive2Dモデルが完成!!
後は各種データを外部出力用に書き出すだけだ。
ただし、モーション割り当ての段階になって、
もっとこういう風に描いてあげたほうが都合がよかったのか!というポイントが見つかり、
いくつかのパーツの書き直しはすることになった覚えがある。
たしかパーツを小さく書きすぎて下に来るパーツを隠しづらいだとかだった。
大きすぎても困るのだが、小さすぎても変形範囲が大きくなって不自然になりやすいようだった。
テンプレートの描き方をよく見とけって話しである。
実際にやってみないとなかなか分からないところではあるが。
感想的な
実際めちゃめちゃテンション上がる。
自分が描いた子が動きに合わせて動いてくれるっていうのは最高に楽しい。
できはともかくとして超楽しいのでぜひみんなにもやってもらいたい
そして、それから
動画で言っているようにVtuberとかの活動のためにV受肉したのではなく、
V受肉したいからV受肉したというやつだった。
Vtuberの方々がどういう作業や手間の裏で生まれているかを知りたかったのだ。
好奇心が満たされたので、それからしばらく放置していたのだが...
V受肉体アップデート編に続く