5ちゃんねる ★スマホ版★ ■掲示板に戻る■ 全部 1- 最新50  

■ このスレッドは過去ログ倉庫に格納されています

【ロボ】「HRP-4C未夢」と「ぼかりす」を結ぶ、顔の表情を自動生成する新技術「ぼかうお(VocaWatcher)」

1 :あやめφ ★:2010/10/07(木) 01:03:12 ID:???
産業技術総合研究所(産総研)には2つのスター技術がある。「ぼかりす」こと「VocaListener」で
おなじみの歌声合成技術と、「サイバネティックヒューマン」こと女性型ロボット「HRP-4C
未夢(ミーム)」だ。その2つの技術コラボが、CEATECで実現した。

未夢のCEATEC登場は昨年に続いて2度目だが、大きく異なるのはその歌声と表情だ。
昨年はVOCALOID2で作った歌唱データの母音部分を未夢の表情に割り当てるという
特別なプログラムを使って、ロボット歌手の大任を果たした。VOCALOID-flexを用いた
おしゃべりも披露した。

今年のデモは、その歌声と顔の表情のリアルさが明らかに違う。おなじみの未夢の顔だが、
歌うときの唇の動き、眉の上げ下げ、瞬き、視線の動きが人間そのものといっていい。
さらに、息継ぎのときは息を吸い込む動作までする。

ここで使われた新しい技術はVocaWatcher。略して「ぼかうお」。梶田秀司氏、中岡慎一郎氏、
横井一仁氏が知能システム研究部門ヒューマノイド研究グループから、「ぼかりす」でおなじみの
後藤真孝氏、中野倫靖氏は情報技術研究部門メディアインタラクション研究グループから、
インタラクションモデリング研究グループの松坂要佐氏、サービスロボティクス研究グループの
松本吉央氏も参加している。

産総研のトップダウンでの指示により、今春から部門をまたいだ協力体制が敷かれることに
なった。言わば産総研内コラボだ。

今回用いた歌声には、人間の歌い手の歌唱データを元に、VOCALOID2と「ぼかりす」で
合成したものが使われている。その際に歌い手の動画も撮影しており、その表情をデータ化し、
未夢の表情を作り出す制御コマンドを推定する。「ぼかりす」が声の表情を取り出すのに対して、
「ぼかうお」は顔の表情を取り出すのだ。「未夢から単純にぼかりすで歌声を出すだけでは
自然にはならない。自然な歌声に見合う、自然な顔の表情を作るかというのが技術課題」と後藤氏。

CEATECで公開されたデモ動画では、歌い手であるサリヤ人さんの「Prologue」歌唱動画から
表情のデータを抽出し、その制御コマンドを未夢に送り出している。具体的には、顔の向き、
口と目の開き、視線から未夢向けに顔表情と頭の動作を生成。唇の形状は「ぼかりす」で得た
歌詞の時刻情報から制御する。

梶田氏によれば、まだ全自動ではなく手作業を含め、半日くらいかかったそうだが、歌い手の
表情はほぼ未夢に移植されており、ロボットの表情がより人間らしく動くための技術が
進化したことを示した。話す部分への応用も可能だ。

「人間の顔の動きについていくのはけっこう厳しいです」と梶田氏。「唇の横の動きを司る
モーターがないため、口をすぼめるといった動作が難しい。そこがあればもっと自然になるんですが」
と後藤氏の指摘に「そこは予算の問題で話が進んでないです。未夢は頭部だけで1000万もする。
昨今の情勢なので予算はなかなか通らないだろう、と。まあ、わたしはこれでアリで、
いいと思うんですが」と説明する。

従来、顔の表情変化を抽出するには、モーションキャプチャのシステムで顔の多くのポイントに
マーカーを付けなければいけなかったが、「ぼかうお」では動画撮影のみでOKだ。
コスト削減だけではなく、より多様な画像をお手本として使える。誰でも手軽に撮った画像が
使えるため、非常に幅が広がると後藤氏は効用について語る。

ITmedia News
http://www.itmedia.co.jp/news/articles/1010/06/news074.html
【初音ミク】 VocaListenerで歌うHRP-4C未夢 【ぼかりす+ぼかうお】
http://www.nicovideo.jp/watch/sm12333424
続き >>2

7 KB
■ このスレッドは過去ログ倉庫に格納されています

★スマホ版★ 掲示板に戻る 全部 前100 次100 最新50

read.cgi ver 05.04.02 2018/11/22 Walang Kapalit ★
FOX ★ DSO(Dynamic Shared Object)