ロボットからヒトを知る、ヒトからロボットを知る

CJE勉強会と同じ時間にあったので迷ったが、Disney Reseachの人の話を聞きに行く。M2になってからゼミナールを聞きに行くのは初めてな気がする。去年ミッキーマウスのTシャツをよく着ていたような気がするtoshikazu-tにも声をかけてみた。

ディズニーの話は最初の15分くらいで、残りは(自分の専門でない)ロボティクスの話だったが結構楽しめた。この前の地震のときに「日本のロボットの研究者の人はすぐ人形のを作りたが(ry」というのがちょこちょこ出ていたように思うが、村井先生のtalkでは

  • ロボットからヒトを知る
  • ヒトからロボットを知る

ということで、「人型の」ロボットを研究する意義がしっかり見えたような気がする(きっと自分がロボティクスの研究を知らないだけだから、他の研究者の方ももちろん言われているとは思うのですが。筑波にいたときに山海先生の話とか聞きに行っていればよかった)。具体的には

  • スポーツとかがうまい人の筋肉の動きなどをモデル化して、うまくない人をレクチャーするときなどに役に立てる(介護やリハビリなども同様) => ロボットからヒトを知る
  • たくさんある筋肉を人間がどういう風に制御しているのかを知るためにモデル化し、ロボットで実験することで人間のことをよりよく知る

などなど。個人的には人間が歩いているときの動作を学習データに使って、そこで学習したモデルを使ってそれ以外の状況(こけるとか)で動かしたときに人間と似たような動作をするというのは興味深かった。全体の大きいviewがあって、自分の研究の動機付けがそれのどの付近にきているのかを示すというのは当たり前のことと言えば当たり前のことではあるが、最先端の研究を頑張ろうとするといつの間にか全体の大きいviewを忘れてしまっていることがあるので、気を付けなければならない。

そういえば去年のゼミナールはかなり寝てしまっていたような気がするんだけど(スミマセン...)、去年よりかは「他分野の話を自然言語処理や機械学習の分野に射影するとどういうことが考えられるんだろう?」ということを意識しながら聞いているような気がした(それがいいのか悪いのかは置いといて)。もしかすると去年も射影して考えてみようという意識はあったのかもしれないけど、去年は自然言語処理のことをほとんど知らなかったから射影先がundefでうまくできなかったのかもしれない。今回はロボットの話だったが、「人間がどう文を理解しているか」というのをモデルなりを使って模倣しようというのが自然言語処理なり、計算言語学だったりということを考えると

  • ロボットからヒトを知る
  • ヒトからロボットを知る

という考え方はうちらの分野と意外と近いのかもしれない、と思った。