2015年9月23日水曜日

「Deep Learningの基礎と最新動向」のセミナーで自然言語処理に関する講演をしました

9/11に、中部大学・藤吉先生監修の「Deep Learningの基礎と最新動向」というセミナーの、自然言語処理への応用の回を担当しました(すでにサイトは消えている)。セミナー自体は別の企業主催の有料セミナーでした。資料は有料セミナーにつき非公開です。私が第5講で、同日に第6講の画像処理の東大・中山先生の講演を聞けました。私の話した内容は、認知科学会サマースクールの内容と概ね同じで、埋め込みベクトル(word2vec)、構造の学習(recurrentとrecursive)、知識の学習(knowledge baseの表現学習と、memnnやneural reasoningなど最近の話)の3部構成。最近ちょっとおもっているのは、QAにつなげるよりMTにつなげたほうが広がりがよい感じがするんですが、世間的な期待感(?)という点ではQAの方がいいのかな。

個人的に興味深かったのは、事前に打ち合わせたわけではないのですが、中山先生のスライドでも私の話と似たようなところがでていて(キャプション生成など)、分野を横断した研究がこれから進むんだろうということを予感させました。 ベクトルという抽象的な構造で画像と言語を橋渡しすることができるようになったので、こうした研究がやりやすくなったというのは共通見解としてあるようです。 それから、中山先生の発表も私の発表も、共通してここ1,2年の論文が中心で、分野を問わず現在の研究のスピード感がうかがえます。 また一般物体認識は研究のトレンドからだんだん離れていっていて、検出や動画を対象とした研究にシフトしていっており、そうした分野では必ずしも深層学習だけがうまくいくわけではないみたいでした。 究極的には、深層学習がうまくいっている領域というのは、十分にデータが整備された分野だけという見解はなかなか興味深いです。 もしそうなのであれば、良質なデータをうまく集める仕組みを作れるかどうかということが、研究の焦点になるのかもしれないですね(Baiduは音声データを大量に集まるみたいなことをしていたと聞きましたね)。

0 件のコメント:

コメントを投稿