2015/6/19に、立川にある統計数理研究所のオープンハウスで、招待講演に招かれました。 内容は昨年名大やNIIで行ったものの延長ですが、この半年くらいのアップデート(特に言語処理周辺の深層学習周り)があります。 最後、時間足りなくなってしまった・・・。
最近ロジテックのワイヤレスプレゼンターを買ったので、TEDばりに壇上で話してみようと思ったら、予想外にスライド見えなくて難しいものですね。 スライドと整合性のが取りにくいので、スライドは簡素な絵だけにした方が良さそう。 丸山さんに相談したら、スライドは簡素にして、それとは別にWordで原稿を書いているそうな。 勉強になる。
内容は以前のものと大きくトーンは変わりません。 自然言語処理を利用した製品を作る上で、技術だけではなくて世の中の変化もちゃんと見ないと行けないよね、周辺の技術もちゃんと追わないといけないよねというお話でした。 特にGunosyやSmartNewsが立ち上がった2012年に、PFIはXappyというニュースキュレーションサービスを閉じていて、技術の出すタイミングの難しさを痛感しています(もちろんタイミングさえ良ければ流行っていただろうなどという楽観的なことをいいたいわけではなく、あまりにも間が悪いということ・・・)。
内容のアップデートは特に深層学習の周辺あたりで、コンテスト荒らし→買収合戦→報道過熱、というのが今まで説明してきた話でした。 そして、買収された企業が、それぞれ新しいアイデアをバンバン出しているのがこの半年くらいで、特に応用タスクをEnd-to-endで1つのニューラルネットワークを使ってバシッと解いてしまおうというのが最近のトレンドかなと思ってます。 言語処理は初期(といっても2010~13年あたり)は、言語モデルや表現ベクトルの獲得、あるいは既存のタスク(構文解析、固有表現抽出、評判分析など)を精度よく解くというモノが多かったのが、機械翻訳や質問応答などの応用寄りのタスクを中間問題を解かずにバシッと解くという研究が目立ってきています。 特にGoogle, Facebookが斬新な提案をしているのが目につきます。 一方のBaiduはニューラルネットワーク用のGPUスパコンを作っているという噂です。 こうした取り組みがうまくいく・いかないというのを今の段階で判断するのではなく、過剰に冷めた目で見たり、過剰に期待した目でみたりせず、粛々と実験を重ねて検証をすべきなんだろうとおもいます。
ところで、オープンハウス後に懇親会(慰労会?)に呼んでいただき、統数研の先生方と過去のニューラルネットワークの話だとか人工知能の話だとかソルバーの話だとかをさせていただきました。 特に、樋口先生とDeepLearningは今後どうなるのか、過去の人工知能ブームと同じ轍を踏まないように何をすべきなのかというディスカッションをさせていただきました。 大変面白くて、役得ですね。
0 件のコメント:
コメントを投稿