○○2vec 再考 accepted

Abstract

このトークでは、

  • 「とりあえずなんでも 2vec してみる」
  • ○○2vec をどうアプリケーションに活かすか
  • ○○2vec を活用・運用していく難しさ
  • 必要となる機械学習パイプライン

といった話をします!

詳細

機械学習の分野では、なんらかの entity を低次元のベクトルで表現したもののことを ○○ embeddings と呼びます。
2013 年に登場し多くの関心を集めた word2vec はその代表例です。
king - man + woman = queen という文字列に見覚えのある方も多いのではないでしょうか。

さまざまな entity を低次元のベクトルという表現に変換することができれば、より多くのデータを機械学習で取り扱うことができるようになります。
今日までの間にさまざまなものが 2vec されてきました。

その中でも特に汎用性が高く面白いのが graph embeddings です。
graph embeddings は「複数種類の entity や edge から成るグラフ」をもとに、各 entity を低次元のベクトルに落とし込みます。
たとえば 「ユーザが所属している会社」「ユーザが読んだ記事」「記事に登場する会社」 といった関係性をグラフで表現し、ユーザ / 会社 / 記事それぞれについて「グラフの構造を考慮した低次元のベクトル」を得ることができます。

graph embeddings は汎用性が非常に高く、使い始めるのもとても簡単です。
一方で、評価や運用方法に気をつけないと、「とりあえず embeddings で!」状態になってしまい、そこからの改善や発展がむずかしくなってしまいます。
このトークでは embeddings の面白さとアプリケーション、実運用にむけて考えるべきこと、などについて経験を交えつつお話します。

Session Information
Confirmed confirmed
Starts On 8/31/19, 2:10 PM
Room Seminar Room 1205
Session Duration 20 min session
Spoken Language Japanese
Interpretation Unavailable
Slide Language Japanese