Peilin Zhao and Steven C.H. Hoi, The 27th International Conference on Machine Learning (ICML 2010), Haifa, Israel, 21-24 June, 2010.
今熱い(?)転移学習とオンライン学習を組み合せてやってみましょうというお話。homogeneousな場合とheterogeneousな場合でそれぞれアルゴリズムを提案し、誤りの個数の上界を理論的に与えている(証明はあんまり追ってないけど)。また、実験的にもよい結果が得られたよ!!という話が書いてある。
Problem Formulation
基本的にはsourceのところで学習器h(x)を、targetのところでf(x)を構築していく。ここではカーネルを使ったものを考えていて、とする。マージン最大化をやりたいということで、Sはサポートベクターを表わしている。
そんでもって、target用の関数fも決めてやる必要がある。オンラインでやりたいので、t回目のiterationのfをと書くことにすると、
の符号で予測をする。
Online Transfer Learning over Homogeneous Domains
(分布は違っていてもいいので)、sourceとtargetの集合が同じ場合を考える(こういうケースをHomogeneousというようだ)。concept driftingというのが大事な考え方になってきて、どういうものかというと
- 最初はsourceのほうで考えている
- 時間が経つにつれて、予測したいtarget variableが変化する
というもの。まあ、変わってはいないんだけど、iterationを時間と考えれば変化していくと考えてもよさそう。
こういう問題を解きたいときにbasicとなる考え方はensemble learningと書いてある。アンサンブル学習はよく知らないが、weak learnerを組み合せてより強力な学習器を作ろうぜというやつでboostingやバギングのようなものを含む考え方らしい。ごちゃごちゃ言うより、どういう風にやっているかを具体的に見てみると、hとfのmixtureをやっているだけということであった。で、重みをiterationで変えていく((1)式のように)。これはいいとして、重みのupdate式に謎のという関数が出てきて、なんでこんな形なんだと思うが、Theorem 1で誤り個数の上界を示すために恣意的にやっている(と思う)。他の形でもいいように思うが、fixするよりもいい結果が得られると(あとのほうの)実験の結果のほうでも言っているので、とりあえずこれでやっていく。そうするとTheorem 1で言っているようなMのboundが示せる(意味合いをあとで書く)。
Online Transfer Learning over Heterogeneous Domains
Heterogeneousの説明。出力Yのほうで考えている集合は一緒だが、Xのほうが異なる。sourceがtargetのsubsetになっている場合をこの論文では取り扱っている()。そして、この
を2分割する(
、
)。
Heterogeneousなオンラインでは(と
に対して)co-regularizationという考え方を採用する。co-regularizationとか言われるとおぞましい感じですが、式を見たほうが分かりやすい(?)。
が損失関数と考えると、普通に正則化している感じだが、
と
を同時に正則化しているということでco-regularizationと呼ばれる(はず)。このco-regularizationの最小化をいかにするか?という問題があるが、それはProposition 2で示されている。閉じた形で書けるところが素晴しい。
また、Homogeneousの場合と同様に誤りのboundが示せるということがTheorem 2に書いてある。
Experimental Results
比較する手法がいくつか説明されている。
- PA
- sourceから全く学習しない
- PA method Initialized with the old classifier h(PAIO)
- hをfを初期化(かな?)
- OTL(fixed)
- weightをiterationで変えないで固定
実験で使っているデータはサンプル数も次元数も多くはない(特に次元数)。
Evaluation of Homogeneous OTL Tasks
カーネルの設定とかはfix。3つのデータセットで実験しているが、どれもOTLが一番Mistakeが少ない結果になっている。計算時間は一番短いPAの2-2.5倍くらいになっている。Figure 3の(c)はなんでデータ増やしてもMistakeが減らないのはなんでだろう => (b)と(c)はconcept driftを起こしているデータだから。データ数とサポートベクターの数がほとんど一致していて、denseなモデルになっている。
Evaluation of Heterogenous OTL Tasks
どれも提案手法が一番精度はよいが、Homogeneousな場合と同様にSupport Vectorの数が多く、denseなモデルになってしまうためpredictするのに時間がかかってしまうのは欠点。
その他
PAのことを詳しく追ったことがそういえばなかったので、ちょっと調査。MIRAと関係があったというか、MIRAってPAのことだったのね。