読者です 読者をやめる 読者になる 読者になる

#23 Infinite Latent Feature Models and the Indian Buffet Process

機械学習 論文100本ノック ベイズ統計 DMLA NIPS

DMLAにてtakuo-h君が紹介。途中から何をやっているか分かってきたが、できることとしては(Bayesian)sparse PCA + DPという感じ。latent featureというのが(PRMLとかに書いてあるような)Bayesian PCAでいうところのzに対応していて、そこの次元数がDPによって動く。Indian Buffet Processのほうではassignmentをベルヌーイで決めることによってsparsenessを出している(出している、というか勝手に出る)。普通のsparse PCAとかだとzのpriorをラプラス分布とかにしてあげるんだろうと思うけど(連続変数あんまり詳しくない...)、そこを0-1のassignmentで決めてあげている、と。