DMLAにてtakuo-h君が紹介。途中から何をやっているか分かってきたが、できることとしては(Bayesian)sparse PCA + DPという感じ。latent featureというのが(PRMLとかに書いてあるような)Bayesian PCAでいうところのzに対応していて、そこの次元数がDPによって動く。Indian Buffet Processのほうではassignmentをベルヌーイで決めることによってsparsenessを出している(出している、というか勝手に出る)。普通のsparse PCAとかだとzのpriorをラプラス分布とかにしてあげるんだろうと思うけど(連続変数あんまり詳しくない...)、そこを0-1のassignmentで決めてあげている、と。