DMLA
DMLAにてtakuo-h君が紹介。途中から何をやっているか分かってきたが、できることとしては(Bayesian)sparse PCA + DPという感じ。latent featureというのが(PRMLとかに書いてあるような)Bayesian PCAでいうところのzに対応していて、そこの次元数がDPによって…
去年の年末くらいから文書要約をやりたいなぁと考えていて自分がやりたいと思っているベースにできそうな論文を発見していたので紹介*1。開始時に先生が誰もいらっしゃらなかったのでしょんぼりしたとかしてないとか。紹介の仕方があまりよろしくなかったの…
こっちにきてから初めての論文紹介。M1は基本的には夏前まで論文紹介が免除されているのだが(DMATHとかFSNLPとかM1だけでやるゼミは違うが)、4月にいくつか論文を読んでいたので挙手してみた。論文自体はそれほど難しいことをやっていないので、よかったのだ…
松本研ではM1の最初の時期は勉強会での発表が免除*1されるようだが、ここ2週間くらいでちょこちょこ論文を読んでたこともあり、発表したい病にかかったので発表者で挙手してみた。こういうのに興味があります、的なことを研究室の人に知ってもらえたら色々面…
DMLAにはローカルルールがあって、基本的に論文紹介でも外部のBlogのようなところに書いてはいけないというルールがあるのだが*1、金曜のyuta-hさんの最大エントロピー法周りの話は外部に公開しても構わないと書いてあったので書いてみる。Ratnaparkhi A. "A…
松本研での(自分にとっては)初ゼミ。DMLAは data mining machine learning link analysis に関する勉強会。今日はyuta-hさんのノンパラベイズの話。DPの普通のところは分かったけど、HDPというかCRF(Conditional Random FieldじゃなくってChinese Restaurant…