読者です 読者をやめる 読者になる 読者になる

#23 Infinite Latent Feature Models and the Indian Buffet Process

DMLAにてtakuo-h君が紹介。途中から何をやっているか分かってきたが、できることとしては(Bayesian)sparse PCA + DPという感じ。latent featureというのが(PRMLとかに書いてあるような)Bayesian PCAでいうところのzに対応していて、そこの次元数がDPによって…

久しぶりの論文紹介

去年の年末くらいから文書要約をやりたいなぁと考えていて自分がやりたいと思っているベースにできそうな論文を発見していたので紹介*1。開始時に先生が誰もいらっしゃらなかったのでしょんぼりしたとかしてないとか。紹介の仕方があまりよろしくなかったの…

初めての論文紹介

こっちにきてから初めての論文紹介。M1は基本的には夏前まで論文紹介が免除されているのだが(DMATHとかFSNLPとかM1だけでやるゼミは違うが)、4月にいくつか論文を読んでいたので挙手してみた。論文自体はそれほど難しいことをやっていないので、よかったのだ…

DMLAが松本研での最初の発表になりそう

松本研ではM1の最初の時期は勉強会での発表が免除*1されるようだが、ここ2週間くらいでちょこちょこ論文を読んでたこともあり、発表したい病にかかったので発表者で挙手してみた。こういうのに興味があります、的なことを研究室の人に知ってもらえたら色々面…

A simple introduction to maximum entropy models for natural language processing

DMLAにはローカルルールがあって、基本的に論文紹介でも外部のBlogのようなところに書いてはいけないというルールがあるのだが*1、金曜のyuta-hさんの最大エントロピー法周りの話は外部に公開しても構わないと書いてあったので書いてみる。Ratnaparkhi A. "A…

初ゼミ

松本研での(自分にとっては)初ゼミ。DMLAは data mining machine learning link analysis に関する勉強会。今日はyuta-hさんのノンパラベイズの話。DPの普通のところは分かったけど、HDPというかCRF(Conditional Random FieldじゃなくってChinese Restaurant…