損失関数の定義について。
Consider estimating . Let t denote an estimate of . The loss function, denoted by , is defined to be a real-valued function satisfying
- for all possible estimates t and all in
- for
eqals the loss incurred if one estimates to be t when isn the true parameter value.
これを見たせばなんでもよいよね、というのがIntroduction to the Theory of StatisticsのP297のexample 16とかに書いてある。
で、どんなsampleに対してもloss functionを最小にする推定値を考えるというのは不可能。というかない。適当な推定値を持ってきて、それが大当りしたら勝てないよね、っていうのは先生がよく言うやつか。なので、どのsampleに対してもloss functionを最小にする、というのではなく平均的にloss functionを小さくする方向で行こうよという流れ。そして、そのloss functionの平均のことをリスクと呼びましょう。
For a given loss function , the risk function, denoted by , of an estimator is defined to be .
リスクを書きくだすことももちろんできるわけで、とも書ける。
Admissible estimator
リスクがloss functionの期待値で定義できたわけだけど、このリスクを使って、admissibleなestimatorというものを定義できる。For two estimators and , estimator is defined to be a better estimator than if and only if for all in and for at least one in . An estimator is defined to be admissible if and only if there is no better estimator.
おおざっぱに言えば、これ以上リスクを小さくできないよというような推定値のことをadmissibleなestimatorというらしい。
なんだがここでまた問題が。(loss functionの時もあったんだけど、)一般に"一様に"リスクを最小にするような推定値は存在しない(なぜならばリスクがの関数であるから)。じゃあ、今度はに関して平均を取ってやればいいんじゃない?ということになるんだけど、パラメータが分布できるのはベイズの話なので、続きはベイズのところで。
Introduction to the Theory of Statistics
- 作者: Alexander M. Mood
- 出版社/メーカー: McGraw-Hill Publishing Co.
- 発売日: 1974/06/01
- メディア: ペーパーバック
- クリック: 60回
- この商品を含むブログ (17件) を見る