損失関数の定義について。
Consider estimating
. Let t denote an estimate of
. The loss function, denoted by
, is defined to be a real-valued function satisfying
for all possible estimates t and all
in
for
eqals the loss incurred if one estimates
to be t when
isn the true parameter value.
これを見たせばなんでもよいよね、というのがIntroduction to the Theory of StatisticsのP297のexample 16とかに書いてある。
で、どんなsampleに対してもloss functionを最小にする推定値を考えるというのは不可能。というかない。適当な推定値を持ってきて、それが大当りしたら勝てないよね、っていうのは先生がよく言うやつか。なので、どのsampleに対してもloss functionを最小にする、というのではなく平均的にloss functionを小さくする方向で行こうよという流れ。そして、そのloss functionの平均のことをリスクと呼びましょう。
For a given loss function
, the risk function, denoted by
, of an estimator
is defined to be
.
リスクを書きくだすことももちろんできるわけで、とも書ける。
Admissible estimator
リスクがloss functionの期待値で定義できたわけだけど、このリスクを使って、admissibleなestimatorというものを定義できる。For two estimators
and
, estimator
is defined to be a better estimator than
if and only if
for all
in
and
for at least one
in
. An estimator
is defined to be admissible if and only if there is no better estimator.
おおざっぱに言えば、これ以上リスクを小さくできないよというような推定値のことをadmissibleなestimatorというらしい。
なんだがここでまた問題が。(loss functionの時もあったんだけど、)一般に"一様に"リスクを最小にするような推定値は存在しない(なぜならばリスクがの関数であるから)。じゃあ、今度は
に関して平均を取ってやればいいんじゃない?ということになるんだけど、パラメータが分布できるのはベイズの話なので、続きはベイズのところで。

Introduction to the Theory of Statistics
- 作者: Alexander M. Mood
- 出版社/メーカー: McGraw-Hill Publishing Co.
- 発売日: 1974/06/01
- メディア: ペーパーバック
- クリック: 60回
- この商品を含むブログ (17件) を見る