確率変数の平均値
確率論 において 、 期待値 ( 期待値 、 期待値 、 期待演算子 、 数学的期待値 、 平均 、 期待値 、または 第一 モーメント とも呼ばれる)は、加重平均 の一般化です 。
有限個の結果を持つ確率変数の期待値は、すべての可能な結果の加重平均です。可能な結果が連続体の場合、期待値は 積分によって定義されます。 測度論 によって提供される確率の公理的基礎においては 、期待値は ルベーグ積分 によって与えられます。
確率変数X の期待値は 、、、 または で 表されることが多く、 E はまたは E と表記されることも多い 。 [1] [2] [3]
E
(
X
)
{\displaystyle {\text{E}}(X)}
E
[
X
]
{\displaystyle {\text{E}}[X]}
E
X
{\displaystyle {\text{E}}X}
E
{\displaystyle \mathbb {E} }
歴史
期待値の概念は、17世紀半ばに「 ポイント問題 」から生まれました。これは、ゲームを途中で終わらせざるを得ない2人のプレイヤーの間で、賭け金を 公平に 分配する方法を中心とするパズルです。 [4]この問題は何世紀にもわたって議論されてきましたが、 1654年 にフランスの作家でアマチュア数学者のメレ騎士がブレーズ・パスカルにこの問題を提示したこと で 新た な 勢いを 得ました。メレは、この問題は解けないと主張し、現実世界への応用において数学がいかに欠陥があるかを示していると述べました。数学者であるパスカルは、この問題の解決に取り組むことを決意しました。
彼はピエール・ド・フェルマー への有名な一連の手紙の中でこの問題について議論し始めた 。間もなく、二人はそれぞれ独立して解決策を思いついた。二人は異なる計算手法で問題を解いたが、結果は同じだった。なぜなら、彼らの計算は同じ基本原理に基づいていたからである。その原理とは、将来の利益の価値はそれを得る確率に正比例するはずであるというものである。この原理は二人にとって自然に身についたようだった。二人は本質的に同じ解決策を見つけたことに非常に喜び、それによって問題を決定的に解決したという確信を抱いた。しかし、彼らはその発見を公表せず、パリにいる共通の科学者仲間の小さなグループにのみ知らせた。 [5]
オランダの数学者 クリスティアーン・ホイヘンス は、その著書の中で点の問題を考察し、パスカルとフェルマーの解法と同じ原理に基づく解法を提示しました。ホイヘンスはパリ訪問直後の1657年、確率論に関する論文『 De ratiociniis in ludo aleæ 』(ホイヘンス (1657) 参照)を出版しました。この本は、元の問題よりも複雑な状況(例えば、3人以上のプレイヤーの場合)における期待値を計算する規則を追加することで期待値の概念を拡張し、 確率論の 基礎を築く最初の成功した試みと見なすことができます 。
ホイヘンスは論文の序文で次のように書いている。
また、フランスの最も優れた数学者たちが長らくこの種の微積分に取り組んできたため、最初の発明の栄誉を私に帰すべきではないことも付け加えておくべきでしょう。これは私のものではありません。しかし、これらの学者たちは、互いに難問を数多く提起して互いに競い合いながらも、その手法を隠蔽してきました。そのため、私はこの問題について、まず要素から始めて自ら深く探求する必要がありました。そのため、同じ原理から出発したと断言することさえ不可能です。しかし最終的に、私の答えは多くの場合、彼らの答えと変わらないことがわかりました。
19世紀半ば、 パフヌティ・チェビシェフは ランダム変数 の期待値について体系的に考えた最初の人物となった 。 [6]
語源
パスカルもホイヘンスも「期待」という用語を現代的な意味では用いていない。特にホイヘンスは次のように書いている。 [7]
何かを勝ち取るチャンスや期待値は、公正な賭けで同じチャンスと期待値で得られる金額とまったく同じ価値がある。... 私が a または b を期待し、それらを獲得するチャンスが等しい場合、私の期待値は (a+b)/2 の価値がある。
それから100年以上後の1814年、 ピエール=シモン・ラプラスは『 確率分析理論 』を出版し 、その中で期待値の概念が明確に定義されました。 [8]
…偶然の理論におけるこの利点は、期待される合計とそれを得る確率の積である。これは、確率に比例した分割を仮定することで生じるリスクを負うことを望まない場合に、結果として得られるべき部分的な合計である。この分割は、あらゆる奇妙な状況を排除した場合に唯一公平な分割である。なぜなら、確率の度合いが等しければ、期待される合計を得る権利も等しくなるからである。この利点を 数学的希望と呼ぶことにする。
表記
「期待値」を表す 文字 E の使用は、 1901年の WA・ウィットワースに遡ります。 [9] この記号はそれ以来、英語圏の作家の間で広く使われるようになりました。ドイツ語では Eは Erwartungswert( 期待値)、スペイン語では esperanza matemática( 数学的期待) 、フランス語ではespérance mathématique(数学的期待)を表し ます 。 [10]
「E」を「期待値」を表すために使用する場合、著者はさまざまな表記法を使用します。期待値演算子は、 E (直立)、 E (斜体)、または ( 黒板太字 ) のように表記されるほか、さまざまな括弧表記 ( E( X ) 、 E[ X ] 、 E X など) が使用されます。
E
{\displaystyle \mathbb {E} }
もう一つの一般的 な表記法は μX で ある 。⟨X⟩ 、 ⟨X⟩av は物理 学 で よく使われる。 [ M( X ) は ロシア語の文献で使われる。
X
¯
{\displaystyle {\overline {X}}}
意味
上で論じたように、期待値を定義する方法は状況に応じていくつか存在する。最も単純かつ独創的な定義は、コインを投げた場合のように、結果が有限個しかあり得ない場合を対象とする。無限級数理論を用いると、これは可算個に多数あり得る場合にも拡張できる。また、多くの自然現象で生じる(区分的)連続 確率密度関数によって規定される確率変数という特殊なケースも非常によく考慮される。これらの特殊な定義はすべて、 測度論 や ルベーグ積分 といった数学的ツールに基づく一般的な定義の特殊なケースとみなすことができ 、これらの異なる状況に公理的な基盤と共通言語が提供される。
期待値の定義は、多次元確率変数、すなわち 確率ベクトル の期待値を定義するために拡張することができます。これは、要素ごとに のように定義されます。同様に、 要素を持つ 確率行列 の期待値は のように定義できます 。
X
{\displaystyle X}
E
[
X
]
i
=
E
[
X
i
]
{\displaystyle E[X]_{i}=E[X_{i}]}
X
{\displaystyle X}
X
i
j
{\displaystyle X_{ij}}
E
[
X
]
i
j
=
E
[
X
i
j
]
{\displaystyle E[X]_{ij}=E[X_{ij}]}
有限個の結果を持つ確率変数
起こり得る結果の有限 リスト を持つ 確率変数を考えてみましょう 。それぞれの結果には(それぞれ) 発生する確率があります。期待値は で定義されます。
X
{\displaystyle X}
x
1
,
.
.
.
,
x
k
{\displaystyle x_{1},...,x_{k}}
p
1
,
.
.
.
,
p
k
{\displaystyle p_{1},...,p_{k}}
X
{\displaystyle X}
E
[
X
]
=
x
1
p
1
+
x
2
p
2
+
⋯
+
x
k
p
k
.
{\displaystyle \operatorname {E} [X]=x_{1}p_{1}+x_{2}p_{2}+\cdots +x_{k}p_{k}.}
確率は を満たす必要があるため、 を、確率によって重みが与えられた値 の 加重平均 として 解釈するのが自然です 。
p
1
+
.
.
.
+
p
k
=
1
{\displaystyle p_{1}+...+p_{k}=1}
E
[
X
]
{\displaystyle E[X]}
x
i
{\displaystyle x_{i}}
p
i
{\displaystyle p_{i}}
すべての起こり得る結果が等確率で ある特殊な場合 (つまり )では、加重平均は標準 平均 によって与えられます。一般的な場合、期待値は、ある結果が他の結果よりも起こりやすいという事実を考慮に入れます。
p
1
=
.
.
.
=
p
k
{\displaystyle p_{1}=...=p_{k}}
例
サイコロを振る回数(試行回数)が増えるにつれて、サイコロの出目の平均値が期待値3.5に収束していく様子を示す図
6面サイコロを振った結果をとし ます。より具体的には、 は サイコロを投げた後に上面に表示される 目 の数です。 の取り得る値は 1、2、3、4、5、6で、いずれも確率 で等しく発生します 。
X
{\displaystyle X}
X
{\displaystyle X}
X
{\displaystyle X}
1 / 6 。 の期待値 は、 サイコロを 振って その結果の 平均 ( 算術平均 ) を計算すると、 が大きくなるにつれて、平均は ほぼ確実に 期待値に 収束します。この事実は、 大数の強い法則 として知られています。
X
{\displaystyle X}
E
[
X
]
=
1
⋅
1
6
+
2
⋅
1
6
+
3
⋅
1
6
+
4
⋅
1
6
+
5
⋅
1
6
+
6
⋅
1
6
=
3.5.
{\displaystyle \operatorname {E} [X]=1\cdot {\frac {1}{6}}+2\cdot {\frac {1}{6}}+3\cdot {\frac {1}{6}}+4\cdot {\frac {1}{6}}+5\cdot {\frac {1}{6}}+6\cdot {\frac {1}{6}}=3.5.}
n
{\displaystyle n}
n
{\displaystyle n}
ルーレット は 小さなボールと、縁に38個の番号付きポケットがついたホイールで構成されています。ホイールが回転すると、ボールはランダムに跳ね回り、いずれかのポケットに落ち着くまで動きます。ランダム変数が、 1つの数字に1ドル賭けた場合(「ストレートアップ」ベット)の(金銭的な)結果を表すとします。賭けが勝った場合(確率は
X
{\displaystyle X}
1 / 38 アメリカンルーレットでは、配当は35ドルです。 そうでない場合は、プレイヤーは賭け金を失います。このような賭けからの期待利益は、 つまり、1ドルの賭けから得られる期待値は−$
E
[
gain from
$
1
bet
]
=
−
$
1
⋅
37
38
+
$
35
⋅
1
38
=
−
$
1
19
.
{\displaystyle \operatorname {E} [\,{\text{gain from }}\$1{\text{ bet}}\,]=-\$1\cdot {\frac {37}{38}}+\$35\cdot {\frac {1}{38}}=-\${\frac {1}{19}}.}
1 / 19 したがって 、190回の賭けでは、純損失はおそらく約10ドルになるでしょう。
可算無限に多くの結果をもたらす確率変数
非公式には、可算無限個の可能な結果
集合 を持つ確率変数の期待値は、すべての可能な結果の加重平均として同様に定義され、重みは各値が実現される確率によって与えられます。つまり、
は 確率変数の可能な結果であり 、 はそれらに対応する確率です。多くの非数学教科書では、この文脈における期待値の完全な定義としてこれが提示されています。
E
[
X
]
=
∑
i
=
1
∞
x
i
p
i
,
{\displaystyle \operatorname {E} [X]=\sum _{i=1}^{\infty }x_{i}\,p_{i},}
x
1
,
x
2
,
.
.
.
{\displaystyle x_{1},x_{2},...}
X
{\displaystyle X}
p
1
,
p
2
,
.
.
.
{\displaystyle p_{1},p_{2},...}
しかし、無限和には微妙な点がいくつかあるため、上記の式は数学的な定義としては適切ではありません。特に、数学 解析学 における リーマン級数定理は、 正と負の被加数を含む特定の無限和の値は、被加数の与え方に依存することを示しています。確率変数の結果には自然に与えられた順序がないため、期待値を正確に定義することは困難です。
このため、多くの数学の教科書では、上記の無限和が 絶対収束する 場合のみを取り上げており、これは無限和が被加数の順序に依存しない有限数であることを意味する。 無限和が絶対収束しない場合は、確率変数は 有限の期待値を持たないと言われる。
例
とすると 、 確率 の合計が1になるようなスケーリング係数は、の
対数級数
で表され ます。 次に、
の 等比級数
により 、
x
i
=
i
{\displaystyle x_{i}=i}
p
i
=
c
i
⋅
2
i
{\displaystyle p_{i}={\tfrac {c}{i\,\cdot \,2^{i}}}}
i
=
1
,
2
,
3
,
…
,
{\displaystyle i=1,2,3,\ldots ,}
c
=
1
ln
2
{\displaystyle c={\tfrac {1}{\ln 2}}}
∑
i
=
1
∞
p
i
=
∑
i
=
1
∞
c
i
⋅
2
i
=
c
∑
i
=
1
∞
1
i
(
1
2
)
i
=
c
ln
2
=
1
{\displaystyle \sum _{i=1}^{\infty }p_{i}=\sum _{i=1}^{\infty }{\frac {c}{i\cdot 2^{i}}}=c\,\sum _{i=1}^{\infty }{\frac {1}{i}}\!\ \left({\frac {1}{2}}\right)^{i}=c\!\ \ln 2=1}
ln
(
1
−
1
2
)
=
−
ln
2.
{\displaystyle \ln \left(1-{\tfrac {1}{2}}\right)=-\ln 2.}
E
[
X
]
=
∑
i
=
1
∞
x
i
p
i
=
∑
i
=
1
∞
i
⋅
c
i
⋅
2
i
=
c
∑
i
=
1
∞
(
1
2
)
i
=
c
⋅
1
=
1
ln
2
{\displaystyle \mathrm {E} [X]=\sum _{i=1}^{\infty }x_{i}p_{i}=\sum _{i=1}^{\infty }i\cdot {\frac {c}{i\cdot 2^{i}}}=c\,\sum _{i=1}^{\infty }\left({\frac {1}{2}}\right)^{i}=c\cdot 1={\frac {1}{\ln 2}}}
1
/
(
1
−
1
2
)
.
{\displaystyle 1{\big /}{\big (}1-{\tfrac {1}{2}}{\big )}.}
密度を持つランダム変数
ここで、実数直線 上の 関数によって与えられる 確率密度関数 を持つ ランダム変数を考えてみましょう。これは、与えられた 開区間 で任意の値を取る 確率が、その区間での f の 積分 によって与えられることを意味します 。すると、 の期待値は 積分によって与えられます。
この定義の一般的かつ数学的に正確な定式化には 測度論 と ルベーグ積分が使用され、 絶対連続ランダム変数 の対応する理論については 次のセクションで説明します。多くの一般的な分布の密度関数は 区分的に連続 であり、そのため理論はしばしばこの制限された設定で展開されます。 リーマン積分 のみを考えれば十分です 。 連続ランダム変数 は、この特別なクラスの密度に対応するものとして定義されることもありますが、この用語はさまざまな著者によって異なって使用されています。
X
{\displaystyle X}
f
{\displaystyle f}
X
{\displaystyle X}
X
{\displaystyle X}
E
[
X
]
=
∫
−
∞
∞
x
f
(
x
)
d
x
.
{\displaystyle \operatorname {E} [X]=\int _{-\infty }^{\infty }xf(x)\,dx.}
上記の可算無限の場合と同様に、この式には無限積分領域に起因する微妙な点があります。このような微妙な点は、 の分布が コーシー分布 Cauchy(0, π) で与えられ 、 となる場合に具体的に確認できます 。この場合
、 となることは容易に計算できます。 および となる
この式の極限は 存在しません。 となる極限をとる と極限は0になりますが、 となる制約をとると 極限は になります 。
X
{\displaystyle X}
f
(
x
)
=
(
x
2
+
π
2
)
−
1
{\displaystyle f(x)=(x^{2}+\pi ^{2})^{-1}}
∫
a
b
x
f
(
x
)
d
x
=
∫
a
b
x
x
2
+
π
2
d
x
=
1
2
ln
b
2
+
π
2
a
2
+
π
2
.
{\displaystyle \int _{a}^{b}xf(x)\,dx=\int _{a}^{b}{\frac {x}{x^{2}+\pi ^{2}}}\,dx={\frac {1}{2}}\ln {\frac {b^{2}+\pi ^{2}}{a^{2}+\pi ^{2}}}.}
a
→
−
∞
{\displaystyle a\to -\infty }
b
→
+
∞
{\displaystyle b\to +\infty }
a
=
−
b
{\displaystyle a=-b}
2
a
=
−
b
{\displaystyle 2a=-b}
ln
(
2
)
{\displaystyle \ln(2)}
このような曖昧さを避けるために、数学の教科書では、与えられた積分が 絶対収束し 、 そうでない場合は未定義のままであることが求められるのが一般的です。 しかし、以下に示す測度論的概念は、より一般的な確率変数に対する 体系的な定義を与えるために使用できます 。
E
[
X
]
{\displaystyle E[X]}
E
[
X
]
{\displaystyle E[X]}
X
{\displaystyle X}
任意の実数値確率変数
期待値のすべての定義は、 測度論 の言語で表現できます。一般に、 が 確率空間 上で定義された 実数値 ランダム変数 である場合、 の期待値 ( と表記) は、 ルベーグ積分 として定義されます。
新しい抽象的な状況にもかかわらず、この定義は、特定の加重平均としての上記で最も単純な期待値の定義と本質的に非常によく似ています。これは、測度論では、 のルベーグ積分の値が、 有限個の値を取る の 近似値 の加重平均で定義されるためです。 さらに、有限個または可算個の可能な値を持つランダム変数が与えられた場合、ルベーグの期待値理論は上記の合計式と同一です。ただし、ルベーグ理論は、確率密度関数の理論の範囲を明確にします。ランダム変数は、 次の条件のいずれかが満たされる場合、
絶対連続で あるということになります。
X
{\displaystyle X}
(
Ω
,
Σ
,
P
)
{\displaystyle (\Omega ,\Sigma ,P)}
X
{\displaystyle X}
E
[
X
]
{\displaystyle E[X]}
E
[
X
]
=
∫
Ω
X
d
P
.
{\displaystyle \operatorname {E} [X]=\int _{\Omega }X\,d\operatorname {P} .}
X
{\displaystyle X}
X
{\displaystyle X}
X
{\displaystyle X}
実数直線上には、 任意の ボレル集合に対して となる非負の 測定可能な関数 が存在し 、その積分はルベーグである。
f
{\displaystyle f}
P
(
X
∈
A
)
=
∫
A
f
(
x
)
d
x
,
{\displaystyle \operatorname {P} (X\in A)=\int _{A}f(x)\,dx,}
A
{\displaystyle A}
の 累積 分布関数は 絶対連続 です 。
A
{\displaystyle A}
ルベーグ測度 がゼロである実数の ボレル集合に対して、 その値 がゼロである確率 もゼロである。
A
{\displaystyle A}
X
{\displaystyle X}
A
{\displaystyle A}
任意の正の数に対して、となる 正の数が存在する 。 が 未満のルベーグ測度を持つボレル集合である場合、 で評価される 確率は 未満である 。
ε
{\displaystyle \varepsilon }
δ
{\displaystyle \delta }
A
{\displaystyle A}
δ
{\displaystyle \delta }
X
{\displaystyle X}
A
{\displaystyle A}
ε
{\displaystyle \varepsilon }
これらの条件はすべて同値であるが、これを立証するのは容易ではない。 [20] この定義において、は(ルベーグ測度に対する) の 確率密度関数 と呼ばれる 。ルベーグ積分の変数変換公式 無意識の統計学者の法則 を組み合わせると 、
任意の絶対連続確率変数に対して が成り立つことが分かる
。したがって、上記の連続確率変数に関する議論は、すべての区分連続関数が測定可能であるという事実により、一般ルベーグ理論の特殊なケースとなる。
f
{\displaystyle f}
X
{\displaystyle X}
E
[
X
]
≡
∫
Ω
X
d
P
=
∫
R
x
f
(
x
)
d
x
{\displaystyle \operatorname {E} [X]\equiv \int _{\Omega }X\,d\operatorname {P} =\int _{\mathbb {R} }xf(x)\,dx}
X
{\displaystyle X}
期待値 μ と中央値 𝑚
実数値確率変数の期待値は、その 累積分布関数 のグラフ上で、 面積のほぼ等しい値によって定義することもできます。実際、 実数の場合、それぞれ で表された
-平面上 の2つの面が
同じ有限面積を持つ場合、すなわち であり、
両方の 不定リーマン積分が 収束する場合に限ります。最終的に、これは次の表現と等しくなります。
X
{\displaystyle X}
F
{\displaystyle F}
E
[
X
]
=
μ
{\displaystyle \operatorname {E} [X]=\mu }
μ
{\displaystyle \mu }
x
{\displaystyle x}
y
{\displaystyle y}
x
≤
μ
,
0
≤
y
≤
F
(
x
)
or
x
≥
μ
,
F
(
x
)
≤
y
≤
1
{\displaystyle x\leq \mu ,\;\,0\leq y\leq F(x)\quad {\text{or}}\quad x\geq \mu ,\;\,F(x)\leq y\leq 1}
∫
−
∞
μ
F
(
x
)
d
x
=
∫
μ
∞
(
1
−
F
(
x
)
)
d
x
{\displaystyle \int _{-\infty }^{\mu }F(x)\,dx=\int _{\mu }^{\infty }{\big (}1-F(x){\big )}\,dx}
E
[
X
]
=
∫
0
∞
(
1
−
F
(
x
)
)
d
x
−
∫
−
∞
0
F
(
x
)
d
x
,
{\displaystyle \operatorname {E} [X]=\int _{0}^{\infty }{\bigl (}1-F(x){\bigr )}\,dx-\int _{-\infty }^{0}F(x)\,dx,}
収束積分についても同様に言える。 [23]
例
ある地点における日 降水量 (単位: )を 、以下の式が成り立つ
実数値確率変数として単純にモデル化するとしよう。2
つの正の定数と である 。 の 累積分布関数は次 のように得られる
。 唯一の 不連続
点は ジャンプの高さで ある。 したがって、この確率変数 は離散的でも密度を持つわけでもない。 を2つの不定リーマン積分の差として表現すると、次のようになる。
例えば、おおよその値 と から期待値が得られる [23]。
L
/
m
2
=
m
m
{\displaystyle \textstyle \mathrm {L} /\mathrm {m} ^{2}=\mathrm {mm} }
X
{\displaystyle X}
P
(
X
<
0
)
=
0
,
P
(
X
>
x
)
=
α
e
−
λ
x
if
x
≥
0
{\displaystyle \mathrm {P} (X\!<\!0)=0,\qquad \mathrm {P} (X\!>\!x)=\alpha \!\ \mathrm {e} ^{-\lambda x}\;{\text{ if }}x\geq 0}
α
<
1
{\displaystyle \alpha <1}
λ
.
{\displaystyle \lambda .}
F
:
R
→
R
{\displaystyle F\colon \,\mathbb {R} \to \mathbb {R} }
X
{\displaystyle X}
F
(
x
)
=
{
0
for
x
<
0
,
1
−
α
e
−
λ
x
for
x
≥
0.
{\displaystyle F(x)={\begin{cases}0&{\text{for }}x<0,\\1-\alpha \!\ \mathrm {e} ^{-\lambda x}&{\text{for }}x\geq 0.\end{cases}}}
x
=
0
{\displaystyle x=0}
1
−
α
<
1.
{\displaystyle 1-\alpha <1.}
X
{\displaystyle X}
E
[
X
]
{\displaystyle \mathrm {E} [X]}
E
[
X
]
=
∫
0
∞
α
e
−
λ
x
d
x
=
lim
b
→
∞
[
−
α
λ
e
−
λ
x
]
0
b
=
α
λ
.
{\displaystyle \mathrm {E} [X]=\int _{0}^{\infty }\alpha \!\ \mathrm {e} ^{-\lambda x}\,dx=\lim _{b\to \infty }\left[-{\frac {\alpha }{\lambda }}\,\mathrm {e} ^{-\lambda x}\right]_{0}^{b}={\frac {\alpha }{\lambda }}\,.}
α
=
1
2
{\displaystyle \alpha ={\tfrac {1}{2}}}
λ
=
1
4
m
m
{\displaystyle \lambda ={\tfrac {1}{4\!\ \mathrm {mm} }}}
E
[
X
]
=
2
m
m
.
{\displaystyle \mathrm {E} [X]=2\,\mathrm {mm} .}
無限の期待値
上記で定義された期待値は、自動的に有限数となります。しかし、多くの場合、 の期待値 を考慮できることが不可欠です 。これは、例えば、 サンクトペテルブルクのパラドックス の場合のように、すべての正の整数にわたるの確率 を伴う、 可能 な結果 を伴う確率変数を考える場合に直感的 に理解できます。可算な数の結果を伴う確率変数の場合の和の公式によれば、 となります。
期待値は に等しいと言うのが自然です 。
±
∞
{\displaystyle \pm \infty }
x
i
=
2
i
{\displaystyle x_{i}=2^{i}}
p
i
=
2
−
i
{\displaystyle p_{i}=2^{-i}}
i
{\displaystyle i}
E
[
X
]
=
∑
i
=
1
∞
x
i
p
i
=
2
⋅
1
2
+
4
⋅
1
4
+
8
⋅
1
8
+
16
⋅
1
16
+
⋯
=
1
+
1
+
1
+
1
+
⋯
.
{\displaystyle \operatorname {E} [X]=\sum _{i=1}^{\infty }x_{i}\,p_{i}=2\cdot {\frac {1}{2}}+4\cdot {\frac {1}{4}}+8\cdot {\frac {1}{8}}+16\cdot {\frac {1}{16}}+\cdots =1+1+1+1+\cdots .}
+
∞
{\displaystyle +\infty }
このような考え方の根底には厳密な数学理論があり、ルベーグ積分の定義の一部としてよく取り入れられています。 最初の基本的な観察は、上記の定義のどちらに従ったとしても、 非負の ランダム変数にはどのようなものであっても明確な期待値を与えることができるということです。絶対収束が失敗する場合はいつでも、期待値は と定義できます 。2 番目の基本的な観察は、任意のランダム変数は 2 つの非負のランダム変数の差として表すことができます。ランダム変数 が与えられたとき、 正の部分と負の部分 を と で 定義 します 。これらは非負のランダム変数であり、 であることが直接確認できます 。 と は両方とも非負数または +∞ として定義されるため 、次のように定義するのが自然です。
+
∞
{\displaystyle +\infty }
X
{\displaystyle X}
X
+
=
max
(
X
,
0
)
{\displaystyle X^{+}=\max(X,0)}
X
−
=
max
(
−
X
,
0
)
{\displaystyle X^{-}=\max(-X,0)}
X
=
X
+
−
X
−
{\displaystyle X=X^{+}-X^{-}}
E
[
X
+
]
{\displaystyle E[X^{+}]}
E
[
X
−
]
{\displaystyle E[X^{-}]}
E
[
X
]
=
{
E
[
X
+
]
−
E
[
X
−
]
if
E
[
X
+
]
<
∞
and
E
[
X
−
]
<
∞
;
+
∞
if
E
[
X
+
]
=
∞
and
E
[
X
−
]
<
∞
;
−
∞
if
E
[
X
+
]
<
∞
and
E
[
X
−
]
=
∞
;
undefined
if
E
[
X
+
]
=
∞
and
E
[
X
−
]
=
∞
.
{\displaystyle \operatorname {E} [X]={\begin{cases}\operatorname {E} [X^{+}]-\operatorname {E} [X^{-}]&{\text{if }}\operatorname {E} [X^{+}]<\infty {\text{ and }}\operatorname {E} [X^{-}]<\infty ;\\+\infty &{\text{if }}\operatorname {E} [X^{+}]=\infty {\text{ and }}\operatorname {E} [X^{-}]<\infty ;\\-\infty &{\text{if }}\operatorname {E} [X^{+}]<\infty {\text{ and }}\operatorname {E} [X^{-}]=\infty ;\\{\text{undefined}}&{\text{if }}\operatorname {E} [X^{+}]=\infty {\text{ and }}\operatorname {E} [X^{-}]=\infty .\end{cases}}}
この定義によれば、 が存在し、 が有限であるためには、 と が両方とも有限である必要があります。式 により 、これは が有限であるためには、 が有限であるためには、かつ が有限であるためには、上記の定義における絶対収束条件と同値です。したがって、本考察は、これまで考慮されていなかったケースにおいて、有限の期待値を定義するものではなく、無限の期待値に対してのみ有用です。
E
[
X
]
{\displaystyle E[X]}
E
[
X
+
]
{\displaystyle E[X^{+}]}
E
[
X
−
]
{\displaystyle E[X^{-}]}
|
X
|
=
X
+
+
X
−
{\displaystyle \left|X\right|=X^{+}+X^{-}}
E
[
|
X
|
]
{\displaystyle E[\left|X\right|]}
サンクトペテルブルクのパラドックスの場合、望み どおり になります。
X
−
=
0
{\displaystyle X^{-}=0}
E
[
X
]
=
+
∞
{\displaystyle E[X]=+\infty }
確率変数が それぞれの確率で 値を取ると仮定します 。すると、 正の整数ごとに 確率で 値を取り 、 残りの確率で値を取ることが分かります。同様に、 正の整数ごとに 確率で 値を取り 、残りの確率で値を取ることが分かります 。非負確率変数の定義を用いると、 と の両方が成り立つことが分かります ( 調和級数 を 参照)。したがって、この場合の の期待値は 未定義です。
X
{\displaystyle X}
1
,
−
2
,
3
,
−
4
,
.
.
.
{\displaystyle 1,-2,3,-4,...}
6
π
−
2
,
6
(
2
π
)
−
2
,
6
(
3
π
)
−
2
,
6
(
4
π
)
−
2
,
.
.
.
{\displaystyle 6\pi ^{-2},6(2\pi )^{-2},6(3\pi )^{-2},6(4\pi )^{-2},...}
X
+
{\displaystyle X^{+}}
2
k
−
1
{\displaystyle 2k-1}
6
(
(
2
k
−
1
)
π
)
−
2
{\displaystyle 6((2k-1)\pi )^{-2}}
k
{\displaystyle k}
0
{\displaystyle 0}
X
−
{\displaystyle X^{-}}
2
k
{\displaystyle 2k}
6
(
2
k
π
)
−
2
{\displaystyle 6(2k\pi )^{-2}}
k
{\displaystyle k}
0
{\displaystyle 0}
E
[
X
+
]
=
∞
{\displaystyle E[X^{+}]=\infty }
E
[
X
−
]
=
∞
{\displaystyle E[X^{-}]=\infty }
X
{\displaystyle X}
同様に、上で説明したように、コーシー分布には定義されていない期待値があります。
非負の整数値のランダム変数の場合、期待値は 裾の確率 ( 裾和の式 と呼ばれることもあります)
で表すこともできます。
X
{\displaystyle X}
E
[
X
]
=
∑
k
=
0
∞
Pr
(
X
>
k
)
.
{\displaystyle \operatorname {E} [X]=\sum _{k=0}^{\infty }\Pr(X>k).}
より一般的なバージョンは、任意の非負のランダム変数(離散または連続)に当てはまります。
E
[
X
]
=
∫
0
∞
Pr
(
X
>
t
)
d
t
,
{\displaystyle \operatorname {E} [X]=\int _{0}^{\infty }\Pr(X>t)\,dt,}
ここで、積分関数 は の 生存関数 です。
X
{\displaystyle X}
一般的な分布の期待値
以下の表は、一般的によく見られる 確率分布 の期待値を示しています。3列目は、定義から直接得られる形と、そこから計算によって得られる簡略化された形の両方で期待値を示しています。これらの計算の詳細は必ずしも単純ではありませんが、示されている参考文献を参照してください。
分布
表記
平均E(X)
ベルヌーイ
X
∼
b
(
1
,
p
)
{\displaystyle X\sim ~b(1,p)}
0
⋅
(
1
−
p
)
+
1
⋅
p
=
p
{\displaystyle 0\cdot (1-p)+1\cdot p=p}
二項式
X
∼
B
(
n
,
p
)
{\displaystyle X\sim B(n,p)}
∑
i
=
0
n
i
(
n
i
)
p
i
(
1
−
p
)
n
−
i
=
n
p
{\displaystyle \sum _{i=0}^{n}i{n \choose i}p^{i}(1-p)^{n-i}=np}
ポアソン
X
∼
P
o
(
λ
)
{\displaystyle X\sim \mathrm {Po} (\lambda )}
∑
i
=
0
∞
i
e
−
λ
λ
i
i
!
=
λ
{\displaystyle \sum _{i=0}^{\infty }{\frac {ie^{-\lambda }\lambda ^{i}}{i!}}=\lambda }
幾何学的
X
∼
G
e
o
m
e
t
r
i
c
(
p
)
{\displaystyle X\sim \mathrm {Geometric} (p)}
∑
i
=
1
∞
i
p
(
1
−
p
)
i
−
1
=
1
p
{\displaystyle \sum _{i=1}^{\infty }ip(1-p)^{i-1}={\frac {1}{p}}}
制服
X
∼
U
(
a
,
b
)
{\displaystyle X\sim U(a,b)}
∫
a
b
x
b
−
a
d
x
=
a
+
b
2
{\displaystyle \int _{a}^{b}{\frac {x}{b-a}}\,dx={\frac {a+b}{2}}}
指数関数的
X
∼
exp
(
λ
)
{\displaystyle X\sim \exp(\lambda )}
∫
0
∞
λ
x
e
−
λ
x
d
x
=
1
λ
{\displaystyle \int _{0}^{\infty }\lambda xe^{-\lambda x}\,dx={\frac {1}{\lambda }}}
正常
X
∼
N
(
μ
,
σ
2
)
{\displaystyle X\sim N(\mu ,\sigma ^{2})}
1
2
π
σ
2
∫
−
∞
∞
x
e
−
1
2
(
x
−
μ
σ
)
2
d
x
=
μ
{\displaystyle {\frac {1}{\sqrt {2\pi \sigma ^{2}}}}\int _{-\infty }^{\infty }x\,e^{-{\frac {1}{2}}\left({\frac {x-\mu }{\sigma }}\right)^{2}}\,dx=\mu }
標準正常
X
∼
N
(
0
,
1
)
{\displaystyle X\sim N(0,1)}
1
2
π
∫
−
∞
∞
x
e
−
x
2
/
2
d
x
=
0
{\displaystyle {\frac {1}{\sqrt {2\pi }}}\int _{-\infty }^{\infty }xe^{-x^{2}/2}\,dx=0}
パレート
X
∼
P
a
r
(
α
,
k
)
{\displaystyle X\sim \mathrm {Par} (\alpha ,k)}
∫
k
∞
α
k
α
x
−
α
d
x
=
{
α
k
α
−
1
if
α
>
1
∞
if
0
<
α
≤
1
{\displaystyle \int _{k}^{\infty }\alpha k^{\alpha }x^{-\alpha }\,dx={\begin{cases}{\frac {\alpha k}{\alpha -1}}&{\text{if }}\alpha >1\\\infty &{\text{if }}0<\alpha \leq 1\end{cases}}}
コーシー
X
∼
C
a
u
c
h
y
(
x
0
,
γ
)
{\displaystyle X\sim \mathrm {Cauchy} (x_{0},\gamma )}
1
π
∫
−
∞
∞
γ
x
(
x
−
x
0
)
2
+
γ
2
d
x
{\displaystyle {\frac {1}{\pi }}\int _{-\infty }^{\infty }{\frac {\gamma x}{(x-x_{0})^{2}+\gamma ^{2}}}\,dx}
未 定義
プロパティ
以下の基本的な性質(太字で表記)は、 ルベーグ積分 のそれとほぼ一致するか、あるいはそのまま従う。「as」という文字は「 ほぼ確実に 」を表しており、これはルベーグ積分の中心的な性質である。つまり、確率測度が相補事象の質量をゼロとみなす場合、 のような不等式はほぼ確実に成り立つと 言える。
X
≥
0
{\displaystyle X\geq 0}
{
X
<
0
}
.
{\displaystyle \left\{X<0\right\}.}
非負性:もし (as)ならば、
X
≥
0
{\displaystyle X\geq 0}
E
[
X
]
≥
0.
{\displaystyle \operatorname {E} [X]\geq 0.}
期待値の線形性 : [34] 期待値演算子 (または 期待値演算子 ) と 定数 右辺が明確に定義されている場合は という意味で 線形 です 。帰納法 により、これは、任意の有限個のランダム変数の合計の期待値が、個々のランダム変数の期待値の合計であり、期待値は乗法定数で線形にスケールすることを意味します。 記号的に、ランダム 変数 と定数 が成り立ちます 。 有限の期待値を持つランダム変数の集合がベクトル空間 を形成すると考えると このベクトル空間上の 線形形式 であることを意味します
E
[
⋅
]
{\displaystyle \operatorname {E} [\cdot ]}
X
{\displaystyle X}
Y
,
{\displaystyle Y,}
a
,
{\displaystyle a,}
E
[
X
+
Y
]
=
E
[
X
]
+
E
[
Y
]
,
E
[
a
X
]
=
a
E
[
X
]
,
{\displaystyle {\begin{aligned}\operatorname {E} [X+Y]&=\operatorname {E} [X]+\operatorname {E} [Y],\\\operatorname {E} [aX]&=a\operatorname {E} [X],\end{aligned}}}
N
{\displaystyle N}
X
i
{\displaystyle X_{i}}
a
i
(
1
≤
i
≤
N
)
,
{\displaystyle a_{i}(1\leq i\leq N),}
E
[
∑
i
=
1
N
a
i
X
i
]
=
∑
i
=
1
N
a
i
E
[
X
i
]
.
{\textstyle \operatorname {E} \left[\sum _{i=1}^{N}a_{i}X_{i}\right]=\sum _{i=1}^{N}a_{i}\operatorname {E} [X_{i}].}
単調性: (として) 、および が 存在する場合、
X
≤
Y
{\displaystyle X\leq Y}
E
[
X
]
{\displaystyle \operatorname {E} [X]}
E
[
Y
]
{\displaystyle \operatorname {E} [Y]}
E
[
X
]
≤
E
[
Y
]
.
{\displaystyle \operatorname {E} [X]\leq \operatorname {E} [Y].}
証明は(as) の 線形性と非負性から得られます。
Z
=
Y
−
X
,
{\displaystyle Z=Y-X,}
Z
≥
0
{\displaystyle Z\geq 0}
非退化: If then (as)。
E
[
|
X
|
]
=
0
,
{\displaystyle \operatorname {E} [|X|]=0,}
X
=
0
{\displaystyle X=0}
(as) の場合 、 つまり、X と Y が確率 0 で異なる値を取るランダム変数である場合、X の期待値は Y の期待値と等しくなります。
X
=
Y
{\displaystyle X=Y}
E
[
X
]
=
E
[
Y
]
.
{\displaystyle \operatorname {E} [X]=\operatorname {E} [Y].}
ある実数 cについて (as) が成り立つ場合 、 特に、 明確に定義された期待値を持つ確率変数については、 が成り立つ。明確に定義された期待値とは、期待値を定義する一つの数値、あるいは一つの定数が存在することを意味する。したがって、この定数の期待値は、元の期待値そのものとなる。
X
=
c
{\displaystyle X=c}
E
[
X
]
=
c
.
{\displaystyle \operatorname {E} [X]=c.}
X
{\displaystyle X}
E
[
E
[
X
]
]
=
E
[
X
]
.
{\displaystyle \operatorname {E} [\operatorname {E} [X]]=\operatorname {E} [X].}
上で議論した式| X | = X + + X − の帰結として、 三角不等式 と合わせて、 よく定義された期待値を持つ 任意の確率変数に対して、
X
{\displaystyle X}
|
E
[
X
]
|
≤
E
|
X
|
.
{\displaystyle |\operatorname {E} [X]|\leq \operatorname {E} |X|.}
事象 A の 指示関数を 1 A とすると 、 E [ 1 A ]は A の確率で与えられます。これは、 上記の表で計算された ベルヌーイ確率変数 の期待値を別の方法で表したものに他なりません。
CDFに関する公式: が 確率変数 Xの 累積分布関数 である場合 、 両辺の値が同時に明確に定義されるか明確に定義されないかのいずれかであり、積分は ルベーグ・スティルチェスの意味で取られる。E [ X ] のこの表現に適用された 部分積分 の結果として、 積分をルベーグの意味で取った場合、次の式が成り立つ ことが証明できる。 特別な場合として、 非負整数 {0, 1, 2, 3, ...}をとる任意の確率変数 X に対して、次の式が成り立つ。ここ で Pは 基礎となる確率測度を表す。
F
(
x
)
{\displaystyle F(x)}
E
[
X
]
=
∫
−
∞
∞
x
d
F
(
x
)
,
{\displaystyle \operatorname {E} [X]=\int _{-\infty }^{\infty }x\,dF(x),}
E
[
X
]
=
∫
0
∞
(
1
−
F
(
x
)
)
d
x
−
∫
−
∞
0
F
(
x
)
d
x
,
{\displaystyle \operatorname {E} [X]=\int _{0}^{\infty }(1-F(x))\,dx-\int _{-\infty }^{0}F(x)\,dx,}
E
[
X
]
=
∑
n
=
0
∞
Pr
(
X
>
n
)
,
{\displaystyle \operatorname {E} [X]=\sum _{n=0}^{\infty }\Pr(X>n),}
非乗法的性: 一般に、期待値は乗法的ではありません。つまり、 は 必ずしも と等しくなりません。 とが 独立して いる場合、 である ことが示されます。 ランダム変数が 従属して いる場合、 は一般に となりますが、 従属関係の特殊なケースでは が等式として保持されることがあります。
E
[
X
Y
]
{\displaystyle \operatorname {E} [XY]}
E
[
X
]
⋅
E
[
Y
]
.
{\displaystyle \operatorname {E} [X]\cdot \operatorname {E} [Y].}
X
{\displaystyle X}
Y
{\displaystyle Y}
E
[
X
Y
]
=
E
[
X
]
E
[
Y
]
.
{\displaystyle \operatorname {E} [XY]=\operatorname {E} [X]\operatorname {E} [Y].}
E
[
X
Y
]
≠
E
[
X
]
E
[
Y
]
,
{\displaystyle \operatorname {E} [XY]\neq \operatorname {E} [X]\operatorname {E} [Y],}
無意識の統計学者の法則 :確率密度関数を持つ測定可能な 関数 の期待値は、 と の 内積 で与えられる : [34] この式は、 が 複数の確率変数の関数であり、 が それらの 結合密度 である多次元の場合にも成り立つ。 [34]
X
,
{\displaystyle X,}
g
(
X
)
,
{\displaystyle g(X),}
X
{\displaystyle X}
f
(
x
)
,
{\displaystyle f(x),}
f
{\displaystyle f}
g
{\displaystyle g}
E
[
g
(
X
)
]
=
∫
R
g
(
x
)
f
(
x
)
d
x
.
{\displaystyle \operatorname {E} [g(X)]=\int _{\mathbb {R} }g(x)f(x)\,dx.}
g
{\displaystyle g}
f
{\displaystyle f}
不平等
集中不等式は、 確率変数が大きな値を取る可能性を制御する。 マルコフの不等式は 最もよく知られており、証明も最も簡単な不等式の一つである。非負確率変数Xと任意の正数aに対して 、 マルコフ の 不等式 は [
P
(
X
≥
a
)
≤
E
[
X
]
a
.
{\displaystyle \operatorname {P} (X\geq a)\leq {\frac {\operatorname {E} [X]}{a}}.}
X が 有限の期待値を持つ任意のランダム変数である場合 、マルコフの不等式をランダム変数 | X −E[ X ]| 2 に適用してチェビシェフの不等式 を得ることができます 。
ここで Varは 分散 です。 これらの不等式は、条件付きの仮定がほぼ完全に欠如している点で重要です。たとえば、有限の期待値を持つ任意のランダム変数の場合、チェビシェフの不等式は、結果が期待値の 2 つの 標準偏差 以内になる確率が少なくとも 75% あることを意味します。ただし、特殊なケースでは、マルコフの不等式とチェビシェフの不等式は、他の方法で入手できる情報よりもはるかに弱い情報を与えることがよくあります。たとえば、重み付けされていないサイコロの場合、チェビシェフの不等式によれば、1 から 6 の間を振る確率は少なくとも 53% ですが、実際にはもちろん確率は 100% です。 コルモゴロフ の不等式は チェビシェフの不等式を確率変数の和の文脈に拡張したものである。
P
(
|
X
−
E
[
X
]
|
≥
a
)
≤
Var
[
X
]
a
2
,
{\displaystyle \operatorname {P} (|X-{\text{E}}[X]|\geq a)\leq {\frac {\operatorname {Var} [X]}{a^{2}}},}
次の 3 つの不等式は、数学的分析 の分野 と確率論への応用において根本的に重要です。
イェンセンの不等式 : f : R → R を 凸関数 とし 、 X を 有限の期待値を持つ確率変数とします。すると 主張の一部は、 f ( X ) の 負の部分は 有限の期待値を持つため、右辺は明確に定義される(おそらく無限)ということです。 fの凸性とは、 2 つ の入力の加重平均の出力が、 2 つの出力の同じ加重平均を過小評価する、と表現できます。イェンセンの不等式は、これを、期待値で表される完全に一般的な加重平均の設定に拡張します。 正の数 s < tに対して f ( x ) = | x | t / s となる特別なケースでは、リャプノフの不等式が得られます これはヘルダーの不等式によっても証明できます。 確率空間 の特殊な場合において、Lp空間 のLs⊂Lt の 包含 を 証明 し た こと で特に注目される 。
f
(
E
(
X
)
)
≤
E
(
f
(
X
)
)
.
{\displaystyle f(\operatorname {E} (X))\leq \operatorname {E} (f(X)).}
(
E
|
X
|
s
)
1
/
s
≤
(
E
|
X
|
t
)
1
/
t
.
{\displaystyle \left(\operatorname {E} |X|^{s}\right)^{1/s}\leq \left(\operatorname {E} |X|^{t}\right)^{1/t}.}
ホルダーの不等式 : p > 1 かつ q > 1が p −1 + q −1 = 1 を満たす数であるとき 、 任意の確率変数 X と Y に対して、 p = q = 2 の特別な場合は コーシー・シュワルツの不等式 と呼ばれ 、特によく知られています。
E
|
X
Y
|
≤
(
E
|
X
|
p
)
1
/
p
(
E
|
Y
|
q
)
1
/
q
.
{\displaystyle \operatorname {E} |XY|\leq (\operatorname {E} |X|^{p})^{1/p}(\operatorname {E} |Y|^{q})^{1/q}.}
ミンコフスキー不等式 :任意の数 p ≥ 1 が与えられたとき、任意の確率変数 X と Y に対して、 E| X | p と E| Y | p が有限であれば、 E| X + Y | p も有限となり、
(
E
|
X
+
Y
|
p
)
1
/
p
≤
(
E
|
X
|
p
)
1
/
p
+
(
E
|
Y
|
p
)
1
/
p
.
{\displaystyle {\Bigl (}\operatorname {E} |X+Y|^{p}{\Bigr )}^{1/p}\leq {\Bigl (}\operatorname {E} |X|^{p}{\Bigr )}^{1/p}+{\Bigl (}\operatorname {E} |Y|^{p}{\Bigr )}^{1/p}.}
ヘルダー不等式とミンコフスキー不等式は一般 測度空間 に拡張することができ、その文脈でしばしば与えられる。対照的に、ジェンセン不等式は確率空間の場合に特有のものである。
確率変数の収束に関する期待値
一般に、点ごとに であっても、 は成り立ちません 。したがって、確率変数に関する追加条件なしに、極限と期待値を交換することはできません。これを確認するには、 が 一様分布する確率変数であるとします。 に対して、 が 事象の指示関数
である 確率変数の列を定義します。
すると、 点ごとに が成り立ちます。しかし、 各 に対して 、したがって、
E
[
X
n
]
→
E
[
X
]
{\displaystyle \operatorname {E} [X_{n}]\to \operatorname {E} [X]}
X
n
→
X
{\displaystyle X_{n}\to X}
U
{\displaystyle U}
[
0
,
1
]
.
{\displaystyle [0,1].}
n
≥
1
,
{\displaystyle n\geq 1,}
X
n
=
n
⋅
1
{
U
∈
(
0
,
1
n
)
}
,
{\displaystyle X_{n}=n\cdot \mathbf {1} \left\{U\in \left(0,{\tfrac {1}{n}}\right)\right\},}
1
{
A
}
{\displaystyle \mathbf {1} \{A\}}
A
.
{\displaystyle A.}
X
n
→
0
{\displaystyle X_{n}\to 0}
E
[
X
n
]
=
n
⋅
Pr
(
U
∈
[
0
,
1
n
]
)
=
n
⋅
1
n
=
1
{\displaystyle \operatorname {E} [X_{n}]=n\cdot \Pr \left(U\in \left[0,{\tfrac {1}{n}}\right]\right)=n\cdot {\tfrac {1}{n}}=1}
n
.
{\displaystyle n.}
lim
n
→
∞
E
[
X
n
]
=
1
≠
0
=
E
[
lim
n
→
∞
X
n
]
.
{\displaystyle \lim _{n\to \infty }\operatorname {E} [X_{n}]=1\neq 0=\operatorname {E} \left[\lim _{n\to \infty }X_{n}\right].}
同様に、一般的な確率変数の列に対しては 期待値演算子は 加法性を持たない。つまり、
{
Y
n
:
n
≥
0
}
,
{\displaystyle \{Y_{n}:n\geq 0\},}
σ
{\displaystyle \sigma }
E
[
∑
n
=
0
∞
Y
n
]
≠
∑
n
=
0
∞
E
[
Y
n
]
.
{\displaystyle \operatorname {E} \left[\sum _{n=0}^{\infty }Y_{n}\right]\neq \sum _{n=0}^{\infty }\operatorname {E} [Y_{n}].}
例は、 前の例と同様に
、 と を 設定することで簡単に得られます。
Y
0
=
X
1
{\displaystyle Y_{0}=X_{1}}
Y
n
=
X
n
+
1
−
X
n
{\displaystyle Y_{n}=X_{n+1}-X_{n}}
n
≥
1
,
{\displaystyle n\geq 1,}
X
n
{\displaystyle X_{n}}
いくつかの収束結果では、以下に示すように、制限と期待値を交換できる正確な条件が指定されています。
特性関数との関係
スカラーランダム変数の 確率密度関数は、その 特性関数 と反転式によって
関連付けられます。
f
X
{\displaystyle f_{X}}
X
{\displaystyle X}
φ
X
{\displaystyle \varphi _{X}}
f
X
(
x
)
=
1
2
π
∫
R
e
−
i
t
x
φ
X
(
t
)
d
t
.
{\displaystyle f_{X}(x)={\frac {1}{2\pi }}\int _{\mathbb {R} }e^{-itx}\varphi _{X}(t)\,dt.}
( ボレル 関数 )の期待値については 、この逆関数の公式を使って次のように求めることができる。
g
(
X
)
{\displaystyle g(X)}
g
:
R
→
R
{\displaystyle g:{\mathbb {R} }\to {\mathbb {R} }}
E
[
g
(
X
)
]
=
1
2
π
∫
R
g
(
x
)
[
∫
R
e
−
i
t
x
φ
X
(
t
)
d
t
]
d
x
.
{\displaystyle \operatorname {E} [g(X)]={\frac {1}{2\pi }}\int _{\mathbb {R} }g(x)\left[\int _{\mathbb {R} }e^{-itx}\varphi _{X}(t)\,dt\right]dx.}
が有限である場合、積分の順序を変えると、 フビニ・トネリの定理 に従って 、
(
は
の
フーリエ 変換) が得られます。の 式は 、プランシュレルの定理 から直接導かれます 。
E
[
g
(
X
)
]
{\displaystyle \operatorname {E} [g(X)]}
E
[
g
(
X
)
]
=
1
2
π
∫
R
G
(
t
)
φ
X
(
t
)
d
t
,
{\displaystyle \operatorname {E} [g(X)]={\frac {1}{2\pi }}\int _{\mathbb {R} }G(t)\varphi _{X}(t)\,dt,}
G
(
t
)
=
∫
R
g
(
x
)
e
−
i
t
x
d
x
{\displaystyle G(t)=\int _{\mathbb {R} }g(x)e^{-itx}\,dx}
g
(
x
)
.
{\displaystyle g(x).}
E
[
g
(
X
)
]
{\displaystyle \operatorname {E} [g(X)]}
用途と応用
ランダム変数の期待値は、さまざまな状況で重要な役割を果たします。
統計学
において、 標本 から得られた利用可能なデータに基づいて未知の パラメータ の 推定値 を求める場合 、 標本平均値は 期待値の推定値として機能し、それ自体が確率変数である。このような状況では、標本平均値は「良い」推定値として望ましい基準である「 偏りがない 」基準を満たしていると考えられる。つまり、推定値の期待値は、基礎となるパラメータの 真の値 と等しい。
別の例として、 意思決定理論 では、不完全な情報の中で最適な選択を行うエージェントは、その 効用関数 の期待値を最大化すると想定されることが多い。
ある事象が発生したら1、発生しなかったら0となる指標関数 の期待値を用いることで、事象の確率に等しい期待値を構築することができます 。この関係は、期待値の性質を確率の性質に変換するために利用できます。例えば、 大数の法則を用いて、 頻度 による確率の推定を正当化することができます 。
X のべき乗の期待値は X の モーメント と呼ばれます 。X の 平均に関するモーメントは、 X − E[ X ] の べき乗の期待値です。いくつかの確率変数のモーメントは、 モーメント生成関数 を介して、その分布を特定するために使用できます 。
確率変数の期待値を経験的に推定するには、その変数の観測値を繰り返し測定し、その結果の 算術平均を計算します。期待値が存在する場合、この手順は真の期待値を偏りなく推定し、 残差 の二乗和 (観測値と推定値の差の二乗和)を最小化するという特性を持ちます。大数の法則は(比較的穏やかな条件下では)、 標本 サイズが 大きくなるにつれて、この推定値の
分散が小さくなることを示しています。
この特性は、統計的推定 や 機械学習の一般的な問題を含む、 モンテカルロ法 による(確率的な)関心量の推定 に広く利用されている 。なぜなら、関心量のほとんどが期待値で表すことができるからである。例えば、 集合 の指示関数は
P
(
X
∈
A
)
=
E
[
1
A
]
,
{\displaystyle \operatorname {P} ({X\in {\mathcal {A}}})=\operatorname {E} [{\mathbf {1} }_{\mathcal {A}}],}
1
A
{\displaystyle {\mathbf {1} }_{\mathcal {A}}}
A
.
{\displaystyle {\mathcal {A}}.}
確率分布の質量は期待値でバランスが取れており、ここでは期待値が α/(α+β) の Beta(α,β) 分布です。
古典力学 において 、 重心は 期待値に類似した概念です。例えば、 X が x i という値とそれに対応する確率 p i を持つ離散確率変数であるとします 。 次に、重さのない棒を考えます。 棒の x i の位置には、それぞれ質量p i (その和は1)の重りが置かれています。棒が釣り合う点は E[ X ] です。
期待値は分散の計算式を用いて分散を計算するためにも使用できる。
Var
(
X
)
=
E
[
X
2
]
−
(
E
[
X
]
)
2
.
{\displaystyle \operatorname {Var} (X)=\operatorname {E} [X^{2}]-(\operatorname {E} [X])^{2}.}
期待値の非常に重要な応用は量子力学 の分野です 。 量子状態 ベクトル に作用する 量子力学的演算子の期待値は 次のように表されます。 における 不 確実性 は、次の式で計算できます 。
A
^
{\displaystyle {\hat {A}}}
|
ψ
⟩
{\displaystyle |\psi \rangle }
⟨
A
^
⟩
=
⟨
ψ
|
A
^
|
ψ
⟩
.
{\displaystyle \langle {\hat {A}}\rangle =\langle \psi |{\hat {A}}|\psi \rangle .}
A
^
{\displaystyle {\hat {A}}}
(
Δ
A
)
2
=
⟨
A
^
2
⟩
−
⟨
A
^
⟩
2
{\displaystyle (\Delta A)^{2}=\langle {\hat {A}}^{2}\rangle -\langle {\hat {A}}\rangle ^{2}}
参照
参考文献
^ 「期待値|平均|平均値」 www.probabilitycourse.com . 2020年9月11日 閲覧 。
^ ハンセン、ブルース. 「経済学者のための確率と統計」 (PDF) . 2022年1月19日時点の オリジナル (PDF)からアーカイブ。 2021年7月20日 閲覧 。
^ ワッサーマン、ラリー ( 2010年12月) 『統計のすべて:統計推論の簡潔なコース 』シュプリンガー統計テキスト、p.47。ISBN 9781441923226 。
^ ハルド、アンダース (1990). 確率と統計の歴史とその応用 1750年以前 . ワイリー確率統計シリーズ. doi :10.1002/0471725161. ISBN 9780471725169 。
^ オーレ、オイステイン (1960). 「オーレ、パスカルと確率論の発明」. アメリカ数学月刊誌 . 67 (5): 409– 419. doi :10.2307/2309286. JSTOR 2309286.
^ マッキー、ジョージ (1980年7月)「対称性の活用としての調和解析 - 歴史的概観」 アメリカ数学会報 、新シリーズ、 3 (1):549。
^ ホイヘンス、クリスチャン . 「運命のゲームにおける偶然の価値。英訳」 (PDF) .
^ ラプラス、ピエール=シモン (1952) [1951]. 確率に関する哲学的エッセイ . ドーバー出版. OCLC 475539.
^ Whitworth, WA (1901) 『Choice and Chance with One Thousand Exercises』 第5版、Deighton Bell、ケンブリッジ。[Hafner Publishing Co., New York, 1959年再版]
^ 「確率と統計における記号の最も初期の使用」。
^ Billingsley 1995、定理31.7と31.8およびp.422。
^ ab ウール、ローランド (2023). Charakterisierung des Erwartungswertes am Graphen der Verreilungsfunktion [ 累積分布関数のグラフ上の期待値の特性 ] (PDF) 。ブランデンブルク工科大学。 pp. 2–4 . doi : 10.25933/opus4-2986 。 2023年12月24日のオリジナルからアーカイブ。
^ abc Weisstein, Eric W. 「期待値」. mathworld.wolfram.com . 2020年9月11日 閲覧 。
参考文献
エドワーズ、AWF (2002年) 『パスカルの算術三角形:数学的アイデアの物語』 (第2版)JHU Press. ISBN 0-8018-6946-3 。
ホイヘンス、クリスチャン (1657)。 De rateciniis in ludo aleæ (英語翻訳、1714 年出版) 。
ビリングスリー、パトリック (1995年) 『確率と測度 』『ワイリー確率・数理統計シリーズ』(1979年初版第3版)ニューヨーク:ジョン・ワイリー・アンド・サンズ社 ISBN 0-471-00710-2 . MR 1324786。
Casella, George ; Berger, Roger L. (2001). 統計的推論 . Duxbury Advanced Series (1990年初版第2版). Pacific Grove, CA: Duxbury. ISBN 0-534-11958-1 。
ウィリアム・フェラー (1968年) 『確率論とその応用入門』第1巻 (1950年初版第3版)ニューヨーク・ロンドン・シドニー:John Wiley & Sons, Inc. MR 0228020.
フェラー, ウィリアム (1971). 確率論とその応用入門. 第2巻 (1966年初版第2版). ニューヨーク・ロンドン・シドニー: John Wiley & Sons, Inc. MR 0270403.
ジョンソン, ノーマン L. ; コッツ, サミュエル ; バラクリシュナン, N. (1994). 連続一変量分布. 第1巻 . ワイリー確率・数理統計シリーズ(1970年初版第2版). ニューヨーク: John Wiley & Sons, Inc. ISBN 0-471-58495-9 . MR 1299979。
パプーリス、アタナシオス 、 ピライ、S. ウニクリシュナ (2002). 確率、ランダム変数、および確率過程 (1965年初版第4版). ニューヨーク: マグロウヒル. ISBN 0-07-366011-6 。 (訂正:[1])
ロス、シェルドン・M. (2019). 確率モデル入門 (1972年初版第12版). ロンドン: アカデミック・プレス. doi :10.1016/C2017-0-01324-1. ISBN 978-0-12-814346-9 . MR 3931305。