誤差指数

Rate at which the error probability decays exponentially with increasing block length in code

情報理論においてチャネル コードまたは情報源コードのブロック長に対する誤り指数は、コードのブロック長とともに誤り確率が指数的に減少する割合です。正式には、大きなブロック長に対する誤り確率の負の対数とコードのブロック長の極限比として定義されます。たとえば、デコーダ誤り確率が ( はブロック長)のときに低下する場合誤り指数は です。この例では、が大きい に対して に近づきます。情報理論の定理の多くは漸近的な性質を持っています。たとえば、チャネル符号化定理では、チャネル容量よりも小さい任意のレートでは、ブロック長が無限大になるとチャネル コードの誤り確率を 0 にすることができますと述べられています。実際の状況では、通信の遅延には制限があり、ブロック長は有限でなければなりません。したがって、ブロック長が無限大になると誤り確率がどのように低下​​するかを研究することが重要です。 P e r r o r {\displaystyle P_{\mathrm {error} }} e n α {\displaystyle e^{-n\alpha }} n {\displaystyle n} α {\displaystyle \alpha } ln P e r r o r n {\displaystyle {\frac {-\ln P_{\mathrm {error} }}{n}}} α {\displaystyle \alpha } n {\displaystyle n}

チャネル符号化における誤差指数

時間不変DMCの場合

チャネル符号化定理は、任意の ε > 0 およびチャネル容量未満の任意のレートにおいて、十分に長いメッセージブロックXのブロック誤り確率がε > 0 未満となるように保証できる符号化および復号化方式が存在することを述べています。また、チャネル容量を超える任意のレートにおいて、ブロック長が無限大になるほど、受信側におけるブロック誤り確率は1に近づきます。

チャネル符号化の設定を以下のように仮定する:チャネルは、対応するコードワード(長さn )を送信することで、任意のメッセージを送信できる。コードブックの各要素は、確率質量関数Qを持つ確率分布に従ってiid に抽出される。復号側では、最尤復号法が実行される。 M = 2 n R {\displaystyle M=2^{nR}\;}

をコードブック内の 番目のランダムコードワードとします。ここで、から まで変化します。最初のメッセージが選択されたと仮定すると、コードワードが送信されます。 が受信された場合、コードワードが のように誤って検出される確率は、次のようになります。 X i n {\displaystyle X_{i}^{n}} i {\displaystyle i} i {\displaystyle i} 1 {\displaystyle 1} M {\displaystyle M} X 1 n {\displaystyle X_{1}^{n}} y 1 n {\displaystyle y_{1}^{n}} X 2 n {\displaystyle X_{2}^{n}}

P e r r o r   1 2 = x 2 n Q ( x 2 n ) 1 ( p ( y 1 n x 2 n ) > p ( y 1 n x 1 n ) ) . {\displaystyle P_{\mathrm {error} \ 1\to 2}=\sum _{x_{2}^{n}}Q(x_{2}^{n})1(p(y_{1}^{n}\mid x_{2}^{n})>p(y_{1}^{n}\mid x_{1}^{n})).}

関数には上限がある 1 ( p ( y 1 n x 2 n ) > p ( y 1 n x 1 n ) ) {\displaystyle 1(p(y_{1}^{n}\mid x_{2}^{n})>p(y_{1}^{n}\mid x_{1}^{n}))}

( p ( y 1 n x 2 n ) p ( y 1 n x 1 n ) ) s {\displaystyle \left({\frac {p(y_{1}^{n}\mid x_{2}^{n})}{p(y_{1}^{n}\mid x_{1}^{n})}}\right)^{s}}

したがって s > 0 {\displaystyle s>0\;}

P e r r o r   1 2 x 2 n Q ( x 2 n ) ( p ( y 1 n x 2 n ) p ( y 1 n x 1 n ) ) s . {\displaystyle P_{\mathrm {error} \ 1\to 2}\leq \sum _{x_{2}^{n}}Q(x_{2}^{n})\left({\frac {p(y_{1}^{n}\mid x_{2}^{n})}{p(y_{1}^{n}\mid x_{1}^{n})}}\right)^{s}.}

合計M個のメッセージがあり、コードブックのエントリは独立同値であるため、他のメッセージと混同される確率は上記の式の積となります。和集合の境界を用いると、任意のメッセージと混同される確率は次のように制限されます。 X 1 n {\displaystyle X_{1}^{n}} M {\displaystyle M} X 1 n {\displaystyle X_{1}^{n}}

P e r r o r   1 a n y M ρ ( x 2 n Q ( x 2 n ) ( p ( y 1 n x 2 n ) p ( y 1 n x 1 n ) ) s ) ρ {\displaystyle P_{\mathrm {error} \ 1\to \mathrm {any} }\leq M^{\rho }\left(\sum _{x_{2}^{n}}Q(x_{2}^{n})\left({\frac {p(y_{1}^{n}\mid x_{2}^{n})}{p(y_{1}^{n}\mid x_{1}^{n})}}\right)^{s}\right)^{\rho }}

任意の について。 のすべての組み合わせを平均すると 0 < ρ < 1 {\displaystyle 0<\rho <1} x 1 n , y 1 n {\displaystyle x_{1}^{n},y_{1}^{n}}

P e r r o r   1 a n y M ρ y 1 n ( x 1 n Q ( x 1 n ) [ p ( y 1 n x 1 n ) ] 1 s ρ ) ( x 2 n Q ( x 2 n ) [ p ( y 1 n x 2 n ) ] s ) ρ . {\displaystyle P_{\mathrm {error} \ 1\to \mathrm {any} }\leq M^{\rho }\sum _{y_{1}^{n}}\left(\sum _{x_{1}^{n}}Q(x_{1}^{n})[p(y_{1}^{n}\mid x_{1}^{n})]^{1-s\rho }\right)\left(\sum _{x_{2}^{n}}Q(x_{2}^{n})[p(y_{1}^{n}\mid x_{2}^{n})]^{s}\right)^{\rho }.}

上記の式で 2 つの合計を選択して組み合わせます。 s = 1 s ρ {\displaystyle s=1-s\rho } x 1 n {\displaystyle x_{1}^{n}}

P e r r o r   1 a n y M ρ y 1 n ( x 1 n Q ( x 1 n ) [ p ( y 1 n x 1 n ) ] 1 1 + ρ ) 1 + ρ . {\displaystyle P_{\mathrm {error} \ 1\to \mathrm {any} }\leq M^{\rho }\sum _{y_{1}^{n}}\left(\sum _{x_{1}^{n}}Q(x_{1}^{n})[p(y_{1}^{n}\mid x_{1}^{n})]^{\frac {1}{1+\rho }}\right)^{1+\rho }.}

コードワードの要素の独立性とチャネルの離散的メモリレス性質を利用すると、次のようになります。

P e r r o r   1 a n y M ρ i = 1 n y i ( x i Q i ( x i ) [ p i ( y i x i ) ] 1 1 + ρ ) 1 + ρ {\displaystyle P_{\mathrm {error} \ 1\to \mathrm {any} }\leq M^{\rho }\prod _{i=1}^{n}\sum _{y_{i}}\left(\sum _{x_{i}}Q_{i}(x_{i})[p_{i}(y_{i}\mid x_{i})]^{\frac {1}{1+\rho }}\right)^{1+\rho }}

コードワードの各要素が同一に分布し、したがって定常であるという事実を利用すると、

P e r r o r   1 a n y M ρ ( y ( x Q ( x ) [ p ( y x ) ] 1 1 + ρ ) 1 + ρ ) n . {\displaystyle P_{\mathrm {error} \ 1\to \mathrm {any} }\leq M^{\rho }\left(\sum _{y}\left(\sum _{x}Q(x)[p(y\mid x)]^{\frac {1}{1+\rho }}\right)^{1+\rho }\right)^{n}.}

Mを2nR置き換えて定義すると

E o ( ρ , Q ) = ln ( y ( x Q ( x ) [ p ( y x ) ] 1 / ( 1 + ρ ) ) 1 + ρ ) , {\displaystyle E_{o}(\rho ,Q)=-\ln \left(\sum _{y}\left(\sum _{x}Q(x)[p(y\mid x)]^{1/(1+\rho )}\right)^{1+\rho }\right),}

エラーの確率は

P e r r o r exp ( n ( E o ( ρ , Q ) ρ R ) ) . {\displaystyle P_{\mathrm {error} }\leq \exp(-n(E_{o}(\rho ,Q)-\rho R)).}

Q境界が最小となるように選択する必要がある。したがって、誤差指数は次のように定義できる。 ρ {\displaystyle \rho }

E r ( R ) = max Q max ρ [ 0 , 1 ] E o ( ρ , Q ) ρ R . {\displaystyle E_{r}(R)=\max _{Q}\max _{\rho \in [0,1]}E_{o}(\rho ,Q)-\rho R.\;}

ソースコーディングにおける誤差指数

時間不変離散記憶なし情報源の場合

情報源符号化定理は、 およびなどの任意の離散時間 iid 情報源について、情報源のエントロピー未満の任意のレートに対して、十分に大きい および が存在し、情報源の iid 繰り返し を受け取り、それをバイナリ ビットにマッピングして、少なくとも の確率でバイナリ ビットから情報源シンボルを復元できるエンコーダが存在することを述べています ε > 0 {\displaystyle \varepsilon >0} X {\displaystyle X} n {\displaystyle n} n {\displaystyle n} X 1 : n {\displaystyle X^{1:n}} n . ( H ( X ) + ε ) {\displaystyle n.(H(X)+\varepsilon )} X 1 : n {\displaystyle X^{1:n}} 1 ε {\displaystyle 1-\varepsilon }

可能性のあるメッセージの総数を とします。次に、可能性のあるソース出力シーケンスのそれぞれを、一様分布を使用して、他のすべてとは独立してランダムにメッセージの 1 つにマッピングします。ソースが生成されると、対応するメッセージ宛先に送信されます。メッセージは、可能性のあるソース文字列の 1 つにデコードされます。エラーの確率を最小化するために、デコーダーは を最大化するソースシーケンスにデコードします。ここで、はメッセージが送信されたイベントを表します。このルールは、 を最大化するメッセージにマッピングされるソースシーケンスの集合の中からソースシーケンスを見つけることと同じです。この削減は、メッセージが他のすべてとは独立してランダムに割り当てられたという事実から生じます。 M = e n R {\displaystyle M=e^{nR}\,\!} M = m {\displaystyle M=m\,} X 1 n {\displaystyle X_{1}^{n}} P ( X 1 n A m ) {\displaystyle P(X_{1}^{n}\mid A_{m})} A m {\displaystyle A_{m}\,} m {\displaystyle m} X 1 n {\displaystyle X_{1}^{n}} m {\displaystyle m} P ( X 1 n ) {\displaystyle P(X_{1}^{n})}

したがって、エラーが発生する例として、ソースシーケンスがメッセージにマッピングされ、ソースシーケンスもマッピングされていたと仮定しますソースで が生成された場合、エラーが発生します。 X 1 n ( 1 ) {\displaystyle X_{1}^{n}(1)} 1 {\displaystyle 1} X 1 n ( 2 ) {\displaystyle X_{1}^{n}(2)} X 1 n ( 1 ) {\displaystyle X_{1}^{n}(1)\,} P ( X 1 n ( 2 ) ) > P ( X 1 n ( 1 ) ) {\displaystyle P(X_{1}^{n}(2))>P(X_{1}^{n}(1))}

がソースシーケンスがソースで生成されたイベントを表すとすると、エラーの確率は次のように分解できます。したがって、 の上限を見つけることに注意を集中できます S i {\displaystyle S_{i}\,} X 1 n ( i ) {\displaystyle X_{1}^{n}(i)} P ( S i ) = P ( X 1 n ( i ) ) . {\displaystyle P(S_{i})=P(X_{1}^{n}(i))\,.} P ( E ) = i P ( E S i ) P ( S i ) . {\displaystyle P(E)=\sum _{i}P(E\mid S_{i})P(S_{i})\,.} P ( E S i ) {\displaystyle P(E\mid S_{i})\,}

をソースシーケンスがソースシーケンスと同じメッセージにマッピングされたイベントとするとしますしたがって、を2つのソースシーケンスとが同じメッセージにマッピングされ たイベントとすると、 A i {\displaystyle A_{i'}\,} X 1 n ( i ) {\displaystyle X_{1}^{n}(i')} X 1 n ( i ) {\displaystyle X_{1}^{n}(i)} P ( X 1 n ( i ) ) P ( X 1 n ( i ) ) {\displaystyle P(X_{1}^{n}(i'))\geq P(X_{1}^{n}(i))} X i , i {\displaystyle X_{i,i'}\,} i {\displaystyle i\,} i {\displaystyle i'\,}

P ( A i ) = P ( X i , i P ( X 1 n ( i ) ) P ( X 1 n ( i ) ) ) {\displaystyle P(A_{i'})=P\left(X_{i,i'}\bigcap P(X_{1}^{n}(i')\right)\geq P(X_{1}^{n}(i)))\,}

そして、とが他のすべてから独立している という事実を利用して、 P ( X i , i ) = 1 M {\displaystyle P(X_{i,i'})={\frac {1}{M}}\,}

P ( A i ) = 1 M P ( P ( X 1 n ( i ) ) P ( X 1 n ( i ) ) ) . {\displaystyle P(A_{i'})={\frac {1}{M}}P(P(X_{1}^{n}(i'))\geq P(X_{1}^{n}(i)))\,.}

左辺の項の単純な上限は次のように定めることができる。

[ P ( P ( X 1 n ( i ) ) P ( X 1 n ( i ) ) ) ] ( P ( X 1 n ( i ) ) P ( X 1 n ( i ) ) ) s {\displaystyle \left[P(P(X_{1}^{n}(i'))\geq P(X_{1}^{n}(i)))\right]\leq \left({\frac {P(X_{1}^{n}(i'))}{P(X_{1}^{n}(i))}}\right)^{s}\,}

任意の実数に対してこの上限は、与えられた入力シーケンスの確率が完全に決定論的であるため、またはが等しいことに注意することで検証できます。したがって、 ならば となり、その場合不等式が成立します。他の場合も不等式が成立します。 s > 0 . {\displaystyle s>0\,.} P ( P ( X 1 n ( i ) ) > P ( X 1 n ( i ) ) ) {\displaystyle P(P(X_{1}^{n}(i'))>P(X_{1}^{n}(i)))\,} 1 {\displaystyle 1\,} 0 {\displaystyle 0\,} P ( X 1 n ( i ) ) P ( X 1 n ( i ) ) , {\displaystyle P(X_{1}^{n}(i'))\geq P(X_{1}^{n}(i))\,,} P ( X 1 n ( i ) ) P ( X 1 n ( i ) ) 1 {\displaystyle {\frac {P(X_{1}^{n}(i'))}{P(X_{1}^{n}(i))}}\geq 1\,}

( P ( X 1 n ( i ) ) P ( X 1 n ( i ) ) ) s 0 {\displaystyle \left({\frac {P(X_{1}^{n}(i'))}{P(X_{1}^{n}(i))}}\right)^{s}\geq 0\,}

すべての可能なソース文字列に対して。したがって、すべてを組み合わせていくつかのを導入すると ρ [ 0 , 1 ] {\displaystyle \rho \in [0,1]\,}

P ( E S i ) P ( i i A i ) ( i i P ( A i ) ) ρ ( 1 M i i ( P ( X 1 n ( i ) ) P ( X 1 n ( i ) ) ) s ) ρ . {\displaystyle P(E\mid S_{i})\leq P(\bigcup _{i\neq i'}A_{i'})\leq \left(\sum _{i\neq i'}P(A_{i'})\right)^{\rho }\leq \left({\frac {1}{M}}\sum _{i\neq i'}\left({\frac {P(X_{1}^{n}(i'))}{P(X_{1}^{n}(i))}}\right)^{s}\right)^{\rho }\,.}

ここで、不等式はUnion Boundの変形から導かれます。最後に、この上限を の和に適用すると、次のようになります。 P ( E ) {\displaystyle P(E)\,}

P ( E ) = i P ( E S i ) P ( S i ) i P ( X 1 n ( i ) ) ( 1 M i ( P ( X 1 n ( i ) ) P ( X 1 n ( i ) ) ) s ) ρ . {\displaystyle P(E)=\sum _{i}P(E\mid S_{i})P(S_{i})\leq \sum _{i}P(X_{1}^{n}(i))\left({\frac {1}{M}}\sum _{i'}\left({\frac {P(X_{1}^{n}(i'))}{P(X_{1}^{n}(i))}}\right)^{s}\right)^{\rho }\,.}

合計を全てに適用できるようになったのは、それが境界を増やすだけだからです。最終的に、 i {\displaystyle i'\,}

P ( E ) 1 M ρ i P ( X 1 n ( i ) ) 1 s ρ ( i P ( X 1 n ( i ) ) s ) ρ . {\displaystyle P(E)\leq {\frac {1}{M^{\rho }}}\sum _{i}P(X_{1}^{n}(i))^{1-s\rho }\left(\sum _{i'}P(X_{1}^{n}(i'))^{s}\right)^{\rho }\,.}

ここで、簡単にするために、 とします。この新しい値を上記のエラーの確率の境界に代入し、 が合計内のダミー変数にすぎないという事実を使用すると、エラーの確率の上限として次の式が得られます。 1 s ρ = s {\displaystyle 1-s\rho =s\,} s = 1 1 + ρ . {\displaystyle s={\frac {1}{1+\rho }}\,.} s {\displaystyle s\,} i {\displaystyle i'\,}

P ( E ) 1 M ρ ( i P ( X 1 n ( i ) ) 1 1 + ρ ) 1 + ρ . {\displaystyle P(E)\leq {\frac {1}{M^{\rho }}}\left(\sum _{i}P(X_{1}^{n}(i))^{\frac {1}{1+\rho }}\right)^{1+\rho }\,.}
M = e n R {\displaystyle M=e^{nR}\,\!} の各成分は独立である。したがって、上記の式を簡略化すると、 X 1 n ( i ) {\displaystyle X_{1}^{n}(i)\,}
P ( E ) exp ( n [ ρ R ln ( x i P ( x i ) 1 1 + ρ ) ( 1 + ρ ) ] ) . {\displaystyle P(E)\leq \exp \left(-n\left[\rho R-\ln \left(\sum _{x_{i}}P(x_{i})^{\frac {1}{1+\rho }}\right)(1+\rho )\right]\right).}

エラーの確率の上限を最大限にするには、 指数の項を最大化する必要があります。 ρ {\displaystyle \rho \,}

ソースコーディングの場合のエラー指数は次のよう になります。 E 0 ( ρ ) = ln ( x i P ( x i ) 1 1 + ρ ) ( 1 + ρ ) , {\displaystyle E_{0}(\rho )=\ln \left(\sum _{x_{i}}P(x_{i})^{\frac {1}{1+\rho }}\right)(1+\rho )\,,}

E r ( R ) = max ρ [ 0 , 1 ] [ ρ R E 0 ( ρ ) ] . {\displaystyle E_{r}(R)=\max _{\rho \in [0,1]}\left[\rho R-E_{0}(\rho )\right].\,}

参照

参考文献

R.ギャラガー『情報理論と信頼性の高い通信』、ワイリー、1968年

Retrieved from "https://en.wikipedia.org/w/index.php?title=Error_exponent&oldid=1306849553"