2つの確率値のみを持つプロセスのエントロピー
バイナリ結果確率の関数としてのベルヌーイ試行のエントロピー(シャノン単位)。バイナリ エントロピー関数と呼ばれます。
情報理論では、バイナリ エントロピー関数(または と表記) は、2 つの値のいずれかの確率を持つベルヌーイ過程( iidバイナリ変数)のエントロピーとして定義され、次の式で表されます。



対数の底は、情報単位の選択に対応します。底e (自然対数) はNATSに対応し、数学的に便利ですが、底 2 (二進対数) はSHANFONSに対応し、慣習的です (グラフに示すように)。具体的には、次のようになります。

0 と 1 の値は限界によって与えられます(ロピタルの法則による)。また、「バイナリ」は情報の単位ではなく、変数の 2 つの可能な値を指すことに注意してください。

のとき、バイナリエントロピー関数は最大値の1シャノン(1バイナリ情報単位)に達します。これは、偏りのないコイン投げの場合です。またはのとき、バイナリエントロピーは(単位に関わらず)0となり、変数に不確実性が存在しないため、情報がない状態になります。



表記
二元エントロピーはの特殊なケースであり、エントロピー関数 はである。これは、前者が単一の実数をパラメータとして取るのに対し、後者は分布または確率変数をパラメータとして取るという点で、一般的なエントロピー関数とは区別される。したがって、( pの)二元エントロピーは特定の分布 のエントロピーであるため、 となる。





2つの値がそれぞれpとqである確率を書き表すと、これは次の式に対応する
。


二元エントロピー関数は と表記されることもあります。しかし、これはとも表記されるレーニイエントロピーとは異なり、混同しないように注意してください。


説明
情報理論では、エントロピーはメッセージ内の不確実性の尺度であると考えられています。直感的に言うと、 と仮定します。この確率では、イベントは決して発生しないことが確実であるため、不確実性はまったくなく、エントロピーは 0 になります。 の場合、結果は再び確実であるため、ここでもエントロピーは 0 です。 のとき、不確実性は最大になります。この場合の結果に公平に賭けるとすれば、確率を事前に知っていても有利になることはありません。この場合、エントロピーは 1 ビットの値で最大になります。中間の値はこれらのケースの間にあります。たとえば の場合、結果に関する不確実性の尺度は依然として存在しますが、それでも結果を正しく予測できる頻度は高いため、不確実性の尺度、つまりエントロピーは 1 ビット未満になります。




プロパティ
デリバティブ
バイナリエントロピー関数の導関数は、ロジット関数の負として表すことができます。
。

ここで、a は対数の底を表します。
凸共役
二元エントロピー(底e )の凸共役(具体的には、ルジャンドル変換)は、負のソフトプラス関数です。これは、ルジャンドル変換の定義(導関数は逆関数)に従い、負の二元エントロピーの導関数がロジットであり、その逆関数がロジット関数であり、これがソフトプラスの導関数であるためです。
ソフトプラスはロジスティック損失として解釈できるため、双対性により、ロジスティック損失の最小化はエントロピーの最大化に対応する。これは、損失最小化としての
エントロピー最大化原理を正当化する。
テイラー級数
1/2における2元エントロピー関数の
テイラー級数は

これは、すべての値に対して2進エントロピー関数に収束します。

境界
に対して以下の境界が成り立つ:[1]

そして

ここで、は自然対数を表します。

参照
参考文献
- ^ Topsøe, Flemming (2001). 「2要素集合上の分布のエントロピーとダイバージェンスの境界」. JIPAM. Journal of Inequalities in Pure & Applied Mathematics . 2 (2): Paper No. 25, 13 p.-Paper No. 25, 13 p.
さらに読む