階層型隠れマルコフモデル

多層的で直接観測できない「確率エンジン」

階層型隠れマルコフモデルLHMM)は、隠れマルコフモデル(HMM)から派生した統計モデルです。階層型隠れマルコフモデルはN層のHMMで構成され、レベルi + 1のHMMはレベルi の観測シンボルまたは確率生成器に対応します。LHMMの各レベルiは、並列に実行されるK i 個のHMMで構成されます[1]

背景

LHMMは学習と汎化を促進するため、特定の構造において有用となる場合があります。例えば、十分な学習データがあれば全結合HMMを常に使用できますが、任意の状態遷移を許さないことでモデルを制約することが有用な場合がよくあります。同様に、HMMを階層構造に組み込むことも有益です。理論的には、基本的なHMMでは解決できない問題を全て解決できるとは限りませんが、必要な学習データが少なくなるため、一部の問題をより効率的に解決できます。

階層型隠れマルコフモデル

階層型隠れマルコフモデル(LHMM)は、HMMの階層構造で構成されます。階層構造の各HMMは、観測シンボルまたは確率生成器に対応します。LHMM各階層は、並列に実行されるHMMで構成されています。 {\displaystyle N} + 1 {\displaystyle N+1} {\displaystyle N} {\displaystyle i} K {\displaystyle K_{i}}

階層型隠れマルコフモデル

LHMMのどのレベルでも、観測シンボル のシーケンスを使用して入力をクラスに分類できます。各クラスは、レベル の各 HMMに対応します。この分類を使用して、レベルHMM の新しい観測を生成できます。最下位層、つまりレベル では、基本的な観測シンボルは、モデル化されたプロセスの観測から直接生成されます。たとえば、軌跡追跡タスクでは、基本的な観測シンボルは量子化されたセンサー値に由来します。したがって、LHMMの各層では、観測シンボルが観測対象プロセスの測定値に由来する最下位層を除き、その下の層の分類に由来する観測が行われます。 L {\displaystyle L} T L {\displaystyle T_{L}} o L { o 1 o 2 o T L } {\displaystyle \mathbf {o} _{L}=\{o_{1},o_{2},\dots ,o_{T_{L}}\}} K L {\displaystyle K_{L}} K L {\displaystyle K_{L}} L {\displaystyle L} L 1 {\displaystyle L-1} {\displaystyle N} o p { o 1 o 2 o T p } {\displaystyle \mathbf {o} _{p}=\{o_{1},o_{2},\dots ,o_{T_{p}}\}}

すべてのレベルを同じ粒度で実行する必要はありません。例えば、構造内の任意のレベルでウィンドウ処理を適用することで、LHMMの上位層に結果を渡す前に、複数の分類結果の平均を考慮に入れることができます。[2]

レベルで勝者となったHMMを、単にレベル のHMMの入力シンボルとして使用するのではなく、完全な確率分布をLHMMの層に渡すことで、それを確率生成器として使用することができます。したがって、最も確率の高いHMMが観測シンボルとして選択される「勝者総取り」戦略ではなく、レベル番目のHMMを観測する尤度をレベルHMMの再帰式で使用することで、レベル におけるHMMの分類の不確実性を考慮することができます。したがって、レベル におけるHMMの分類が不確実である場合、レベル のHMMにエンコードされた事前情報により注意を払うことができます L + 1 {\displaystyle L+1} L {\displaystyle L} L {\displaystyle L(i)} {\displaystyle i} L {\displaystyle L} L + 1 {\displaystyle L+1} n + 1 {\displaystyle n+1} L {\displaystyle L}

LHMMは実際には、異なるモデルがすべて連結された単層のHMMに変換できます。[3]大規模な単層HMMよりもLHMMを使用する利点として、個々のサブコンポーネントが少量のデータで独立してトレーニングされるため、LHMMが過学習の影響を受けにくいことが挙げられます。その結果、LHMMがHMMに匹敵するパフォーマンスを達成するために必要なトレーニングデータ量が大幅に少なくなります。もう1つの利点は、センサーの種類、サンプリングレートなど、環境の変化に敏感なLHMMの最下層の層を、LHMMの上位層を変更することなく個別に再トレーニングできることです。

参照

参考文献

  1. ^ N. Oliver、A. Garg、E. Horvitz、「複数の感覚チャネルからオフィス活動を学習および推論するための階層化表現」、Computer Vision and Image Understanding、vol. 96、p. 163–180、2004年。
  2. ^ D. AarnoとD. Kragic「動作意図認識のための階層化HMMの評価」、IEEE国際先端ロボティクス会議、2007年
  3. ^ D. Aarno および D. Kragic:「動作意図認識のための階層化 HMM」、IEEE/RSJ 国際インテリジェントロボットおよびシステム会議、2006 年。
「https://en.wikipedia.org/w/index.php?title=Layered_hidden_​​Markov_model&oldid=1307761732」から取得