| シリーズの一部 |
| 機械学習とデータマイニング |
|---|
ヒューマン・イン・ザ・ループ(HITL)は様々な文脈で用いられています。これは、人間の介入を必要とするモデルとして定義できます。[ 1 ] [ 2 ] HITLは、ライブ、バーチャル、コンストラクティブの分類におけるモデリングとシミュレーション(M&S)と関連付けられています。HITLは、関連するヒューマン・オン・ザ・ループと共に、自律型致死兵器にも関連して用いられています。[ 3 ]さらに、HITLは機械学習の文脈でも用いられています。[ 4 ]
機械学習において、HITLは、モデル構築においてコンピュータが正しい判断を下せるよう人間が支援するという意味で使用されます。[ 4 ] HITLは、モデルを改良するために必要な最も重要なデータを選択することで、ランダムサンプリングよりも機械学習を改善します。[ 5 ]
シミュレーションにおいて、HITLモデルはモックアップの場合と同様に、ヒューマンファクター要件に準拠する場合があります。この種のシミュレーションでは、人間は常にシミュレーションの一部であり、その結果、正確に再現することが困難、あるいは不可能なほど結果に影響を与えます。また、HITLは、他のシミュレーション手段では容易に特定できない問題や要件を容易に特定することを可能にします。
HITL はインタラクティブ シミュレーションと呼ばれることが多く、飛行シミュレータや運転シミュレータなど、物理シミュレーションに人間のオペレーターが含まれる特殊な種類の物理シミュレーションです。
ヒューマン・イン・ザ・ループにより、ユーザーはイベントやプロセスの結果を変えることができます。この没入感は、習得したスキルを現実世界へ効果的に移行させるのに役立ちます。これは、パイロットを目指す訓練生がフライトシミュレーターを利用することで実証できます。
HITLは、新しいプロセスが特定のイベントにどのような影響を与えるかに関する知識の獲得も可能にします。HITLを利用することで、参加者は現実的なモデルを操作し、実際のシナリオと同じように行動を試みることができます。HITLシミュレーションは、新しいプロセスが導入されるまで明らかにならなかった問題を表面化させます。評価ツールとしてのHITLシミュレーションの実際の例としては、連邦航空局(FAA)による使用が挙げられます。航空管制官は、新しく導入された手順の効果を監視しながら、シミュレートされた航空交通の活動を指示することで、新しい自動化手順をテストすることができます。[ 6 ]
ほとんどのプロセスと同様に、ヒューマンエラーが発生する可能性は常に存在しますが、これはHITLシミュレーションを使用することでのみ再現できます。システムを自動化するためにできることはたくさんありますが、通常、人間はシステムによって提供される情報を利用して、自分の判断と経験に基づいて次の行動方針を決定する必要があります。インテリジェントシステムは、特定の状況下ではプロセスを自動化するために限界があります。シミュレーションに参加する人間だけが、最終的な設計を正確に判断できます。テーブルトップシミュレーションは、プロジェクト開発のごく初期段階でデータを収集して広範なパラメータを設定するのに役立つ場合がありますが、重要な決定には人間が関与するシミュレーションが必要です。[ 7 ] HITLは、自動化が進歩したにもかかわらず人間の入力が不可欠なシナリオを反映しています。
仮想シミュレーションは、運動制御スキル(飛行機の操縦など)、意思決定スキル(射撃管制リソースの行動への投入など)、またはコミュニケーションスキル( C4Iチームのメンバーとしてなど)を訓練することにより、HITL を中心的な役割に組み込みます。
人間参加型シミュレーションには、人工環境という形でのコンピュータシミュレーションが含まれる場合もありますが、コンピュータシミュレーションは必ずしも人間参加型シミュレーションの一形態ではなく、人間参加型シミュレーションとみなされることが多いです。この特定のケースでは、コンピュータモデルの挙動は、一連の初期パラメータに応じて変更されます。モデルの結果は、真の人間参加型シミュレーションから得られる結果とは異なります。これは、同一のパラメータを与えるだけで、結果が何度でも容易に再現できるためです。
ボニー・ドハティは2012年のヒューマン・ライツ・ウォッチの報告書の中で、自律型兵器システムに対する人間の制御の程度を3つの分類で示した。[ 3 ]