量子ニューラルネットワーク

ニューラルネットワークにおける量子力学
フィードフォワードニューラルネットワークのシンプルなモデル。ディープラーニングネットワークの場合は、隠れ層の数を増やします。

量子ニューラルネットワークは、量子力学の原理に基づいた計算ニューラルネットワークモデルです。量子ニューラル計算に関する最初のアイデアは、1995年にSubhash KakとRon Chrisleyによって独立に発表されました。[1] [2]量子効果が認知機能に影響を与えるという量子心の理論に取り組んでいました。しかし、量子ニューラルネットワークの典型的な研究では、古典的な人工ニューラルネットワークモデル(パターン認識の重要なタスクのために機械学習で広く使用されています)と量子情報の利点を組み合わせて、より効率的なアルゴリズムを開発しています。[3] [4] [5]これらの調査の重要な動機の1つは、特にビッグデータアプリケーションでは古典的なニューラルネットワークをトレーニングするのが難しいことです量子並列性や干渉エンタングルメントの効果など量子コンピューティングの機能がリソースとして使用できることが期待されています。量子コンピュータの技術的実装はまだ初期段階であるため、このような量子ニューラルネットワークモデルは、物理実験での完全な実装を待つ理論的な提案がほとんどです。

ほとんどの量子ニューラルネットワークは、フィードフォワードネットワークとして開発されています。従来のネットワークと同様に、この構造は、ある量子ビット層から入力を受け取り、その入力を別の量子ビット層に渡します。この量子ビット層はこの情報を評価し、出力を次の層に渡します。最終的に、この経路は最後の量子ビット層につながります。[6] [7]各層は同じ幅である必要はありません。つまり、前後の層と同じ数の量子ビットを持つ必要はありません。この構造は、従来の人工ニューラルネットワークと同様に、どの経路を取るかについてトレーニングされます。これについては、下のセクションで説明します。量子ニューラルネットワークは、3つの異なるカテゴリを指します。古典データを使用する量子コンピュータ、量子データを使用する古典コンピュータ、量子データを使用する量子コンピュータです。[6]

量子ニューラルネットワークの研究はまだ初期段階にあり、様々な範囲と数学的厳密さを持つ様々な提案やアイデアが提示されています。それらのほとんどは、古典的なバイナリニューロンまたはマカロック・ピッツニューロンを量子ビット(「クォーン」とも呼ばれます)に置き換えるというアイデアに基づいており、その結果、「発火」状態と「休止」状態の 重ね合わせ状態をとることができるニューラルユニットが得られます。

量子パーセプトロン

ニューラルネットを構成するパーセプトロンユニットの量子相当物を見つけようとする提案は数多くある。問題は、量子進化は線形演算で記述され、確率的観測につながるため、非線形活性化関数は量子理論の数学的構造に直ちに対応しないということである。量子力学的形式でパーセプトロン活性化関数を模倣するアイデアは、特殊な測定[8] [9]から非線形量子演算子の仮定(議論のある数学的枠組み)にまで及ぶ。[10] [11]量子計算の回路ベースモデルを用いた活性化関数の直接実装は、最近、量子位相推定アルゴリズムに基づき、Schuld、Sinayskiy、Petruccioneによって提案された[12]

量子ネットワーク

より大規模なスケールでは、研究者たちはニューラルネットワークを量子環境に一般化しようと試みてきました。量子ニューロンを構築する一つの方法は、まず古典ニューロンを一般化し、さらに一般化してユニタリーゲートを作ることです。ニューロン間の相互作用は、ユニタリー ゲートを用いて量子的に制御することも、ネットワークの状態を測定することで古典的に制御することもできます。この高度な理論的手法は、光子実装ニューロン[7] [13]や量子リザーバプロセッサ(リザーバコンピューティングの量子版[14 ] など)といった、異なる種類のネットワークや異なる量子ニューロンの実装を採用することで、幅広く応用できます。ほとんどの学習アルゴリズムは、人工ニューラルネットワークを訓練して与えられた訓練セットの入出力関数を学習させ、古典的なフィードバックループを用いて量子システムのパラメータを最適な構成に収束するまで更新するという古典的なモデルに従っています。パラメータ最適化問題としての学習は、量子コンピューティングの断熱モデルによってもアプローチされてきました。[15]

量子ニューラルネットワークはアルゴリズム設計に応用できる。調整可能な相互作用を持つ量子ビットが与えられれば、望ましい出力アルゴリズムの動作としてとらえられた望ましい入出力関係のトレーニングセットから、古典的なバックプロパゲーションルールに従って相互作用を学習しようとすることができる。 [16] [17]このように量子ネットワークはアルゴリズムを「学習」する。

量子連想記憶

最初の量子連想記憶アルゴリズムは、1999年にダン・ベンチュラとトニー・マルティネスによって導入されました[18]。著者らは人工ニューラルネットワークモデルの構造を量子理論に翻訳しようとはせず、連想記憶をシミュレートする回路ベースの量子コンピュータのアルゴリズムを提案しています。ホップフィールドニューラルネットワークでは、ニューラル接続の重みに保存される記憶状態は重ね合わせに書き込まれ、グローバー型の量子探索アルゴリズムによって、与えられた入力に最も近い記憶状態が検索されます。したがって、これは不完全なパターンしか検索できないため、完全な内容参照可能なメモリではありません。

破損した入力からでもパターンを取得できる最初の真のコンテンツアドレス可能量子メモリは、Carlo A. Trugenbergerによって提案されました。[19] [20] [21]両方のメモリは指数関数的(n量子ビットで)数のパターンを保存できますが、複製禁止定理と測定時の破壊により一度しか使用できません。

しかし、トゥルーゲンバーガー[20]は、量子連想記憶の確率モデルが効率的に実装され、任意の多項式数の記憶パターンに対して複数回再利用できることを示しており、これは古典的な連想記憶に比べて大きな利点である。

量子論に触発された古典的なニューラルネットワーク

量子論のアイデアを利用してファジー論理に基づくニューラルネットワークを実装する「量子に着想を得た」モデルには、かなりの関心が寄せられています[22]

トレーニング

量子ニューラル ネットワークは、理論的には古典的/人工ニューラル ネットワークと同様にトレーニングできます。重要な違いは、ニューラル ネットワークの層間の通信にあります。古典的ニューラル ネットワークでは、特定の操作の終了時に、現在のパーセプトロンがその出力をネットワーク内の次の層のパーセプトロンにコピーします。しかし、各パーセプトロンが量子ビットである量子ニューラル ネットワークでは、これは複製不可定理に違反します。[6] [23]これに対する一般化された解決策として、古典的なファンアウト法を、1 つの量子ビットの出力を次の層の量子ビットに拡散させるがコピーはしない任意のユニタリで置き換えることが提案されています。このファンアウト ユニタリ () を、補助ビットとも呼ばれる既知の状態 (計算基底内など)のダミー状態量子ビットと共に使用することで、量子ビットからの情報を次の層の量子ビットに転送できます。[7]このプロセスは量子操作の可逆性の要件を満たしている[7] [24] あなた f {\displaystyle U_{f}} | 0 {\displaystyle |0\rangle }

この量子フィードフォワードネットワークを用いることで、ディープニューラルネットワークを効率的に実行・学習することが可能になります。ディープニューラルネットワークとは、本質的には、上記のニューラルネットワークのサンプルモデルに見られるように、多くの隠れ層を持つネットワークです。ここで論じる量子ニューラルネットワークはファンアウトユニタリ演算子を用いており、各演算子はそれぞれの入力にのみ作用するため、特定の時点では2つの層のみが用いられます。[6]つまり、特定の時点でネットワーク全体に作用するユニタリ演算子は存在せず、特定のステップに必要な量子ビット数は、特定の層における入力数に依存します。量子コンピュータは短時間で複数の反復処理を実行できることで知られているため、量子ニューラルネットワークの効率は、ネットワークの深さではなく、特定の層における量子ビット数にのみ依存します。[24]

コスト関数

ニューラルネットワークの有効性を判断するために、コスト関数が使用されます。これは基本的に、ネットワークの出力が期待される出力または望ましい出力にどれだけ近いかを測定します。古典ニューラルネットワークでは、各ステップの重み()とバイアス()によってコスト関数の出力が決まります[6]古典ニューラルネットワークをトレーニングする場合、重みとバイアスは各反復後に調整され、以下の式1(は 望ましい出力、 は実際の出力)を考えると、 = 0 のときにコスト関数が最適化されます。量子ニューラルネットワークの場合、コスト関数は、以下の式2に示すように、結果状態()と望ましい結果状態()の忠実度を測定することによって決定されます。この場合、ユニタリ演算子は各反復後に調整され、コスト関数はC = 1 のときに最適化されます。[6] {\displaystyle w} b {\displaystyle b} C b {\displaystyle C(w,b)} y × {\displaystyle y(x)} 1つの × {\displaystyle a^{\text{out}}(x)} C b {\displaystyle C(w,b)} ρ {\displaystyle \rho ^{\text{out}}} ϕ {\displaystyle \phi ^{\text{out}}}

式1
  
    
      
        C
        
        
        
        b
        
        
        
          
            1
            
          
        
        
          
          
            ×
          
        
        
          
            
              
                |
              
              
                |
              
              y
              
              ×
              
              
              
                1つの
                
                  
                
              
              
              ×
              
              
                |
              
              
                |
              
            
            2
          
        
      
    
    {\displaystyle C(w,b)={1 \over N}\sum _{x}{||y(x)-a^{\text{out}}(x)|| \over 2}}
  

式2
  
    
      
        C
        
        
          
            1
            
          
        
        
          
          
            ×
          
          
            
          
        
        
          
          
            ϕ
            
              
            
          
          
            |
          
          
            ρ
            
              
            
          
          
            |
          
          
            ϕ
            
              
            
          
          
        
      
    
    {\displaystyle C={1 \over N}\sum _{x}^{N}{\langle \phi ^{\text{out}}|\rho ^{\text{out}}|\phi ^{\text{out}}\rangle }}
  

不毛の高原

VQAが拡大するにつれて、不毛高原問題はますます深刻化している。
VQAの不毛な高原[25]図は、VQAが拡大するにつれて不毛な高原問題がますます深刻になることを示しています。

勾配降下法は古典的なアルゴリズムにおいて広く用いられ、成功を収めています。しかし、簡略化された構造はCNNなどのニューラルネットワークと非常に似ているものの、QNNのパフォーマンスははるかに劣ります。

量子空間はqビットが大きくなるにつれて指数関数的に拡大するため、観測値は平均値の周りに指数関数的な速度で集中し、その勾配も指数関数的に小さくなる。[26]

この状況は「不毛なプラトー」として知られています。これは、初期パラメータのほとんどがほぼ勾配ゼロの「プラトー」に閉じ込められており、勾配降下法ではなくランダムな放浪[26]に近い状態であるためです。これにより、モデルは学習不可能になります。

実際、QNNだけでなく、ほぼすべての深層VQAアルゴリズムはこの問題を抱えています。現在のNISQ時代において、QNNを含む様々なVQAアルゴリズムをさらに応用していくためには、この問題を解決しなければならない課題の一つです。

参照

参考文献

  1. ^ Kak, S. (1995). 「量子ニューラルコンピューティングについて」.イメージングと電子物理学の進歩. 94 : 259–313 . doi :10.1016/S1076-5670(08)70147-2. ISBN 978-0-12-014736-6
  2. ^ Chrisley, R. (1995). 「量子学習」. Pylkkänen, P.; Pylkkö, P. (編).認知科学における新たな方向性:国際シンポジウム議事録, サーリセルカ, 1995年8月4日~9日, フィンランド, ラップランド. ヘルシンキ: フィンランド人工知能協会. pp.  77– 89. ISBN 951-22-2645-6
  3. ^ da Silva, Adenilton J.; Ludermir, Teresa B.; de Oliveira, Wilson R. (2016). 「量子場上の量子パーセプトロンと量子コンピュータにおけるニューラルネットワークアーキテクチャの選択」. Neural Networks . 76 : 55–64 . arXiv : 1602.00709 . Bibcode :2016arXiv160200709D. doi :10.1016/j.neunet.2016.01.002. PMID:  26878722. S2CID  : 15381014.
  4. ^ Panella, Massimo; Martinelli, Giuseppe (2011). 「量子アーキテクチャと量子学習を備えたニューラルネットワーク」. International Journal of Circuit Theory and Applications . 39 : 61– 77. doi :10.1002/cta.619. S2CID  3791858.
  5. ^ Schuld, M.; Sinayskiy, I.; Petruccione, F. (2014). 「量子ニューラルネットワークの探求」.量子情報処理. 13 (11): 2567– 2586. arXiv : 1408.7005 . Bibcode :2014QuIP...13.2567S. doi :10.1007/s11128-014-0809-8. S2CID  37238534.
  6. ^ abcdef Beer, Kerstin; Bondarenko, Dmytro; Farrelly, Terry; Osborne, Tobias J.; Salzmann, Robert; Scheiermann, Daniel; Wolf, Ramona (2020-02-10). 「深層量子ニューラルネットワークのトレーニング」. Nature Communications . 11 (1): 808. arXiv : 1902.10445 . Bibcode :2020NatCo..11..808B. doi :10.1038/s41467-020-14454-2. ISSN  2041-1723. PMC 7010779. PMID 32041956  . 
  7. ^ abcd Wan, Kwok-Ho; Dahlsten, Oscar; Kristjansson, Hler; Gardner, Robert; Kim, Myungshik (2017). 「フィードフォワードニューラルネットワークの量子一般化」. npj Quantum Information . 3 (1): 36. arXiv : 1612.01045 . Bibcode :2017npjQI...3...36W. doi :10.1038/s41534-017-0032-4. S2CID  51685660.
  8. ^ Perus, M. (2000). 「量子連想記憶の基盤としてのニューラルネットワーク」Neural Network World . 10 (6): 1001. CiteSeerX 10.1.1.106.4583 . 
  9. ^ Zak, M.; Williams, CP (1998). 「量子ニューラルネット」.国際理論物理学ジャーナル. 37 (2): 651– 684. doi :10.1023/A:1026656110699. S2CID  55783801.
  10. ^ Gupta, Sanjay; Zia, RKP (2001). 「量子ニューラルネットワーク」. Journal of Computer and System Sciences . 63 (3): 355– 383. arXiv : quant-ph/0201144 . doi :10.1006/jcss.2001.1769. S2CID  206569020.
  11. ^ Faber, J.; Giraldi, GA (2002). 「人工ニューラルネットワークのための量子モデル」(PDF) .
  12. ^ Schuld, M.; Sinayskiy, I.; Petruccione, F. (2014). 「量子コンピュータによるパーセプトロンのシミュレーション」. Physics Letters A. 379 ( 7): 660– 663. arXiv : 1412.3635 . doi :10.1016/j.physleta.2014.11.061. S2CID  14288234.
  13. ^ Narayanan, A.; Menneer, T. (2000). 「量子人工ニューラルネットワークのアーキテクチャとコンポーネント」. Information Sciences . 128 ( 3–4 ): 231– 255. doi :10.1016/S0020-0255(00)00055-4. S2CID  10901562.
  14. ^ Ghosh, S.; Opala, A.; Matuszewski, M.; Paterek, P.; Liew, TCH (2019). 「量子リザーバー処理」. npj Quantum Information . 5 (1): 35. arXiv : 1811.10335 . Bibcode :2019npjQI...5...35G. doi :10.1038/s41534-019-0149-8. S2CID  119197635.
  15. ^ Neven, H.; et al. (2008). 「量子断熱アルゴリズムによるバイナリ分類器のトレーニング」arXiv : 0811.0416 [quant-ph].
  16. ^ Bang, J.; et al. (2014). 「機械学習を活用した量子アルゴリズム設計戦略」. New Journal of Physics . 16 (7) 073017. arXiv : 1301.1132 . Bibcode :2014NJPh...16g3017B. doi :10.1088/1367-2630/16/7/073017. S2CID  55377982.
  17. ^ Behrman, EC; Steck, JE; Kumar, P.; Walsh, KA (2008). 「動的学習を用いた量子アルゴリズム設計」.量子情報・計算. 8 ( 1–2 ): 12– 29. arXiv : 0808.1558 . doi :10.26421/QIC8.1-2-2. S2CID  18587557.
  18. ^ Ventura, D.; Martinez, T. (1999). 「Groverのアルゴリズムに基づく量子連想メモリ」(PDF) .人工ニューラルネットと遺伝的アルゴリズム. pp.  22– 27. doi :10.1007/978-3-7091-6384-9_5. ISBN 978-3-211-83364-3. S2CID  3258510. 2017年9月11日時点のオリジナル(PDF)からアーカイブ。
  19. ^ Trugenberger, CA (2001-07-18). 「確率的量子記憶」. Physical Review Letters . 87 (6) 067901. arXiv : quant-ph/0012100 . Bibcode :2001PhRvL..87f7901T. doi :10.1103/physrevlett.87.067901. ISSN  0031-9007. PMID  11497863. S2CID  23325931.
  20. ^ ab トルーゲンバーガー、カルロ A. (2002)。 「量子パターン認識」。量子情報処理1 (6): 471–493 . arXiv : quant-ph/0210176Bibcode :2002QuIP....1..471T。土井:10.1023/A:1024022632303。S2CID  1928001。
  21. ^ Trugenberger, CA (2002-12-19). 「量子パターン認識における相転移」. Physical Review Letters . 89 (27) 277903. arXiv : quant-ph/0204115 . Bibcode :2002PhRvL..89A7903T. doi :10.1103/physrevlett.89.277903. ISSN  0031-9007. PMID  12513243. S2CID  33065081.
  22. ^ Purushothaman, G.; Karayiannis, N. (1997). 「量子ニューラルネットワーク(QNN):本質的にファジーなフィードフォワードニューラルネットワーク」(PDF) . IEEE Transactions on Neural Networks . 8 (3): 679– 93. doi :10.1109/72.572106. PMID  18255670. S2CID  1634670. 2017年9月11日時点のオリジナル(PDF)からアーカイブ。
  23. ^ ニールセン, マイケル・A; チュアン, アイザック・L (2010).量子計算と量子情報. ケンブリッジ; ニューヨーク: ケンブリッジ大学出版局. ISBN 978-1-107-00217-3. OCLC  665137861。
  24. ^ ab ファインマン, リチャード・P. (1986-06-01). 「量子力学コンピュータ」. Foundations of Physics . 16 (6): 507– 531. Bibcode :1986FoPh...16..507F. doi :10.1007/BF01886518. ISSN  1572-9516. S2CID  122076550.
  25. ^ ワン、サムソン;フォンタナ、エンリコ。セレッソ、M.シャルマ、クナル。曽根、明。シンシオ、ルカシュ。コールズ、パトリック J. (2021-11-29)。 「変分量子アルゴリズムにおけるノイズ誘発の不毛の台地」。ネイチャーコミュニケーションズ12 (1): 6961.arXiv : 2007.14384ビブコード:2021NatCo.12.6961W。土井:10.1038/s41467-021-27045-6。ISSN  2041-1723。PMC 8630047PMID  34845216。 
  26. ^ ab McClean, Jarrod R.; Boixo, Sergio; Smelyanskiy, Vadim N.; Babbush, Ryan; Neven, Hartmut (2018-11-16). 「量子ニューラルネットワークの訓練ランドスケープにおける不毛なプラトー」. Nature Communications . 9 (1): 4812. arXiv : 1803.11173 . Bibcode :2018NatCo...9.4812M. doi :10.1038/s41467-018-07090-4. ISSN  2041-1723. PMC 6240101. PMID 30446662  . 
  • M. Schuld、I. Sinayskiy、F. Petruccioneによる量子ニューラルネットワークの最近のレビュー
  • 魏による量子ニューラルネットワークのレビュー
  • 生物学的ニューラルネットワークにおける量子コンピューティングの可能性に関するP. Gralewiczによる論文
  • 画像を認識するニューラルネットのトレーニング
「https://en.wikipedia.org/w/index.php?title=Quantum_neural_network&oldid=1323589634」より取得