ヘブ理論は、 シナプス前細胞がシナプス後細胞を繰り返し持続的に刺激することで シナプス 効率が向上すると主張する神経心理 学の理論です。これは、学習過程におけるニューロン の適応であるシナプス可塑性 を説明する試みです。ヘブ理論は、ドナルド・ヘブ が1949年に著作『行動の組織化』 で提唱しました。 [ 1 ] この理論は、ヘブの法則 、ヘブの法則 、ヘブの公準 、細胞集合理論 とも呼ばれます。ヘブは次のように述べています。
反響活動(または「痕跡」)の持続または反復が、細胞の安定性を高める持続的な細胞変化を引き起こす傾向があると仮定しよう。…細胞A の軸索が細胞 Bを 興奮させるのに十分近く、繰り返しまたは持続的に発火に関与すると、細胞Aまたは細胞Bのいずれかまたは両方で何らかの成長プロセスまたは代謝変化が起こり、細胞Bを発火させる細胞としての A の効率が向上する。[ 1 ] :62
この理論はしばしば「一緒に発火するニューロンは、一緒に配線される 」と要約される。[ 2 ] しかし、ヘブは細胞Aが細胞 Bの 発火に「参加する」必要があり、そのような因果関係は細胞Aが細胞 B と同時に発火するのではなく、直前に発火する場合にのみ発生することを強調した。ヘブの研究におけるこの因果関係の側面は、現在知られているスパイクタイミング依存可塑性 (時間的先行性を必要とする)の先駆けとなった。[ 3 ]
ヘッブ理論は、細胞の同時活性化が細胞間のシナプス強度 の顕著な増加につながる連合 学習、すなわちヘッブ学習を説明しようとするものです。また、教育や記憶リハビリテーションのための エラーレス学習法の生物学的基盤も提供します。認知機能における 神経ネットワーク の研究では、教師なし学習 の神経基盤としてしばしば位置づけられています。[ 4 ]
エングラム、細胞集合理論、そして学習ヘブ理論は、ニューロンがどのように接続してエングラムを 形成するかを説明するもので、エングラムは重なり合う細胞集合体、つまり特定の情報を符号化するニューロンのグループに格納される可能性がある。[ 5 ] ヘブの細胞集合体の形態と機能に関する理論は、当初は皮質ニューロンの特定のグループにおける反復的な活動を説明する方法として考案されたが、以下のことから理解できる。[ 1 ] : 70
一般的な考え方は古くからあるものですが、同時に繰り返し活動する 2 つの細胞または細胞システムは「関連付けられる」傾向があり、一方の活動がもう一方の活動を促進するというものです。
ヘブはまた次のように書いている: [ 1 ]
ある細胞が他の細胞の発火を繰り返し補助すると、最初の細胞の軸索にシナプス突起が形成され(または、すでに存在する場合は拡大され)、2 番目の細胞の細胞体と接触します。
D. アラン・オールポートは、自己連想の概念、つまり部分的な手がかりに基づいて情報を検索する脳の能力を使用して、細胞アセンブリ理論とエングラムの形成におけるその役割に関する追加の考えを次のように提唱しています。
システムへの入力が同じ活動パターンを繰り返し発生させる場合、そのパターンを構成する活性要素の集合は、次第に強い相互関連性を帯びるようになります。つまり、各要素は他のすべての要素をオンにし、パターンの一部ではない要素を(負の重みで)オフにする傾向があります。言い換えれば、パターン全体が「自己関連付け」されることになります。学習された(自己関連付けされた)パターンをエングラムと呼ぶことができます。[ 6 ]
ノーベル賞受賞者エリック・カンデル の研究室で行われた研究では、海産腹足類 アメフラシ のシナプスにおけるヘッブ学習メカニズムの役割を裏付ける証拠が得られました。[ 7 ] 海産無脊椎動物の末梢神経系 のシナプスは実験で制御するのがはるかに容易であるため、カンデルの研究により、活動依存性シナプス前促進とともにヘッブ長期増強が アメフラシ のシナプス可塑性 と古典的条件 付けに必要であることが分かりました。[ 8 ]
無脊椎動物の研究では学習と記憶の基本的なメカニズムが確立されているが、脊椎動物のニューロン間の長期的なシナプス変化に関する研究の多くは、脳細胞に対する非生理的な実験的刺激を用いている。しかしながら、脊椎動物の脳で研究されてきた生理学的に関連するシナプス修飾メカニズムの一部は、ヘブ過程の例であるように思われる。そのようなレビューの一つは、ヘブ過程と非ヘブ過程の両方を用いて、生理学的に関連するシナプス活動によってシナプス強度の長期的な変化が誘発され得ることを示唆している。[ 9 ]
原則 人工ニューロン および人工ニューラルネットワーク において、ヘブの原理は、モデルニューロン間の重みをどのように変更するかを決定する方法として説明できます。2つのニューロンが同時に活性化すると、ニューロン間の重みは増加し、別々に活性化すると減少します。同時に両方が正、または両方が負になる傾向があるノードは強い正の重みを持ち、反対になる傾向があるノードは強い負の重みを持ちます。
以下はヘブビアン学習の公式的な説明です (他の多くの説明も可能です)。
わ 私 j = × 私 × j 、 {\displaystyle \,w_{ij}=x_{i}x_{j},} ここで、 はニューロン からニューロン への接続の重み、 はニューロン への入力です。これはパターン学習の例であり、重みは各トレーニング例の後に更新されます。ホップフィールドネットワーク では、 (再帰接続が許可されない)の場合、接続は0に設定されます。バイナリニューロン(活性化が0または1)の場合、接続されたニューロンがパターンに対して同じ活性化を示す場合、接続は1に設定されます。 わ 私 j {\displaystyle w_{ij}} j {\displaystyle j} 私 {\displaystyle i} × 私 {\displaystyle x_{i}} 私 {\displaystyle i} わ 私 j {\displaystyle w_{ij}} 私 = j {\displaystyle i=j}
複数のトレーニング パターンを使用する場合、式は個体の平均になります。
わ 私 j = 1 p ∑ け = 1 p × 私 け × j け 、 {\displaystyle w_{ij}={\frac {1}{p}}\sum _{k=1}^{p}x_{i}^{k}x_{j}^{k},} ここで、 はニューロン からニューロン への接続の重み、は訓練パターンの数、ニューロン の -番目の入力です。これはエポックごとの学習であり、重みはすべての訓練例が提示された後に更新されます。最後の項は離散訓練セットと連続訓練セットの両方に適用されます。繰り返しますが、ホップフィールドネットワークでは、(再帰接続なし) の場合、接続はゼロに設定されます。わ 私 j {\displaystyle w_{ij}} j {\displaystyle j} 私 {\displaystyle i} p {\displaystyle p} × 私 け {\displaystyle x_{i}^{k}} け {\displaystyle k} 私 {\displaystyle i} わ 私 j {\displaystyle w_{ij}} 私 = j {\displaystyle i=j}
ブロッキングやその他の神経学習現象を考慮したヘブ学習のバリエーションとして、ハリー・クロプフ の数学的モデルがある。クロプフ のモデルは、単純な適応メカニズムを持つシステムの構成要素が、ニューラルネットワークのようなより高度な適応行動を持つ複雑なシステムの基盤となり得ると仮定している。[ 10 ]
教師なし学習、安定性、一般化との関係ヘブ学習はシナプス前部とシナプス後部の活動の一致のみに基づくという単純な性質のため、なぜこの形態の可塑性が意味のある学習につながるのかは直感的に明らかではないかもしれません。しかしながら、ヘブ可塑性は入力の統計的特性を教師なし学習に分類できる方法で捉えていることが示されています。
これは、単純化した例で数学的に示せます。ここでは、入力がレート である、レート の単一レートベースニューロンという単純化した仮定の下で考えてみましょう。ニューロンの応答は通常、入力とそれに続く応答関数 の線形結合として記述されます。 y ( t ) {\displaystyle y(t)} × 1 ( t ) 。 。 。 × 北 ( t ) {\displaystyle x_{1}(t)...x_{N}(t)} y ( t ) {\displaystyle y(t)} ∑ 私 わ 私 × 私 {\displaystyle \sum _{i}w_{i}x_{i}} f {\displaystyle f}
y = f ( ∑ 私 = 1 北 わ 私 × 私 ) 。 {\displaystyle y=f\left(\sum _{i=1}^{N}w_{i}x_{i}\right).} 前のセクションで定義したように、ヘブビアン可塑性はシナプス荷重の時間的変化を記述します。 わ {\displaystyle w}
d わ 私 d t = η × 私 y 。 {\displaystyle {\frac {dw_{i}}{dt}}=\eta x_{i}y.} 簡単にするために、恒等応答関数を仮定すると、次のように書ける。 f ( 1つの ) = 1つの {\displaystyle f(a)=a}
d わ 私 d t = η × 私 ∑ j = 1 北 わ j × j {\displaystyle {\frac {dw_{i}}{dt}}=\eta x_{i}\sum _{j=1}^{N}w_{j}x_{j}} または行列 形式では:
d わ d t = η × × T わ 。 {\displaystyle {\frac {d\mathbf {w} }{dt}}=\eta \mathbf {x} \mathbf {x} ^{T}\mathbf {w} .} 前章と同様に、エポックごとの学習を行う場合、離散的または連続的な(時間)学習セットの平均を求めることができます。ここで、 は、(つまり、入力の平均がゼロであるという)追加の仮定の下での入力の相関行列 です。これは、結合線形微分方程式の連立方程式です。 は対称 なので、対 角化可能であり、 その解は、その固有ベクトル基底を作用させることで、次の形式になります。 ⟨ … ⟩ {\displaystyle \langle \dots \rangle } × {\displaystyle \mathbf {x} } d わ d t = ⟨ η × × T わ ⟩ = η ⟨ × × T ⟩ わ = η C わ 。 {\displaystyle {\frac {d\mathbf {w} }{dt}}=\langle \eta \mathbf {x} \mathbf {x} ^{T}\mathbf {w} \rangle =\eta \langle \mathbf {x} \mathbf {x} ^{T}\rangle \mathbf {w} =\eta C\mathbf {w} .} C = ⟨ × × T ⟩ {\displaystyle C=\langle \,\mathbf {x} \mathbf {x} ^{T}\rangle } ⟨ × ⟩ = 0 {\displaystyle \langle \mathbf {x} \rangle =0} 北 {\displaystyle N} C {\displaystyle C}
わ ( t ) = け 1 e η α 1 t c 1 + け 2 e η α 2 t c 2 + 。 。 。 + け 北 e η α 北 t c 北 {\displaystyle \mathbf {w} (t)=k_{1}e^{\eta \alpha _{1}t}\mathbf {c} _{1}+k_{2}e^{\eta \alpha _{2}t}\mathbf {c} _{2}+...+k_{N}e^{\eta \alpha _{N}t}\mathbf {c} _{N}} ここで、 は任意定数、は の固有ベクトル、はそれらの対応する固有値です。相関行列は常に正定値行列 であるため、固有値はすべて正であり、上記の解が時間とともに常に指数関数的に発散することが容易にわかります。これは、支配的な信号を持つネットワークではシナプスの重みが指数的に増加または減少するため、このバージョンのヘブの規則が不安定であることによる固有の問題です。直感的には、シナプス前ニューロンがシナプス後ニューロンを興奮させるたびに、それらの間の重みが強化され、将来さらに強い興奮を引き起こし、これが自己強化的に発生するためです。解決策としては、非線形の飽和応答関数 を追加してシナプス後ニューロンの発火率を制限することと思われるかもしれませんが、実際には、どの ニューロンモデルでもヘブの規則は不安定であることが示されています。[ 11 ] そのため、ニューロンのネットワークモデルでは、通常、BCM理論 、オージャの法則 、[ 12 ] または一般化ヘブビアンアルゴリズム などの他の学習理論が採用されます。 け 私 {\displaystyle k_{i}} c 私 {\displaystyle \mathbf {c} _{i}} C {\displaystyle C} α 私 {\displaystyle \alpha _{i}} f {\displaystyle f}
いずれにしても、上記の不安定な解であっても、十分な時間が経過すると、項の1つが他の項よりも優勢になり、
わ ( t ) ≈ e η α ∗ t c ∗ {\displaystyle \mathbf {w} (t)\approx e^{\eta \alpha ^{*}t}\mathbf {c} ^{*}} ここではの最大 固有値である。このとき、シナプス後ニューロンは以下の操作を行う。 α ∗ {\displaystyle \alpha^{*}} C {\displaystyle C}
y ≈ e η α ∗ t c ∗ × {\displaystyle y\approx e^{\eta \alpha ^{*}t}\mathbf {c} ^{*}\mathbf {x} } 繰り返しになりますが、は 間の相関行列の最大固有値に対応する固有ベクトルであるため、これは入力の 最初の主成分を計算することに正確に相当します。 c ∗ {\displaystyle \mathbf {c} ^{*}} × 私 {\displaystyle x_{i}}
このメカニズムは、シナプス後ニューロンを追加することで、入力の完全なPCA(主成分分析)を実行するように拡張できます。ただし、シナプス後ニューロンがすべて同じ主成分を拾うことを防ぐ必要があります。例えば、シナプス後層に 側方抑制 を追加するなどです。このように、ヘブ学習とPCAを結び付けました。PCAは教師なし学習の基本的な形態であり、ネットワークが入力の有用な統計的側面を拾い上げ、それを出力において簡潔に「記述」できるという意味です。[ 13 ]
ヘブ学習とミラーニューロン ヘブ学習とスパイクタイミング依存の可塑性は、ミラーニューロンが どのように出現するかについての影響力のある理論で使用されてきた。[ 14 ] [ 15 ] ミラーニューロンは、個人が行動を起こすときと、個人が他の人が同様の行動を起こすのを見たり聞いたりしたときの両方で発火するニューロンである。[ 16 ] [ 17 ] これらのニューロンの発見は、個人が他の人の行動を理解する方法を説明する上で非常に影響力があった。なぜなら、人が他の人の行動を知覚すると、同様の行動を起こすために使用する脳の運動プログラムが活性化され、それが知覚に情報を追加し、知覚者自身の運動プログラムに基づいて人が次に何をするかを予測するのに役立つからである。ミラーニューロンの機能に関するこの考え方の限界の1つは、個人が行動を起こしているときと、他の人が同様の行動をしているのを見たり聞いたりしているときの両方で反応するニューロンをどのように発達させるかを説明できないことである。
神経科学者のクリスチャン・キーザース と心理学者のデイビッド・ペレット は、ある人が行動するのを見たり聞いたりすると、あたかも自分自身がその行動をしているかのように脳領域が活性化されると示唆した。[ 15 ] [ 18 ] これらの再求心性感覚信号は、行動の視覚、聴覚、触覚に反応するニューロンの活動を誘発する。これらの感覚ニューロンの活動は、行動を引き起こした運動ニューロンの活動と常に時間的に重なるため、ヘブ学習は、行動の視覚、聴覚、触覚に反応するニューロンと行動を引き起こしたニューロンを結ぶシナプスが増強されると予測する。人が鏡で自分自身を見たり、自分の喃語を聞いたり、他人に真似をされたりする場合も同様である。この再求心性が繰り返し発生すると、行動の感覚的表象と運動的表象を結ぶシナプスが非常に強くなり、運動ニューロンが行動の視覚や聴覚に反応して発火し始め、ミラーニューロンが形成される。[ 19 ]
数多くの実験が、ヘブ学習がミラーニューロンの形成に不可欠であるという考えを裏付ける証拠を提供している。証拠は、刺激と運動プログラムの実行を繰り返し組み合わせた後、新しい聴覚または視覚刺激によって運動プログラムがトリガーされる可能性があることを明らかにしている。[ 20 ] 例えば、ピアノを弾いたことのない人がピアノ曲を聞いても、ピアノ演奏に関与する脳領域は活性化しない。参加者が鍵盤を押すたびにピアノの音にさらされる 5 時間のピアノレッスンは、後でピアノ曲を聞いたときに脳の運動領域の活動をトリガーするのに十分であることが証明されている。[ 20 ] スパイクタイミング依存の可塑性は、シナプス前ニューロンの発火がシナプス後ニューロンの発火を予測する場合にのみ発生するという事実と一致して、[ 21 ] 感覚刺激と運動プログラム間のリンクも、刺激が運動プログラムに依存している場合にのみ増強されるように見える。
ヘブ理論と認知神経科学 ヘブ学習は、意思決定や社会学習といった認知プロセスと関連している。認知神経科学の分野では、線条体や前頭前皮質といった報酬処理や社会認知を担う脳領域とヘブ理論の交差について探究が始まっている。[ 22 ] [ 23 ] 特に、ヘブモデルに曝露された線条体投射は、生体内で 長期増強と長期抑制を示す。[ 24 ] さらに、刺激に対する前頭前皮質のモデル(「混合選択性」)はランダムな接続性だけでは完全に説明できないが、ヘブパラダイムを組み込むと、モデルにおける混合選択性のレベルに達する。[ 25 ] これらの領域におけるヘブ可塑性は、習慣形成、強化学習、さらには社会的絆の発達といった行動の基盤となっている可能性があるという仮説が立てられている(例えば、ピーター・パトナムとロバート・W・フラー による)。[ 26 ] [ 27 ]
制限事項 長期増強にはヘブモデルが広く用いられているものの、ヘブ理論はあらゆる形態の長期シナプス可塑性を網羅しているわけではない。ヘブは抑制性シナプスに関する規則や、因果的ではないスパイクシーケンス(シナプス前ニューロンがシナプス後ニューロンの後に 発火する)の予測を提唱していない。シナプス修飾は活性化ニューロンAとBの間だけでなく、隣接するシナプスでも発生する可能性がある。[ 28 ] したがって、あらゆる形態のヘテロシナプス可塑性 と恒常性可塑性 は非ヘブモデルであると考えられる。一例として、シナプス前終末への逆行性シグナル伝達が挙げられる。 [ 29 ] 逆行性伝達物質として最もよく知られている化合物は一酸化窒素 であり、これは高い溶解性と拡散性のため、しばしば近傍のニューロンに影響を及ぼす。[ 30 ] この種の拡散性シナプス修飾は体積学習として知られており、従来のヘブモデルには含まれていない。[ 31 ]
現代の発展、人工知能、そして計算の進歩現代の研究は、ヘブの当初の考えを発展させてきました。例えば、スパイクタイミング依存可塑性(STDP)は、ニューロンのスパイクの正確なタイミングをヘブ理論に組み込むことで、ヘブの原理を洗練させています。実験の進歩により、ヘブ学習は意思決定や感情制御といった複雑な行動にも関連付けられています。 [ 13 ] 人工知能 (AI)と量子コンピューティングの現在の研究では、適応型アルゴリズムの開発や機械学習モデルの改良にヘブの概念を活用し続けています。[ 32 ]
AIにおいて、ヘブ学習は従来のニューラルネットワークの枠を超えた応用が見られています。重要な進歩の一つは強化学習アルゴリズムであり、ヘブ学習に似た学習法を用いて、訓練段階における刺激のタイミングと強度に基づいて重みを更新します。一部の研究者は、ヘブ学習原理を応用し、人工システムの学習においてより生物学的に妥当なモデルを開発しており、AIアプリケーションにおけるモデルの効率性と収束性を向上させる可能性があります。[ 33 ] [ 34 ]
量子コンピューティングにおけるヘブ学習の応用は、関心が高まっている分野です。ヘブ理論の主な応用分野は古典的ニューラルネットワークですが、近年の研究では量子に着想を得たアルゴリズムの可能性を探り始めています。これらのアルゴリズムは、量子重ね合わせと量子エンタングルメントの原理を利用して、量子システムにおける学習プロセスを強化します。[ 35 ] 現在の研究では、ヘブ原理がより効率的な量子機械学習モデルの開発にどのように役立つかが探究されています。[ 3 ]
ヘブ学習を改良または拡張する新しい計算モデルが登場している。例えば、一部のモデルは神経スパイクの正確なタイミング(スパイクタイミング依存可塑性など)を考慮している。また、ドーパミンなどの神経伝達物質がシナプス結合の強度にどのように影響するかを説明するために、神経調節の側面を統合したモデルもある。これらの高度なモデルは、ヘブ学習が脳内でどのように機能するかについて、より詳細な理解を提供し、より現実的な計算モデルの開発に貢献している。[ 36 ] [ 37 ]
ヘブ学習に関する最近の研究は、従来のヘブモデルではしばしば見落とされてきた抑制性ニューロンの役割に焦点を当てています。古典的なヘブ理論は主に興奮性ニューロンに焦点を当てていますが、より包括的な神経学習モデルでは、興奮性シナプスと抑制性シナプスのバランスの取れた相互作用を考慮しています。研究によると、抑制性ニューロンは神経回路の安定性維持に重要な制御機能を果たし、ヘブ学習における暴走的な正のフィードバックを防ぐ可能性があることが示唆されています。[ 38 ] [ 39 ]
2017年、ジェフ・マギーらは行動時間スケールシナプス可塑性 (BTSP)を特定した。これは海馬CA1ニューロンの学習の一形態で、樹状突起プラトー電位の数秒前または数秒後に活性化するシナプス入力が、シナプス後スパイクの同時発生がなくても強化される。[ 40 ] このメカニズムは、従来のヘブ型可塑性やスパイクタイミング依存型可塑性よりもはるかに長い時間スケールで動作し、行動中に時間的に離れたイベントをリンクする手段を提供する。[ 40 ] BTSPは、ヘブ型連合プロセスが行動の時間スケールでどのように発生するかを理解するための現代的な枠組みとして提案されており、シナプス修正のタイミングウィンドウが古典的なヘブ型学習で説明されているミリ秒の範囲をはるかに超える可能性があることを示唆している。[ 41 ]
参照
参考文献 ^ a b c d ヘブ, DO (1949). 『行動の組織化 』 ニューヨーク: ワイリー・アンド・サンズ. ^ Siegrid Löwel 、ゲッティンゲン大学。正確な文は、「ニューロンは、一緒に発火すれば一緒に配線される」である(Löwel, S. および Singer, W. (1992) Science 255(1992 年 1 月 10 日発行) Löwel , Siegrid; Singer, Wolf (1992). 「 相関ニューロン活動による視覚皮質における固有の水平接続 の 選択」 。Science Magazine。255 ( 5041 ) .米国:アメリカ 科学 振興協会: 209– 212。Bibcode : 1992Sci...255..209L。doi : 10.1126 /science.1372754。ISSN 0036-8075。PMID 1372754 。 ^ a b Caporale, Natalia; Dan, Yang (2008). 「スパイクタイミング依存の可塑性:ヘブ学習則」 Annual Review of Neuroscience . 31 : 25– 46. doi : 10.1146/annurev.neuro.31.060407.125639 . PMID 18275283 . ^ サンガー, テレンス・D. (1989-01-01). 「単層線形フィードフォワードニューラルネットワークにおける最適教師なし学習」 . ニューラルネットワーク . 2 (6): 459– 473. doi : 10.1016/0893-6080(89)90044-0 . ISSN 0893-6080 . ^ Sejnowski, Terrence J. (1999-12-01). 「The Book of Hebb」 . Neuron . 24 (4): 773– 776. doi : 10.1016/S0896-6273(00)81025-9 . ISSN 0896-6273 . PMID 10624941 . ^ Allport, DA (1985). 「分散記憶、モジュラーシステム、失語症」. Newman, SK; Epstein R. (編). Current Perspectives in Dysphasia . エディンバラ: Churchill Livingstone. ISBN 978-0-443-03039-0 。^ Castellucci, Vincent; Pinsker, Harold; Kupfermann, Irving; Kandel, Eric R. (1970-03-27). 「アメフラシにおける鰓引っ込め反射の馴化と脱馴化の神経メカニズム」 . Science . 167 (3926): 1745– 1748. Bibcode : 1970Sci...167.1745C . doi : 10.1126/science.167.3926.1745 . PMID 5416543 . ^ Antonov, Igor; Antonova, Irina; Kandel, Eric R.; Hawkins, Robert D. (2003-01-09). 「活動依存性シナプス前促進とヘブ型LTPはアメフラシにおける古典的条件付けにおいて必須であり、相互作用する」 . Neuron . 37 (1): 135– 147. doi : 10.1016/S0896-6273(02)01129-7 . ISSN 0896-6273 . PMID 12526779 . ^ Paulsen, O; Sejnowski, T (2000年4月1日). 「自然な活動パターンと長期的なシナプス可塑性」 . Current Opinion in Neurobiology . 10 (2): 172– 180. doi : 10.1016/ s0959-4388 (00)00076-3 . PMC 2900254. PMID 10753798 . ^ Klopf, AH (1972).脳機能と適応システム ― 異質静的理論 . 技術報告書 AFCRL-72-0164, 空軍ケンブリッジ研究所, マサチューセッツ州ベッドフォード. ^ Euliano, Neil R. (1999年12月21日). 「ニューラルシステムと適応システム:シミュレーションを通じた基礎」 (PDF) . Wiley. 2015年12月25日時点の オリジナル (PDF)からアーカイブ。 2016年3月16日 閲覧 。 ^ Shouval, Harel (2005年1月3日). 「脳の物理学」 . 学習と記憶のシナプス基盤:理論的アプローチ . テキサス大学ヒューストン健康科学センター. オリジナル より2007年6月10日アーカイブ. 2007年11月14日 閲覧 。 ^ a b Kistler, Werner M.; Gerstner, Wulfram編 (2002)、 「ヘブビアンモデル」 、 スパイキングニューロンモデル:単一ニューロン、集団、可塑性 、ケンブリッジ:ケンブリッジ大学出版局、pp. 351– 386、 doi : 10.1017/CBO9780511815706.011 、 ISBN 978-0-521-89079-3 、 2025年3月19日 取得{{citation }}: CS1 maint: ISBNによる作業パラメータ(リンク )^ Keysers C; Perrett DI (2004). 「社会認知の神秘 性を解き明かす:ヘブ的視点」. Trends in Cognitive Sciences . 8 (11): 501– 507. doi : 10.1016/j.tics.2004.09.005 . PMID 15491904. S2CID 8039741 . ^ a b Keysers, C. (2011).共感脳 . ^ ガレーゼ V;ファディガ L;フォガッシ L;リゾラッティ G (1996)。 「運動前野における行動認識」 。 脳 。 119 (Pt 2): 593–609 . 土井 : 10.1093/brain/119.2.593 。 PMID 8800951 。 ^ キーザーズC;コーラーE;ウミルタ MA;ナネッティ・L;フォガッシ L;ガレーゼ V (2003)。 「視聴覚ミラーニューロンと行動認識」。 Exp Brain Res . 153 ( 4 ) : 628–636。CiteSeerX 10.1.1.387.3307 。 土井 : 10.1007/s00221-003-1603-5 。 PMID 12937876 。 S2CID 7704309 。 ^ Kohler, Evelyne; Keysers, Christian; Umiltà, M. Alessandra; Fogassi, Leonardo; Gallese, Vittorio; Rizzolatti, Giacomo (2002-08-02). 「音を聞き、行動を理解する:ミラーニューロンにおける行動表象」 . Science . 297 (5582): 846– 848. Bibcode : 2002Sci...297..846K . doi : 10.1126/science.1070311 . PMID 12161656 . ^ 「行動、感覚、感情に関するヘブ学習と予測ミラーニューロン」 ResearchGate 。 2023年12月6日時点の オリジナル よりアーカイブ。 2025年4月13日 閲覧 。 ^ a b Lahav A; Saltzman E; Schlaug G (2007). 「音の動作表現:新たに獲得した動作を聴いている際の聴覚運動認識ネットワーク」 . J Neurosci . 27 (2): 308– 314. doi : 10.1523 / jneurosci.4822-06.2007 . PMC 6672064. PMID 17215391 . ^ Bauer EP; LeDoux JE; Nader K (2001). 「側方扁桃体における恐怖条件付けとLTPは、同じ刺激随伴性に対して感受性がある」 Nat Neurosci . 4 (7): 687– 688. doi : 10.1038/89465 . PMID 11426221 . S2CID 33130204 . ^ Balleine, BW, & O'Doherty, JP (2010). 行動制御におけるヒトとげっ歯類の相同性:報酬と意思決定における皮質線条体のメカニズム. *Neuroscience*, 164(1), 131-140. ^ O'Doherty, JP, et al. (2004). 道具的条件付けにおける腹側線条体と背側線条体の分離可能な役割. *Science*, 304(5668), 452-454. ^ Perrin, Elodie; Venance, Laurent (2019-02-01). 「線条体の可塑性と学習のギャップを埋める」 . Current Opinion in Neurobiology . Neurobiology of Learning and Plasticity. 54 : 104– 112. doi : 10.1016/j.conb.2018.09.007 . ISSN 0959-4388 . PMID 30321866 . ^ Lindsay, Grace W.; Rigotti, Mattia; Warden, Melissa R.; Miller, Earl K.; Fusi, Stefano (2017-11-08). 「ランダムネットワークにおけるヘブ学習は前頭前皮質の選択特性を捉える」 . Journal of Neuroscience . 37 (45): 11021– 11036. doi : 10.1523/JNEUROSCI.1222-17.2017 . ISSN 0270-6474 . PMC 5678026. PMID 28986463 . ^ ゲフター、アマンダ (2025年6月17日). 「ピーター・パトナムを探して」 . ノーチラス . 2025年6月30日 閲覧。 ^ Putnam, Peter; Fuller, Robert (1970-10-30). 「神経系の機能モデルの概要、Putnam/Fuller 1964」 . The Peter Putnam Papers . 2025年6月30日 閲覧。 ^ Horgan, John (1994年5月). 「ニューラル盗聴」. Scientific American . 270 (5): 16. Bibcode : 1994SciAm.270e..16H . doi : 10.1038/scientificamerican0594-16 . PMID 8197441 . ^ Fitzsimonds, Reiko; Mu-Ming Poo (1998年1月). 「 シナプスの発達と変化における逆行性シグナル伝達」. 生理学レビュー . 78 (1): 143– 170. doi : 10.1152/physrev.1998.78.1.143 . PMID 9457171. S2CID 11604896 . ^ López, P; CP Araujo (2009). 「生物学的および人工ニューラルネットワークにおける拡散近傍の計算的研究」 (PDF) . 国際計算知能合同会議 . ^ Mitchison, G; N. Swindale (1999年10月) . 「ヘブビアンボリューム学習は皮質マップの不連続性を説明できるか?」 Neural Computation . 11 (7): 1519– 1526. doi : 10.1162/089976699300016115 . PMID 10490935. S2CID 2325474 . ^ Bi, G.-Q., & Poo, M.-M. (1998). 培養海馬ニューロンにおけるシナプス修飾:スパイクタイミング、シナプス強度、シナプス後細胞の種類への依存性. *Journal of Neuroscience*, 18(24), 10464–10472. ^ Oja, E. (1982). 主成分分析器としての単純化されたニューロンモデル. *Journal of Mathematical Biology*, 15(3), 267–273. ^ Rumelhart, DE, McClelland, JL (1986). *並列分散処理:認知の微細構造の探究*. MIT Press. ^ Huang, H., & Li, Y. (2019). ニューラルネットワークのための量子に着想を得たヘブビアン学習アルゴリズム. *Journal of Quantum Information Science*, 9(2), 111-124. ^ Miller, P., & Conver, A. (2012). シナプス可塑性と学習の計算モデル. Current Opinion in Neurobiology, 22(5), 648-655. ^ Béïque, JC, & Andrade, R. (2012). 海馬におけるシナプス可塑性の神経調節:学習と記憶への示唆. *Frontiers in Synaptic Neuroscience*, 4, 15. ^ Markram, H., Lübke, J., Frotscher, M., & Sakmann, B. (1997). シナプス後APとEPSPの同時発生によるシナプス効率の制御. *Science*, 275(5297), 213–215. ^ Cohen, MR, & Kohn, A. (2011). 神経細胞間の相関関係の測定と解釈. *Nature Neuroscience*, 14(7), 811-819. ^ a b Bittner, KC; Milstein, AD; Grienberger, C.; Romani, S.; Magee, JC (2017). 「 行動時間スケールのシナプス可塑性がCA1場所野の基盤となっている」 . Science . 357 (6355): 1033– 1036. doi : 10.1126/science.aan3846 . PMC 7289271. PMID 28883074 . ^ Grienberger, C.; Magee, JC (2020). 「シナプス可塑性:形態と機能」. Annual Review of Neuroscience . 43 : 473–500 . doi : 10.1146/annurev-neuro-090919-022842 . PMID 32569523 .
さらに読む
外部リンク