オルト・ライト・パイプライン(オルト・ライトのラビット・ホールとも呼ばれる)は、インターネット上でのオルト・ライト運動への過激化に関する提唱された概念モデルである。これは、反フェミニストや反SJW思想などの挑発的な右翼政治コンテンツを消費することで、オルト・ライトや類似の極右政治への露出が徐々に増加するという現象を説明している。この相互作用は政治評論家とオンライン・コミュニティの相互接続性によって発生し、ある視聴者やコミュニティのメンバーがより過激なグループを発見できると仮定している。[ 1 ] [ 2 ]このプロセスは最も一般的に関連付けられ、動画プラットフォームYouTubeで文書化されており、さまざまなソーシャルメディア・プラットフォーム上のアルゴリズムが、ユーザーの関与に似ているが、ユーザーをすぐにラビット・ホールに導く可能性のあるコンテンツを推奨するプロセスを通じて機能する方法によって大きく特徴付けられる。[ 2 ] [ 3 ] [ 4 ] YouTubeのアルゴリズムの偏りがユーザーを過激化させるという影響は、ある研究によって再現されているが、[ 2 ] [ 5 ] [ 6 ] [ 7 ]他の2つの研究では、過激化プロセスの証拠はほとんど、あるいは全く見つかっていない。[ 3 ] [ 8 ] [ 9 ]
多くの政治運動がパイプライン構想と関連付けられています。知的ダークウェブ[ 2 ] 、リバタリアニズム[ 10 ]、男性の権利運動[ 11 ]、そしてオルトライト運動[ 2 ]は、いずれも視聴者にオルトライト思想を浸透させる可能性があると指摘されています。ニューヨーク・タイムズの記者によると、このような過激なコンテンツを求め、受け入れようとする視聴者は、典型的には若い男性で、彼らは深刻な孤独感を抱え、帰属意識や意味を求めていることが多いとのことです。[ 12 ]
オルタナ右翼のパイプラインは国内テロの一因となっている可能性がある。[ 13 ] [ 14 ]多くのソーシャルメディアプラットフォームは、この過激化の道を認識しており、過激派の人物の削除やヘイトスピーチや誤情報の禁止など、それを防ぐための対策を講じている。[ 3 ] [ 12 ]ブレッドチューブなどの左翼運動もオルタナ右翼のパイプラインに反対しており、「オルタナ右翼のパイプラインに対抗する勢力として『左翼のパイプライン』を作ろうとしている」[ 15 ] 。
インターネットの利用は、異端の信念を持つ個人が環境を変えることを可能にし、それが利用者自身に変革をもたらします。インターネットなどの外部情報源からの影響は徐々に現れるため、個人は自分の理解や周囲の変化にすぐには気づきません。オルタナ右翼のメンバーは、この過激化のプロセスを「赤い錠剤を飲む」と表現します。これは、映画『マトリックス』で描かれた、瞬時に高い意識を獲得する方法に由来しています。これは、オルタナ右翼のパイプラインで描写されている、段階的な過激化とは対照的です。[ 14 ] [ 16 ]極右の多くの人々は、この過激化手法の可能性を認識しており、周囲の人々を徐々に過激化させる意図で、右翼コンテンツを積極的に共有しています。これらの人々は、皮肉や不誠実さを装って、人種差別的な画像やユーモアを用いて、オルタナ右翼の思想を新しい聴衆に分かりやすく受け入れやすくしようとすることがあります。インターネット・ミームの性質上、容易に再現され、様々なインターネット・コミュニティに拡散することができます。[ 16 ] [ 17 ]
YouTubeは、オルタナ右翼のパイプラインの主要な要素として認識されています。これは、「オルタナティブ・インフルエンス・ネットワーク」を通じて促進されており、様々な右翼の学者、評論家、インターネット上の著名人が互いに交流し、コンテンツのパフォーマンスを向上させています。これらの人物は、保守主義、リバタリアニズム、白人至上主義など、イデオロギーは様々ですが、フェミニズム、進歩主義、社会正義に対する共通の反対意見を共有しているため、ある人物の視聴者は別の人物にもすぐに馴染むことができます。[ 1 ]彼らはしばしば右翼の経済問題よりも右翼の社会問題を優先し、財政保守主義についてはほとんど議論しません。このネットワーク内の個人の中には互いに交流しない人もいますが、インタビュー、インターネット上の議論、その他の交流の集積によって、ユーザーが新しいコンテンツに触れる道が開かれています。[ 2 ]
YouTubeの動画推薦アルゴリズムシステムにより、ユーザーは以前視聴したコンテンツに類似したコンテンツに素早くアクセスでき、一度興味を示したアイデアをより深く探求することができる。これにより、誤報や陰謀論を助長する動画が人気を集めると、新しい視聴者が過激なコンテンツに触れることができる。[ 14 ] [ 12 ]ユーザーが特定の政治問題や文化戦争の問題を取り上げたコンテンツに触れると、この推薦システムによって、イスラム恐怖症、移民反対、反フェミニズム、置き換え理論など、さまざまな考えや問題にユーザーを誘導する可能性がある。[ 14 ] [ 18 ]推薦されたコンテンツはしばしば何らかの関連性があり、複数の問題の間で徐々に過激化する効果を生み出し、パイプラインと呼ばれる。[ 14 ]
時には、プラットフォームはこれらの視点に興味を示していなかったユーザーにもこれらの動画を推奨する。[ 4 ] [ 18 ]過激化は、 Gab、Reddit、4chan、Discordなどのさまざまなプラットフォーム上で、他の過激化したユーザーとのオンラインでのやり取りでも起こる。[ 14 ]このチェーンの主要人物はFacebookやTwitterにも存在することが多いが、通常、メッセージのやり取りや収入を得るための主なプラットフォームはYouTubeである。[ 12 ]
オルタナ右翼のパイプラインは、主にインセルを自認する白人男性を含む怒りっぽい白人男性をターゲットにしており、オルタナ右翼の女性蔑視を反映している。ハーバード・ポリティカル・レビュー誌は、このプロセスを「『男性同士の絆』がひどく歪んだ結果、潜在的な女性蔑視と性的欲求不満を搾取している」と評している。このパイプラインは、自己不信に陥っている人々もターゲットにしている。[ 19 ]

オルタナ右翼のパイプラインは、ジョー・ローガン、ベン・シャピロ、デイブ・ルービン、ジョーダン・ピーターソンなど、アイデンティティ政治や政治的正しさに反対することで団結したインターネットパーソナリティで構成される知的ダークウェブコミュニティから始まることがわかっている。[ 2 ]知的ダークウェブコミュニティは、スティーブン・クラウダー、ポール・ジョセフ・ワトソン、マーク・ダイス、サルゴン・オブ・アッカドなどのオルタナ右翼コミュニティと重複し、交流している。[ 2 ]このコミュニティは、ジェームズ・オールサップ、ブラック・ピジョン・スピークス、ヴァルグ・ヴィーケネス、レッド・アイスなどのオルタナ右翼コミュニティと重複し、交流している。 [2] 最も極端な終着点は、ファシズムや国際的なユダヤ人の陰謀への信仰であることが多いが[ 16 ]、過激主義の深刻さは個人によって異なる可能性がある。[ 12
インターネット上のオルタナ右翼コンテンツは、かつての白人至上主義やファシズム運動に類似したイデオロギーを拡散している。インターネットは、このイデオロギーを異なる形で、より受け入れやすい形で提示することで、より多くの人々に届けることに成功している。[ 20 ]オルタナ右翼の保守的な性質から、このイデオロギーの多くは伝統的な価値観や生活様式の維持と結びついている。そのため、伝統的な生活様式を破壊しようとする秘密勢力に関する陰謀論に影響を受けやすい。[ 21 ]
反フェミニストの「マノスフィア」は、オルタナ右翼のパイプラインにおけるもう一つの初期段階として認識されている。[ 11 ]男性の権利運動は、他のグループよりも男性問題をより積極的に議論することが多く、他に選択肢がない場合に、そのような問題に関心を持つ若い男性を惹きつけている。多くの右翼インターネットパーソナリティは、人気メディアにコメントすることで視聴者を拡大する方法を編み出している。映画やビデオゲームが左翼思想を支持していると批判する動画は、それぞれのフランチャイズのファンを引き付ける可能性が高い。[ 12 ]
YouTubeが提示したフォーマットは、様々なイデオロギーがこの手段を通じて新しい視聴者層にアクセスすることを可能にしました。[ 12 ]同じプロセスは、インターネットコミュニティBreadTubeを通じて反資本主義政治へのアクセスを容易にするためにも使用されています。このコミュニティは、このパイプラインプロセスを使用してユーザーに左翼コンテンツを紹介し、右翼コンテンツへの露出を軽減することで開発されました。[ 12 ] [ 15 ]しかし、パイプラインプロセスは、対立する左翼グループの多様性が相互作用と重複を制限するため、左翼政治にはあまり効果的ではないことがわかりました。[ 15 ]この二分法は、個人が極右と極左の政治の間で転向する「むち打ち症」を引き起こす可能性もあります。[ 12 ]
オルタナ右翼のパイプラインを通じた過激化の心理的要因は、正常化、順応、非人間化など、他の形態の過激化と似ている。正常化には、人種差別的および反ユダヤ的レトリックの矮小化が含まれる。オルタナ右翼のパイプラインの初期段階にいる個人は、そのようなレトリックを進んで受け入れることはないが、ブラックユーモアを装ってそれを採用し、時間が経つにつれて衝撃が薄れていく。[ 14 ]これは、オルタナ右翼のメンバーが、自分たちの信念を受け入れやすくし、極端な信念をもっともらしく否認できるようにするために意図的に仕組まれることがある。[ 16 ] [ 17 ]順応とは、偏見のあるコンテンツを見ることに条件付けされるプロセスである。物議を醸すコンテンツに順応することで、個人はやや過激なコンテンツに対してよりオープンになる。時間が経つにつれて、保守的な人物は穏健派になりすぎて、ユーザーはより過激な意見を求めるようになる。非人間化はオルタナ右翼のパイプラインの最終段階であり、少数派は劣っている、あるいは生きるに値しない存在とみなされ、極右の信念に同意しない人々に対して非人間的な言葉が使われる。[ 14 ]
このプロセスは、孤独、無意味さ、または帰属意識の欠如を経験する若い男性に関連しています。[ 12 ]人気のない見解に対するオープンさは、個人がオルト・ライトのパイプラインに関連する信念を受け入れるために必要です。これは、ほとんどの人々の世界観が完全に間違っているという前提を使用する逆張り主義と関連しています。この前提から、個人は人気のない信念や非主流の信念を採用する傾向が強くなります。これにより、リバタリアニズムなど、オルト・ライトのパイプラインのいくつかの入り口が有効になります。リバタリアニズムでは、イデオロギーが、他の非主流の考えにさらされたときに過激化しやすい特性を持つ個人を引き付けます。[ 10 ]これらのコミュニティに参加する動機は様々で、偶然見つける人もいれば、探し出す人もいます。ビデオゲームへの関心は、オルト・ライトのパイプラインの初期段階に関連しています。[ 12 ]
アルゴリズムに加え、オンラインコミュニティも過激化に大きな役割を果たす可能性がある。非主流派や過激な思想を持つ人々は、同じ思想を共有し、承認し、強化する人々と出会う可能性がある。人々はオンラインで誰と、何と関わるかをコントロールできるため、自分の信念と相反する意見や考えを耳にすることを避けることができる。こうして、過激な信念を擁護し強化するエコーチェンバーが形成される。そこに付随する強い共同体意識と帰属意識は、人々がオルタナ右翼に加わり、それをアイデンティティとして受け入れる大きな要因となっている。[ 22 ]
インターネットの過激化は、ローンウルフ攻撃や国内テロの増加と相関している。[ 13 ] [ 23 ]オルト・ライトのパイプラインは、クライストチャーチのモスク銃撃事件と関連付けられている。この事件では、極右過激派がクライストチャーチのイスラム教徒の礼拝者51人を殺害した。礼拝者は、自身のマニフェストの中で、自分の信念が形成されたのはインターネットのおかげだと直接述べている。[ 14 ] [ 24 ]オルト・ライトのパイプラインを通じた過激化の非公式な性質により、個人レベルでの過激化が可能になり、過激化した個人はオフラインでは他の通常の生活を送ることができる。このため、専門家が過激主義を追跡し、国内テロ行為を予測する取り組みは複雑になっている。誰が過激化したのか、または政治的暴力を実行する予定なのかを確実に判断する方法がないからである。[ 14 ] [ 25 ] オルト・ライト運動の反対者と見なされる人々に対する嫌がらせキャンペーンは、過激化のもう1つの一般的な影響である。 [ 14
多くのソーシャルメディアプラットフォームは過激化の可能性を認識しており、その蔓延を制限する対策を実施している。アレックス・ジョーンズなどの著名な過激派コメンテーターはいくつかのプラットフォームから追放されており、プラットフォームにはヘイトスピーチや誤情報に対するルールが設けられていることも多い。[ 12 ] 2019年、YouTubeは陰謀論関連のコンテンツを削減するために推奨アルゴリズムを変更すると発表しました。[ 12 ] [ 18 ]暴力の露骨な描写など、一部の過激なコンテンツは通常、ほとんどのソーシャルメディアプラットフォームで削除されます。YouTubeでは、過激主義への支持を表明するコンテンツは、収益化機能が削除されたり、レビュー対象としてフラグが付けられたり、公開ユーザーコメントが無効になったりする場合があります。[ 3 ]
データ&ソサエティ研究所が2018年9月に発表した調査によると、65人の右翼政治インフルエンサーがYouTubeの推奨エンジンを、類似のインフルエンサー間のクロスマーケティングなどの従来のブランド構築手法と組み合わせて使用し、フォロワーを集めて視聴者を特定の右翼イデオロギーに過激化させていることがわかりました。[ 26 ]ミナスジェライス連邦大学とローザンヌ連邦工科大学が2019年8月に実施し、ACMの公平性、説明責任、透明性に関する会議2020で発表された調査では、以前のデータ&ソサエティの調査と名誉毀損防止同盟(ADL)の情報を使用して、360のYouTubeチャンネルの過激化のレベルを分類しました。この調査ではまた、7,200万件のコメント、200万件の動画の推奨、1万件のチャンネルの推奨を分析して、11年間にわたってユーザーを追跡しました。この研究では、あまり過激ではない右翼コンテンツに関わっていたユーザーは、時間の経過とともにより過激なコンテンツに関わってくる傾向があることがわかり、研究者たちはこれが「過激化パイプライン」の証拠になると主張した。[ 2 ] [ 5 ] [ 6 ] [ 7 ]
2020年にInternational Journal of Press/Politicsに掲載された研究は、YouTubeのアルゴリズムがユーザーを極右に過激化させているという「新たなジャーナリズムのコンセンサス」は「時期尚早」であると主張した。この研究は、YouTubeにおける政治分析のための「需要と供給」の枠組みを提案している。[ 27 ]
米国科学アカデミー紀要に掲載された2021年の研究では、「YouTubeの推奨によって極右コンテンツへのエンゲージメントが体系的に引き起こされているという証拠はなく、反意識派チャンネルが極右への入り口となっているという明確な証拠も見つかっていない」と結論づけられた。代わりに、この研究では「YouTubeでの政治コンテンツの消費は、ウェブ全体に広がる個人の嗜好を反映しているようだ」と結論づけられた。[ 8 ]ニューヨーク市立大学が2022年に発表した研究では、YouTubeのアルゴリズムがユーザーを過激化させるという主張を「裏付ける体系的な証拠はほとんど存在しない」と結論づけ、「YouTubeにおける過激な見解への露出は、以前から性別や人種に対する強い憤りを持つ少数の人々に集中している」こと、「非登録者にはオルタナティブチャンネルや過激派チャンネルの動画が推奨されることはほとんどなく、推奨されてもほとんど従わない」と付け加えている。[ 9 ]