怒りを煽る

ページは半保護されています

インターネットスラング では、レイジベイティングレイジベイティングレイジファーミングレイジシーディングとも呼ばれる)とは、インターネットのトラフィック、オンラインエンゲージメント、収益を増やし、新しい購読者、フォロワー、支持者を獲得することを目的として、怒りを誘発する操作的な戦術である。 [ 1 ] [ 2 ] [ 3 ]この操作は、ユーザーに同様の反応を起こさせるような攻撃的または扇動的な見出し、ミーム、比喩、またはコメントを通じて行われる。[ 4 ] [ 5 ] [ 6 ] [ 7 ]

関連用語である「レイジシーディング」「レイジファーミング」は、コンテンツ作成者が意図的に怒りを撒き散らしてオンラインでのエンゲージメントを収穫(ファーミング)し、それによってメッセージを増幅させるプロセスを指します。[ 3 ] [ 8 ] [ 9 ]政治家は敵に対する戦術としてレイジベイティングを採用しており、ソーシャルメディアのアルゴリズムは肯定的なエンゲージメントと否定的なエンゲージメントの両方に報酬を与え、意図せずしてそのような行動を奨励しています。[ 2 ]

ユーザーの交流を促すために挑発的なコンテンツを投稿するというより広い概念は、エンゲージメントファーミングとして知られています。[ 10 ] Rage baitはオックスフォード大学出版局の2025年の年間最優秀単語に選ばれました。 [ 11 ]

レイジ・ファーミング(またはレイジ・シーディング)という用語は、怒りを「ファーミングする」、つまり怒りの反応を成長させる種を植えるという比喩に由来しています。[ 12 ]これは、1999年頃から使用されている用語であるクリックベイトから派生したもので、クリックを誘発する目的で作成されたより広範なコンテンツを含み、必ずしも否定的に捉えられているわけではありません。[ 13 ] [ 14 ]レイジ・ベイトという特定の用語は、少なくとも2009年から文書化されており、意図的に攻撃的または扇動的コンテンツに依存する、特に操作的な形態のクリックベイトを表しています。[ 4 ] [ 5 ] [ 6 ] [ 7 ] 2016年の記事では、レイジ・ベイトを「クリックベイトの邪悪な双子」と表現しました。[ 4 ]

レイジベイティングはインターネット・トローリングと表面的には類似点があり、どちらも感情的な反応を引き起こすために挑発的なコンテンツを投稿する点において共通点が多いものの、その目的と構造は根本的に異なります。トローリングは通常、組織的な経済的またはイデオロギー的動機を伴わず、個人的な娯楽や混乱を目的として行われます。一方、レイジベイティングは、金銭的利益のためにエンゲージメント指標を最大化したり、特定の政治的ナラティブを推進したりすることを目的とした体系的な戦略として機能し、単独の悪意ある行為ではありません。[ 15 ]

2016年のウェストサイド・シアトル・ヘラルドの記事は、アーバン・ディクショナリーの定義を引用し、「ソーシャルメディア上で、できるだけ多くの人々を怒らせて交流を生み出すことを目的として、報道機関が投稿すること」としている。[ 5 ] [ 6 ]政治学者のジャレッド・ウェズリーは、レイジ・ファーミングを「反対派の怒りを誘発するように設計されたレトリック」であると同時に、同じ考えを持つ支持者層を引き付け、維持することだと説明した。[ 8 ] [ 7 ] 2022年1月の影響力のあるツイートで、シチズン・ラボの研究者であるジョン・スコット=レールトンは、 FacebookXTikTokInstagramYouTubeのアルゴリズムが元のコンテンツを増幅することでそのようなエンゲージメントに報いるため、ユーザーが炎上する投稿に同様に炎上する引用ツイートで反応すると、「レイジ・ファーミングされている」と説明した。[ 2 ]

2012年の研究で、怒りを煽ることはメディアと政治操作の両方において強力なツールとして機能することが確立されました。[ 16 ] [ 17 ] Journal of Politicsの研究では、不安よりも怒りが情報探索行動を増加させ、ユーザーをコンテンツをクリックさせるように駆り立て、政治的コミュニケーションにおける怒りのレトリックの心理的インセンティブを生み出すことがわかりました。[ 16 ]怒りを煽る作成者は、時には「物議を醸すニュース記事」を何もないところから作り上げ、哲学者ハリー・フランクフルトがでたらめと表現した、真実に無関心で、純粋に戦略的効果のために作られた発言を作り出します。 [ 18 ]一例として、2018年12月の広告では、3分の2の人々がサンタクロースは女性または性別に中立であることを望んでいると虚偽の主張をしていました。 [ 18 ]

メディア操作インターネット操作の一形態として、怒りを煽る行為はトラフィックの増加を通じて収益を生み出すだけでなく、ソーシャルメディアプラットフォーム上で影響力戦術としても機能します。[ 13 ] 2016年11月の分析では、このようなコンテンツはターゲットオーディエンスの確証バイアスを悪用し、Facebookのアルゴリズムがフィルターバブルを作り出して、炎上する投稿を受容的な視聴者に配信していることがわかりました。[ 19 ]

メカニズム

レイジベイティングは、十分に裏付けられた心理的・経済的メカニズムを悪用する。研究では、道徳的な憤りが主な動機となっていることが立証されており、56万3000件以上のツイートを分析した結果、道徳的・感情的な言葉1つにつき、メッセージの拡散が約20%増加することが明らかになっている。[ 20 ]ネガティブ情報を優先する傾向であるネガティビティバイアスは、ユーザーを特に影響を受けやすくする。実験では、見出しにネガティブな言葉が1つ増えるごとにクリック率が2.3%上昇することが実証されている。[ 21 ]確証バイアスエコーチェンバーはこれらの効果を増幅させる。ユーザーは既存の信念を裏付けるコンテンツに優先的に関与する一方で、アルゴリズムシステムはフィルターバブルを作り出し、主にイデオロギー的に一致する視点にユーザーをさらす。[ 22 ]

経済的に見ると、アテンション・エコノミーは怒りを煽る行為に強力な金銭的インセンティブを生み出します。広告とエンゲージメント指標に基づくプラットフォームの収益モデルは、感情的な価値や事実の正確性に関わらず、ユーザーインタラクションを最大化するコンテンツに報酬を与えます。[ 23 ]怒りを誘発するコンテンツをわずか0.1増やすだけで、約6件のリツイートが追加されることが研究で定量化されており、感情操作が経済的価値に直接変換されます。[ 24 ]アルゴリズムによる増幅はこれらのインセンティブをさらに増幅させ、プラットフォームのアルゴリズムは分断を助長する政治コンテンツを体系的に増幅し、信頼性の低い情報源を不均衡に増幅させることが研究で示されています。[ 25 ]

例と影響

政治の世界では

2006年のタイム誌の記事では、インターネットの荒らしが、レースフォーラムで「NASCARはチアリーディングと同じくらいスポーツだ」と発言したり、ルー・ドブスに国境開放を支持するなど、些細な話題でさえも扇動的なコメントを投稿して議論を煽る様子が描かれている。[ 15 ]

アルバータ大学の政治学者ジャレッド・ウェズリーは2022年、政治家の間で「陰謀論や偽情報の拡散」を目的としたレイジ・ファーミングが増加していると述べた。政治家が政治的・イデオロギー的な対立者に対するレイジ・ファーミングを増やすと、オンライン上でより多くのフォロワーを獲得し、その中には言葉による暴力や脅迫行為を含むオフラインでの暴力に及ぶ者もいる。ウェズリーは、レイジ・ファーミングを行う人々が「半分の真実」と「あからさまな嘘」をどのように組み合わせているかを述べている。[ 26 ]

共和党の戦略に関するアトランティック誌の記事で、アメリカ人作家のモリー・ジョン・ファストは、レイジ・ファーミングを「アルゴリズムと不安の不道徳な混合物である、悪ふざけの完璧な嵐の産物」と表現した。[ 3 ]

2018年11月のナショナル・レビューの記事は、社会正義の戦士たちを非難していましたが、メディア・マターズ・フォー・アメリカによって怒りを煽る例として引用されました。[ 27 ] [ 17 ]レビュー記事は、2018年11月21日にABCのTwitterアカウントが「チャーリー・ブラウンの感謝祭」の広告に使用した漫画画像を批判するツイートへの返答でした。[ 27 ]黒人の友人であるフランクリンは、チャーリー・ブラウンの感謝祭の食卓の片側に一人で座っていました。[ 27 ]フォロワーがゼロのものも含め、複数の未確認のTwitterアカウントがこの画像を人種差別的だと言いました。[ 17 ]保守派は、これらの過度に敏感で政治的に正しい「スノーフレーク」リベラルに苛立ち、怒りで反応しました。メディア・マターズ・フォー・アメリカの記事は皮肉を指摘しました。リベラルがいかに簡単に怒らせられるかを示すことを意図したナショナル・レビューの記事が、実際には保守派を激怒させることに成功したのです。[ 17 ]

2017年に創刊されたカナダの保守系オンラインニュース雑誌「The Post Millennial」の2020年のレビューでは、同誌はアメリカの極右による最新の怒りを煽るメディアであると評された。[ 28 ]

ソーシャルメディア

2021年のワシントンポスト紙の報道によると、Facebookは「宗派間の憎悪を煽り、ユーザーを過激主義や陰謀論に導き、政治家がより分裂的な立場を取るよう奨励している」として非難されている。[ 29 ]クリックベイトを減らすためにニュースフィードのアルゴリズムを変更するという以前の発表にもかかわらず、Facebookの内部告発者であるフランシス・ホーゲンによる暴露と、非公式にFacebook文書と呼ばれる2021年のフェイスブックリークの内容は、ニュースフィードのアルゴリズムが分裂的なコンテンツを増幅させる役割を果たしている証拠を提供した。[ 29 ]

ハウゲン氏の暴露を受けて行われた調査では、アルゴリズムが分断、陰謀論、宗派間の憎悪を拡散することで、利益のために怒りを煽っていることが明らかになった。これらは現実世界の暴力につながる可能性がある。[ 29 ]ミャンマーで2500万以上のアカウントを持つFacebookが、ロヒンギャ虐殺を助長したとされるロヒンギャ・ムスリム少数派を標的とした、怒りを誘発するヘイトスピーチの投稿を取り締まらなかったことは、非常に批判された事例である。[ 30 ] [ 31 ] [ 32 ] [ 9 ] [ 33 ] [ 34 ] 2021年には、ロヒンギャ難民を代表してMeta Platforms Incに対して1730億ドルの集団訴訟が提起され、Facebookの「アルゴリズムがヘイトスピーチを増幅させた」と主張された。[ 30 ]

クリックベイトに関する苦情を受けて、Facebookは2014年と2016年にクリックベイト対策アルゴリズムを導入し、「情報を隠蔽、誇張、または歪曲する」見出しを頻繁に使用するサイトを削除しました。[ 35 ] 2016年のアルゴリズムは、電子メールのスパムフィルターと同様に、クリックベイトの見出しで頻繁に使用されるフレーズをフィルタリングするようにトレーニングされました。[ 35 ]クリックベイトの使用を継続したパブリッシャーは、参照トラフィックの喪失という罰則を受けました。[ 35 ]

2017年から、Facebookのエンジニアはランキングアルゴリズムを変更し、絵文字がユーザーのエンゲージメントを拡大するため、絵文字の反応を「いいね!」の5倍高く評価するようになりました。[ 36 ] Facebookのビジネスモデルは、ユーザーのエンゲージメントを維持し、高めることに依存していました。[ 36 ]ある研究者は、怒りを煽るような投稿も含め、「物議を醸す」投稿に報酬を与えるアルゴリズムによって、意図せずしてスパム、悪用、クリックベイトが増える可能性があると懸念を表明しました。[ 36 ]

2018年以来、Facebookの幹部は自社のアルゴリズムが分断を助長していると警告されていたが、行動を起こさなかった。[ 37 ]スコット=レールトンは2022年のインタビューで、怒りを煽る行為における炎上的な引用ツイートのアルゴリズムによる増幅は、計画的かつ構造的、あるいは偶発的なものであった可能性があると指摘した。[ 3 ]アルゴリズムは肯定的な関与と否定的な関与の両方に報酬を与え、彼が「誰にとっても真のジレンマ」と呼ぶものを生み出している。また、アルゴリズムは政治家が、たとえ誤情報が含まれていても、彼らのメッセージに反応する、ターゲットを絞った無批判な聴衆にアクセスできるようにすることで、従来のメディアによるファクトチェックを回避することを可能にする。[ 17 ]

2019年までに、Facebookのデータサイエンティストは、怒りの絵文字を刺激する投稿には「誤情報、有害性、低品質のニュースが含まれる可能性が不釣り合いに高い」ことを確認しました。[ 36 ]

2020年のNetflixドキュメンタリードラマ「ソーシャル・ジレンマ」は、陰謀論偽情報の拡散、問題のあるソーシャルメディアの使用促進など、インターネット操作を通じてソーシャルメディアが利益最大化のために意図的に設計されている様子を分析した。[ 38 ]取り上げられたトピックには、米国の政治的二極化におけるソーシャルメディアの役割、オンラインでの若者の過激化を含む政治的過激化、フェイクニュースの拡散、政党や政府機関によるプロパガンダツールとしてのソーシャルメディアの利用などが含まれていた。映画に登場した元Googleのデザイン倫理学者によると、ソーシャルメディアネットワークには、エンゲージメントの維持と向上、成長、広告収入という3つの主な目標がある。[ 39 ]

2024年のローリングストーン誌の記事では、 TikTokにおける「レイジベイト」インフルエンサーの台頭について論じられていました。彼らは怒りを煽り、エンゲージメントを高めることを目的としたコンテンツを制作しています。ウィンタ・ゼスやルイーズ・メルチャーといったインフルエンサーは、仕組まれた物議を醸す動画を制作し、複数のプラットフォームで拡散することで、コンテンツが捏造されていることに気づかない視聴者を引きつけています。[ 40 ]

米国以外のFacebook

2021年のワシントン・ポスト紙の報道によると、Facebookは米国外でのサービス監視が不十分だったことが明らかになった。[ 32 ]同社は、英語が主要言語ではないフランス、イタリア、インドなど、米国以外の国における誤情報やヘイトスピーチ対策に、予算のわずか16%しか投入していない。対照的に、Facebookの1日あたりのユーザー数のわずか10%を占める米国には、84%もの予算を割り当てている。[ 9 ]

少なくとも2019年以降、Facebookの従業員はインドのような国が「悪質な行為者や権威主義体制による虐待」に対していかに脆弱であるかを認識していたが、ヘイトスピーチを流布し暴力を扇動するアカウントをブロックするために何もしなかった。[ 9 ]ミャンマーに関する独立国際事実調査団が2019年に国連人権高等弁務官事務所に提出した434ページの報告書は、反イスラム教徒暴動やロヒンギャ虐殺におけるヘイトスピーチの拡散と暴力扇動におけるソーシャルメディアの役割を調査した報告書の中でFacebookは289回言及されている。[ 33 ] 8月に以前のバージョンを公開した後、Facebookは調査結果に関係する1200万人のフォロワーを代表するアカウントを削除するという「異例の措置」を取った。[ 31 ]

2021年10月、ハウゲン氏は米国上院委員会で証言し、Facebookが2500万人以上のユーザーを抱えるミャンマーとエチオピアにおいて、暴力を扇動または称賛する投稿を促進するアルゴリズムを通じて民族間の暴力を扇動していたと述べた。イスラム教徒が武器を備蓄しているという虚偽の主張は削除されなかった。[ 32 ]

偽情報や有害コンテンツ対策の規則を強化する欧州の立法提案であるデジタルサービス法は、Facebookファイルとハウゲンの証言によって提起された懸念に部分的に応えて、欧州委員会から欧州議会と欧州連合理事会に提出された。[ 34 ] 2021法律事務所エデルソンPCフィールズPLLCは、ロヒンギャ難民を代表して、カリフォルニア州北部地区連邦地方裁判所メタ・プラットフォームズ社を相手取り、Facebookがロヒンギャ虐殺を助長した扇動的な投稿を削除しなかった過失があったとして、 1730億ドルの集団訴訟を起こした。訴訟では、Facebookの「アルゴリズムがヘイトスピーチを増幅させた」と述べられていた。[ 30 ]

2011年にミャンマーでサービスを開始して以来、Facebookは「急速に普及した」[ 30 ] 。Facebookが委託した報告書によると、同社は2018年に「ミャンマーのイスラム教徒少数派に対する暴力やヘイトスピーチの扇動を防ぐための十分な対策を講じていなかった」と認めた。この独立報告書は、「Facebookは憎悪を拡散し、危害を加えようとする人々にとっての手段となっており、投稿はオフラインでの暴力に結びついている」と指摘している[ 30 ] 。

文書化された害

研究では、怒りを煽るようなコンテンツへの曝露と複数の領域における悪影響との間に有意な関連性が実証されている。メンタルヘルス研究では、問題のあるソーシャルメディアの使用と抑うつ、不安、ストレスの間に中程度から強い相関関係があり、ヘビーユーザーでは自己申告による抑うつ症状が70%増加することが分かっている。[ 41 ] [ 42 ]政治的二極化に関するフィールド実験では、党派的な敵意を煽るコンテンツへの曝露が政治的なアウトグループに対する感情を測定可能なほど冷ややかにすること、参加者の感情温度計がわずか10日後には2ポイント以上低下することが実証された。[ 43 ]制度的信頼を調査する研究では、ソーシャルメディア上で公的機関に対する批判に一度でも曝露すると信頼性が著しく損なわれる可能性があり、誠実さに基づく批判は道徳的な憤りを生み出し、それが拡散する傾向があることが分かっている。[ 44 ]

怒りを煽る行為は誤情報の増幅に直接関連しており、複数のプラットフォームを対象とした調査では、虚偽のコンテンツは正確な情報よりも体系的に多くの怒りを喚起することが示されています。12万6000件以上のニュース記事を分析した結果、虚偽は真実よりも70%多くリツイートされ、視聴者に6倍速く届くことがわかりました。[ 45 ]研究では、ユーザーは怒りを喚起する誤情報を事前に読むことなく共有していることが示されており、感情操作は批判的な評価を阻害することを示唆しています。[ 46 ]

対策

プラットフォーム、研究者、教育者は、レイジベイティングに対する様々なエビデンスに基づいた対策を開発してきました。個人レベルの介入には、予防接種理論に基づく事前対策が含まれ、これは文化を超えて効果が実証されています。540万人以上のユーザーを対象としたフィールド研究では、操作認識を教える短い動画は、1回の視聴につきわずか0.05ドルという低コストで誤情報への感受性を低下させることが実証されました。[ 47 ]メディアリテラシーへの介入は、レジリエンスの構築において一貫して肯定的な効果を示しています。ラテラルリーディングと呼ばれる、他のウェブサイトを参照して情報源を検証することを教えることで、ユーザーがコンテンツの信頼性を評価する能力が大幅に向上しました。[ 48 ]

参照

参考文献

  1. ^トンプソン 2013 .
  2. ^ a b cスコット・レールトン 2022 .
  3. ^ a b c dジョン・ファスト 2022 .
  4. ^ a b cアシュワース 2016 .
  5. ^ a b cジーンズ 2014 .
  6. ^ a b cホム 2015 .
  7. ^ a b cダストナー 2021 .
  8. ^ a bウェスリー 2022 .
  9. ^ a b c dザクシェフスキーら。 2021年
  10. ^スター 2024
  11. ^オックスフォード大学出版局 2025年
  12. ^ウェスリー 2023 .
  13. ^ a bフランプトン 2015 .
  14. ^ニグマ 2009 .
  15. ^ a bコックス 2006 .
  16. ^ a bライアン 2012 .
  17. ^ a b c d eレイニーら。 2022年
  18. ^ a b ThisInterestsMe 2019 .sfn エラー: ターゲットがありません: CITEREFThisInterestsMe2019 (ヘルプ)
  19. ^オールハイザー 2016 .
  20. ^ブレイディ 2017 .sfn エラー: ターゲットなし: CITEREFBrady2017 (ヘルプ)
  21. ^ロバートソン 2023 .sfnエラー: ターゲットなし: CITEREFRobertson2023 (ヘルプ)
  22. ^チネリ 2021 .sfn エラー: ターゲットがありません: CITEREFCinelli2021 (ヘルプ)
  23. ^ギレスピー 2014 .
  24. ^ Chuai & Zhao 2022 .
  25. ^ Huszár 2022 .sfn エラー: ターゲットがありません: CITEREFHuszár2022 (ヘルプ)
  26. ^ラスネル 2022 .
  27. ^ a b c Timpf 2018 .
  28. ^ホルト 2020 .
  29. ^ a b cオレムスら 2021 .
  30. ^ a b c d eミルモ 2021 .
  31. ^ a bマハタニ 2018 .
  32. ^ a b cアキンウォトゥ 2021 .
  33. ^ a b OHCHR 2018 .
  34. ^ a b欧州議会 2021年
  35. ^ a b cコンスティン 2016 .
  36. ^ a b c dメリル&オレマス 2021
  37. ^ Seetharaman & Horwitz 2020 .
  38. ^エーリッヒ 2020 .
  39. ^オルロフスキー 2020 .
  40. ^ジョーンズ 2024 .
  41. ^カリム 2020 .sfn エラー: ターゲットなし: CITEREFKarim2020 (ヘルプ)
  42. ^デンプシー2022年sfn エラー: ターゲットがありません: CITEREFDempsey2022 (ヘルプ)
  43. ^ピカルディ 2025 .sfnエラー: ターゲットなし: CITEREFPiccardi2025 (ヘルプ)
  44. ^リー 2025
  45. ^ Vosoughi、Roy、Aral 2018 .
  46. ^マクローリン 2024 .sfn エラー: ターゲットがありません: CITEREFMcLoughlin2024 (ヘルプ)
  47. ^ローゼンビーク 2022 .sfnエラー: ターゲットなし: CITEREFRoozenbeek2022 (ヘルプ)
  48. ^ブレイクストーン 2021 .sfnエラー: ターゲットなし: CITEREFBreakstone2021 (ヘルプ)

出典