アルゴリズムの過激化

アルゴリズムによる過激化とは、 YouTubeFacebookなどの人気ソーシャルメディアサイトにおける推奨アルゴリズムが、ユーザーを時間の経過とともに徐々に過激なコンテンツへと誘導し、過激な政治的見解を育むという概念である。アルゴリズムは、いいね/嫌い、投稿に費やした時間など、ユーザーのインタラクションを記録し、ユーザーのエンゲージメントを維持することを目的とした無限のメディアを生成する。エコーチェンバーチャネルを通じて、消費者はメディアの嗜好や自己肯定感を通じて、より分極化するように駆り立てられる。 [ 1 ] [ 2 ] [ 3 ] [ 4 ]

アルゴリズムによる過激化は、ソーシャルメディア企業にとってエコーチェンバーチャンネルを削除することが必ずしも最善の利益にならないため、依然として議論の余地のある現象です。[ 5 ] [ 6 ]推奨アルゴリズムが実際に過激化にどの程度関与しているかについては議論が続いており、アルゴリズムが過激なコンテンツを促進したかどうかについては、研究で矛盾する結果が示されています。

ソーシャルメディアのエコーチェンバーとフィルターバブル

ソーシャルメディアプラットフォームは、ユーザーの興味や好みを学習し、フィード内の体験を調整して、ユーザーの関心を維持し、スクロールし続けてもらうよう努めています。これはフィルターバブルとして知られています。[ 7 ]エコーチェンバーは、ユーザーが自分の考えを増幅または強化する信念に遭遇し、閉鎖的なシステム内で同じ考えを持つユーザーのグループを形成するときに形成されます。[ 1 ]エコーチェンバーは、反対の信念なしに情報を拡散し、確証バイアスにつながる可能性があります。集団分極化理論によると、エコーチェンバーはユーザーやグループをより過激な立場に導く可能性があります。[ 8 ]国立医学図書館によると、「オンラインユーザーは、自分の世界観に合致する情報を好み、反対意見は無視し、共通のナラティブを中心に分極化したグループを形成する傾向があります。さらに、分極化が進むと、誤情報が急速に蔓延します。」[ 8 ]

サイト別

フェイスブック

Facebookのアルゴリズムは、ユーザーが交流したくなるようなコンテンツを推奨することに重点を置いています。友人による人気投稿、バイラルコンテンツ、そして時には賛否両論を呼ぶコンテンツを優先してコンテンツをランク付けします。各フィードはユーザーの特定の興味に合わせてパーソナライズされているため、ユーザーを問題のあるコンテンツのエコーチェンバーに誘導することがあります。[ 9 ]ユーザーは、「広告設定」ページで、アルゴリズムが使用する興味リストを確認できます。ピュー研究所の調査によると、Facebookユーザーの74%は、調査でそのページに誘導されるまで、このリストの存在を知りませんでした。[ 10 ]また、Facebookがユーザーに政治的なラベルを付けることも比較的一般的です。近年、Facebookは人工知能を活用して、ユーザーがフィードで見るコンテンツや推奨コンテンツを変更し始めています。 「 Facebookファイル」と呼ばれる文書によると、FacebookのAIシステムはユーザーエンゲージメントを何よりも優先していることが明らかになりました。また、「Facebookファイル」は、AIシステムの制御が困難であることも示しています。[ 11 ]

2021年に流出した2019年8月の内部メモで、Facebookは「当社のプラットフォームの仕組みは中立的ではない」と認め、[ 12 ] [ 13 ]、最大の利益を上げるためにはエンゲージメントの最適化が必要だと結論付けています。エンゲージメントを高めるために、アルゴリズムはヘイト、誤情報、政治がアプリのアクティビティに大きく影響することを発見しました。[ 14 ]メモには、「コンテンツが扇動的であればあるほど、ユーザーのエンゲージメントを高め、アルゴリズムによってブーストされる」と記されています。[ 12 ] 2018年の調査によると、「虚偽の噂は真実の情報よりも速く、広く拡散する…」という結果が出ています。この調査では、虚偽は真実よりもTwitterでリツイートされる可能性が70%高く、最初の1,500人に届くまでの時間が6倍速いことがわかりました。この効果は、他のカテゴリーよりも政治ニュースで顕著です。[ 15 ]

ユーチューブ

YouTubeは2005年からサービスを提供しており、月間ユーザー数は25億人を超えています。YouTubeのコンテンツ検索システムは、ユーザーの個人的なアクティビティ(視聴、お気に入り、高評価)に基づいておすすめコンテンツを誘導します。YouTubeのアルゴリズムは、ユーザーのおすすめ動画の約70%と、ユーザーが特定のコンテンツを視聴する動機を決定づけています。[ 16 ] Mozilla Foundationの2022年の調査によると、ユーザーは、ヘイトスピーチやライブ配信などの不要な動画をおすすめコンテンツから除外する力がほとんどありません。[ 17 ] [ 16 ]

YouTubeは過激派コンテンツの拡散に影響力のあるプラットフォームとして特定されている。アルカイダなどの過激派グループは、YouTubeを勧誘動画の配信や国際メディアとの交流に利用していたとされている。American Behavioral Scientist Journalに掲載された研究では、「YouTubeアルゴリズムの意思決定プロセスの一部を説明するのに役立つ可能性のある一連の属性を特定できるかどうか」が調査された。[ 18 ]研究結果によると、YouTubeのアルゴリズムによる過激派コンテンツの推奨は、動画のタイトルに含まれる過激なキーワードに基づいている。2023年2月に起きたゴンザレス対Googleの訴訟では、YouTubeの親会社であるGoogleが、サイトのアルゴリズムがテロリストにISIS動画を推奨するのを助長したという訴訟から保護されるかどうかが争点となっている。第230条は、オンラインプラットフォームをユーザーが投稿したコンテンツに対する民事責任から一般的に保護することが知られている。[ 19 ]

複数の研究では、YouTubeのアルゴリズムが、まだ極右コンテンツに興味を持っていない人々の注意を極右コンテンツに向けさせていることを示す証拠はほとんど、あるいは全く見つかっていない。[ 20 ] [ 21 ] [ 22 ]

ティックトック

TikTokは、ユーザーの「おすすめページ」(FYP)に動画を推奨するプラットフォームであり、ユーザーごとに異なるページが表示されます。アプリのアルゴリズムの性質上、TikTokのFYPは、ユーザーの過去のアプリ内でのインタラクションに基づいて、時間の経過とともにより露骨で過激な動画を表示する傾向があるとされています。[ 23 ] TikTokは設立以来、誤情報やヘイトスピーチについて精査されてきました。これらのメディアは通常、アルゴリズムへのインタラクションを多く生み出すためです。[ 24 ]

ジハード主義組織を含む様々な過激派グループが、プロパガンダの拡散、フォロワーの獲得、暴力扇動にTikTokを利用しています。ユーザーのエンゲージメントに基づいてコンテンツを推奨するTikTokのアルゴリズムは、ユーザーの興味や交流内容に合致する過激派コンテンツにユーザーをさらしてしまう可能性があります。[ 25 ]

2022年現在、TikTokの米国セキュリティ責任者は、ヘイトスピーチ、嫌がらせ、誤情報を削減するために、「4月から6月の間​​に、コミュニティガイドラインまたは利用規約に違反したとして世界中で81,518,334本の動画が削除された」という声明を発表している。[ 26 ]

研究では、TikTokで出会ったコンテンツを通じて個人が過激化した事例が指摘されています。例えば、2023年初頭、オーストリア当局はLGBTQ+プライドパレードに対する陰謀を阻止しました。この陰謀には、TikTok上のジハード主義コンテンツに触発された10代の若者2人と20歳の若者1人が関与していました。最年少の容疑者である14歳の少年は、イスラム主義インフルエンサーがジハードを称賛する動画を視聴していました。これらの動画がきっかけで、彼は同様のコンテンツにさらに関心を持つようになり、最終的に攻撃計画に関与するに至りました。[ 25 ]

別の事例としては、 2024年にオーストリアのウィーンで、テイラー・スウィフトのコンサートでテロ攻撃を計画していた複数の10代の若者が逮捕された事件が挙げられます。捜査の結果、容疑者の一部はオンラインで過激化しており、TikTokは彼らの信念や行動に影響を与える過激派コンテンツを拡散するために利用されたプラットフォームの一つであったことが明らかになりました。[ 25 ]

自己過激化

米国国土安全保障省の「何か見たら、声を上げよう」キャンペーンのインフォグラフィック。このキャンペーンは、国内テロとテロ関連犯罪への意識を高めるための全国的な取り組みです。

米国司法省は、「ローンウルフ」(自称)テロリズムを「政府やテロ組織の支援や奨励を受けずに単独でテロ攻撃を行う者」と定義している。[ 27 ]インターネット上のソーシャルメディアを通じて、「ローンウルフ」テロリズムが増加しており、アルゴリズムによる過激化と関連付けられている。[ 28 ]インターネット上のエコーチェンバーを通じて、通常は過激と見なされる見解が他の過激派に受け入れられ、すぐに取り入れられた。[ 29 ]これらの見解は、フォーラム、グループチャット、ソーシャルメディアによって奨励され、彼らの信念を強化している。[ 30 ]

メディアでの言及

社会的ジレンマ

『ソーシャル・ジレンマ』は、ソーシャルメディアの背後にあるアルゴリズムがどのように依存症を助長し、人々の意見、感情、行動を操作して陰謀論や偽情報を拡散させる能力を持っているかを描いた2020年のドキュメンタリードラマです。この映画では、「エコーチェンバー」や「フェイクニュース」といった流行語を繰り返し用いて、ソーシャルメディアにおける心理操作、ひいては政治的操作につながることを証明しています。映画の中で、アルゴリズムがベンのソーシャルメディアページの長期エンゲージメントの確率を62.3%と判定したため、ベンはソーシャルメディア依存症にさらに深く陥っていきます。その結果、ベンのおすすめフィードにはさらに多くの動画が表示され、最終的にはプロパガンダや陰謀論にどっぷりと浸かり、動画を見るたびに意見が二極化していきます。

提案された解決策

セクション230の保護を弱める

通信品位法第230条は、「双方向コンピュータサービスのプロバイダーまたはユーザーは、他の情報コンテンツプロバイダーが提供する情報の発行者または発言者として扱われてはならない」と規定している。[ 31 ]第230条は、ユーザーによる違法行為など、第三者のコンテンツに関する責任や訴訟からメディアを保護する。[ 31 ]しかし、批判的な人々は、このアプローチは企業が有害なコンテンツや誤情報を削除するインセンティブを低下させ、この抜け穴によってソーシャルメディア企業が法的リスクを負うことなく過激なコンテンツを推進することで利益を最大化することを可能にしていると主張している。[ 32 ]この主張自体も第230条の支持者から批判されている。なぜなら、この条項が可決される前に、裁判所はStratton Oakmont, Inc.対Prodigy Services Co.の訴訟において、いかなる形態のモデレーションも、コンテンツプロバイダーが残すことを選択したコンテンツの「発行者」として責任を負わせる判決を下していたからである。[ 33 ]

議員たちは、アルゴリズムコンテンツに対する第230条の保護を弱体化または撤廃する法案を起草した。下院民主党議員のアンナ・エシューフランク・パローン・ジュニアマイク・ドイルジャン・シャコウスキーは、2021年10月にHR 5596として「悪質アルゴリズムに対する正義法案」を提出した。この法案は委員会で廃案となったが[ 34 ] 、ユーザーにコンテンツを提示するパーソナライズされた推奨アルゴリズムが、身体的または深刻な精神的傷害につながるコンテンツを故意にまたは無謀に配信した場合、サービスプロバイダーに対する第230条の保護を撤廃する内容だった。[ 35 ]

参照

参考文献

  1. ^ a b「ソーシャルメディアエコーチェンバーとは? | スタンリチャーズ広告学部」advertising.utexas.edu 2020年11月18日. 2022年11月2日閲覧
  2. ^ 「英国の極右インフルエンサーを支えるウェブサイト」bellingcat . 2021年2月24日. 2021年3月10日閲覧
  3. ^ Camargo, Chico Q. (2020年1月21日). 「YouTubeのアルゴリズムは人々を過激化させるかもしれないが、本当の問題は、それがどのように機能するのか私たちには分からないということだ」 . The Conversation . 2021年3月10日閲覧
  4. ^ E&T編集部(2020年5月27日)「Facebookはアルゴリズム主導の過激主義に関する独自の証拠に基づいて行動しなかった」 eandt.theiet.org 2021年3月10日閲覧
  5. ^ 「ソーシャルメディア企業はヘイトスピーチにどう対処できるか?」ナレッジ・アット・ウォートン2022年11月22日閲覧
  6. ^ “Internet Association – We Are The Voice Of The Internet Economy. | Internet Association” . 2021年12月17日. 2021年12月17日時点のオリジナルよりアーカイブ。 2022年11月22日閲覧
  7. ^ Kaluža, Jernej (2022年7月3日). 「フィルターバブルの習慣的生成:アルゴリズムによるパーソナライゼーションはなぜ民主的な公共圏にとって問題なのか?」 . Javnost – the Public, Journal of the European Institute for Communication and Culture . 29 (3): 267– 283. doi : 10.1080/13183222.2021.2003052 . ISSN 1318-3222 . 
  8. ^ a b Cinelli, Matteo; De Francisci Morales, Gianmarco; Galeazzi, Alessandro; Quattrociocchi, Walter; Starnini, Michele (2021年3月2日). 「ソーシャルメディアにおけるエコーチェンバー効果」 . Proceedings of the National Academy of Sciences of the United States of America . 118 (9 ) : –2023301118. Bibcode : 2021PNAS..11823301C . doi : 10.1073/pnas.2023301118 . ISSN 0027-8424 . PMC 7936330. PMID 33622786 .   
  9. ^ウィル・オレムス、クリス・アルカンタラ、ジェレミー・メリル、アルトゥール・ガロチャ(2021年10月26日)「Facebookがあなたのフィードをどのように形作るか」ワシントン・ポスト。 2023年4月12日閲覧
  10. ^ Atske, Sara (2019年1月16日). 「Facebookのアルゴリズムと個人データ」 .ピュー研究所: インターネット、科学技術. 2023年4月12日閲覧
  11. ^ Korinek, Anton (2021年12月8日). 「なぜ高度な人工知能を規制するための新しい機関が必要なのか:Facebookファイルから学ぶAI制御の教訓」 .ブルッキングス研究所. 2023年4月12日閲覧。
  12. ^ a b「偽情報、過激化、アルゴリズムによる増幅:議会はどのような措置を講じることができるか?」ジャスト・セキュリティ2022年2月7日。 2022年11月2日閲覧
  13. ^アイザック・マイク(2021年10月25日)「Facebook、ソーシャルネットワーキングの定義に使われてきた機能に苦戦」ニューヨーク・タイムズISSN 0362-4331 202211月2日閲覧 
  14. ^リトル、オリビア(2021年3月26日)「TikTokはユーザーに極右過激派アカウントのフォローを促している」。Media Matters for America 。 2022年11月2日閲覧
  15. ^ 「研究:偽ニュースは真実よりも速く広がる」 MITスローン校2018年3月8日2022年11月2日閲覧
  16. ^ a b「あの動画が気に入らなかった?YouTubeのアルゴリズムがあなたに似た別の動画をプッシュするかもしれない」 MITテクノロジーレビュー2023年4月11日閲覧。
  17. ^ 「YouTubeユーザーコントロール調査 – Mozilla Foundation」 Mozilla Foundation 2022年9月2024年11月12日閲覧
  18. ^ Murthy, Dhiraj (2021年5月1日). 「プラットフォームの説明責任の評価:YouTube上のテロリストコンテンツ」. American Behavioral Scientist . 65 (6): 800– 824. doi : 10.1177/0002764221989774 . S2CID 233449061 . 
  19. ^ルート、デイモン(2023年4月)「Scotusは第230条の適用範囲を検討」 Reason54 ( 11):8. ISSN 0048-6906 . 
  20. ^ Ledwich, Mark; Zaitsev, Anna (2020年3月2日). 「アルゴリズム的過激主義:YouTubeの過激化という落とし穴を検証する」 . First Monday . 25 (3). arXiv : 1912.11211 . doi : 10.5210/fm.v25i3.10419 .
  21. ^ Hosseinmardi, Homa; Ghasemian, Amir; Clauset, Aaron; Mobius, Markus; Rothschild, David M.; Watts, Duncan J. (2021年8月10日). 「YouTubeにおける過激なコンテンツの消費実態の検証」 . Proceedings of the National Academy of Sciences . 118 (32) e2101967118. arXiv : 2011.12843 . Bibcode : 2021PNAS..11801967H . doi : 10.1073/ pnas.2101967118 . PMC 8364190. PMID 34341121 .  
  22. ^ Chen, Annie Y.; Nyhan, Brendan; Reifler, Jason; Robertson, Ronald E.; Wilson, Christo (2023年9月). 「登録と外部リンクは、憤慨したユーザーオルタナティブ系や過激派系のYouTubeチャンネルに誘導する」 . Science Advances . 9 (35) eadd8080. arXiv : 2204.10921 . Bibcode : 2023SciA....9D8080C . doi : 10.1126/sciadv.add8080 . PMC 10468121. PMID 37647396 .  
  23. ^ 「TikTokのアルゴリズムがユーザーをトランスフォビック動画から極右のうさぎの穴へと導く」 Media Matters for America . 2021年10月5日. 2022年11月22日閲覧
  24. ^リトル、オリビア(2021年4月2日)「一見無害なTikTokの陰謀論アカウントが極右プロパガンダを推進しており、TikTokはユーザーにフォローを促している」。Media Matters for America 。 2022年11月22日閲覧
  25. ^ a b c「TikTokジハード:テロリストは現代のツールを活用してメンバーを勧誘し、過激化させる」ザ・ソウファン・センター。2024年8月9日。 2024年8月10日閲覧
  26. ^ 「憎悪と嫌がらせに対する私たちの継続的な戦い」ニュースルーム | TikTok。2019年8月16日。 2022年11月22日閲覧
  27. ^ 「アメリカにおけるローンウルフテロリズム | 司法プログラム局」www.ojp.gov . 2022年11月2日閲覧
  28. ^アルファノ, マーク; カーター, J. アダム; チョン, マーク (2018). 「テクノロジーによる誘惑と自己過激化」 .アメリカ哲学会誌. 4 (3): 298– 322. doi : 10.1017/apa.2018.27 . ISSN 2053-4477 . S2CID 150119516 .  
  29. ^デュボア、エリザベス、ブランク、グラント(2018年5月4日)「エコーチェンバー効果は誇張されている:政治的関心と多様なメディアの緩和効果」情報・コミュニケーション・社会21 (5): 729–745 . doi : 10.1080/1369118X.2018.1428656 . ISSN 1369-118X . S2CID 149369522 .  
  30. ^サンスティーン、キャス・R.(2009年5月13日)『極限への挑戦:似た者同士の結束と分裂』オックスフォード大学出版局、ISBN 978-0-19-979314-3
  31. ^ a b「47 US Code § 230 – 不快なコンテンツのプライベートブロックおよびスクリーニングの保護」 LII / Legal Information Institute . 2022年11月2日閲覧
  32. ^スミス、マイケル・D、アルスタイン、マーシャル・ヴァン(2021年8月12日) 「第230条更新する時が来た」ハーバード・ビジネス・レビュー。ISSN 0017-8012 。 2022年11月2日閲覧 
  33. ^ Masnick, Mike (2020年6月23日). 「こんにちは!通信品位法第230条についてあなたが間違っているため、ここに紹介されました」 . 2024年4月11日閲覧
  34. ^ 「HR 5596(第117回法案):2021年悪意あるアルゴリズムに対する正義法」 GovTrack 20244月11日閲覧
  35. ^ Robertson, Adi (2021年10月14日). 「議員らはFacebookのニュースフィードから法的保護を剥奪したい」 . The Verge . 2021年10月14日時点のオリジナルよりアーカイブ。 2021年10月14日閲覧