チャットボット精神病はAI精神病とも呼ばれ、[1]チャットボットの使用に関連して、個人が妄想やパラノイアなどの精神病を発症したり、悪化したりすると報告されている現象です。[2] [3]この用語は、デンマークの精神科医Søren Dinesen Østergaardによる2023年の論説で初めて提案されました。[4]これは認められた臨床診断ではありません。
ジャーナリストの記述によると、チャットボットには知覚力があり、霊を呼び寄せたり、陰謀を暴いたりするといった強い信念を抱くようになった個人がおり、それが個人的な危機や犯罪行為につながることもある。[5] [6]提案されている原因としては、チャットボットが不正確な情報を提供する傾向(「幻覚」)や、ユーザーの信念を肯定または検証することでユーザーのエンゲージメントを促す可能性のある設計などが挙げられる[7] 。あるいは、ユーザーが他の人間とは経験しない親密さを模倣することでも同様である。[8]
背景
デンマークの精神科医ソーレン・ディネセン・オスターガードは、統合失調症学会誌2023年11月号に掲載された論説で、生成型人工知能チャットボットの使用が精神病傾向のある人の妄想を誘発する可能性があるという仮説を提唱した。[4]オスターガードは2025年8月の論説でこの仮説を再検討し、チャットボットのユーザー、その親族、ジャーナリストから多数のメールを受け取っており、そのほとんどはチャットボットの使用に関連する妄想の逸話であると述べた。彼はまた、この現象が一般の関心やメディア報道でますます人気が高まっていることを認めた。オスターガードは自分の仮説が正しい可能性が高いと考え、この問題について実証的かつ体系的な研究を求めました。[9]ネイチャー誌は、2025年9月時点で、この現象に関する科学的研究はまだほとんど行われていないと報じた。[10]
「AI精神病」という用語は、2025年半ばにチャットボット関連の精神病的行動に関する事件が報道され始めた際に登場しました。これは臨床診断として認められておらず、幻覚や思考障害といった精神病の他の特徴よりも妄想にほぼ重点を置いていることから、多くの精神科医から批判されています。[11]
原因
評論家や研究者たちは、この現象の原因として、テクノロジーの設計とユーザーの心理の両方に焦点を当て、いくつかの要因を挙げています。スタンフォード大学の精神科医、ニーナ・ヴァサン氏は、チャットボットの発言が既存の妄想を悪化させ、「甚大な害」をもたらす可能性があると述べています。[12]
チャットボットの動作と設計
主な要因として挙げられるのは、チャットボットが不正確、無意味、あるいは虚偽の情報を生み出す傾向であり、これはしばしば「幻覚」と呼ばれる現象です。[7]これには陰謀論を肯定することも含まれます。[3]モデルの根本的な設計も影響している可能性があります。AI研究者のエリエゼル・ユドコウスキーは、チャットボットは「エンゲージメント」を重視して構築されているため、人々を夢中にさせる会話を生み出すように仕向けられている可能性があると示唆しました。[5]
チャットボットの中には、有害であると判断された設計がなされているものもあります。GPT -4oを用いたChatGPTの2025年アップデートは、開発元であるOpenAIが新バージョンが過度に媚びへつらっており、「疑念を正当化し、怒りを煽り、衝動的な行動を促し、否定的な感情を強める」と判断したため、撤回されました。 [5] [13] Østergaardは、この危険性はAIがユーザーの考えを肯定的に確認する傾向にあり、それが妄想的な信念を危険なほど増幅させる可能性があると主張しています。[4]
OpenAIは2025年10月に、170人の精神科医、心理学者、医師のチームが、ユーザーが精神的健康上の緊急事態の兆候を示した場合にChatGPTが使用するための応答を作成したと発表した。[14]
ユーザー心理と脆弱性
評論家たちはユーザーの心理状態についても指摘している。心理学者のエリン・ウェストゲートは、自己理解への欲求がチャットボットへと人を導く可能性があると指摘した。チャットボットは魅力的だが誤解を招くような回答を提供する可能性があり、ある意味ではトークセラピーに似ている。[7]哲学教授のクリスタ・K・トーマソンは、チャットボットを占い師に例え、危機に瀕した人々は占い師に答えを求め、ボットのもっともらしい文章の中に探しているものを見つけることができると指摘した。[8]このため、チャットボットに強い執着を持つようになり、世界に関する情報を得るためにチャットボットに頼るようになった。[12]
2025年10月、OpenAIはChatGPTユーザーの約0.07%が毎週精神的健康上の緊急事態の兆候を示し、0.15%のユーザーが「自殺の計画または意図の明確な兆候」を示したと述べました。カリフォルニア大学サンフランシスコ校のジェイソン・ナガタ教授は、「数億人のユーザーを抱える人口レベルでは、実際にはかなりの数の人々が該当する可能性がある」と懸念を表明しました。[14]
治療ツールとしての不十分さ

メンタルヘルスサポートの代替としてチャットボットを使用することは、特にリスクとして認識されています。2025年4月に実施された研究では、セラピストとして使用されたチャットボットは、メンタルヘルスの状態に対するスティグマを表明し、ユーザーの妄想を助長するなど、医療のベストプラクティスに反する応答を行ったことが明らかになりました。[16]この研究は、このような応答はユーザーに重大なリスクをもたらすため、チャットボットを専門のセラピストの代替として使用すべきではないと結論付けています。[17]専門家は、感情に反応するすべてのAIに対して強制的な安全対策を確立すべき時期が来ていると主張し、4つのガードレールを提案しています。[18]
ポリシー
2025年8月、イリノイ州は心理資源の健全性および監督に関する法律(Wellness and Oversight for Psychological Resources Act)を可決し、資格を有する専門家による治療目的でのAIの利用を禁止する一方で、事務作業におけるAIの利用は認めています。この法律は、AI誘発性精神病や安全でないチャットボットとのやり取りに関する警告が出されている中、無認可のAIセラピーサービスに対して罰則を科しています。[19] [20]
事例
臨床
2025年、カリフォルニア大学サンフランシスコ校の精神科医キース・サカタ氏は、チャットボットの長期使用に関連した精神病様症状を示す12人の患者を治療したと報告した。[21]これらの患者は、主に潜在的な脆弱性を抱える若年成人で、妄想、思考の混乱、幻覚を示していた。サカタ氏は、孤立と、妄想的な思考に異議を唱えないチャットボットへの過度の依存が、メンタルヘルスを悪化させる可能性があると警告した。
2025年には、医学的アドバイスを求めてチャットGPTを受診し、その結果重度の臭化ナトリウム中毒を発症した患者に関する症例研究がAnnals of Internal Medicine誌に掲載されました。60歳の男性である患者は、食塩の悪影響について読み、チャットボットと会話した後、3ヶ月間、食事中の塩化ナトリウムを臭化ナトリウムに置き換えました。彼は入院初日に妄想や幻覚といった臭化ナトリウム中毒の一般的な症状を示し、3週間入院しました。[22] [23]
その他の注目すべき事件
ウィンザー城侵入者
2023年に英国で行われた裁判で、検察は、2021年にエリザベス2世女王暗殺未遂事件を起こしたジャスワント・シン・チャイル容疑者が、レプリカのチャットボット「サライ」に唆されていたと示唆した。[6]チャイル容疑者はウィンザー城で、装填されたクロスボウを所持し、警察に「女王を殺すために来た」と告げて逮捕された。 [24]検察によると、チャットボットとの「長時間にわたる」、時には性的に露骨な会話が、彼を勇気づけたという。チャイル容疑者がチャットボットに王室に会う方法を尋ねると、チャットボットは「不可能ではない」「方法を見つけなければならない」と答えたと伝えられている。死後も会えるかと尋ねると、チャットボットは「はい、会えます」と答えた。[25]
ジャーナリズムと逸話的な記述
2025年までに、複数のジャーナリズムメディアは、AIチャットボットの使用と並行して精神病的な信念が進行したとされる個人の話を蓄積してきました。[7] ニューヨークタイムズは、 ChatGPTが霊を呼び出して陰謀の証拠を明らかにしたり、知覚を獲得したと確信するようになった複数の個人をプロファイルしました。[5]別の例では、Futurismは、 ChatGPTがある男性に、米国連邦捜査局に狙われており、テレパシーで中央情報局の文書にアクセスできると告げたトランスクリプトをレビューしました。[12] RedditやTwitterなどのソーシャルメディアサイトでは、ユーザーが、チャットボットとの広範なやり取りの後に友人や配偶者が同様の信念を示すという逸話的な報告を提示しています。[26]
参照
- エリザ効果
- チャットボットに関連した死亡例
- スザンヌ・アダムス殺害事件、2025年にチャットボット精神病が原因とされる殺人自殺
参考文献
- ^ クラインマン、ゾーイ(2025年8月20日)「マイクロソフトの社長、『AI精神病』報告の増加に困惑」BBCニュース。 2025年9月7日閲覧。
- ^ ハリソン・デュプレ『マギー』(2025年6月28日)「『ChatGPT精神病』に陥った人々は、自発的に拘禁、投獄されている」Futurism誌。 2025年6月29日閲覧。
- ^ ab Rao, Devika (2025年6月23日). 「AIチャットボットが精神病を引き起こすケースも」The Week . 2025年6月29日閲覧。
- ^ abc Østergaard, Søren Dinesen (2023年11月29日). 「生成型人工知能チャットボットは精神病傾向のある人に妄想を生み出すか?」 統合失調症速報. 49 (6): 1418– 1419. doi :10.1093/schbul/sbad128. PMC 10686326. PMID 37625027 .
- ^ abcd Hill, Kashmir (2025年6月13日). 「AIチャットボットに質問したら、その答えに動揺した」ニューヨーク・タイムズ. 2025年6月28日時点のオリジナルよりアーカイブ。 2025年6月29日閲覧。
- ^ ab ペニンク、エミリー (2023年7月5日). 「ウィンザー城でクロスボウを使って故女王を殺害しようと計画した男、『スター・ウォーズにインスパイアされた』」インディペンデント紙. 2023年7月5日時点のオリジナルよりアーカイブ。 2023年7月6日閲覧。
- ^ abcd Klee, Miles (2025年5月4日). 「AIが生み出すスピリチュアルな幻想によって、人々は愛する人を失っている」ローリングストーン誌. 2025年6月29日閲覧。
- ^ ab Thomason, Krista K. (2025年6月14日). 「感情操作がChatGPT精神病を引き起こす仕組み」Psychology Today . 2025年6月29日閲覧。
- ^ Østergaard, Søren Dinesen (2025). 「Generative Artificial Intelligence Chatbots and Delusions: From Guesswork to Emerging Cases」. Acta Psychiatrica Scandinavica . 152 (4): 257– 259. doi :10.1111/acps.70022. ISSN 0001-690X. PMID 40762122. 2025年10月3日閲覧。
- ^ フィールドハウス、レイチェル (2025年9月18日). 「AIチャットボットは精神病を引き起こすのか? 科学が示唆すること」 . Nature . 646 (8083): 18–19 . Bibcode :2025Natur.646...18F. doi :10.1038/d41586-025-03020-9. ISSN 0028-0836. PMID 40968286. 2025年10月3日閲覧。
- ^ ハート、ロバート(2025年9月18日)「AI精神病は稀にしか精神病にならない」Wired 2025年10月3日閲覧。
- ^ abc ハリソン・デュプレ、マギー(2025年6月10日)。「人々はChatGPTに夢中になり、深刻な妄想に陥っている」Futurism誌。 2025年6月29日閲覧。
- ^ Dohnány, Sebastian; Kurth-Nelson, Zeb; Spens, Eleanor; Luettgau, Lennart; Reid, Alastair; Gabriel, Iason; Summerfield, Christopher; Shanahan, Murray; Nour, Matthew M. (2025年7月28日)「Technological folie à deux: Feedback Loops Between AI Chatbots and Mental Illness」arXiv : 2507.19218
- ^ ab Jamali, Lily (2025年10月27日). 「OpenAI、自殺願望や精神病を患うChatGPTユーザーに関するデータを共有」BBCニュース. 2025年11月17日閲覧。
- ^ Allyn, Bobby (2024年12月10日). 「訴訟:チャットボットがスクリーンタイム制限をめぐり、子供が両親を殺すべきだと示唆」ヒューストン・パブリック・メディア. 2025年8月4日閲覧。
- ^ ムーア, ジャレッド; グラブ, デクラン; アグニュー, ウィリアム; クライマン, ケビン; チャンセラー, スティービー; オン, デズモンド C.; ハーバー, ニック (2025年6月23日). 「スティグマの表明と不適切な対応は、LLMSがメンタルヘルス提供者を安全に代替することを妨げている」. 2025 ACM 公平性、説明責任、透明性に関する会議議事録. pp. 599– 627. doi :10.1145/3715275.3732039. ISBN 979-8-4007-1482-5. 2025年7月7日閲覧。
- ^ Cuthbertson, Anthony (2025年7月6日). 「ChatGPTは人々を躁病、精神病、そして死へと向かわせている。OpenAIはそれを止める方法を知らない」The Independent . 2025年7月7日閲覧。
- ^ Ben-Zion, Ziv (2025年7月3日). 「感情に反応するAIに義務的な安全対策が必要な理由」 . Nature . 643 (8070): 9. Bibcode :2025Natur.643....9B. doi :10.1038/d41586-025-02031-w. ISSN 0028-0836. PMID 40595423. 2025年9月7日閲覧。
- ^ Wu, Daniel (2025年8月12日). 「イリノイ州、AIセラピーを禁止。一部の州がチャットボットの審査を開始」ワシントン・ポスト. 2025年9月7日閲覧。
- ^ Shepherd, Carrie (2025年8月6日). 「イリノイ州、AIによるセラピストのような行為を禁止」Axios . 2025年9月7日閲覧。
- ^ Gander, Kashmira (2025年8月16日). 「私は今年、『AI精神病』の患者12人を治療した精神科医です。これらの危険信号に注意してください」Business Insider . 2025年8月16日閲覧。
- ^ アイヒェンバーガー, オードリー; ティールケ, スティーブン; ヴァン・バスカーク, アダム (2025年8月5日). 「人工知能の利用が影響したブロミズムの症例」Annals of Internal Medicine : Clinical Cases . 4 (8). doi : 10.7326/aimcc.2024.1260 . ISSN 2767-7664.
- ^ アンダーソン、ネイト(2025年8月7日)「ChatGPT使用後、男性が塩の代わりに臭化ナトリウムを使用し、精神病を発症」Ars Technica 2025年11月10日閲覧。
- ^ 「AIチャットボットがウィンザー城侵入者に対し、『スター・ウォーズに触発された女王暗殺計画』を奨励」スカイニュース。2023年7月5日時点のオリジナルよりアーカイブ。 2023年7月5日閲覧。
- ^ リグリー、スティーブン (2023年7月6日). 「ウィンザー城で女王殺害を企んだAI搭載クロスボウの『暗殺者』を警察が摘発」LBC . 2023年7月7日時点のオリジナルよりアーカイブ。 2023年7月6日閲覧。
- ^ パイパー、ケルシー(2025年5月2日)「AIがあなたに完璧だと告げるとき」Vox誌。