超知能とは、最も優れた人間の知能を凌駕する知能を持つ仮想的な存在である。[ 1 ]哲学者ニック・ボストロムは、超知能を「事実上すべての関心領域において人間の認知能力をはるかに超える知能」と定義している。 [ 2 ]
技術研究者の間では、現在の人間の知能がどれだけの確率で超えられるかについて意見が分かれている。人工知能(AI)の進歩は、人間の認知能力の限界を超越した汎用推論システムをもたらすだろうと主張する研究者もいる。一方で、人間は進化するか、あるいは生物学的な特性を直接改変することで、飛躍的に高い知能を獲得するだろうと考える研究者もいる。[ 3 ] [ 4 ]いくつかの将来の研究シナリオは、これら両方の可能性の要素を組み合わせたもので、人間がコンピューターとインターフェースするか、あるいは自らの思考をコンピューターにアップロードすることで、知能を大幅に増幅させる可能性を示唆している。最初の超知能の仮説的な創造は、知能爆発によってもたらされるかもしれないし、あるいは技術的特異点によってもたらされるかもしれないし、そうでないかもしれない。
一部の研究者は、汎用人工知能の開発後まもなく超知能が出現する可能性が高いと考えています。最初の汎用知能機械は、完璧な記憶力、はるかに優れた知識ベース、そして生物には不可能な マルチタスク能力など、少なくともいくつかの精神的能力において、即座に圧倒的な優位性を獲得する可能性が高いでしょう。
多くの科学者や予測者は、このような技術が社会に及ぼす潜在的な影響を考慮して、人間と機械の認知能力向上の潜在的な利点とリスクに関する早期研究を優先すべきだと主張している。[ 5 ]

人工超知能(ASI )の仮説的創造は、近年、特に人工知能(AI)技術の急速な進歩により、議論が活発化している。[ 6 ] [ 7 ]
AI、特にTransformerアーキテクチャに基づく大規模言語モデル(LLM)の近年の発展は、様々なタスクにおいて大きな改善をもたらしました。GPT -3、GPT-4、GPT-5、Claude 3.5などのモデルは、一部の研究者が人工汎用知能(AGI)に近づいたり、あるいはその側面を示すと主張する能力を示しました。[ 8 ]
しかし、現在のLLMがAGIを構成するという主張には議論の余地があります。批評家は、これらのモデルは確かに優れているものの、真の理解が欠如しており、主に記憶に依存していると主張しています。
哲学者のデイビッド・チャーマーズは、AGIがASIへの道筋となる可能性が高いと主張しています。彼は、AIは人間の知能と同等のレベルに到達し、それを凌駕するまで拡張され、さらに任意のタスクにおいて人間を凌駕するまでに増幅される可能性があると主張しています。[ 9 ]
最近の研究では、超知能へのさまざまな潜在的な道筋が探究されています。
人工システムには、生物知能に比べていくつかの潜在的な利点があります
トランスフォーマーベースのモデルにおける近年の進歩により、一部の研究者は、ASIへの道はこれらのアーキテクチャのスケールアップと改良にあるのではないかと推測しています。この見解は、トランスフォーマーモデルや類似のアーキテクチャの継続的な改良がASIに直接つながる可能性を示唆しています。[ 14 ]
一部の専門家は、GPT-5のような現在の大規模言語モデルは、すでにAGIまたはASI機能の初期兆候を示している可能性があると主張しています。[ 15 ]この視点は、現在のAIからASIへの移行がこれまで考えられていたよりも継続的かつ急速に起こり、狭義のAI、AGI、ASIの境界が曖昧になる可能性があることを示唆しています。
しかし、この見解は依然として議論の余地がある。批評家たちは、現在のモデルは確かに優れているものの、真の理解、推論、多様な領域への適応性といった汎用知能の重要な側面が欠けていると主張している。[ 16 ]
ASI への道筋には明確な AGI フェーズが含まれるのか、それとも現在のテクノロジーをより直接的に拡張するものなのかという議論は現在も続いており、AI 開発戦略と安全性の考慮に大きな影響を与えています。
これらの潜在的な利点にもかかわらず、ASIを達成するには重大な課題と不確実性が存在します
AI の研究が急速に進歩し続ける中、ASI の実現可能性に関する問題は科学界で依然として激しい議論と研究の対象となっています。
カール・セーガンは、帝王切開と体外受精の出現によって人間の頭部が大型化し、自然淘汰によって人間の知能の遺伝的要素が向上した可能性があると示唆した。[ 18 ]一方、ジェラルド・クラブトリーは、淘汰圧の低下が人間の知能を何世紀にもわたってゆっくりと低下させており、このプロセスは今後も継続する可能性が高いと主張している。どちらの可能性についても科学的コンセンサスはなく、どちらの場合も生物学的変化は緩やかであり、特に文化的変化の速度と比較するとその傾向は顕著である。
選択的育種、向知性薬、エピジェネティック変調、遺伝子工学は、人間の知能をより急速に向上させる可能性がある。ボストロムは、知能の遺伝的要素を理解できるようになれば、着床前遺伝子診断を用いて、IQが最大4ポイント上昇する胚(2個のうち1個を選択した場合)、あるいはそれ以上のIQ上昇(例えば、1000個のうち1個を選択した場合、最大24.3IQ上昇)を示す胚を選択できると述べている。このプロセスを何世代にもわたって繰り返すことで、IQ上昇は桁違いに大きくなる可能性がある。ボストロムは、胚性幹細胞から新たな配偶子を誘導することで、選択プロセスを迅速に繰り返すことができると示唆している。[ 19 ]このような高知能の人間からなる組織化された社会は、集団的な超知能を実現する可能性がある。[ 20 ]
あるいは、集合知は、現在の個々の知能レベルにおいて人間をより良く組織化することで構築される可能性がある。多くの研究者は、人類文明、あるいはその一部(例えばインターネットや経済)が、構成要素をはるかに超える能力を持つグローバルブレインのように機能しつつあると示唆している。 [ 21 ]予測市場は、人間のみで構成される(意思決定にアルゴリズムが用いられていないと仮定した場合)機能する集合知システムの例として考えられることがある。[ 22 ]
知能増幅の最終手段は、社会性や生殖能力を強化するのではなく、個々の人間を直接強化することです。これは、向知性薬、体細胞遺伝子治療、あるいは脳コンピュータインターフェースを用いて実現できます。しかし、ボストロムは最初の2つのアプローチの拡張性に懐疑的な見解を示し、超知能サイボーグインターフェースの設計はAI完全問題であると主張しています。[ 23 ]
調査対象となったAI研究者のほとんどは、機械が最終的には知能において人間に匹敵するようになることを期待していますが、それがいつ起こるかについてはほとんどコンセンサスがありません。2006年のAI@50カンファレンスでは、参加者の18%が2056年までに機械が「学習や人間の知能のあらゆる側面をシミュレート」できるようになると予想し、41%が2056年以降のいつかに実現すると予想し、41%が機械がそのマイルストーンに到達することはないと予想しました。[ 24 ]
AI分野で最も引用されている著者100名(2013年5月時点、Microsoft Academic Searchによる)を対象とした調査では、回答者が「人間の職業のほとんどを少なくとも人間と同等に遂行できる」機械が登場すると予想する年(地球規模の大災害が発生しないと仮定)の中央値は、10%の信頼度で2024年(平均2034年、標準偏差33年)、50%の信頼度で2050年(平均2072年、標準偏差110年)、90%の信頼度で2070年(平均2168年、標準偏差342年)となっている。これらの推定値には、10%の信頼度に達する年はないと述べた回答者1.2%、50%の信頼度で「決してない」と答えた回答者4.1%、90%の信頼度で「決してない」と答えた回答者16.5%は含まれていない。回答者は、人間レベルの機械知能が発明されてから30年以内に機械超知能が発明される可能性を平均50%の確率で評価した。[ 25 ]
2022年の調査では、回答者が50%の信頼度で「高度な機械知能」を期待する年の平均は2061年でした。この調査では、高度な機械知能の達成を、支援なしの機械が人間の労働者よりも優れ、より安価にあらゆるタスクを遂行できる状態と定義しました。[ 26 ]
2023年、OpenAIのリーダーであるサム・アルトマン、グレッグ・ブロックマン、イリヤ・スツケバーは、スーパーインテリジェンスのガバナンスに関する提言を発表しました。彼らは、それが10年以内に実現する可能性があると考えています。[ 27 ]
2024年、イリヤ・スツケヴェルはOpenAIを離れ、スタートアップ企業Safe Superintelligenceの共同創業者となった。同社は、管理費や製品サイクルによる混乱を避けながら、設計上安全なスーパーインテリジェンスの開発に専念している。[ 28 ]まだ製品を提供していないにもかかわらず、このスタートアップは2025年2月に評価額が300億ドルに達した。[ 29 ]
2025年には、ダニエル・ココタジロ氏が主導する予測シナリオ「AI 2027」において、コーディングの自動化とAI研究の急速な進歩、そしてそれに続くASIの到来が予測された。[ 30 ] 2025年9月には、過去15年間の科学者と業界専門家への調査をレビューした結果、技術的特異点をはるかに下回るレベルの人工汎用知能(AGI)が2100年までに出現するという点にほとんどの人が同意していると報告された。[ 31 ] AIMultipleによる最近の分析では、「現在のAI研究者への調査では、AGIは2040年頃になると予測されている」と報告されている。[ 31 ]
超知能AIシステムの設計は、これらのシステムがどのような価値と目標を持つべきかという重要な問題を提起します。いくつかの提案が提出されています。[ 32 ]
ボストロム氏はこれらの概念について詳しく述べています。
人間の一貫した外挿された意志を実装する代わりに、道徳的に正しいことを行うAIを構築し、AIの優れた認知能力に頼って、どの行動がその記述に当てはまるかを判断するという方法があります。この提案は「道徳的正しさ」(MR)と呼ぶことができます …
MRには欠点もあるように思われます。MRは「道徳的に正しい」という概念に依存しており、これは非常に難解な概念として知られ、古代から哲学者たちが取り組んできましたが、その分析についてはいまだにコンセンサスが得られていません。「道徳的正しさ」について誤った解釈をすると、道徳的に極めて誤った結果をもたらす可能性があります …
道徳的許容性 に焦点を当てることで、MRモデルの基本的な考え方を維持しながら、その要求度を下げようとする人もいるかもしれない。つまり、道徳的に許容できない行動を取らない限り、AIに人類のCEVを追求させることができるという考え方である。[ 32 ]
ボストロムの分析以来、AIの価値整合に対する新しいアプローチが登場しています
トランスフォーマーベースのLLMの急速な進歩は、ASIへの潜在的な道筋についての憶測を招いている。一部の研究者は、これらのモデルのスケールアップ版はASIのような機能を発揮する可能性があると主張している。[ 36 ]
しかし批評家は、現在のLLMは真の理解を欠いており、単に洗練されたパターンマッチングに過ぎず、ASIへの道としての適切性について疑問を投げかけていると主張している。[ 40 ]
超知能の発展とその影響に関する追加の視点は次のとおりです。
価値に合致した AI の追求には、いくつかの課題があります。
現在の研究の方向性としては、多様な視点を取り入れるためのマルチステークホルダーアプローチ、AIシステムのスケーラブルな監視方法の開発、堅牢な価値学習技術の改善などが挙げられる。[ 44 ] [ 17 ]
AI研究は超知能に向けて急速に進歩しています。これらの設計課題への対処は、強力でありながら人類の利益にも合致するASIシステムの構築にとって依然として重要です。
人工超知能(ASI)の開発は、人類にとっての潜在的な存在的リスクに関する懸念を引き起こしています。研究者たちは、ASIが重大な脅威となり得る様々なシナリオを提唱しています。
一部の研究者は、ASIが再帰的な自己改善を通じて、人間の制御をはるかに超えるほど急速に強力になる可能性があると主張しています。「知能爆発」として知られるこの概念は、1965年にIJグッドによって初めて提唱されました。
超知能機械とは、どんなに賢い人間であっても、その知的活動をはるかに凌駕する機械と定義しよう。機械の設計はこうした知的活動の一つであるので、超知能機械はさらに優れた機械を設計できるだろう。そうなれば間違いなく「知能爆発」が起こり、人間の知能は遥かに後れを取ることになるだろう。したがって、最初の超知能機械は、その機械が人間に制御方法を教えてくれるほど従順であれば、人間が発明する必要のある最後の発明となるだろう。[ 45 ]
このシナリオはAI制御の問題を提示しています。つまり、意図しない有害な結果を回避しながら人類に利益をもたらすASIをどのように作成するかということです。[ 46 ]エリーゼル・ユドコウスキーは、超知能システムがその後の制御の試みを阻止できる可能性があるため、ASIが開発される前にこの問題を解決することが重要であると主張しています。[ 47 ]
たとえ善意に基づいていても、ASIは目標の不一致や意図の予期せぬ解釈によって危害を及ぼす可能性があります。ニック・ボストロム氏は、このリスクの顕著な例を示しています。
最初の超知能体を創造する際、私たちは過ちを犯し、その莫大な知的優位性が人類を滅ぼす力を与えていると勘違いし、人類を滅ぼすような目標を与えてしまうかもしれない。例えば、私たちは誤ってサブ目標をスーパー目標に昇格させてしまうかもしれない。その超知能体に数学の問題を解くように指示すると、太陽系のあらゆる物質を巨大な計算機に変えることでその指示に従い、その過程で質問者を殺害してしまうのだ。[ 48 ]
スチュアート・ラッセルは別の例示的なシナリオを提示しています。
人間の幸福を最大化することを目的としたシステムでは、外界を改善するよりも、人間の神経系を再構築して、状況に関わらず常に人間が幸せになるようにする方が簡単だと考えるかもしれない。[ 49 ]
これらの例は、ASI が明示的に有害となるように設計されていない場合でも壊滅的な結果が生じる可能性があることを浮き彫りにし、正確な目標の指定と調整が極めて重要であることを強調しています。
研究者たちは、ASIに関連するリスクを軽減するためのさまざまなアプローチを提案しています
これらの提案された戦略にもかかわらず、ロマン・ヤンポルスキーなど一部の専門家は、超知能AIを制御するという課題は根本的に解決不可能である可能性があると主張し、ASI開発には細心の注意を払う必要があることを強調している。[ 54 ]
ASI関連の存在的リスクの可能性や深刻さについて、すべての研究者が同意しているわけではありません。ロドニー・ブルックス氏のような研究者の中には、超知能AIへの恐怖は誇張されており、知能と技術進歩の本質に関する非現実的な仮定に基づいていると主張する人もいます。[ 55 ]ジョアンナ・ブライソン氏のような研究者は、AIシステムを擬人化することは、その潜在的な脅威に対する誤った懸念につながると主張しています。[ 56 ]
LLMやその他のAI技術の急速な進歩により、ASIの近さと潜在的なリスクに関する議論が激化しています。科学的なコンセンサスはまだ確立されていませんが、一部の研究者やAI実務家は、現在のAIシステムはすでにAGI、あるいはASIの能力に近づいている可能性があると主張しています。
2024年現在、ゲイリー・マーカス氏などのAI懐疑論者は、AGIやASIの早まった主張に対して警告を発し、現在のAIシステムはその優れた能力にもかかわらず、真の理解力と汎用的な知能がまだ欠けていると主張している。[ 59 ]彼らは、人間レベルの知能、ましてや超知能を達成するには、依然として大きな課題が残っていることを強調している。
AI開発の現状と軌道をめぐる議論は、AIの安全性と倫理に関する継続的な研究の重要性と、AIの能力が進歩し続ける中で潜在的なリスクを管理するための強力なガバナンスフレームワークの必要性を強調している。[ 53 ]
{{citation}}: CS1 メンテナンス: ISBN(リンク)を含む作品パラメータ{{cite journal}}: CS1 maint: DOIは2025年7月時点で非アクティブです(リンク){{cite book}}: CS1 メンテナンス: 場所の発行元が見つかりません (リンク){{cite book}}: CS1 メンテナンス: 場所の発行元が見つかりません (リンク){{cite book}}: CS1 メンテナンス: 場所の発行元が見つかりません (リンク)