シングルトン(グローバルガバナンス)

未来学において、シングルトンとは、最高レベルの単一の意思決定機関が存在し、その領域を効果的に統制し、その覇権に対する内外からの脅威を永続的に防ぐことができるという仮説上の世界秩序を指す。この用語はニック・ボストロムによって初めて定義された。[ 1 ] [ 2 ] [ 3 ] [ 4 ] [ 5 ] [ 6 ] [ 7 ] [ 8 ]

概要

ニック・ボストロムによると、シングルトンは様々な方法で実装できる抽象的な概念である。[ 9 ]

シングルトンは、民主主義、専制政治、単一の支配的なAI、自らを執行するための効果的な規定を含む強力なグローバル規範の集合、あるいは異星人の君主など、様々な形態を取り得る。その定義的な特徴は、あらゆる主要なグローバル調整問題を解決できる何らかの形態の機関であるという点にある。それは、人間のよく知られた統治形態に似ているかもしれないが、必ずしもそうである必要はない。

ボストロムは、超知能がシングルトンを形成する可能性があると主張している。[ 9 ]監視やマインドコントロールの技術もシングルトンの作成を容易にする可能性がある。[ 1 ]

シングルトンには潜在的なリスクと潜在的なメリットの両方があります。特に、適切なシングルトンは、そうでなければ解決できない世界調整問題を解決し、文明にとってこれまで不可能だった発展の軌道を切り開く可能性があります。例えば、AGI研究者のベン・ゲルツェルは、人類が「軽度の超人的知能と監視能力」を持つ「AIナニー」を創造し、ナノテクノロジーのような存在的リスクから人類を守り、安全性の問題が解決されるまで他の(非友好的な)人工知能の開発を遅らせることを選択する可能性があると示唆しています。[ 10 ]シングルトンは、「自身の権力行使に非常に厳しい制限(例えば、条約で定められた特定の国際ルール、あるいはリバタリアン原則の遵守を厳格に確保することなど)」を設ける可能性があります。[ 9 ]さらに、ボストロムは、シングルトンがダーウィンの進化論的な圧力を抑制し、生殖のみに関心を持つエージェントが支配的になるのを防ぐことができると示唆しています。[ 11 ]

しかしボストロムは、安定した抑圧的な全体主義的な世界体制の可能性を、深刻な実存的リスクと捉えている。[ 12 ]シングルトンの安定性こそが、悪質なシングルトンの設置を特に壊滅的なものにする。なぜなら、その結果は決して取り返しがつかないからだ。ブライアン・キャプランは、「おそらく全体主義の永遠の存続は、絶滅よりも悪いだろう」と述べている。[ 13 ]

同様にハンス・モーゲンソーは、武器、輸送、通信の機械的発達は「世界征服を技術的に可能にし、世界を征服した状態に維持することも技術的に可能にする」と強調した。古代の偉大な帝国がいかに広大であったとしても、世界の普遍的征服を完遂し、それを永続させることができなかったのは、こうした技術的発達の欠如によるところが大きい。しかし、現代ではそれが可能だ。技術は地理的障壁と気候的障壁の両方を解消する。「今日、世界規模の帝国を阻む技術的障害は存在しない」。なぜなら、「現代技術は、地理や季節に関係なく、地球の隅々まで精神と行動の制御を可能にするからである」[ 14 ]

参照

参考文献

  1. ^ a bニック・ボストロム (2006). 「シングルトンとは何か?」言語哲学探究誌5 (2): 48-54.
  2. ^ Dvorsky, George (2013年6月11日). 「シンギュラリティ後に起こりうる7つの全く予想外の結果」 . io9 . 2016年2月3日閲覧
  3. ^ Miller, James D. (2011年9月6日). 「シングルトンソリューション」 . hplusmagazine.com . 2016年2月3日閲覧
  4. ^ティール、トーマス (2014 年 12 月 21 日)。「スーパーインテリゲンツ・イスト・ガー・ニヒト・スーパー」ファズネットフランクフルター アルゲマイネ ツァイトゥング2016 年2 月 3 日に取得
  5. ^バラット、ジェームズ(2013年10月)『私たちの最後の発明:人工知能と人類の時代の終焉』マクミラン社、ISBN 978-0312622374. 2016年2月3日閲覧
  6. ^ Haggstrom, Olle (2016). 『ここにドラゴンがいる:科学、技術、そして人類の未来』オックスフォード大学出版局. ISBN 9780198723547. 2016年2月3日閲覧
  7. ^オマトゥナ、ドナル (2009)。ナノエシックス: 小さなテクノロジーによる大きな倫理問題。 A&Cブラック。 p.  185 . ISBN 9781847063953. 2016年2月3日閲覧
  8. ^コネカー、カールステン (2015 年 11 月 19 日)。「フクシマ・デア・クンストリッヒェン・インテリゲンツ」。スペクトル2016 年2 月 3 日に取得
  9. ^ a b cボストロム、ニック(2014年)『スーパーインテリジェンス:道筋、危険性、戦略』(第1版)オックスフォード大学出版局(オックスフォードおよびニューヨーク)ISBN 978-0-19-967811-2
  10. ^ベン・ゴーツェル「人類はシンギュラリティをより深く理解するまで遅らせるために、世界規模のAI乳母を構築すべきか?」意識研究ジャーナル19.1-2(2012年):1-2。
  11. ^ニック・ボストロム (2004).「人類進化の未来」 .チャールズ・タンディ編『死と反死:カントから200年、チューリングから50年』(リア大学出版:カリフォルニア州パロアルト):339-371ページ.
  12. ^ニック・ボストロム (2002).「実存的リスク:人類絶滅シナリオと関連災害の分析」進化と技術ジャーナル』9 (1).
  13. ^ブライアン・キャプラン(2008年)「全体主義の脅威 『地球規模の大惨事リスク』(ボストロム&サーコビッチ編、オックスフォード大学出版局)504-519ページ。ISBN 9780198570509
  14. ^『国家間の政治:権力と平和のための闘争』第4版、ニューヨーク:アルフレッド・A・クノップフ、1967年、358-365ページ。