人工知能

ページは半保護されています

人工知能AI)とは、学習推論問題解決知覚意思決定など、人間の知能に典型的に関連するタスクを実行する計算システムの能力である。AIは、機械が環境を認識し、学習知能を用いて定義された目標を達成する可能性を最大化する行動をとることを可能にする手法とソフトウェアを開発・研究するコンピュータサイエンス研究分野である[ 1 ]

AIの注目度の高い応用例としては、高度なウェブ検索エンジン(例:Google検索)、レコメンデーションシステム( YouTubeAmazonNetflixが利用)、バーチャルアシスタント(例:GoogleアシスタントSiriAlexa)、自律走行車(例:Waymo)、生成創造ツール(例:言語モデルAIアート)、戦略ゲームにおける超人的なプレイと分析(例:チェス囲碁)などが挙げられます。しかし、多くのAI応用はAIとして認識されていません。「最先端のAIの多くは、AIと呼ばれることなく一般応用に浸透しています。なぜなら、何かが十分に有用で一般的になるや否や、もはやAIとは呼ばれなくなるからです。」[ 2 ] [ 3 ]

AI研究の様々なサブフィールドは、特定の目標と特定のツールの使用を中心にしています。AI研究の伝統的な目標には、学習、推論知識表現計画自然言語処理知覚、ロボット工学のサポートなどがあります。[ a ]これらの目標を達成するために、AI研究者は、探索数理最適化形式論理人工ニューラルネットワーク、統計オペレーションズリサーチ経済学に基づく方法など、幅広い技術を採用し、統合してきました。[ b ] AIは心理学言語学哲学神経科学、その他の分野も活用しています。[ 4 ] OpenAIGoogle DeepMindMetaなどの一部の企業[ 5 ]は、少なくとも人間と同様にあらゆる認知タスクを完了できるAI、つまり汎用人工知能(AGI)の 作成を目指しています。

人工知能は1956年に学問分野として設立され、[ 6 ]その分野はその歴史を通じて楽観的な時期を何度も経験し、[ 7 ] [ 8 ]その後、 AIの冬として知られる失望と資金不足の時期が続いた。[ 9 ] [ 10 ] 2012年以降、グラフィックス処理装置がニューラルネットワークの加速に使用され始め、ディープラーニングが以前のAI手法を上回ると、資金と関心は大幅に増加した。 [ 11 ]この成長は、2017年以降のトランスフォーマーアーキテクチャの登場によりさらに加速した。[ 12 ] 2020年代には、高度な生成AIが急速に進歩する時期が続いており、 AIブームとして知られるようになった。生成AIのコンテンツを作成および変更する機能は、いくつかの意図しない結果と危害をもたらしている。AIの長期的な影響潜在的な実存的リスクに関する倫理的な懸念が提起されており、技術の 安全性と利点を確保するための規制政策についての議論を促している。

目標

知能をシミュレート(または創造)するという一般的な問題は、いくつかのサブ問題に分解されてきました。これらは、研究者が知能システムに期待する特定の特性や能力から構成されています。以下に述べる特性は最も注目を集めており、AI研究の範囲を網羅しています。[ a ]

推論と問題解決

初期の研究者たちは、人間がパズルを解いたり論理的推論をしたりするときに用いる段階的な推論を模倣したアルゴリズムを開発した。[ 13 ] 1980年代後半から1990年代にかけて、確率論経済学の概念を用いて、不確実性や不完全な情報を扱う方法が開発された。[ 14 ]

これらのアルゴリズムの多くは、「組み合わせ爆発」を起こすため、大規模な推論問題を解くには不十分です。つまり、問題が大きくなるにつれて、アルゴリズムは指数関数的に遅くなります。[ 15 ]人間でさえ、初期のAI研究でモデル化できたような段階的な推論をほとんど使用しません。人間はほとんどの問題を高速で直感的な判断によって解決します。[ 16 ]正確かつ効率的な推論は未解決の問題です。

知識表現

オントロジーは、知識をドメイン内の概念のセットとそれらの概念間の関係として表現します。

知識表現知識工学[ 17 ]は、AIプログラムが質問にインテリジェントに答え、現実世界の事実について推論を行うことを可能にします。形式的な知識表現は、コンテンツベースの索引付けと検索、[ 18 ]シーン解釈、[ 19 ]臨床意思決定支援、[ 20 ]知識発見(大規模データベースからの「興味深い」かつ実用的な推論のマイニング)、[ 21 ]などの分野で利用されています。[ 22 ]

知識ベースとは、プログラムで使用できる形式で表現された知識の集合です。オントロジーとは、特定の知識領域で使用されるオブジェクト、関係、概念、プロパティの集合です。[ 23 ]知識ベースでは、オブジェクト、プロパティ、カテゴリ、オブジェクト間の関係、[ 24 ]状況、イベント、状態、時間、[ 25 ]原因と結果、[ 26 ]知識についての知識(他の人が知っていることについて私たちが知っていること)、[ 27 ]デフォルト推論(人間が別のことを言われるまでは真実であると想定し、他の事実が変化しても真実であり続けるもの)、[ 28 ]など、知識の多くの側面や領域を表現する必要があります。

知識表現における最も難しい問題の中には、常識的知識の広範さ(平均的な人が知っている原子的事実の集合は膨大である)[ 29 ]と、ほとんどの常識的知識の非記号的形式(人々が知っていることの多くは、言葉で表現できる「事実」や「声明」として表現されていない)がある。[ 16 ]また、知識獲得の難しさ、つまりAIアプリケーションのための知識を獲得する問題もある。 [ c ]

計画と意思決定

「エージェント」とは、世界を認識し行動を起こすあらゆるもののことである。合理的なエージェントは目標または選好を持ち、それらを実現するための行動をとる。[ d ] [ 32 ]自動計画においては、エージェントは特定の目標を持つ。[ 33 ]自動意思決定においては、エージェントは選好を持つ。つまり、エージェントが好む状況と避けようとする状況が存在する。意思決定エージェントは、それぞれの状況に、エージェントがどの程度その状況を好むかを示す数値(「効用」と呼ばれる)を割り当てる。それぞれの可能な行動について、エージェントは「期待効用」を計算することができる。これは、その行動のあらゆる可能な結果の効用を、結果の発生確率で重み付けしたものである。そして、期待効用が最大となる行動を選択することができる。[ 34 ]

古典的な計画では、エージェントはあらゆる行動がどのような結果をもたらすかを正確に知っています。[ 35 ]しかし、現実世界のほとんどの問題では、エージェントは自分が置かれている状況について確信が持てない(「未知」または「観測不可能」)可能性があり、また、それぞれの可能な行動の後に何が起こるかを確実に知ることもできません(「決定論的」ではない)。エージェントは確率的な推測によって行動を選択し、その後、状況を再評価してその行動が成功したかどうかを確認する必要があります。[ 36 ]

一部の問題では、特に他のエージェントや人間が関与している場合、エージェントの選好は不確実となることがあります。これらの選好は学習可能(例えば、逆強化学習)であり、エージェントは選好を改善するための情報を求めることができます。[ 37 ]情報価値理論は、探索的または実験的な行動の価値を評価するために使用できます。[ 38 ]将来の可能性のある行動や状況の空間は通常、手に負えないほど広大であるため、エージェントは結果がどうなるかわからない中で行動を起こし、状況を評価する必要があります。

マルコフ決定過程は、特定の行動が特定の方法で状態を変化させる確率を記述する遷移モデルと、各状態の効用と各行動のコストを与える報酬関数を持つ。方策は、各可能な状態と決定を関連付ける。方策は、計算(例えば反復法による)、ヒューリスティック、あるいは学習によって構築することができる。[ 39 ]

ゲーム理論は、相互作用する複数のエージェントの合理的な行動を記述し、他のエージェントを巻き込んだ意思決定を行うAIプログラムで使用されます。[ 40 ]

学ぶ

機械学習とは、与えられたタスクのパフォーマンスを自動的に向上させることができるプログラムの研究です。[ 41 ]これは当初からAIの一部でした。[ e ]

教師あり学習では、トレーニング データに予想される回答のラベルが付けられますが、教師なし学習では、モデルはラベル付けされていないデータ内のパターンまたは構造を識別します。

機械学習にはいくつかの種類があります。教師なし学習は、データストリームを分析し、他の指示なしにパターンを発見し、予測を行います。[ 44 ]教師あり学習では、トレーニングデータに期待される答えをラベル付けする必要があり、分類(プログラムが入力がどのカテゴリに属する​​かを予測することを学習する必要がある)と回帰(プログラムが数値入力に基づいて数値関数を推論する必要がある)の2つの主要な種類があります。[ 45 ]

強化学習では、エージェントは良い応答に対して報酬を受け、悪い応答に対しては罰せられます。エージェントは「良い」と分類される応答を選択するように学習します。[ 46 ]転移学習とは、ある問題から得られた知識を新しい問題に適用することです。[ 47 ]深層学習は、これらすべての種類の学習において、生物学的に着想を得た人工ニューラルネットワークに入力データを適用する機械学習の一種です。 [ 48 ]

計算学習理論では、計算の複雑さサンプルの複雑さ(必要なデータ量)、あるいはその他の最適化の概念によって学習者を評価することができる。[ 49 ]

自然言語処理

自然言語処理(NLP)により、プログラムは人間の言語で読み書きやコミュニケーションができるようになります。[ 50 ]具体的な問題としては、音声認識音声合成機械翻訳情報抽出情報検索質問応答などがあります。[ 51 ]

ノーム・チョムスキー生成文法意味ネットワークに基づく初期の研究では、「マイクロワールド」と呼ばれる小さな領域に限定しない限り、語義の曖昧性解消は困難であった[ f ] (常識知識問題[ 29 ]による)。マーガレット・マスターマンは、言語を理解する鍵は文法ではなく意味であり、計算機言語構造の基礎は 辞書ではなくシソーラスであるべきだと信じていた。

NLPのための現代のディープラーニング技術には、単語埋め込み(単語を、通常は意味をエンコードしたベクトルとして表現する) [ 52 ][ 53 ]などがある。[ 54 ] 2019年には、生成的事前学習済みトランスフォーマーまたは GPT」)言語モデルが首尾一貫したテキストを生成し始め、[ 55 ] [ 56 ] 2023年までに、これらのモデルは司法試験SATテスト、GREテスト、その他多くの実際のアプリケーションで人間レベルのスコアを獲得できるようになった。 [ 57 ]

感知

機械知覚とは、センサー(カメラ、マイク、無線信号、アクティブライダー、ソナー、レーダー、触覚センサーなど)からの入力を用いて、世界の様相を推測する能力です。コンピュータビジョンとは、視覚入力を分析する能力です。[ 58 ]

この分野には音声認識[ 59 ]、画像分類[ 60 ] 、顔認識、 [ 61 ]物体認識[ 62 ]、物体追跡[ 63 ]ロボット知覚などが含まれます。

社会的な知性

キズメットは1990年代に作られたロボットヘッドで、感情を認識しシミュレートできる機械です。[ 64 ]

感情コンピューティングは、人間の感情、感情、気分を認識、解釈、処理、またはシミュレートするシステムで構成される分野です。[ 65 ]たとえば、一部の仮想アシスタントは会話的に話したり、ユーモラスな冗談を言ったりするようにプログラムされています。これにより、仮想アシスタントは人間の相互作用における感情的なダイナミクスに敏感であるように見えたり、人間とコンピュータの相互作用を促進したりするようになります。

しかし、これは、初心者のユーザーに既存のコンピュータエージェントの知能について非現実的な概念を与える傾向がある。[ 66 ]感情コンピューティングに関連する中程度の成功例としては、テキスト感情分析や、最近では、ビデオに録画された被験者が示す感情をAIが分類するマルチモーダル感情分析などがある。[ 67 ]

一般知能

汎用人工知能を備えた機械は、人間の知能と同様の広さと汎用性で、さまざまな問題を解決することができるだろう。[ 68 ]

テクニック

AI研究では、上記の目標を達成するためにさまざまな技術が使用されています。[ b ]

検索と最適化

AIは多くの可能な解決策を賢く探索することで多くの問題を解決することができます。[ 69 ] AIで使用される探索には、状態空間探索局所探索という2つの非常に異なる種類があります。

状態空間探索は、可能な状態のツリーを探索して目標状態を見つけようとします。[ 70 ]例えば、計画アルゴリズムは目標とサブ目標のツリーを探索して、目標目標へのパスを見つけようとします。このプロセスは手段目的分析と呼ばれます。[ 71 ]

単純な網羅的探索[ 72 ]は、現実世界のほとんどの問題に対して十分ではありません。探索空間(探索する場所の数)はすぐに天文学的な数にまで膨れ上がります。その結果、探索はあまりにも遅くなったり、完了しなくなったりします。[ 15 ]ヒューリスティック」または「経験則」は、目標に到達する可能性の高い選択肢を優先するのに役立ちます。[ 73 ]

敵対的探索は、チェスや囲碁などのゲームプログラムに用いられます。可能な手と反撃のツリーを探索し、勝利の位置を探します。[ 74 ]

3つの異なる開始点における勾配降下法の図解。損失関数(高さ)を最小化するために、2つのパラメータ(平面座標で表される)が調整される。

局所探索は、数学的最適化を用いて問題の解を見つけます。何らかの推測から始まり、それを段階的に改良していきます。[ 75 ]

勾配降下法は、損失関数を最小化するように数値パラメータを段階的に調整することで最適化する局所探索法の一種です。勾配降下法の変種は、バックプロパゲーションアルゴリズムを通じてニューラルネットワークの訓練によく用いられます[ 76 ]

局所探索のもう一つのタイプは進化計算であり、これは候補解のセットを「突然変異」および「再結合」することによって反復的に改善し、各世代で生き残るために最も適したものだけを選択することを目的としています。[ 77 ]

分散探索プロセスは、群知能アルゴリズムを介して協調動作を行うことができます。探索に用いられる2つの一般的な群知能アルゴリズムは、粒子群最適化(鳥の群れ行動に着想を得たもの)と蟻コロニー最適化蟻の道に着想を得たもの)です。[ 78 ]

論理

形式論理は推論知識表現に用いられる。[ 79 ] 形式論理には主に2つの形式がある。命題論理(真偽の文を扱い、「and」、「or」、「not」、「implies」などの論理接続詞を用いる) [ 80 ]述語論理(これもオブジェクト、述語、関係を扱い、 「すべてのXはYである」や「 YであるXがいくつかある」などの量指定子を用いる) [ 81 ] 。

論理学における演繹的推論は、与えられた、真であると仮定される他の命題(前提)から、新たな命題(結論)証明する過程である。[ 82 ]証明は証明木として構造化することができ、証明木では、ノードは文によってラベル付けされ、子ノードは推論規則によって親ノードに接続される。

問題と前提の集合が与えられた場合、問題解決は、ルートノードが問題の解でラベル付けされ、リーフノードが前提または公理でラベル付けされた証明木を探すことに帰着する。ホーン節の場合、問題解決の探索は前提から前向きに推論するか、問題から後ろ向きに推論することによって実行できる。 [ 83 ]より一般的な一階述語論理の節形式の場合には、解決は単一の公理を含まない推論規則であり、解決すべき問題の否定を含む前提から矛盾を証明することによって問題が解決される。[ 84 ]

ホーン節論理と一階述語論理の推論はどちらも決定不能であり、したがって扱いにくい。しかし、論理型プログラミング言語Prologの計算の基盤となるホーン節を用いた逆推論はチューリング完全である。さらに、その効率は他の記号プログラミング言語の計算と匹敵する。[ 85 ]

ファジー論理は0から1の間の「真実度」を割り当てます。したがって、曖昧で部分的に真実である命題を扱うことができます。[ 86 ]

非単調論理は、否定を失敗とする論理プログラミングを含め、デフォルト推論を処理するように設計されています。[ 28 ]他の特殊なバージョンの論理は、多くの複雑な領域を記述するために開発されてきました。

不確実性推論のための確率的手法

単純なベイジアンネットワークとそれに関連する条件付き確率表

AI(推論、計画、学習、知覚、ロボット工学など)における多くの問題では、エージェントが不完全または不確実な情報に基づいて動作することが求められます。AI研究者は、確率論や経済学の手法を用いてこれらの問題を解決するためのツールを数多く考案してきました。[ 87 ]意思決定理論意思決定分析[ 88 ]情報価値理論[ 89 ]を用いて、エージェントがどのように選択を行い、計画を立てるかを分析する精密な数学的ツールが開発されています。これらのツールには、マルコフ決定過程[ 90 ]動的意思決定ネットワーク[ 91 ]ゲーム理論メカニズム設計などのモデルが含まれます。[ 92 ]

ベイジアンネットワーク[ 93 ]は、推論ベイジアン推論アルゴリズムを使用)、[ g ] [ 95 ]学習期待値最大化アルゴリズムを使用)、[ h ] [ 97 ]計画決定ネットワークを使用)[ 98 ]および知覚動的ベイジアンネットワークを使用)に使用できるツールです。[ 91 ]

確率的アルゴリズムは、データストリームのフィルタリング、予測、平滑化、説明の発見にも使用でき、知覚システムが時間の経過とともに発生するプロセスを分析するのに役立ちます(例:隠れマルコフモデルカルマンフィルタ)。[ 91 ]

オールド フェイスフルの噴火データの期待値最大化クラスタリングは、ランダムな推測から始まりますが、その後、物理的に異なる 2 つの噴火モードの正確なクラスタリングに収束します。

分類器と統計的学習法

最も単純なAIアプリケーションは、分類器(例:「光沢のあるらダイヤモンド」)と制御器(例:「ダイヤモンドなら拾う」)の2種類に分けられます。分類器[ 99 ]は、パターンマッチングを用いて最も近い一致を決定する関数です。教師あり学習を用いて、選択された例に基づいて微調整することができます。各パターン(「観測」とも呼ばれます)には、事前に定義された特定のクラスがラベル付けされます。クラスラベルと組み合わせたすべての観測は、データセットと呼ばれます。新しい観測が受信されると、その観測は過去の経験に基づいて分類されます。[ 45 ]

分類器には多くの種類があります。[ 100 ]決定は最も単純で広く使われているシンボリック機械学習アルゴリズムです。[ 101 ] k近傍法は1990年代半ばまで最も広く使われていた類推AIでしたが、1990年代にはサポートベクターマシン(SVM)などのカーネル法がk近傍法に取って代わりました。[ 102 ] ナイーブベイズ分類器は、そのスケーラビリティもあって、Googleでは「最も広く使われている学習器」[ 103 ]と言われています。 [ 104 ]ニューラルネットワークも分類器として使われています。[ 105 ]

人工ニューラルネットワーク

ニューラル ネットワークは相互接続されたノードのグループであり、人間の脳内のニューロンの広大なネットワークに似ています。

人工ニューラルネットワークは、人工ニューロンとも呼ばれるノードの集合に基づいており、生物の脳のニューロンを大まかにモデル化しています。パターンを認識するように学習され、学習後は最新のデータからそれらのパターンを認識できるようになります。入力、少なくとも1つの隠れ層、そして出力があります。各ノードは関数を適用し、重みが指定された閾値を超えると、データは次の層に送信されます。通常、2つ以上の隠れ層を持つネットワークはディープニューラルネットワークと呼ばれます。[ 105 ]

ニューラルネットワークの学習アルゴリズムは、局所探索を用いて、学習中に各入力に対して適切な出力が得られる重みを選択します。最も一般的な学習手法はバックプロパゲーションアルゴリズムです。[ 106 ]ニューラルネットワークは、入力と出力の間の複雑な関係をモデル化し、データ内のパターンを見つけることを学習します。理論的には、ニューラルネットワークはあらゆる関数を学習できます。[ 107 ]

フィードフォワードニューラルネットワークでは、信号は一方向にのみ通過します。[ 108 ]パーセプトロンという用語は通常、単層ニューラルネットワークを指します。[ 109 ]対照的に、ディープラーニングは多くの層を使用します。[ 110 ]再帰型ニューラルネットワーク(RNN)は出力信号を入力にフィードバックすることで、以前の入力イベントの短期記憶を可能にします。長短期記憶ネットワーク(LSTM)は、長期的な依存関係をより適切に保持し、勾配消失問題の影響が少ない再帰型ニューラルネットワークです。[ 111 ]畳み込みニューラルネットワーク(CNN)は、カーネルの層を使用して局所パターンをより効率的に処理します。この局所処理は画像処理において特に重要で、初期のCNN層では通常、エッジや曲線などの単純な局所パターンを識別し、後続の層でテクスチャなどのより複雑なパターンを検出し、最終的にはオブジェクト全体を検出します。[ 112 ]

ディープラーニング

ディープラーニングは機械学習のサブセットであり、機械学習自体は人工知能のサブセットである。[ 113 ]

ディープラーニングは、ネットワークの入力と出力の間に複数のニューロン層を使用します。[ 110 ]複数の層は、生の入力から段階的に高レベルの特徴を抽出します。例えば、画像処理では、下位層はエッジを識別し、上位層は数字、文字、顔など、人間に関連する概念を識別します。[ 114 ]

ディープラーニングは、コンピュータービジョン音声認識自然言語処理画像分類など、人工知能の多くの重要なサブフィールドでプログラムのパフォーマンスを大幅に向上させました。 [ 115 ]ディープラーニングがこれほど多くのアプリケーションで優れたパフォーマンスを発揮する理由は、2021年現在ではわかっていません。[ 116 ] 2012~2015年のディープラーニングの突然の成功は、何らかの新しい発見や理論的なブレークスルー(ディープニューラルネットワークとバックプロパゲーションは、1950年代にまで遡って多くの人々によって説明されていました)[ i ]ではなく、2つの要因によるものでした。1つはコンピューターパワーの驚異的な向上( GPUへの切り替えによる速度の100倍の向上を含む)であり、もう1つは膨大な量のトレーニングデータ、特にベンチマークテストに使用されるImageNetなどの巨大なキュレーションデータセットが利用可能になったことです。[ j ]

GPT

生成的事前学習済みトランスフォーマー(GPT)は、文中の単語間の意味関係に基づいてテキストを生成する大規模言語モデル(LLM)です。テキストベースのGPTモデルは、インターネットから得られる大規模なテキストコーパスを用いて事前学習されます。事前学習は、次のトークン(通常、単語、サブワード、または句読点)を予測することで構成されます。この事前学習を通して、GPTモデルは世界に関する知識を蓄積し、次のトークンを繰り返し予測することで人間のようなテキストを生成できるようになります。通常、その後の学習フェーズでは、人間からのフィードバックによる強化学習(RLHF)と呼ばれる手法を用いて、モデルをより真実性が高く、有用で、無害なものにします。現在のGPTモデルは、「幻覚」と呼ばれる虚偽を生成する傾向があります。これはRLHFと質の高いデータによって軽減できますが、推論システムにおいては問題が悪化しています。[ 124 ]このようなシステムは、簡単なテキストで質問したりタスクを依頼したりできるチャットボットで使用されています。 [ 125 ] [ 126 ]

現在のモデルとサービスには、ChatGPTClaudeGeminiCopilotMeta AIなどがあります。[ 127 ]マルチモーダルGPTモデルは、画像、動画、音声、テキストなど、さまざまな種類のデータ(モダリティ)を処理できます。[ 128 ]

ハードウェアとソフトウェア

ラズベリーパイ AI キット

2010年代後半には、AIに特化した機能強化が施され、専用のTensorFlowソフトウェアで使用されるようになったグラフィックス処理装置(GPU)が、大規模な(商用および学術)機械学習モデルのトレーニングの主な手段として、それまで使用されていた中央処理装置(CPU)に取って代わりました。[ 129 ]初期のAI研究ではPrologなどの特殊なプログラミング言語が使用されていましたが、[ 130 ] Pythonなどの汎用プログラミング言語が主流になっています。[ 131 ]

集積回路のトランジスタ密度は、約18ヶ月ごとに倍増することが観測されています。これは、インテルの共同創業者であるゴードン・ムーアが最初にこの法則を発見したことにちなんで名付けられた「ムーアの法則」として知られる傾向です。GPU改良はさらに速く、[ 132 ] NVIDIAの共同創業者兼CEOであるジェンスン・フアンにちなんで「フアンの法則」と呼ばれることもあります。 [ 133 ]

アプリケーション

AI と機械学習テクノロジーは、次のような 2020 年代の重要なアプリケーションのほとんどで使用されています。

AI の導入は、最高オートメーション責任者(CAO) によって監督される場合があります。

健康と医療

AIは、異なる研究分野に割り当てられた資金の不一致を克服できる可能性が示唆されている。[ 134 ]

AlphaFold 2 (2021)は、タンパク質の3D構造を数ヶ月ではなく数時間で概算できることを実証しました。[ 135 ] 2023年には、AI誘導による創薬によって、2種類の薬剤耐性菌を殺せる抗生物質のクラスが発見されたと報告されました。[ 136 ] 2024年、研究者たちは機械学習を用いてパーキンソン病の薬物治療薬の探索を加速させました。彼らの目的は、 α-シヌクレイン(パーキンソン病の特徴的なタンパク質)の凝集を阻害する化合物を特定することでした。彼らは初期スクリーニングプロセスを10倍高速化し、コストを1000分の1に削減することができました。[ 137 ] [ 138 ]

ゲーム

ゲームプレイプログラムは1950年代からAIの最先端技術を実証しテストするために使われてきた。[ 139 ]ディープ・ブルーは1997年5月11日、チェスの世界チャンピオン、ガルリ・カスパロフを破った初のコンピュータチェスプレイシステムとなった。 [ 140 ] 2011年、クイズ番組「Jeopardy!」 のエキシビションマッチで、IBM質問応答システムWatson 」が「Jeopardy!」の歴代チャンピオン2人、ブラッド・ラターケン・ジェニングスを大差で破った。[ 141 ] 2016年3月、AlphaGoは囲碁チャンピオンのイ・セドルとの対局で5戦中4勝を挙げハンディキャップなしでプロの囲碁プレイヤーに勝利した初のコンピュータ囲碁システムとなった。そして2017年には、世界最高の囲碁プレイヤーである柯潔を破った。 [ 142 ]ポーカーをプレイするプログラムPluribusなどの他のプログラムは不完全情報ゲームを扱います。[ 143 ] DeepMindはMuZeroなどの、チェス、囲碁、 Atariゲームをプレイするように訓練できる、より汎用的な強化学習モデルを開発しました。 [ 144 ] 2019年、DeepMindのAlphaStarは、マップ上で何が起こるかについての不完全な知識を必要とする、特に難しいリアルタイム戦略ゲームであるStarCraft IIでグランドマスターレベルを達成しました。 [ 145 ] 2021年、AIエージェントがPlayStation Gran Turismoの大会に出場し、深層強化学習を使用して世界最高のGran Turismoドライバー4人に勝利しました。[ 146 ] 2024年、Google DeepMindはSIMAを発表しました。これは、画面出力を観察することで、これまでにない9つのオープンワールドビデオゲームを自律的にプレイできるだけでなく、自然言語の指示に応じて短い特定のタスクを実行できるタイプのAIです。[ 147 ]

数学

GPT-4GeminiClaudeLlamaMistralなどの大規模言語モデルが、数学でますます使用されています。これらの確率モデルは用途が広いですが、幻覚の形で間違った答えを生成することもあります。学習するための大規模な数学の問題のデータベースが必要になることもありますが、教師あり微調整[148]や、人間が注釈を付けたデータで訓練された分類器などの方法も必要になり、新しい問題に対する答え改善、修正から学習します。[ 149 ] 2024年2月の研究では、訓練データに含まれていない数学の問題を解く際の推論能力に関する一部の言語モデルのパフォーマンスは、訓練データからのわずかな逸脱がある問題であっても低いことが示されました。[ 150 ]パフォーマンスを向上させる1つの手法は、正しい結果だけでなく、正しい推論ステップを生成するようにモデルを訓練することです。 [ 151 ]アリババグループはQwenモデルのバージョンであるQwen2-Mathを開発し、競技数学問題のMATHデータセットで84%の精度を含む、いくつかの数学ベンチマークで最先端のパフォーマンスを達成しました。[ 152 ] 2025年1月、マイクロソフトはモンテカルロ木探索と段階的推論を活用したrStar-Mathという手法を提案し、 Qwen-7Bのような比較的小さな言語モデルでAIME 2024の53%とMATHベンチマーク問題の90%を解くことができるようになりました。[ 153 ]

あるいは、定理の証明を含む結果に対してより高い精度を持つ数学的問題解決のための専用モデルが開発されており、例えばGoogle DeepMindAlphaTensorAlphaGeometryAlphaProofAlphaEvolve [ 154 ]EleutherAILlemma [ 156 ] Julius [ 157 ]などある

自然言語を用いて数学の問題を記述する場合、コンバーターはそのようなプロンプトをLeanなどの形式言語に変換し、数学的な課題を定義することができます。実験モデルであるGemini Deep Thinkは自然言語プロンプトを直接受け入れ、 2025年の国際数学オリンピックで金メダルを獲得しました。[ 158 ]

いくつかのモデルは、難しい問題を解決し、ベンチマークテストで良い結果を得るために開発されましたが、他のモデルは数学の教育ツールとして役立つように開発されました。[ 159 ]

トポロジカル ディープラーニングは、さまざまなトポロジカルアプローチを統合します。

ファイナンス

金融は、応用AIツールが導入されている最も急速に成長している分野の一つです。小売オンラインバンキングから投資アドバイスや保険まで、自動化された「ロボットアドバイザー」が数年前から使用されています。[ 160 ]

世界年金投資フォーラムのディレクター、ニコラス・フィルツリ氏によると、AIを活用した高度に革新的な金融商品やサービスの出現はまだ時期尚早かもしれないという。フィルツリ氏は、「AIツールの導入は、単に物事の自動化をさらに進めるだけであり、その過程で銀行業務、ファイナンシャルプランニング、年金アドバイスの分野で数万もの雇用が失われるだろう。しかし、それが(例えば高度な)年金イノベーションの新たな波を引き起こすかどうかは定かではない」と主張している。[ 161 ]

軍隊

様々な国がAIの軍事応用を展開している。[ 162 ]主な応用は、指揮統制、通信、センサー、統合、相互運用性の強化である。[ 163 ]研究は、情報収集と分析、物流、サイバー作戦、情報作戦、半自律型および自律型車両を対象としている。[ 162 ] AI技術は、センサーとエフェクターの調整、脅威の検出と識別、敵の位置のマーキング、目標捕捉、人間が操作する戦闘車両と自律型戦闘車両の両方を含むネットワーク化された戦闘車両間の分散型統合火力の調整と衝突回避を可能にする。[ 163 ]

AIはイラク、シリア、イスラエル、ウクライナでの軍事作戦で使用されている。[ 162 ] [ 164 ] [ 165 ] [ 166 ]

生成AI

生成AIソフトウェアによって作成された水彩画のフィンセント・ファン・ゴッホ

生成型人工知能(ジェネレーティブAIまたはGenAI)は、生成モデルを使用してテキスト、画像ビデオオーディオソフトウェアコード、またはその他の形式のデータを生成する人工知能のサブフィールドです。[ 167 ]これらのモデルは、トレーニングデータの基礎となるパターンと構造を学習し、それらを使用して入力に応答して新しいデータを生成します[ 168 ]。入力は多くの場合、自然言語プロンプトの形をとります。[ 169 ] [ 170 ]

2020年代のAIブーム以降、生成AIツールの普及は著しく増加しました。このブームは、トランスフォーマーアーキテクチャに基づく大規模言語モデル(LLM)をはじめとするディープニューラルネットワークの進化によって実現しました。生成AIの応用分野には、 ChatGPTClaudeCopilotDeepSeekGoogle GeminiGrokなどのチャットボットStable DiffusionMidjourneyDALL-Eなどのテキスト画像変換モデル、VeoLTXSoraなどのテキスト動画変換モデルなどがあります。[ 171 ] [ 172 ] [ 173 ]生成AIを開発しているテクノロジー企業には、アリババアントロピック百度ディープシークグーグルライトリックス[ 174 ]メタAIマイクロソフトミストラルAIオープンAI 、パープレキシティAIxAI[ 175 ]ヤンデックスなどがあります。[ 176 ]

様々な分野の企業が生成AIを活用しており、ソフトウェア開発、ヘルスケア、[ 177 ]金融、[ 178 ]エンターテイメント、[ 179 ]カスタマーサービス、[ 180 ]セールス・マーケティング、[ 181 ]アート、ライティング、[ 182 ]製品デザインなどがある。[ 183 ]

エージェント

AIエージェントは、特定の目標を達成するために、環境を認識し、意思決定を行い、自律的に行​​動するように設計されたソフトウェアエンティティです。これらのエージェントは、ユーザー、環境、または他のエージェントと対話できます。AIエージェントは、仮想アシスタントチャットボット自律走行車ゲームプレイシステム産業用ロボットなど、さまざまなアプリケーションで使用されています。AIエージェントは、プログラミング、利用可能な計算リソース、およびハードウェア制限の制約内で動作します。つまり、定義された範囲内でタスクを実行するように制限され、メモリと処理能力が限られています。実際のアプリケーションでは、AIエージェントは意思決定とアクション実行に時間的制約に直面することがよくあります。多くのAIエージェントは学習アルゴリズムを組み込んでおり、経験やトレーニングを通じて時間の経過とともにパフォーマンスを向上させることができます。機械学習を使用することで、AIエージェントは新しい状況に適応し、指定されたタスクに合わせて動作を最適化できます。[ 184 ] [ 185 ] [ 186 ]

マイクロソフトは2023年2月にBing Chatという名前でCopilot SearchをMicrosoft EdgeとBingモバイルアプリの組み込み機能として導入しました。Copilot Searchは、Bing Searchでランク付けされたウェブパブリッシャーの情報に基づいて、AIが生成した要約[ 187 ]と段階的な推論を提供します。[ 188 ] 安全のため、CopilotはAIベースの分類器とフィルターを使用して、潜在的に有害なコンテンツを削減します。[ 189 ]

Googleは2025年5月20日のGoogle I/OイベントでAI検索を正式に発表しました。[ 190 ]これにより、ユーザーは検索結果をクリックする代わりにGoogleを閲覧するようになります。AI OverviewsはGemini 2.5を使用して、ウェブコンテンツに基づいてユーザーのクエリに文脈的な回答を提供します。[ 191 ]

セクシュアリティ

この分野におけるAIの応用としては、ユーザーデータを分析して予測を提供するAI対応の月経・妊娠追跡装置、[ 192 ]、AI統合型セックス玩具(例:テレディルドニクス)、[ 193 ]、AI生成の性教育コンテンツ、[ 194 ] 、性的および恋愛関係のパートナーをシミュレートするAIエージェント(例: Replika )などが挙げられる。[ 195 ] AIは、合意のないディープフェイクポルノの制作にも利用されており、重大な倫理的および法的懸念を引き起こしている。[ 196 ]

AI技術は、オンラインでのジェンダーに基づく暴力や未成年者に対するオンラインでの性的グルーミングを特定するためにも使用されています。[ 197 ] [ 198 ]

その他の業界特有のタスク

特定の業界や機関の特定の問題を解決するために利用されているAIアプリケーションは、数千件にも上ります。2017年の調査では、5社に1社が何らかのサービスやプロセスに「AI」を組み込んでいると回答しました。[ 199 ]例としては、エネルギー貯蔵、医療診断、軍事物流、司法判断の結果を予測するアプリケーション、外交政策、サプライチェーン管理などが挙げられます。

避難・災害管理におけるAIの活用は拡大しています。GPS、動画、ソーシャルメディアなどの履歴データを用いて、大規模・小規模の避難行動のパターンを調査するためにAIが活用されています。さらに、AIは避難状況に関するリアルタイム情報を提供することもできます。[ 200 ] [ 201 ] [ 202 ]

農業において、AIは農家の収穫量増加や、灌漑、施肥、農薬散布が必要な場所の特定に役立っています。農学者はAIを活用した研究開発を行っています。AIは、トマトなどの作物の成熟時期の予測、土壌水分の監視、農業ロボットの運用、予測分析、家畜の豚の鳴き声の感情分類、温室の自動化、病害虫の検出、節水などに活用されています。

天文学において、人工知能は増加する利用可能なデータやアプリケーションの分析に利用されており、主に「分類、回帰、クラスタリング、予測、生成、発見、そして新たな科学的知見の創出」を目的としています。例えば、太陽系外惑星の発見、太陽活動の予測、重力波天文学における信号と機器効果の区別などに利用されています。さらに、宇宙探査といった宇宙活動にも利用される可能性があり、宇宙ミッションのデータ分析、宇宙船のリアルタイム科学的判断、宇宙ゴミの回避、より自律的な運用などにも活用されています。

2024年のインド選挙では、AIが生成した認可コンテンツに5000万ドルが費やされ、特に、有権者との関わりを深めるために同盟関係にある(故人を含む)政治家のディープフェイクを作成したり、演説を様々な現地言語に翻訳したりしました。[ 203 ]

倫理

テルアビブのストリートアート[ 204 ] [ 205 ]

AIには潜在的な利点と潜在的なリスクがある。[ 206 ] AIは科学を進歩させ、深刻な問題の解決策を見つけることができるかもしれない。DeepMindのデミス・ハサビス氏は「知能を解明し、それを他のあらゆる問題の解決に活用したい」と願っている。[ 207 ]しかし、AIの利用が広まるにつれて、いくつかの意図しない結果とリスクが特定されている。[ 208 ] [ 209 ]特にAIアルゴリズムが深層学習において本質的に説明できない場合、実稼働システムではAIのトレーニングプロセスに倫理や偏見を考慮に入れられないことがある。[ 210 ]

リスクと害

機械学習アルゴリズムは大量のデータを必要とします。このデータを取得するために使用される技術は、プライバシー監視著作権に関する懸念を引き起こしています。

バーチャルアシスタントやIoT製品などのAI搭載デバイスやサービスは、個人情報を継続的に収集するため、侵入的なデータ収集や第三者による不正アクセスへの懸念が高まっています。AIは膨大な量のデータを処理・統合できるため、プライバシーの喪失はさらに深刻化し、十分な安全対策や透明性がないまま個人の行動が常に監視・分析される監視社会につながる可能性があります。

収集される機密性の高いユーザーデータには、オンライン活動記録、位置情報データ、動画、音声などが含まれる場合があります。[ 211 ]例えば、音声認識アルゴリズムを構築するために、Amazon は何百万ものプライベートな会話を録音し、臨時従業員にその一部を聞き、書き起こすことを許可しました。[ 212 ]この広範囲にわたる監視に対する意見は、必要悪と考える人から、明らかに非倫理的でプライバシー権の侵害であると考える人までさまざまです。[ 213 ]

AI開発者たちは、これが価値あるアプリケーションを提供する唯一の方法だと主張し、データ集約匿名化、差分プライバシーなど、データを取得しながらもプライバシーを保護する技術をいくつか開発してきた。[ 214 ] 2016年以降、シンシア・ドワークなどのプライバシー専門家は、プライバシーを公平性の観点から捉え始めている。ブライアン・クリスチャンは、専門家たちは「『何を知っているか』という問いから『それを使って何をしているのか』という問いへと転換した」と述べている。[ 215 ]

生成AIは、画像やコンピュータコードなどの分野を含む、ライセンスのない著作物で訓練されることが多く、その出力は「フェアユース」の根拠に基づいて使用されます。専門家の間でも、この根拠が法廷でどの程度、どのような状況下で通用するかについては意見が分かれています。関連する要素には、「著作物の利用目的と性質」や「著作物の潜在的市場への影響」などが含まれます。[ 216 ] [ 217 ]ウェブサイトの所有者は、「 robots.txt」ファイルを使用して、コンテンツのスクレイピングを希望しない旨を示すことができます。 [ 218 ]しかし、 robots.txtファイルには実質的な権限がないため、一部の企業はコンテンツをスクレイピングします。 [ 219 ] [ 220 ] 2023年には、著名な著者(ジョン・グリシャムジョナサン・フランゼンなど)が、AI企業が自身の著作物を生成AIの訓練に利用したとして訴訟を起こしました。[ 221 ] [ 222 ]もう一つの議論されているアプローチは、AIによって生成された創作物を保護する独自のシステムを構想し、人間の著者への公正な帰属と補償を確保することである。[ 223 ]

テクノロジー大手の支配

商用AIの分野は、アルファベット社アマゾン社アップル社メタ・プラットフォームズ社、マイクロソフト社などの大手テック企業によって支配されている。[ 224 ] [ 225 ] [ 226 ]これらの企業の中には、データセンターの既存のクラウドインフラコンピューティングパワーの大部分を既に所有している企業もあり、市場での地位をさらに固めることができる。[ 227 ] [ 228 ]

電力需要と環境への影響

人工知能の成長に支えられ、2020年代にはデータセンターの電力需要が増加しました。[ 229 ]

国際エネルギー機関(IEA)は2024年1月、「電力2024年、分析、2026年までの予測」を発表し、電力消費量を予測しました。[ 230 ]これは、データセンター、人工知能(AI)、暗号通貨の電力消費量に関する予測をIEAが行った初めての報告書です。報告書によると、これらの用途の電力需要は2026年までに倍増し、追加で消費される電力は日本の全国民の電力消費量に匹敵する可能性があるとされています。[ 231 ]

AIによる膨大な電力消費は化石燃料使用量の増加につながり、老朽化し​​た炭素排出型石炭火力発電所の閉鎖を遅らせる可能性があります。米国全土でデータセンターの建設が急増しており、大手テクノロジー企業(Microsoft、Meta、Google、Amazonなど)は電力の貪欲な消費者となっています。予測される電力消費量は非常に膨大であるため、どのエネルギー源を使用しても消費量が満たされるのではないかと懸念されています。ChatGPT検索には、Google検索の10倍の電力消費量が必要です。大手企業は、原子力、地熱、核融合など、さまざまなエネルギー源の発見を急いでいます。テクノロジー企業は、長期的にはAIが最終的に環境に優しくなると主張していますが、今すぐにエネルギーを必要としています。テクノロジー企業によると、AIは電力網をより効率的かつ「インテリジェント」にし、原子力発電の発展を促し、全体的な炭素排出量を追跡するでしょう。[ 232 ]

2024年のゴールドマン・サックスの調査論文「AIデータセンターと今後の米国電力需要の急増」では、「米国の電力需要は過去数世代に見られなかったほどの伸びを経験する可能性が高い」と指摘され、2030年までに米国のデータセンターの電力消費量は2022年の3%から8%に増加し、様々な手段で発電産業の成長を予感させると予測されています。[ 233 ]データセンターの電力需要はますます増加しており、電力網の限界に達する可能性があります。大手テクノロジー企業は、AIを活用することで電力網の利用率を最大化できると反論しています。[ 234 ]

ウォール・ストリート・ジャーナルは2024年、大手AI企業がデータセンターへの電力供給について米国の原子力発電事業者と交渉を開始したと報じました。2024年3月、Amazonはペンシルベニア州の原子力発電データセンターを6億5000万ドルで購入しました。[ 235 ] NvidiaのCEO、ジェンスン・フアン氏は、原子力発電はデータセンターにとって良い選択肢だと述べました。[ 236 ]

2024年9月、マイクロソフトはコンステレーション・エナジーと提携し、スリーマイル島原子力発電所を再開し、同発電所で生産される全電力の100%を20年間にわたって同社に供給する契約を締結したと発表した。1979年に2号機原子炉の部分的なメルトダウンを経験した同発電所の再開には、米国原子力規制委員会による徹底的な安全審査を含む厳格な規制プロセスをコンステレーションが通過する必要がある。承認されれば(米国で初の原子力発電所の再稼働となる)、80万世帯に十分な835メガワット超の電力が生産される。再開と改修にかかる費用は16億ドルと見積もられており、2022年米国インフレ抑制法に含まれる原子力発電への税制優遇措置に左右される。[ 237 ]米国政府とミシガン州は、ミシガン湖畔のパリセーズ原子炉の再開に約20億ドルを投資している。2022年から閉鎖されているこの原子炉は、2025年10月に再開される予定だ。スリーマイル島の原子炉施設は、原子力推進派でエクセロン社の元CEOであり、エクセロン社によるコンステレーション社のスピンオフを主導したクリス・クレイン氏にちなんで、クレイン・クリーン・エネルギー・センターと改名される。[ 238 ]

台湾は、電力供給不足を理由に、2023年9月の最後の認可後、 2024年には桃園以北の5MW以上のデータセンターの認可を停止した。[ 239 ]台湾は、 2025年までに原子力発電を段階的に廃止することを目指している。 [ 239 ]一方、シンガポールは、電力の問題で2019年にデータセンターの開設を禁止したが、2022年にこの禁止を解除した。[ 239 ]

2011年の福島原発事故後、日本の原子力発電所の大半は停止しているが、2024年10月のブルームバーグの日本語記事によると、NVIDIAが出資するクラウドゲームサービス企業ユビタスは、生成AI用の新しいデータセンターの建設のため、原子力発電所近くの土地を探しているという。[ 240 ]ユビタスのCEO、ウェズリー・クオ氏は、原子力発電所はAIにとって最も効率的で安価で安定した電力源だと述べた。[ 240 ]

2024年11月1日、連邦エネルギー規制委員会(FERC)は、タレン・エナジーが提出した、サスケハナ原子力発電所からアマゾンのデータセンターへの電力供給承認申請を却下した。[ 241 ]委員会のウィリー・L・フィリップス 委員長によると、これは電力網への負担であるだけでなく、家庭やその他の事業部門への大きなコスト転嫁の懸念でもある。[ 241 ]

国際エネルギー機関(IEA)が2025年に作成した報告書では、 AIのエネルギー消費による温室効果ガス排出量は1億8000万トンと推定されています。2035年までに、これらの排出量は、どのような対策が講じられるかによって3億~5億トンに増加する可能性があります。これは、エネルギー部門の排出量の1.5%を下回ります。AIによる排出削減ポテンシャルはエネルギー部門の排出量の5%と推定されていますが、リバウンド効果(例えば、人々が公共交通機関から自動運転車に乗り換えた場合)によって削減される可能性があります。[ 242 ]

誤報

YouTubeFacebookなどは、ユーザーをより多くのコンテンツに誘導するためにレコメンデーションシステムを使用している。これらのAIプログラムには、ユーザーエンゲージメントを最大化するという目標が与えられた(つまり、唯一の目標は人々に視聴し続けてもらうことだった)。AIは、ユーザーが誤情報陰謀論、極端に党派的なコンテンツを選ぶ傾向があることを学習し、彼らに視聴し続けてもらうために、AIはそれらをさらに推奨した。また、ユーザーは同じテーマのコンテンツをより多く見る傾向があるため、AIは人々をフィルターバブルに導き、そこで同じ誤情報の複数のバージョンを受け取ることになった。[ 243 ]これにより、多くのユーザーが誤情報が真実であると信じ込み、最終的には機関、メディア、政府への信頼を損なうことになった。[ 244 ] AIプログラムは目標を最大化するように正しく学習していたが、その結果は社会にとって有害で​​あった。2016年の米国大統領選挙後、大手テクノロジー企業はこの問題を軽減するためにいくつかの措置を講じた。[ 245 ]

2020年代初頭、生成AIは実際の写真、録音、または人間の文章と実質的に区別がつかない画像、音声、テキストを作成し始めました。[ 246 ]一方、リアルなAI生成ビデオは2020年代半ばに実現可能になりました。[ 247 ] [ 248 ] [ 249 ]悪意のある人物がこの技術を使用して大量の誤情報やプロパガンダを作成する可能性があります。[ 250 ]そのような潜在的な悪意のある使用法の1つは、計算プロパガンダのためのディープフェイクです。[ 251 ] AIの先駆者でありノーベル賞を受賞したコンピューター科学者のジェフリー・ヒントンは、 AIが「権威主義的な指導者が選挙民を大規模に操作する」ことを可能にすることなど、さまざまなリスクについて懸念を表明しました。[ 252 ]選挙民に影響を与える能力は、少なくとも1つの研究で証明されています。この同じ研究では、モデルが政治的右派の候補者を支持する場合、より不正確な発言をすることが示されています。[ 253 ]

マイクロソフトOpenAI、大学、その他の組織のAI研究者は、AIモデルによって可能になるオンライン欺瞞を克服する方法として「人格認証情報」の使用を提案している。 [ 254 ]

アルゴリズムの偏りと公平性

機械学習アプリケーションは、偏ったデータから学習すると偏りが生じる可能性があります[ k ] 。 [ 256 ]開発者は偏りの存在に気付いていない可能性があります。[ 257 ]一部の LLM による差別的な動作は、その出力に見られます。[ 258 ]バイアスは、トレーニングデータの選択方法やモデルの展開方法によって導入される可能性があります。 [ 259 ] [ 256 ]偏ったアルゴリズムが、人々に深刻な害を及ぼす可能性のある決定を下すために使用される場合(医療金融採用、住宅警察などで起こり得る)、アルゴリズムは差別を引き起こす可能性があります。[ 260 ]公平性の分野では、アルゴリズムの偏りによる害を防ぐ方法を研究しています。

2015年6月28日、Googleフォトの新しい画像ラベル機能は、ジャッキー・アルシーヌとその友人が黒人だったため、誤って「ゴリラ」と認識しました。このシステムは、黒人の画像がほとんど含まれていないデータセットで学習させられていました[ 261 ]。これは「サンプルサイズの不均衡」と呼ばれる問題でした[ 262 ] 。Googleは、システムがあらゆるものを「ゴリラ」とラベル付けしないようにすることで、この問題を「修正」しました。8年後の2023年現在も、Googleフォトは依然としてゴリラを識別できず、Apple、Facebook、Microsoft、Amazonの類似製品も同様でした[ 263 ] 。

COMPASは、被告人が再犯する可能性を評価するために米国の裁判所で広く使用されている商用プログラムです。2016年、ProPublicaJulia Angwinは、プログラムに被告人の人種が伝えられていなかったにもかかわらず、COMPASが人種的偏りを示していることを発見しました。白人と黒人のエラー率は両方ともちょうど61%で同じに調整されていましたが、人種ごとのエラーは異なり、システムは黒人が再犯する可能性を常に過大評価し、白人が再犯しない可能性を過小評価していました。[ 264 ] 2017年には、複数の研究者[ l ]が、データ内の白人と黒人の再犯の基本率が異なる場合、COMPASがあらゆる可能な公平性の尺度に対応することは数学的に不可能であることを示しました。[ 266 ]

たとえデータに問題となる特徴(例えば「人種」や「性別」)が明示的に記載されていなくても、プログラムは偏った判断を下す可能性があります。その特徴は他の特徴(例えば「住所」「買い物履歴」「名前」など)と相関関係にあり、プログラムはこれらの特徴に基づいて、「人種」や「性別」の場合と同じ判断を下すことになります。[ 267 ]モーリッツ・ハートは、「この研究分野における最も確固たる事実は、盲検化による公平性は機能しないということだ」と述べています。[ 268 ]

COMPASに対する批判は、機械学習モデルが、未来が過去と類似すると仮定した場合にのみ有効な「予測」を行うように設計されている点を指摘した。過去の人種差別的な意思決定の結果を含むデータで機械学習モデルを訓練した場合、機械学習モデルは将来人種差別的な意思決定が行われると予測せざるを得なくなる。そして、アプリケーションがこれらの予測を推奨として使用する場合、これらの「推奨」の一部は人種差別的なものになる可能性が高い。[ 269 ]したがって、機械学習は、未来が過去よりも良くなるという希望がある分野での意思決定を支援するのにはあまり適していない。それは規範的というより記述的である。[ m ]

開発者は圧倒的に白人男性であるため、偏見や不公平さが見過ごされる可能性があります。AIエンジニアのうち、約4%が黒人で、20%が女性です。[ 262 ]

公平性には様々な相反する定義や数学モデルが存在します。これらの概念は倫理的な仮定に依存し、社会に関する信念の影響を受けます。1つの広範なカテゴリは分配的公平性であり、これは結果に焦点を当て、多くの場合グループを特定し、統計的な格差を補正しようとします。表象的公平性は、AIシステムが否定的なステレオタイプを強化したり、特定のグループを見えなくしたりしないようにします。手続き的公平性は、結果ではなく意思決定プロセスに焦点を当てています。最も関連性の高い公平性の概念は、状況、特にAIアプリケーションの種類や利害関係者によって異なります。バイアスと公平性の概念は主観的であるため、企業がそれらを運用化することは困難です。人種や性別などのセンシティブな属性へのアクセスは、バイアスを補正するために必要であると多くのAI倫理学者によって考えられていますが、差別禁止法と矛盾する可能性があります。[ 255 ]

2022年のACM公平性、説明責任、透明性に関する会議で発表された論文では、CLIP(対照言語画像事前学習)ベースのロボットシステムが、模擬操作タスクにおいて、性別や人種に関連した有害なステレオタイプを再現したと報告されています。著者らは、このような有害な影響を物理的に発現させるロボット学習手法は、「結果が安全、効果的、かつ公正であることが証明されるまで、一時停止、修正、あるいは適切な場合には段階的に縮小する」ことを推奨しています。[ 271 ] [ 272 ] [ 273 ]

透明性の欠如

多くのAIシステムは非常に複雑であるため、設計者はその決定に至った経緯を説明できません。[ 274 ]特に深層ニューラルネットワークでは、入力と出力の間に多くの非線形関係があります。しかし、いくつかの一般的な説明可能性技術は存在します。[ 275 ]

プログラムがどのように動作するのか正確に理解していない限り、プログラムが正しく動作していると確信することは不可能です。機械学習プログラムが厳格なテストに合格したにもかかわらず、プログラマーの意図とは異なる学習を行った例は数多くあります。例えば、医療専門家よりも正確に皮膚疾患を識別できるシステムは、定規の付いた画像を「癌」と分類する傾向が強いことが判明しました。これは、悪性腫瘍の画像には通常、目盛りを示す定規が含まれているためです。[ 276 ]医療資源の効率的な配分を支援するために設計された別の機械学習システムは、喘息患者を肺炎で死亡する「リスクが低い」と分類することが判明しました。喘息は実際には深刻なリスク要因ですが、喘息患者は通常、より多くの医療を受けるため、トレーニングデータによると死亡する可能性は比較的低いとされていました。喘息と肺炎で死亡するリスクの低さの間には相関関係がありましたが、これは誤解を招くものでした。[ 277 ]

アルゴリズムの決定によって被害を受けた人は、説明を受ける権利がある。[ 278 ]例えば医師は、同僚に対し、自分が下したあらゆる決定の根拠を明確かつ完全に説明することが求められている。2016年に作成された欧州連合(EU)の一般データ保護規則(GDPR)の初期草案には、この権利が存在することが明記されていた。[ n ]業界の専門家は、これは解決策が見当たらない未解決の問題だと指摘した。規制当局は、それでもなお被害は現実のものであり、解決策がないのであれば、そのツールは使用すべきではないと主張した。[ 279 ]

DARPAはこれらの問題を解決するために2014年にXAI(説明可能な人工知能)プログラムを設立しました。 [ 280 ]

透明性の問題に対処するためのアプローチはいくつかある。SHAPは、各特徴が出力にどのように寄与しているかを視覚化することを可能にする。[ 281 ] LIMEは、モデルの出力をより単純で解釈しやすいモデルで局所的に近似することができる。[ 282 ]マルチタスク学習は、ターゲット分類に加えて多数の出力を提供する。これらの出力は、開発者がネットワークが何を学習したかを推測するのに役立ちます。[ 283 ]デコンボリューションDeepDream、その他の生成手法により、開発者はコンピュータービジョン用のディープネットワークの異なる層が何を学習したかを確認し、ネットワークが何を学習しているかを示唆する出力を生成することができる。[ 284 ]生成的な事前学習済みトランスフォーマー向けに、Anthropicはニューロンの活性化パターンを人間が理解できる概念に関連付ける辞書学習に基づく手法を開発した。[ 285 ]

悪意のある行為者と兵器化されたAI

人工知能は、権威主義的な政府テロリスト、犯罪者、ならず者国家などの悪質な行為者にとって有用なツールを数多く提供します。

自律型致死兵器とは、人間の監視なしに人間の標的を探し出し、選択し、攻撃する機械である。[ o ]広く入手可能なAIツールは、悪意のある人物が安価な自律型兵器を開発するために利用される可能性があり、大規模に生産されると、大量破壊兵器となる可能性がある。[ 287 ]従来の戦争で使用された場合でも、現在のところ確実に標的を選択できず、罪のない人を殺害する可能性がある。[ 287 ] 2014年には、国連特定通常兵器使用制限条約に基づく自律型兵器の禁止に30カ国(中国を含む)が支持したが、米国およびその他の国は反対した。[ 288 ] 2015年までに、50カ国以上が戦場ロボットを研究していると報告された。[ 289 ]

AIツールは、権威主義的な政府が国民を様々な方法で効率的に統制することを容易にする。顔認識音声認識は広範囲の監視を可能にする。このデータを操作する機械学習は、国家の潜在的な敵を分類し、彼らが隠れるのを防ぐことができる。推薦システムは、プロパガンダ誤情報を正確にターゲットにして最大の効果を発揮することができる。ディープフェイク生成AIは誤情報の作成を助ける。高度なAIは、権威主義的な中央集権的な意思決定を、市場などの自由で分散化されたシステムよりも競争力のあるものにすることができる。それは、デジタル戦争高度なスパイウェアのコストと難易度を下げる。[ 290 ]これらの技術はすべて2020年かそれ以前から利用可能であり、AI顔認識システムはすでに中国で大規模監視に使用されている。[ 291 ] [ 292 ]

AIが悪意ある行為者を支援する方法は他にも数多くありますが、その中には予測できないものもあります。例えば、機械学習AIは数時間で数万もの毒性分子を設計することができます。[ 293 ]

技術的失業

経済学者はAIによる人員削減のリスクを頻繁に強調しており、完全雇用のための適切な社会政策がなければ失業が発生するのではないかと推測している。[ 294 ]

これまで、技術は総雇用を減らすよりも増やす傾向にあったが、経済学者たちはAIに関しては「未知の領域にいる」と認めている。[ 295 ]経済学者を対象とした調査では、ロボットやAIの利用増加が長期失業の大幅な増加を引き起こすかどうかについては意見の相違が見られたが、生産性向上が再分配されれば純利益になる可能性があるという点では概ね一致している。[ 296 ]リスク推定は様々であり、例えば2010年代には、マイケル・オズボーン氏とカール・ベネディクト・フライ氏が、米国の雇用の47%が自動化の潜在的なリスクにさらされていると推定したのに対し、OECDの報告書では米国の雇用のわずか9%が「高リスク」に分類されている。[ p ] [ 298 ]将来の雇用水準を推測する方法論は、証拠の根拠が欠けており、社会政策ではなく技術が人員削減ではなく失業を生み出すと示唆しているとして批判されている。[ 294 ] 2023年4月には、中国のビデオゲームイラストレーターの仕事の70%が生成型人工知能によって削減されたと報告された。[ 299 ] [ 300 ]

これまでの自動化の波とは異なり、多くの中流階級の仕事は人工知能によって消滅する可能性がある。エコノミスト誌は2015年、「産業革命期に蒸気機関がブルーカラーに与えた影響と同様の影響をAIがホワイトカラーに与えるのではないかという懸念は、真剣に受け止める価値がある」と述べた。[ 301 ]極​​めて危険な職業は、パラリーガルからファストフードの調理人まで多岐にわたる一方、介護関連の職業は、個人のヘルスケアから聖職者に至るまで、需要が高まると予想される。[ 302 ] 2025年7月、フォードのCEOジム・ファーリーは、「人工知能は文字通り米国のホワイトカラー労働者の半分を置き換えるだろう」と予測した。[ 303 ]

人工知能開発の初期から、例えばジョセフ・ワイゼンバウムが提唱した議論のように、コンピュータと人間の違い、定量的な計算と定性的な価値判断の違いを踏まえて、コンピュータで実行できるタスクを実際にコンピュータで実行すべきかどうかという議論がありました。[ 304 ]

実存的リスク

近年の人工知能に関する議論は、そのより広範な社会的・倫理的影響にますます焦点が当てられています。AIがあまりにも強力になり、人類が制御不能に陥る可能性があるという議論があります。物理学者スティーブン・ホーキング博士が述べたように、これは「人類の終焉を意味する」可能性があります。[ 305 ]このようなシナリオは、コンピューターやロボットが突然人間のような「自己認識」(あるいは「知覚」や「意識」)を獲得し、悪意のある存在へと変貌するSFではよく見られます。[ q ]これらのSFシナリオは、いくつかの点で誤解を招く可能性があります。

まず、AIが実存的リスクとなるためには、人間のような知覚能力は必ずしも必要ではない。現代のAIプログラムは特定の目標を与えられ、学習と知能を用いてそれを達成しようとする。哲学者のニック・ボストロムは、十分に強力なAIにほぼあらゆる目標を与えた場合、AIはそれを達成するために人類を破壊することを選択する可能性があると主張した(彼は、ペーパークリップ用の鉄を得るために世界を破壊する自動ペーパークリップ工場を例に挙げた)。 [ 307 ]スチュアート・ラッセルは、家庭用ロボットが「死んでいたらコーヒーを持ってこられない」という理由で、電源プラグを抜かれるのを防ぐために飼い主を殺す方法を見つけようとする例を挙げている。[ 308 ]人類にとって安全であるためには、超知能は人類の道徳観と価値観に真に合致し、「根本的に人類の味方」でなければならない。 [ 309 ]

第二に、ユヴァル・ノア・ハラリは、AIが実存的リスクをもたらすためにロボットの身体や物理的な制御は必要ないと主張している。文明の本質的な部分は物理的なものではない。イデオロギー法律政府通貨経済といったものは言語に基づいて構築されており、何十億もの人々が信じる物語があるからこそ存在している。現在蔓延している誤情報は、AIが言語を使って人々に何でも信じ込ませ、破壊的な行動さえ取らせる可能性があることを示唆している。[ 310 ]ジェフリー・ヒントンは2025年に、現代のAIは特に「説得力に優れている」と述べ、常に進化していると述べた。彼は「例えば、あなたがアメリカの首都を侵略したいとしよう。そこに行って自分で侵略しなければならないだろうか?いいえ。説得力に優れているだけでいいのだ」と問いかける。[ 311 ]

専門家や業界関係者の意見は複雑で、将来登場する超知能AIのリスクを懸念する人もいれば、懸念しない人も相当数いる。[ 312 ]スティーブン・ホーキング、ビル・ゲイツイーロン・マスクなどの著名人や[ 313 ]ジェフリー・ヒントンヨシュア・ベンジオスチュアート・ラッセルデミス・ハサビスサム・アルトマンなどのAIの先駆者たちは、AIによる実存的リスクについて懸念を表明している。

2023年5月、ジェフリー・ヒントンは「Googleへの影響を考慮せずにAIのリスクについて自由に発言できる」ようにするためにGoogleを辞任すると発表した。[ 314 ]彼は特にAIによる乗っ取りのリスクについて言及し、[ 315 ]最悪の結果を避けるためには、安全ガイドラインを確立するためにAIの利用で競合する人々間の協力が必要であると強調した。[ 316 ]

2023年には、多くの主要なAI専門家が「AIによる絶滅のリスクを軽減することは、パンデミックや核戦争などの他の社会規模のリスクと並んで、世界的な優先事項であるべきだ」という共同声明を支持した。[ 317 ]

より楽観的な研究者もいた。AIの先駆者であるユルゲン・シュミットフーバーは共同声明に署名しなかったが、AI研究の95%は「人間の生活をより長く、より健康で、より楽にする」ことにあると強調した。[ 318 ]現在生活を向上させるために使用されているツールは、悪意のある者にも使用される可能性があるが、「悪意のある者に対しても使用される可能性がある」。[ 319 ] [ 320 ]アンドリュー・ンも、「AIの終末論的な誇大宣伝に惑わされるのは間違いであり、そのような規制当局は既得権益者に利益をもたらすだけだ」と主張した。[ 321 ]チューリング賞受賞者のヤン・ルカンは、AIが人間を「単に賢いという理由だけで、ましてや人間を滅ぼす」という考えに反対し、[ 322 ]「同僚たちが描く、過剰な誤情報による最終的には人類絶滅というディストピア的シナリオを嘲笑した」。[ 323 ] 2010年代初頭、専門家は、リスクは研究に値するほど遠い未来のことではない、あるいは超知能機械の観点から人間は価値があると主張した。[ 324 ]しかし、2016年以降、現在および将来のリスクと可能な解決策の研究は、真剣な研究分野となった。[ 325 ]

倫理的な機械とアライメント

フレンドリーAIとは、リスクを最小限に抑え、人間にとって有益な選択を行うように最初から設計された機械です。この用語を考案したエリゼア・ユドコウスキーは、フレンドリーAIの開発は研究の優先順位を高めるべきだと主張しています。これは多額の投資を必要とする可能性があり、AIが実存的リスクとなる前に完了させる必要があるからです。[ 326 ]

知能を持つ機械は、その知能を用いて倫理的な判断を下す可能性を秘めています。機械倫理学の分野は、機械に倫理的ジレンマを解決するための倫理原則と手順を提供します。[ 327 ] 機械倫理学の分野は計算道徳とも呼ばれ、[ 327 ] 2005年のAAAIシンポジウム で設立されました。[ 328 ]

他のアプローチとしては、ウェンデル・ウォラックの「人工道徳エージェント」[ 329 ]スチュアート・J・ラッセルの証明可能有益な機械を開発するための3つの原則[ 330 ]などがある。

オープンソース

AIオープンソースコミュニティで活発に活動している組織には、Hugging Face[ 331 ] Google[ 332 ] EleutherAIMeta [ 333 ]などがあります。Llama 2MistralStable Diffusionなど、様々なAIモデルがオープンウェイト化されています。[ 334 ] [ 335 ]つまり、そのアーキテクチャとトレーニング済みパラメータ(「重み」)が公開されているということです。オープンウェイトモデルは自由に微調整できるため、企業は独自のデータと独自のユースケースに合わせて特化することができます。[ 336 ]オープンウェイトモデルは研究やイノベーションには役立ちますが、悪用される可能性もあります。微調整が可能なため、有害なリクエストに異議を唱えるなどの組み込みのセキュリティ対策は、効果がなくなるまでトレーニングによって除去することができます。一部の研究者は、将来のAIモデルが危険な能力(例えば、バイオテロを劇的に促進する可能性など)を開発する可能性があり、一度インターネット上に公開されると、必要に応じてどこからでも削除することはできないと警告している。彼らは、公開前の監査と費用便益分析を推奨している。[ 337 ]

フレームワーク

人工知能プロジェクトは、AIシステムの設計、開発、実装の過程において倫理的な配慮を指針とすることができます。アラン・チューリング研究所が開発し、SUMの価値観に基づいた「ケア・アンド・アクト・フレームワーク」などのAIフレームワークは、以下のように定義される4つの主要な倫理的側面を概説しています。[ 338 ] [ 339 ]

  • 個人の尊厳を尊重する
  • 誠実に、オープンに、そして包括的に他の人々とつながる
  • すべての人の幸福を気遣う
  • 社会的な価値、正義、公共の利益を守る

倫理的枠組みの他の発展としては、アシロマ会議で決定されたもの、責任あるAIのためのモントリオール宣言、IEEEの自律システム倫理イニシアチブなどがあります。[ 340 ]しかし、これらの原則は、特にこれらの枠組みに貢献するために選ばれた人々に関して、批判がないわけではありません。[ 341 ]

これらの技術が影響を与える人々やコミュニティの幸福を促進するには、AIシステムの設計、開発、実装のすべての段階で社会的・倫理的影響を考慮すること、そしてデータサイエンティスト、プロダクトマネージャー、データエンジニア、ドメインエキスパート、デリバリーマネージャーなどの職務間の連携が必要である。[ 342 ]

英国AI安全研究所は2024年に、AIの安全性評価のためのテストツールセット「Inspect」をリリースしました。これはMITオープンソースライセンスに基づいており、GitHubで無料で利用可能で、サードパーティ製パッケージで改良することも可能です。このツールセットは、コア知識、推論能力、自律機能など、幅広い分野でAIモデルを評価するために使用できます。[ 343 ]

規制

AI安全サミット
2023年11月、英国で初のグローバルAI安全サミットが開催され、国際協力を求める宣言が発表されました。

人工知能の規制とは、AIを促進および規制するための公共部門の政策と法律の策定であり、したがって、アルゴリズムのより広範な規制に関連している。[ 344 ] AIの規制と政策の状況は、世界中の法域で新たな問題となっている。[ 345 ]スタンフォード大学のAIインデックスによると、調査対象の127か国で可決されたAI関連法の年間数は、2016年の1件から2022年だけで37件に急増した。[ 346 ] [ 347 ] 2016年から2020年の間に、30か国以上がAI専用の戦略を採用した。[ 348 ] EU加盟国のほとんどが国家AI戦略を発表しており、カナダ、中国、インド、日本、モーリシャス、ロシア連邦、サウジアラビア、アラブ首長国連邦、米国、ベトナムも同様である。[ 348 ] 2020年6月、人工知能に関する世界パートナーシップが発足し、AIは人権と民主主義の価値観に沿って開発され、技術に対する国民の信頼を確保することが必要であると述べた。[ 348 ]ヘンリー・キッシンジャーエリック・シュミットダニエル・ハッテンロッカーは、 2021年11月に共同声明を発表し、AIを規制するための政府委員会の設置を求めた。[ 349 ] 2023年、OpenAIのリーダーたちは、10年以内に実現する可能性があると考えているスーパーインテリジェンスのガバナンスに関する勧告を発表した。[ 350 ] 2023年、国連もAIガバナンスに関する勧告を行う諮問機関を立ち上げた。この機関は、テクノロジー企業の幹部、政府関係者、学者で構成されている。[ 351 ] 2024年8月1日、EU人工知能法が発効し、EU全体にわたる初の包括的なAI規制が確立された。[ 352 ] 2024年、欧州評議会はAIに関する最初の法的拘束力のある国際条約「人工知能と人権、民主主義、法の支配に関する枠組み条約」を制定しました。この条約は、欧州連合、米国、英国、その他の署名国によって採択されました。[ 353 ]

2022年のイプソス調査では、AIに対する態度は国によって大きく異なり、「AIを活用した製品やサービスは、メリットがデメリットを上回る」と回答した中国人は78%だったのに対し、アメリカ人はわずか35%だった。[ 346 ] 2023年のロイター/イプソス調査では、AIが人類にリスクをもたらすという意見にアメリカ人の61%が賛同し、22%が反対している。[ 354 ] 2023年のフォックスニュースの世論調査では、連邦政府によるAI規制について、アメリカ人の35%が「非常に重要」、さらに41%が「やや重要」と回答したのに対し、「あまり重要ではない」と回答した人は13%、「全く重要ではない」と回答した人は8%だった。[ 355 ] [ 356 ]

2023年11月、英国ブレッチリー・パークで初のグローバルAI安全サミットが開催され、 AIの短期的および遠期的なリスクと、強制的および自主的な規制枠組みの可能性について議論されました。 [ 357 ]米国、中国、欧州連合を含む28カ国がサミットの開始時に宣言を発表し、人工知能の課題とリスクを管理するための国際協力を求めました。[ 358 ] [ 359 ] 2024年5月のAIソウルサミットでは、世界的なAI技術企業16社がAI開発に関する安全性のコミットメントに合意しました。[ 360 ] [ 361 ]

歴史

2024年には、中国と米国のAI特許は世界のAI特許の4分の3以上を占める。[ 362 ]中国のAI特許のほうが多かったものの、AI特許出願企業1社あたりの特許数は米国が中国より35%多かった。[ 362 ]

機械的、あるいは「形式的」な推論の研究は、古代の哲学者や数学者によって始まりました。論理学の研究は、アラン・チューリング計算理論に直接つながりました。この理論は、機械が「0」と「1」のような単純な記号をシャッフルすることで、考えられるあらゆる形式の数学的推論をシミュレートできると示唆しました。[ 363 ] [ 364 ]この理論は、サイバネティクス情報理論神経生物学における同時発生的な発見と相まって、研究者たちが「電子頭脳」の構築の可能性を検討するきっかけとなりました。[ r ]彼らは、後にAIの一部となるいくつかの研究分野を開発しました。[ 366 ]例えば、1943年のマカロックピッツによる「人工ニューロン」の設計[ 117 ] 、そしてチューリングが1950年に発表した影響力のある論文『計算機械と知能』では、チューリングテストが導入され、「機械知能」の可能性が示されました。[ 367 ] [ 364 ]

AI研究の分野は1956年にダートマス大学で開催されたワークショップで創設されました。 [ s ] [ 6 ]参加者は1960年代のAI研究のリーダーとなりました。[ t ]彼らと学生は、マスコミが「驚異的」と評したプログラムを作成しました。[ u ]コンピュータはチェッカーの戦略を学習し、代数の文章題を解き、論理定理を証明し、英語を話しました。[ v ] [ 7 ] 1950年代後半から1960年代初頭にかけて、多くの英国と米国の大学に人工知能研究所が設立されました。[ 364 ]

1960年代と1970年代の研究者たちは、自分たちの方法が最終的には汎用知能を備えた機械の作成に成功すると確信し、これを自分たちの分野の目標と考えていました。[ 371 ] 1965年にハーバート・サイモンは、「機械は20年以内に、人間が行えるあらゆる作業を行うことができるようになる」と予測しました。[ 372 ] 1967年にマービン・ミンスキーはこれに同意し、「一世代以内に...「人工知能」を作成する問題は実質的に解決されるだろう」と書いています。[ 373 ]しかし、彼らは問題の困難さを過小評価していました。[ w ] 1974年、米国と英国政府は、ジェームズ・ライトヒル卿批判[ 375 ]と、より生産的なプロジェクトに資金を提供するという米国議会からの継続的な圧力に応じて、探索的研究を打ち切りました。[ 376 ]ミンスキーパパートの著書『パーセプトロン』は、人工ニューラルネットワークが現実世界の課題を解決するのに決して役立たないことを証明したと理解され、このアプローチは完全に信用を失った。 [ 377 ]その後、 「AIの冬」と呼ばれる、AIプロジェクトへの資金調達が困難な時期が続いた。[ 9 ]

1980年代初頭、AI研究はエキスパートシステムの商業的成功によって復活を遂げました。エキスパートシステムとは、人間の専門家の知識と分析能力をシミュレートするAIプログラムの一種です。1985年までにAI市場は10億ドルを超えました。同時に、日本の第五世代コンピュータプロジェクトは、米国と英国政府に学術研究への資金提供を再開させるきっかけを与えました。[ 8 ]しかし、1987年のLispマシン市場の崩壊をきっかけに、AIは再び不評となり、二度目の、より長く続く冬の時代が始まりました。[ 10 ]

これまで、AIへの資金の大部分は、計画、目標、信念、既知の事実といった精神的対象を高水準の記号を用いて表現するプロジェクトに投入されていました。1980年代には、一部の研究者がこのアプローチが人間の認知プロセス、特に知覚ロボット工学学習パターン認識のすべてを模倣できるかどうか疑問視し始め、[ 379 ]「サブシンボリック」アプローチを検討し始めました。[ 380 ]ロドニー・ブルックスは「表現」という概念を一般的に否定し、動き、生き残る機械の工学に直接焦点を当てました。[ x ]ジュデア・パールロトフィ・ザデーらは、正確な論理ではなく合理的な推測によって不完全で不確実な情報を処理する手法を開発しました。[ 87 ] [ 385 ]しかし、最も重要な発展は、ジェフリー・ヒントンらによるニューラルネットワーク研究を含む「コネクショニズム」の復活でした。[ 386 ] 1990年にヤン・ルカンは畳み込みニューラルネットワークが手書きの数字を認識できることを実証しました。これはニューラルネットワークの多くの成功した応用の最初のものでした。[ 387 ]

AIは、1990年代後半から21世紀初頭にかけて、形式的な数学的手法を活用し、特定の問題に対する具体的な解決策を見出すことで、徐々にその評判を取り戻しました。この「狭く」「形式的な」焦点により、研究者は検証可能な結果を​​生み出し、他の分野(統計学経済学数学など)と連携することができました。[ 388 ] 2000年までに、AI研究者によって開発されたソリューションは広く利用されるようになりましたが、1990年代には「人工知能」と呼ばれることはほとんどありませんでした(この傾向はAI効果として知られています)。[ 389 ]しかし、一部の学術研究者は、AIがもはや汎用的で完全に知的な機械を作成するという当初の目標を追求していないのではないかと懸念するようになりました。2002年頃から、彼らは人工汎用知能(または「AGI」) というサブフィールドを設立し、2010年代までに資金力のある研究機関がいくつか設立されました。[ 68 ]

ディープラーニングは2012年に業界ベンチマークを席巻し始め、分野全体で採用されました。[ 11 ] 多くの特定のタスクでは、他の方法が放棄されました。[ y ] ディープラーニングの成功は、ハードウェアの改善(より高速なコンピュータ[ 391 ]グラフィックス処理装置クラウドコンピューティング[ 392 ])と大量のデータへのアクセス[ 393 ](キュレーションされたデータセットを含む、[ 392 ] ImageNetなど)の両方に基づいています。ディープラーニングの成功は、AIへの関心と資金の大幅な増加につながりました。[ z ]機械学習研究の量(総出版物で測定)は、2015年から2019年にかけて50%増加しました。[ 348 ]

2022年に「AI」という用語のGoogle検索数が加速しました。

2016年、公平性と技術の誤用という問題が機械学習関連のカンファレンスで一躍注目を集め、論文数は大幅に増加し、研究資金も確保できるようになり、多くの研究者がこれらの問題にキャリアを再び集中させました。アライメント問題は、学術研究の重要な分野となりました。[ 325 ]

2010年代後半から2020年代初頭にかけて、AGI企業は大きな関心を集めるプログラムを提供し始めた。2015年、DeepMindが開発したAlphaGoが囲碁の世界チャンピオンに勝利した。このプログラムはゲームのルールのみを教え、独自に戦略を展開した。GPT -3は、 OpenAIが2020年にリリースした大規模言語モデルであり、高品質の人間のようなテキストを生成できる。[ 394 ] 2022年11月30日にリリースされたChatGPTは、史上最も急速に成長した消費者向けソフトウェアアプリケーションとなり、2か月で1億人を超えるユーザーを獲得した。[ 395 ]これはAIのブレイクアウトの年として広く認識され、AIを一般大衆の意識に押し上げた。[ 396 ]これらのプログラムなどがきっかけで、大企業がAI研究に数十億ドルを投資し始めた積極的なAIブームが巻き起こった。 AI Impactsによると、2022年頃には米国だけで年間約500億ドルが「AI」に投資され、米国のコンピュータサイエンスの博士号取得者の約20%が「AI」を専門としている。[ 397 ] 2022年には米国で約80万件の「AI」関連の求人があった。 [ 398 ] PitchBookの調査によると、2024年に新たに資金提供を受けたスタートアップ企業の22%がAI企業であると主張している。[ 399 ]

哲学

哲学的議論は歴史的に、知能の本質と知能機械の作り方を問うものであった。[ 400 ]もう1つの大きな焦点は、機械が意識を持ち得るかどうか、そしてそれに伴う倫理的影響であった。[ 401 ]哲学における他の多くのトピックはAIに関連しており、例えば認識論自由意志などである。[ 402 ]急速な進歩により、 AIの哲学と倫理に関する公的な議論が活発化している。[ 401 ]

人工知能の定義

アラン・チューリングは1950年に「『機械は考えることができるか』という問いについて考察することを提案する」と記した[ 403 ]。彼は、機械が「考える」かどうかという問いから、「機械が知的な行動をとることが可能かどうか」という問いへと転換することを提言した。[ 403 ]彼は、機械が人間の会話を模倣する能力を測定するチューリングテストを考案した。 [ 367 ]人間は機械の行動を観察することしかできないため、それが「実際に」考えているのか、文字通り「心」を持っているのかは問題ではない。チューリングは、他人についてこれらのことを判断することはできないが、「誰もがそう考えるという慣習があるのは普通だ」と述べている[ 404 ] 。

チューリングテストは知能の証拠を提供することができるが、人間以外の知的な行動にはペナルティを課す。[ 405 ]

ラッセルノーヴィグは、知能は内部構造ではなく外部行動によって定義されるべきだというチューリングの意見に同意している。[ 1 ]しかし、彼らは、このテストで機械が人間の模倣を要求されることを批判している。「航空工学の教科書では、その分野の目標が『のように飛び、他の鳩を騙せる機械』を作ることとは定義されていないと彼らは書いている。 [ 406 ] AIの創始者ジョン・マッカーシーこれに同意し、「人工知能は、定義上、人間の知能のシミュレーションではない」と書いている。[ 407 ]

マッカーシーは知能を「世界で目標を達成する能力の計算的部分」と定義しています。[ 408 ]もう一人のAI創始者であるマービン・ミンスキーも同様に知能を「困難な問題を解決する能力」と表現しています。[ 409 ]主要なAIの教科書では、知能を、環境を認識し、定義された目標を達成する可能性を最大化する行動をとるエージェントの研究と定義しています。[ 1 ]これらの定義では、知能は明確に定義された問題と明確に定義された解決策の観点から捉えられており、問題の難易度とプログラムのパフォーマンスの両方が、機械の「知能」の直接的な尺度となり、他の哲学的議論は必要なく、あるいは不可能な場合もあります。

AI分野の大手であるGoogle [ 410 ]は、別の定義を採用しています。この定義では、システムが情報を統合する能力を知性の現れとして規定しており、これは生物学的知能の定義に似ています。

様々な定義が流布している結果、学者たちはAIに関する言説そのものを批判的に分析し、整理し始めている[ 411 ]。これには、社会、政治、学術の言説の中に見られる多くのAIに関する物語や神話についても議論されている[ 412 ]。同様に、実際には、「AI」という用語はあまりにも広範かつ漠然と使用されていると指摘する著者もいる。これは、AIと従来のアルゴリズムの境界線をどこに引くべきかという問題を提起する[ 413 ]。 2020年代初頭のAIブームの際には、多くの企業が「実際にAIを実質的に使用していない」場合でも、この用語をマーケティングの流行語として使用していた[ 414 ] 。

大規模言語モデルが真の知能を発揮するのか、それとも人間の文章を模倣することで知能をシミュレートしているだけなのかについては議論がある。[ 415 ]

AIへのアプローチの評価

AI研究の歴史の大部分において、確立された統一理論やパラダイムは存在しませんでした。 [ aa ] 2010年代における統計的機械学習の前例のない成功は、他のすべてのアプローチを凌駕しました(特にビジネス界では、「人工知能」という用語を「ニューラルネットワークを用いた機械学習」の意味で使用しているほどです)。このアプローチは、主に非記号的で曖昧で、限定的です。批評家は、これらの問題は将来のAI研究者によって再考される必要があるかもしれないと主張しています。

シンボリックAIとその限界

シンボリックAI(または「GOFAI」)[ 417 ]は、パズルを解いたり、法的推論を表現したり、数学を解いたりする際に人間が用いる高度な意識的推論をシミュレートした。彼らは代数やIQテストといった「知的」なタスクにおいて非常に優れた成績を収めた。1960年代、ニューウェルとサイモンは物理記号システム仮説を提唱した。「物理記号システムは、汎用的な知的行動に必要かつ十分な手段を備えている。」[ 418 ]

しかし、記号的アプローチは、学習、物体認識、常識的推論など、人間が容易に解決できる多くのタスクにおいて失敗しました。モラベックのパラドックスとは、高レベルの「知的な」タスクはAIにとって容易である一方、低レベルの「本能的な」タスクは非常に困難であるという発見です。[ 419 ]哲学者ヒューバート・ドレフュスは1960年代から、人間の専門知識は意識的な記号操作ではなく無意識の本能、そして明示的な記号知識ではなく状況に対する「感覚」に依存していると主張してきました。[ 420 ]の主張は最初に発表された際には嘲笑され無視されましたが、最終的にはAI研究も彼の主張に同意するようになりました。[ ab ] [ 16 ]

問題は解決されていない。サブシンボリック推論は、アルゴリズム的バイアスなど、人間の直感と同じような不可解な誤りを多く犯す可能性がある。ノーム・チョムスキーをはじめとする批評家は、汎用知能の実現にはシンボリックAIの研究継続が依然として必要だと主張している。[ 422 ] [ 423 ]その理由の一つは、サブシンボリックAIが説明可能なAIから遠ざかるものであり、現代の統計AIプログラムが特定の決定を下した理由を理解することは困難、あるいは不可能になり得るからだ。ニューロシンボリック人工知能という新興分​​野は、この2つのアプローチを橋渡ししようとする試みである。

きちんとした vs. だらしない

「ニート」は、知的行動が単純でエレガントな原理(論理最適化ニューラルネットワークなど)を用いて記述されることを期待します。「スクラフィー」は、それが必然的に多数の無関係な問題を解決することを必要とすると考えています。ニートは理論的な厳密さでプログラムを擁護しますが、スクラフィーは動作を確認するために主に増分テストに依存します。この問題は1970年代と1980年代に活発に議論されましたが[ 424 ] 、最終的には無関係と見なされました。現代のAIは両方の要素を備えています。

ソフトコンピューティングとハードコンピューティング

多くの重要な問題において、証明可能な正解や最適解を見つけることは困難です。 [ 15 ]ソフトコンピューティングとは、遺伝的アルゴリズムファジー論理、ニューラルネットワークなど、不正確さ、不確実性、部分的な真実、近似値を許容する一連の技術です。ソフトコンピューティングは1980年代後半に導入され、21世紀に成功したAIプログラムのほとんどは、ニューラルネットワークを用いたソフトコンピューティングの例です。

狭義のAI vs. 汎用AI

AI研究者の間では、汎用人工知能(AGI)や超知能の目標を直接追求するか、あるいはできるだけ多くの具体的な問題を解決し(狭義のAI)、それらの解決策が間接的にAI分野の長期目標につながることを期待するかで意見が分かれている。[ 425 ] [ 426 ]汎用知能は定義も測定も困難であり、現代のAIは具体的な問題と具体的な解決策に焦点を当てることで、より検証可能な成功を収めてきた。この分野を専門に研究する分野が、汎用人工知能(AGI)である。

機械の意識、知覚、そして心

心の哲学において、機械が人間と同じ意味で意識、そして精神状態を持ち得るかどうかについては、確固たるコンセンサスが得られていない。この問題は、機械の外的行動ではなく、機械の内部的な経験について考察する。主流のAI研究では、この問題は知能を用いて問題を解決できる機械を構築するというAI研究分野の目標に影響を与えないため、無関係とみなされている。ラッセルノーヴィグは、「人間と全く同じように機械に意識を持たせるという追加プロジェクトは、我々が取り組むべきものではない」と付け加えている[ 427 ]。しかし、この問題は心の哲学において中心的な問題となっている。また、フィクションにおける人工知能においても、典型的には中心的な論点となっている。

意識

デイヴィッド・チ​​ャーマーズは、心を理解する上で二つの問題を特定し、意識の「難しい」問題と「簡単な」問題と名付けました。[ 428 ]簡単な問題は、脳がどのように信号を処理し、計画を立て、行動を制御するかを理解することです。難しい問題は、それが実際に何かのように感じられていると私たちが正しく考えていると仮定した場合(デネットの意識錯覚論は、これは錯覚であるとしています)、それがどのように感じられるのか、あるいはなぜ何かのように感じるべきなのかを説明することです。人間の情報処理は説明しやすいですが、人間の主観的な経験は説明が難しいです。例えば、色覚異常の人が視野内のどの物体が赤であるかを識別できるように学習した様子は容易に想像できますが、その人が赤がどのように見えるかを知るために何が必要なのかは明らかではありません。[ 429 ]

計算主義と機能主義

計算主義とは、心の哲学における立場であり、人間の心は情報処理システムであり、思考は計算の一形態であると主張する。計算主義は、心と身体の関係はソフトウェアとハ​​ードウェアの関係と類似あるいは同一であり、したがって心身問題の解決策となり得ると主張する。この哲学的立場は、1960年代のAI研究者や認知科学者の研究に触発され、哲学者ジェリー・フォーダーヒラリー・パトナムによって最初に提唱された。[ 430 ]

哲学者ジョン・サールは、この立場を「強いAI」と表現した。「適切な入力と出力を持つ適切にプログラムされたコンピュータは、人間が心を持つのと全く同じ意味で心を持つことになる」[ ac ]サールはこの主張に対して、中国語の部屋論で反論し、人間の行動を完璧にシミュレートできるコンピュータでさえ心を持たないことを示そうとした。[ 434 ]

AIの福祉と権利

高度なAIが知覚力(感情を持つ能力)を持っているかどうか、また持っているとすればどの程度なのかを確実に評価することは困難、あるいは不可能である。 [ 435 ]しかし、特定の機械が感情を持ち、苦しむ可能性が高い場合、動物と同様に、特定の権利や福祉保護措置を受ける資格がある可能性がある。[ 436 ] [ 437 ]知性(識別力や自己認識などの高度な知能に関連する一連の能力)は、AIの権利に別の道徳的根拠を提供する可能性がある。[ 436 ]ロボットの権利は、自律エージェントを社会に統合するための実用的な方法として提案されることもある。[ 438 ]

2017年、欧州連合(EU)は、最も能力の高いAIシステムの一部に「電子人格」を付与することを検討した。これは、企業の法的地位と同様に、権利だけでなく責任も付与することになる。[ 439 ] 2018年には、AIシステムに権利を付与することは人権の重要性を軽視することになり、立法は空想的な未来シナリオではなく、ユーザーのニーズに焦点を当てるべきだと主張する批評家もいた。彼らはまた、ロボットには社会に自力で参加する自律性が欠けていると指摘した。[ 440 ] [ 441 ]

AIの進歩は、このテーマへの関心を高めました。AIの福祉と権利を支持する人々は、AIが知覚を持つようになった場合、それを否定するのは非常に容易であるとしばしば主張します。彼らは、これが奴隷制工場式畜産に類似した道徳的盲点となる可能性があると警告しています。知覚を持つAIが開発され、不注意に利用された場合、大規模な苦しみにつながる可能性があります。[ 437 ] [ 436 ]

未来

超知能とシンギュラリティ

知能とは、最も聡明で才能豊かな人間の知能をはるかに凌駕する知能を持つ、仮想的なエージェントである。[ 426 ]汎用人工知能の研究によって十分に知能の高いソフトウェアが開発されれば、それは自己再プログラムと自己改善が可能になるかもしれない。改善されたソフトウェアは自己改善能力をさらに向上させ、IJグッドが知能爆発」、ヴァーナー・ヴィンジがシンギュラリティ」と呼んだ現象をもたらすだろう。[ 442 ]

しかし、技術は無限に指数関数的に進歩することはできず、通常はS字曲線を描き、技術の物理的限界に達すると進歩は鈍化する。[ 443 ]

トランスヒューマニズム

ロボットデザイナーのハンス・モラベック、サイバネティクス研究者のケビン・ワーウィック、そして発明家のレイ・カーツワイルは、将来、人間と機械が融合し、どちらよりも優れた能力と力を持つサイボーグが誕生するだろうと予測している。トランスヒューマニズムと呼ばれるこの概念は、オルダス・ハクスリーロバート・エッティンガーの著作に根ざしている。[ 444 ]

エドワード・フレドキンは「人工知能は進化の次のステップである」と主張しているが、この考えは1863年にサミュエル・バトラーの『機械の中のダーウィン』で初めて提唱され、1998年にジョージ・ダイソンが著書『機械の中のダーウィン:地球規模の知能の進化』でさらに発展させたものである。[ 445 ]

フィクションでは

「ロボット」という言葉自体は、カレル・チャペックが1921 年に書いた戯曲『RUR』で作られたもので、タイトルは「ロッサムの万能ロボット」の略称です。

思考能力を持つ人工生命体は古代から物語の道具として登場しており[ 446 ] 、 SFの世界では永続的なテーマとなっている[ 447 ]

これらの作品に共通する比喩は、メアリー・シェリーの『フランケンシュタイン』に始まり、人間の創造物が主人にとって脅威となるというものである。これには、アーサー・C・クラークスタンリー・キューブリックの『2001年宇宙の旅』(ともに1968年)における、宇宙船ディスカバリー号を制御する殺人コンピューターHAL9000 、そして『ターミネーター』(1984年)や『マトリックス』(1999年)などが含まれる。対照的に、『地球が静止する日』(1951年)のゴートや『エイリアン』(1986年)のビショップのような、稀有な忠実なロボットは、大衆文化においてそれほど目立たない。[ 448 ]

アイザック・アシモフは、多くの物語、特に超知能コンピュータ「マルチバック」において、ロボット工学三原則を提示しました。アシモフの法則は、機械倫理に関する一般の議論でしばしば取り上げられます。 [ 449 ]人工知能研究者のほとんどが、大衆文化を通してアシモフの法則をよく知っていますが、多くの理由から、一般的には役に立たないと考えられています。その一つが、その曖昧さです。[ 450 ]

いくつかの作品では、AIを用いて、人間とは何かという根本的な問いに向き合うよう促し、感情を持ち、そして苦しみを持つ人工的な存在を描いています。これは、カレル・チャペックの『RUR』、映画『AI 人工知能』『エクス・マキナ』 、そしてフィリップ・K・ディックの小説『アンドロイドは電気羊の夢を見るか? 』にも見られます。ディックは、人間の主観性に対する私たちの理解は、人工知能によって生み出された技術によって変化するという考えを考察しています。[ 451 ]

参照

説明ノート

  1. ^ a bこの知的特性のリストは、ラッセル&ノーヴィグ(2021)ルガー&スタブルフィールド(2004)プール、マックワース&ゴーベル(1998)、ニルソン(1998)などの主要なAI教科書で扱われているトピックに基づいています。
  2. ^ a bこのツールのリストは、Russell & Norvig (2021)Luger & Stubblefield (2004)Poole, Mackworth & Goebel (1998) 、 Nilsson (1998)などの主要なAI教科書で扱われているトピックに基づいています。
  3. ^これはエキスパートシステムが知識獲得に非効率的であることが判明した理由の一つである。 [ 30 ] [ 31 ]
  4. ^ 「合理的エージェント」とは、経済学哲学、そして理論的な人工知能において用いられる一般的な用語です。人間、動物、企業、国家、あるいはAIの場合はコンピュータプログラムなど、目標を達成するために行動を指示するあらゆるものを指します。
  5. ^アラン・チューリングは1950年に早くも学習の重要性について、彼の古典的な論文『計算機械と知能』の中で論じていました。 [ 42 ] 1956年、最初のダートマスAI夏季会議で、レイ・ソロモンオフは教師なし確率的機械学習に関する報告書「帰納的推論機械」を執筆しました。 [ 43 ]
  6. ^ AI winter § 機械翻訳および 1966 年の ALPAC レポートを参照してください。
  7. ^ 記号論理と比較すると、形式ベイズ推論は計算コストが高い。推論を扱いやすくするためには、ほとんどの観測値が互いに条件付きで独立していなければならない。AdSense、3億以上のエッジを持つベイズネットワークを用いて、どの広告を配信するかを学習している。 [ 94 ]
  8. ^機械学習で最も人気のあるアルゴリズムの一つである期待最大化は、未知の潜在変数が存在する場合でもクラスタリングを可能にする。 [ 96 ]
  9. ^ 特定の学習アルゴリズムを持たないディープニューラルネットワークは、 ウォーレン・S・マカロックウォルター・ピッツ(1943年) [ 117 ]アラン・チューリング(1948年) [ 118 ]カール・シュタインブックロジャー・デイヴィッド・ジョセフ(1961年)によって説明された。 [ 119 ] 学習する(または勾配降下法を使用する)ディープネットワークまたはリカレントネットワークは、 フランク・ローゼンブラット(1957年) [ 118 ]オリバー・セルフリッジ(1959年) [ 119 ]アレクセイ・イヴァクネンコヴァレンティン・ラパ(1965年) [ 120 ]中野薫(1971年) [ 121 ]天理俊一( 1972年) [ 121 ]ジョン・ジョセフ・ホップフィールド(1982年)によって開発された。 [ 121 ] バックプロパゲーションの前身は、 ヘンリー・J・ケリー(1960)、 [ 118 ]アーサー・E・ブライソン(1962)、 [ 118 ]スチュアート・ドレイファス(1962)、 [ 118 ]アーサー・E・ブライソンユー・チー・ホー(1969)によって開発されました。 [ 118 ]バックプロパゲーションは、セッポ・リナインマー(1970)、 [ 122 ]ポール・ワーボス(1974) によって独立して開発されました 。 [ 118 ]
  10. ^ジェフリー・ヒントンは1990年代のニューラルネットワークに関する研究について、「ラベル付けされたデータセットは数千倍も小さすぎた。[そして]コンピュータは数百万倍も遅すぎた」と述べている。 [ 123 ]
  11. ^統計学において、バイアスとは体系的な誤差、または正しい値からの逸脱を指します。しかし、公平性の文脈では、特定の集団または個人の特性を支持または否定する傾向を指し、通常は不公平または有害とみなされる方法で行われます。したがって、統計的に偏りのないAIシステムが、異なる人口統計学的グループに対して異なる結果を生成する場合、倫理的な意味でバイアスがかかっていると見なされる可能性があります。 [ 255 ]
  12. ^ジョン・クラインバーグ(コーネル大学)、センディル・ムライナタン (シカゴ大学)、シンシア・チョルデコバ (カーネギーメロン)、サム・コーベット・デイビス (スタンフォード)を含む[ 265 ]
  13. ^モーリッツ・ハート(マックス・プランク知能システム研究所所長)は、機械学習は「世界を変えるような介入やメカニズムを設計しようとする多くの分野では、根本的に間違ったツールだ」と主張している。 [ 270 ]
  14. ^ 2018年にこの法律が可決されたとき、この規定の形式はまだ含まれていました。
  15. ^これは国連の定義であり、地雷なども含まれます。 [ 286 ]
  16. ^表4を参照。9%はOECD平均と米国平均の両方である。 [ 297 ]
  17. ^ロボポカリプスと呼ばれることもある[ 306 ]
  18. ^「電子頭脳」とは、この頃のマスコミで使われていた用語である。 [ 363 ] [ 365 ]
  19. ^ ダニエル・クレヴィエは「この会議は新しい科学の公式な誕生日として広く認識されている」と書いている。 [ 368 ]ラッセルノーヴィグはこの会議を「人工知能の始まり」と呼んだ。 [ 117 ]
  20. ^ラッセルノーヴィグは「その後20年間、この分野はこれらの人々とその学生によって支配されるだろう」と書いている。 [ 369 ]
  21. ^ラッセルノーヴィグは「コンピューターが何か賢いことをするたびに驚かされる」と書いている。 [ 370 ]
  22. ^ 記述されているプログラムは、 Arthur SamuelIBM 701用チェッカー プログラム、 Daniel BobrowSTUDENT NewellSimonLogic Theorist、およびTerry WinogradSHRDLUです。
  23. ^ラッセルノーヴィグは次のように書いている。「ほとんどの場合、これらの初期のシステムはより困難な問題には失敗した」 [ 374 ]
  24. ^ AIへの具体化されたアプローチ[ 381 ]は、ハンス・モラベック[ 382 ]ロドニー・ブルックス[ 383 ]によって提唱され、ヌーベルAI [ 383 ]発達ロボティクス[ 384 ]など、様々な名前で呼ばれてきました
  25. ^マッテオ・ウォンはアトランティック誌で次のように書いている。「数十年にわたり、自然言語処理、コンピュータビジョン、ロボティクスといったコンピュータサイエンスの分野では、それぞれ全く異なる手法が用いられてきたが、現在ではそれら全てが『ディープラーニング』と呼ばれるプログラミング手法を用いている。その結果、それぞれのコードとアプローチはより類似したものとなり、モデル同士の統合が容易になった。」 [ 390 ]
  26. ^ジャック・クラークはブルームバーグで「人工知能における静かなブレークスルーが5年続いた後、2015年は画期的な年となった。コンピューターはこれまで以上に賢くなり、学習速度も速まっている」と述べ、 Googleで機械学習を使用するソフトウェアプロジェクトの数が2012年の「散発的な使用」から2015年には2,700件以上に増加したと指摘した。 [ 392 ]
  27. ^ニルス・ニルソンは1983年にこう書いている。「簡単に言えば、AIとは何かという点については、この分野で大きな意見の相違がある。」 [ 416 ]
  28. ^ ダニエル・クレヴィエは、「ドレフュスの発言の正確さと洞察力は時を経て証明された。もし彼がもう少し攻撃的な表現を使っていたら、そこで示唆された建設的な行動はもっと早く取られていたかもしれない」と書いている。 [ 421 ]
  29. ^ サールは1999年に「強いAI」の定義を提示した。 [ 431 ]サールの当初の定式化は「適切にプログラムされたコンピュータは、適切なプログラムを与えられたコンピュータは文字通り理解し、他の認知状態を持つと言えるという意味で、真に心である」というものであった。 [ 432 ]強いAIはラッセルノーヴィグによって同様に定義されている。「強いAIとは、(思考をシミュレートするのではなく)実際に思考している機械であるという主張である。」 [ 433 ]

参考文献

  1. ^ a b cラッセル&ノルヴィグ(2021)、pp.1–4。
  2. ^ AIが人間の脳力を超える可能性Archived 19 February 2008 at the Wayback Machine CNN.com (2006年7月26日)
  3. ^カプラン、アンドレアス、ヘンライン、マイケル (2019). 「Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of articulations」. Business Horizo​​ns . 62 : 15–25 . doi : 10.1016/j.bushor.2018.08.004 .[出典の質問は『白雪姫』のパスティッシュです]
  4. ^ラッセル&ノルヴィグ(2021、§1.2)。
  5. ^ 「テクノロジー企業は汎用人工知能の開発を目指している。しかし、AGIの実現時期を決めるのは誰か?」 AP通信2024年4月4日。 2025年5月20日閲覧
  6. ^ a bダートマスワークショップラッセル&ノーヴィグ(2021年、p.18)、マコーダック(2004年、pp.111–136)、NRC(1999年、pp.200–201)提案:マッカーシーら(1955年)
  7. ^ a b 1960年代の成功したプログラム:McCorduck(2004年、pp. 243–252)、Crevier(1993年、pp. 52–107)、Moravec(1988年、p. 9)、Russell & Norvig(2021年、pp. 19–21)
  8. ^ a b 1980年代初頭の資金提供イニシアチブ:第五世代プロジェクト(日本)、アルベイ(英国)、マイクロエレクトロニクス・アンド・コンピュータ・テクノロジー・コーポレーション(米国)、戦略コンピューティング・イニシアチブ(米国):McCorduck(2004年、pp. 426–441)、Crevier(1993年、pp. 161–162, 197–203, 211, 240)、Russell & Norvig(2021年、p. 23)、NRC(1999年、pp. 210–211)、Newquist(1994年、pp. 235–248)
  9. ^ a b First AI WinterLighthill reportMansfield AmendmentCrevier(1993、pp. 115–117)、Russell & Norvig(2021、pp. 21–22)、NRC(1999、pp. 212–213)、Howe(1994)Newquist(1994、pp. 189–201)
  10. ^ a b第2次AIウィンターラッセル&ノーヴィグ(2021年、p.24)、マコーダック(2004年、pp.430–435)、クレヴィエ(1993年、pp.209–210)、NRC(1999年、pp.214–216)、ニュークイスト(1994年、pp.301–318)
  11. ^ a bディープラーニング革命、AlexNetゴールドマン(2022)ラッセル&ノルヴィグ(2021、p.26)、マッキンゼー(2018)
  12. ^トゥーズ (2023) .
  13. ^問題解決、パズル解決、ゲームプレイ、推論: Russell & Norvig(2021、第3章~第5章)、 Russell & Norvig(2021、第6章)(制約満足度)、 Poole、Mackworth & Goebel(1998、第2章、第3章、第7章、第9章)、 Luger & Stubblefield(2004、第3章、第4章、第6章、第8章)、 Nilsson(1998、第7章~第12章)
  14. ^不確実な推論:ラッセル&ノーヴィグ(2021年、第12章~第18章)、プール、マックワース&ゴーベル(1998年、345~395頁)、ルガー&スタブルフィールド(2004年、333~381頁)、ニルソン(1998年、第7章~第12章)
  15. ^ a b c扱いにくさと効率性、そして組み合わせ爆発ラッセル&ノルヴィグ(2021年、p.21)
  16. ^ a b c 記号以下の推論と知識の普及に関する心理学的証拠:カーネマン(2011)ドレイファス&ドレイファス(1986)ワソン&シャピロ(1966)カーネマン、スロヴィック&トヴェルスキー(1982)
  17. ^知識表現知識工学ラッセル&ノーヴィグ(2021年、第10章)、プール、マックワース&ゴーベル(1998年、23~46頁、69~81頁、169~233頁、235~277頁、281~298頁、319~345頁)、ルガー&スタブルフィールド(2004年、227~243頁)、ニルソン(1998年、17.1~17.4頁、18頁)
  18. ^スモリア&チャン(1994)
  19. ^ノイマン&モラー(2008) .
  20. ^ Kuperman、Reichley、Bailey(2006年)
  21. ^マッカーリー(2005年)
  22. ^ベルティーニ、デル・ビンボ、トルニアイ (2006)
  23. ^ラッセル&ノルヴィグ(2021)、272頁。
  24. ^カテゴリと関係の表現:意味ネットワーク記述論理継承フレームスクリプトを含む): Russell & Norvig(2021、§10.2 & 10.5)、 Poole、Mackworth & Goebel(1998、pp. 174–177)、 Luger & Stubblefield(2004、pp. 248–258)、 Nilsson(1998、chpt. 18.3)
  25. ^イベントと時間の表現:状況計算イベント計算フルーエント計算フレーム問題の解決を含む): Russell & Norvig(2021、§10.3)、 Poole、Mackworth & Goebel(1998、pp. 281–298)、 Nilsson(1998、chpt. 18.2)
  26. ^因果計算: Poole、Mackworth & Goebel (1998、pp. 335–337)
  27. ^知識についての知識の表現:信念計算、様相論理ラッセル&ノルヴィグ(2021、§10.4)、プール、マックワース&ゴーベル(1998、pp. 275–277)
  28. ^ a bデフォルト推論フレーム問題デフォルト論理非単調論理サーカムスクリプション、閉世界仮定アブダクションRussell & Norvig (2021、§10.6)、Poole, Mackworth & Goebel (1998、pp. 248–256, 323–335)、Luger & Stubblefield (2004、pp. 335–363)、Nilsson (1998、~18.3.3)(Pooleらはアブダクションを「デフォルト推論」の範疇に位置付けている。Lugerらはこれを「不確実推論」の範疇に位置付けている)。
  29. ^ a b常識的知識の幅:Lenat & Guha(1989、序論)、Crevier(1993、pp. 113–114)、Moravec(1988、p. 13)、Russell & Norvig(2021、pp. 241、385、982)(資格問題
  30. ^ニュークイスト(1994)、296ページ。
  31. ^クレヴィエ(1993)、204–208頁。
  32. ^ラッセル&ノルヴィグ(2021)、528頁。
  33. ^自動計画 Russell&Norvig(2021年、第11章)。
  34. ^自動意思決定意思決定理論ラッセル&ノルヴィグ(2021年、第16~18章)。
  35. ^古典的計画ラッセル&ノルヴィグ(2021、セクション11.2)。
  36. ^センサーレスまたは「適合」計画、コンティンジェント計画、再計画(別名オンライン計画): Russell&Norvig(2021、セクション11.5)。
  37. ^不確実な選好:ラッセル&ノルヴィグ(2021年、第16.7節) 逆強化学習ラッセル&ノルヴィグ(2021年、第22.6節)
  38. ^情報価値理論ラッセル&ノルヴィグ(2021年、第16.6節)。
  39. ^マルコフ決定過程ラッセル&ノルヴィグ(2021年、第17章)。
  40. ^ゲーム理論とマルチエージェント意思決定理論:ラッセル&ノルヴィグ(2021年、第18章)。
  41. ^学習ラッセル&ノーヴィグ(2021年、第19~22章)、プール、マックワース&ゴーベル(1998年、397~438頁)、ルガー&スタブルフィールド(2004年、385~542頁)、ニルソン(1998年、第3.3章、第10.3章、第17.5章、第20章)
  42. ^チューリング (1950) .
  43. ^ソロモンオフ(1956年)
  44. ^教師なし学習 Russell & Norvig (2021 , pp. 653) (定義), Russell & Norvig (2021 , pp. 738–740) (クラスター分析), Russell & Norvig (2021 , pp. 846–860) (単語埋め込み)
  45. ^ a b教師あり学習ラッセル&ノーヴィグ(2021年、§19.2)(定義)、ラッセル&ノーヴィグ(2021年、第19章~第20章)(手法)
  46. ^強化学習ラッセル&ノルヴィグ(2021年、第22章)、ルガー&スタブルフィールド(2004年、442~449頁)
  47. ^転移学習ラッセル&ノルヴィグ(2021年、281頁)、エコノミスト(2016年)
  48. ^ 「人工知能(AI):AIとは何か、どのように機能するのか? | Built In」 . builtin.com . 2023年10月30日閲覧
  49. ^計算学習理論ラッセル&ノルヴィグ(2021年、672~674頁)、ジョーダン&ミッチェル(2015年)
  50. ^自然言語処理(NLP):ラッセル&ノルヴィグ(2021年、第23~24章)、プール、マックワース&ゴーベル(1998年、91~104頁)、ルガー&スタブルフィールド(2004年、591~632頁)
  51. ^ NLPのサブ問題:ラッセル&ノルヴィグ(2021年、849~850頁)
  52. ^ラッセル&ノルヴィグ(2021)、856–858頁。
  53. ^ディクソン (2022) .
  54. ^ NLPへの現代の統計的および深層学習アプローチ: Russell&Norvig(2021、第24章)、 Cambria&White(2014)
  55. ^ヴィンセント (2019) .
  56. ^ラッセル&ノルヴィグ(2021)、875–878頁。
  57. ^ブッシュウィック (2023) .
  58. ^コンピュータビジョンラッセル&ノルヴィグ(2021年、第25章)、ニルソン(1998年、第6章)
  59. ^ラッセル&ノルヴィグ(2021)、849–850頁。
  60. ^ラッセル&ノルヴィグ(2021)、895–899頁。
  61. ^ラッセル&ノルヴィグ(2021)、899–901頁。
  62. ^ Challa et al. (2011) .
  63. ^ラッセル&ノルヴィグ(2021)、931–938頁。
  64. ^ MIT AIL (2014) .
  65. ^感情的コンピューティング: Thro (1993) Edelson (1991) Tao & Tan (2005) Scassellati (2002)
  66. ^ワデル (2018) .
  67. ^ポリアら(2017) .
  68. ^ a b汎用人工知能ラッセル&ノルヴィグ(2021年、32~33頁、1020~1021頁)現代版の提案:ペナチン&ゴーツェル(2007年) AIにおける過剰専門化への警告を主導的な研究者が示す:ニルソン(1995年)マッカーシー(2007年)ビール&ウィンストン(2009年)
  69. ^検索アルゴリズム Russell & Norvig (2021 , chpts. 3–5), Poole, Mackworth & Goebel (1998 , pp. 113–163), Luger & Stubblefield (2004 , pp. 79–164, 193–219), Nilsson (1998 , chpts. 7–12)
  70. ^状態空間探索ラッセル&ノルヴィグ(2021、第3章)
  71. ^ Russell & Norvig (2021)、セクション11.2。
  72. ^無情報探索幅優先探索深さ優先探索、一般状態空間探索): Russell & Norvig(2021、3.4節)、 Poole, Mackworth & Goebel(1998、113~132頁)、 Luger & Stubblefield(2004、79~121頁)、 Nilsson(1998、第8章)
  73. ^ヒューリスティック探索または情報に基づいた探索(例:貪欲最良優先探索およびA*): Russell & Norvig(2021、3.5節)、 Poole, Mackworth & Goebel(1998、132~147頁)、 Poole & Mackworth(2017、3.6節)、 Luger & Stubblefield(2004、133~150頁)
  74. ^敵対的探索ラッセル&ノルヴィグ(2021年、第5章)
  75. ^局所探索または「最適化」探索: Russell & Norvig(2021年、第4章)
  76. ^ Singh Chauhan, Nagesh (2020年12月18日). 「ニューラルネットワークにおける最適化アルゴリズム」 . KDnuggets . 2024年1月13日閲覧
  77. ^進化計算ラッセル&ノルヴィグ(2021年、セクション4.1.2)
  78. ^マークル & ミッデンドルフ (2013)
  79. ^ Logic Russell & Norvig(2021年、第6章~第9章)、 Luger & Stubblefield(2004年、35~77ページ)、 Nilsson(1998年、第13章~第16章)
  80. ^命題論理ラッセル&ノーヴィグ(2021年、第6章)、ルガー&スタブルフィールド(2004年、45~50頁)、ニルソン(1998年、第13章)
  81. ^一階論理と等式などの特徴: Russell & Norvig (2021 , chpt. 7), Poole, Mackworth & Goebel (1998 , pp. 268–275), Luger & Stubblefield (2004 , pp. 50–62), Nilsson (1998 , chpt. 15)
  82. ^論理的推論ラッセル&ノルヴィグ(2021年、第10章)
  83. ^探索としての論理的演繹: Russell & Norvig (2021 , 9.3節, 9.4節), Poole, Mackworth & Goebel (1998 , pp. ~46–52), Luger & Stubblefield (2004 , pp. 62–73), Nilsson (1998 , chpt. 4.2, 7.2)
  84. ^解決統一ラッセル&ノルヴィグ(2021、セクション7.5.2、9.2、9.5)
  85. ^ Warren, DH; Pereira, LM; Pereira, F. (1977). 「Prolog 言語とその実装と Lisp の比較」ACM SIGPLAN Notices . 12 (8): 109– 115. doi : 10.1145/872734.806939 .
  86. ^ファジー論理:ラッセル&ノルヴィグ(2021年、pp.214、255、459)、サイエンティフィック・アメリカン(1999年)
  87. ^ a b不確実推論のための確率的手法:ラッセル&ノルヴィグ(2021年、第12章~第18章、第20章)、プール、マックワース&ゴーベル(1998年、345~395頁)、ルガー&スタブルフィールド(2004年、165~191頁、333~381頁)、ニルソン(1998年、第19章)
  88. ^意思決定理論意思決定分析ラッセル&ノルヴィグ(2021年、第16~18章)、プール、マックワース&ゴーベル(1998年、381~394頁)
  89. ^情報価値理論ラッセル&ノルヴィグ(2021年、第16.6節)
  90. ^マルコフ決定過程と動的決定ネットワークラッセル&ノルヴィグ(2021年、第17章)
  91. ^ a b c確率的時間モデル:Russell & Norvig (2021 , chpt. 14) 隠れマルコフモデルRussell & Norvig (2021 , sect. 14.3) カルマンフィルタRussell & Norvig (2021 , sect. 14.4) 動的ベイジアンネットワークRussell & Norvig (2021 , sect. 14.5)
  92. ^ゲーム理論メカニズム設計ラッセル&ノルヴィグ(2021年、第18章)
  93. ^ベイジアンネットワーク Russell & Norvig (2021 , 12.5–12.6節, 13.4–13.5節, 14.3–14.5節, 16.5節,20.2–20.3節) , Poole, Mackworth & Goebel (1998 , 361–381頁), Luger & Stubblefield (2004 , ~182–190頁, ≈363–379頁), Nilsson (1998 , 19.3–19.4章)
  94. ^ドミンゴス(2015)、第6章。
  95. ^ベイズ推論アルゴリズム: Russell & Norvig (2021 , sect. 13.3–13.5), Poole, Mackworth & Goebel (1998 , pp. 361–381), Luger & Stubblefield (2004 , pp. ~363–379), Nilsson (1998 , chpt. 19.4 & 7)
  96. ^ドミンゴス(2015)、210頁。
  97. ^ベイズ学習期待値最大化アルゴリズムラッセル&ノルヴィグ(2021年、第20章)、プール、マックワース&ゴーベル(1998年、424~433頁)、ニルソン(1998年、第20章)、ドミンゴス(2015年、210頁)
  98. ^ベイズ決定理論とベイズ決定ネットワークラッセル&ノルヴィグ(2021年、第16.5節)
  99. ^統計的学習方法と分類器ラッセル&ノルヴィグ(2021年、第20章)、
  100. ^ Ciaramella, Alberto ; Ciaramella, Marco (2024). 『人工知能入門:データ分析から生成AIまで』 Intellisemantic Editions. ISBN 978-8-8947-8760-3
  101. ^決定木ラッセル&ノルヴィグ(2021年、19.3節)、ドミンゴス(2015年、88頁)
  102. ^ k近傍法サポートベクターマシンなどの非パラメトリクス学習モデル: Russell & Norvig (2021 , sect. 19.7), Domingos (2015 , p. 187) (k近傍法)
  103. ^ドミンゴス(2015)、152頁。
  104. ^ナイーブベイズ分類器ラッセル&ノルヴィグ(2021年、12.6節)、ドミンゴス(2015年、152頁)
  105. ^ a bニューラルネットワーク:Russell & Norvig(2021年、第21章)、Domingos(2015年、第4章)
  106. ^計算グラフにおける勾配計算、バックプロパゲーション自動微分 Russell & Norvig (2021 , sect. 21.2), Luger & Stubblefield (2004 , pp. 467–474), Nilsson (1998 , chpt. 3.3)
  107. ^普遍近似定理ラッセル&ノルヴィグ(2021年、p.752)定理:サイベンコ(1988年)ホーニック、スティンチコム&ホワイト(1989年)
  108. ^フィードフォワードニューラルネットワークラッセル&ノルヴィグ(2021年、セクション21.1)
  109. ^パーセプトロンラッセル&ノルヴィグ(2021年、21、22、683、22頁)
  110. ^ a bディープラーニングRussell & Norvig(2021年、第21章)、Goodfellow、Bengio & Courville(2016年)Hinton et al.(2016年)Schmidhuber(2015年)
  111. ^リカレントニューラルネットワークラッセル&ノルヴィグ(2021年、セクション21.6)
  112. ^畳み込みニューラルネットワークラッセル&ノルヴィグ(2021年、第21.3節)
  113. ^ Sindhu V, Nivedha S, Prakash M (2020年2月). 「機械学習におけるバイオインフォマティクスに関する実証科学研究」 . Journal of Mechanics of Continua and Mathematical Sciences (7). doi : 10.26782/jmcms.spl.7/2020.02.00006 .
  114. ^ Deng & Yu (2014)、199–200 ページ。
  115. ^シレサン、マイヤー、シュミットフーバー (2012)
  116. ^ラッセル&ノルヴィグ(2021)、750頁。
  117. ^ a b cラッセル&ノルヴィグ(2021)、p.17。
  118. ^ a b c d e f gラッセル&ノルヴィグ(2021)、785頁。
  119. ^ a b Schmidhuber (2022)、セクション5。
  120. ^ Schmidhuber (2022)、6節。
  121. ^ a b c Schmidhuber (2022)、第7節。
  122. ^ Schmidhuber (2022)、第8節。
  123. ^ Christian (2020 , p. 22)より引用
  124. ^メッツ、ケイド、ワイズ、カレン(2025年5月5日)。AI幻覚は、新システムがより強力になるにつれて悪化している」ニューヨーク・タイムズ。ISSN 0362-4331 。 2025年5月6日閲覧 
  125. ^スミス (2023) .
  126. ^ 「解説:生成AI」 MITニュース | マサチューセッツ工科大学2023年11月9日。
  127. ^ 「AIライティングおよびコンテンツ作成ツール」。MITスローン教育学習テクノロジーズ2023年12月25日時点のオリジナルよりアーカイブ。 2023年12月25日閲覧
  128. ^マルムイエ (2023) .
  129. ^コビエルス (2019) .
  130. ^ Thomason, James (2024年5月21日). 「Mojo Rising: AIファースト・プログラミング言語の復活」 . VentureBeat . 2024年6月27日時点のオリジナルよりアーカイブ。 2024年5月26日閲覧
  131. ^ Wodecki, Ben (2023年5月5日). 「知っておくべき7つのAIプログラミング言語」 . AI Business . 2024年7月25日時点のオリジナルよりアーカイブ2024年10月5日閲覧。
  132. ^ Plumb, Taryn (2024年9月18日). 「なぜジェンセン・フアンとマーク・ベニオフはエージェントAIに『巨大な』チャンスを見出しているのか」 . VentureBeat . 2024年10月5日時点のオリジナルよりアーカイブ。 2024年10月4日閲覧
  133. ^ミムズ、クリストファー (2020年9月19日). 「黄の法則は新たなムーアの法則、そしてNvidiaがArmを望む理由を説明する」ウォール・ストリート・ジャーナル. ISSN 0099-9660 . 2023年10月2日時点のオリジナルよりアーカイブ。 2025年1月19日閲覧 
  134. ^ Dankwa-Mullan, Irene (2024). 「公衆衛生と医療における人工知能の利用における健康の公平性と倫理的配慮」 .慢性疾患の予防. 21 240245 : E64. doi : 10.5888/pcd21.240245 . ISSN 1545-1151 . PMC 11364282. PMID 39173183 .   
  135. ^ Jumper, J; Evans, R; Pritzel, A (2021). 「AlphaFoldを用いた高精度タンパク質構造予測」 . Nature . 596 (7873): 583– 589. Bibcode : 2021Natur.596..583J . doi : 10.1038/ s41586-021-03819-2 . PMC 8371605. PMID 34265844 .  
  136. ^ 「AIが薬剤耐性菌を殺す新たな抗生物質を発見」ニューサイエンティスト、2023年12月20日。2024年9月16日時点のオリジナルよりアーカイブ。 2024年10月5日閲覧
  137. ^ 「AIがパーキンソン病の薬剤設計を10倍高速化」ケンブリッジ大学。ケンブリッジ大学。2024年4月17日。2024年10月5日時点のオリジナルよりアーカイブ。 2024年10月5日閲覧
  138. ^ Horne, Robert I.; Andrzejewska, Ewa A.; Alam, Parvez; Brotzakis, Z. Faidon; Srivastava, Ankit; Aubert, Alice; Nowinska, Magdalena; Gregory, Rebecca C.; Staats, Roxine; Possenti, Andrea; Chia, Sean; Sormanni, Pietro; Ghetti, Bernardino; Caughey, Byron; Knowles, Tuomas PJ; Vendruscolo, Michele (2024年4月17日). 「構造ベース反復学習を用いたα-シヌクレイン凝集に対する強力な阻害剤の発見」 . Nature Chemical Biology . 20 (5). Nature: 634– 645. doi : 10.1038/s41589-024-01580-x . PMC 11062903 . PMID 38632492 .  
  139. ^ Grant, Eugene F.; Lardner, Rex (1952年7月25日). "The Talk of the Town – It" . The New Yorker . ISSN 0028-792X . 2020年2月16日時点のオリジナルよりアーカイブ。 2024年1月28日閲覧 
  140. ^アンダーソン、マーク・ロバート (2017年5月11日). 「ディープ・ブルー対カスパロフ戦から20年:チェスの試合がビッグデータ革命のきっかけとなった経緯」 . The Conversation . 2024年9月17日時点のオリジナルよりアーカイブ。 2024年1月28日閲覧
  141. ^ Markoff, John (2011年2月16日). 「『Jeopardy!』でコンピューターが勝利:些細なこと、そうではない」 . The New York Times . ISSN 0362-4331 . 2014年10月22日時点のオリジナルよりアーカイブ。 2024年1月28日閲覧 
  142. ^ Byford, Sam (2017年5月27日). 「AlphaGo、世界一を3-0で破り競技囲碁から引退」 The Verge . 2017年6月7日時点のオリジナルよりアーカイブ。 2024年1月28日閲覧
  143. ^ Brown, Noam; Sandholm, Tuomas (2019年8月30日). 「マルチプレイヤーポーカーのための超人AI」. Science . 365 (6456): 885–890 . Bibcode : 2019Sci...365..885B . doi : 10.1126/science.aay2400 . PMID 31296650 . 
  144. ^ 「MuZero:ルールなしで囲碁、チェス、将棋、Atariをマスターする」 Google DeepMind、2020年12月23日。 2024年1月28日閲覧
  145. ^ Sample, Ian (2019年10月30日). 「AIが『悪魔のように複雑な』StarCraft IIでグランドマスターに」 . The Guardian . ISSN 0261-3077 . 2020年12月29日時点のオリジナルよりアーカイブ。 2024年1月28日閲覧 
  146. ^ Wurman, PR; Barrett, S.; Kawamoto, K. (2022). 「深層強化学習でグランツーリスモのチャンピオンドライバーに勝つ」(PDF) . Nature . 602 (7896): 223– 228. Bibcode : 2022Natur.602..223W . doi : 10.1038/s41586-021-04357-7 . PMID 35140384 . 
  147. ^ウィルキンス、アレックス (2024年3月13日). 「Google AI、オープンワールドのビデオゲームを観察することでプレイ方法を学習」 . New Scientist . 2024年7月26日時点のオリジナルよりアーカイブ。 2024年7月21日閲覧
  148. ^ Wu, Zhengxuan; Arora, Aryaman; Wang, Zheng; Geiger, Atticus; Jurafsky, Dan; Manning, Christopher D.; Potts, Christopher (2024). 「ReFT: 言語モデルのための表現のファインチューニング」. NeurIPS . arXiv : 2404.03592 .
  149. ^ 「プロセス監督による数学的推論の改善」 OpenAI 2023年5月31日。 2025年1月26日閲覧
  150. ^ Srivastava, Saurabh (2024年2月29日). 「推論性能の堅牢な評価のための機能ベンチマークと推論ギャップ」. arXiv : 2402.19450 [ cs.AI ].
  151. ^ライトマン、ハンター; コサラジュ、ヴィニート; ブルダ、ユラ; エドワーズ、ハリ; ベイカー、ボーエン; リー、テディ; ライケ、ヤン; シュルマン、ジョン; サツケヴァー、イリヤ; コッベ、カール (2023). 「ステップバイステップで検証しよう」. arXiv : 2305.20050v1 [ cs.LG ].
  152. ^ Franzen, Carl (2024年8月8日). 「Alibaba、Qwen2-MathでAI数学モデル分野で1位を獲得」 . VentureBeat . 2025年2月16日閲覧
  153. ^ Franzen, Carl (2025年1月9日). 「Microsoftの新しいrStar-Math技術は、数学問題においてOpenAIのo1-previewを上回る性能を持つ小型モデルをアップグレード」 . VentureBeat . 2025年1月26日閲覧。
  154. ^ジーナ・ジェンキナ「新しいAIモデルが『キス問題』などを解決」AlphaEvolve、数学的な発見と実用的な最適化を複数実現IEEE Spectrum 2025年5月14日。2025年6月7日閲覧。
  155. ^ロバーツ、シボーン (2024年7月25日). 「AI、国際数学オリンピックの問題解決で銀メダルレベルを達成」 .ニューヨーク・タイムズ. 2024年9月26日時点のオリジナルよりアーカイブ。 2024年8月7日閲覧
  156. ^アゼルバエフ、ジャンギール;ヘイリー・シェルコップフ。ペスター、ケイラン。サントス、マルコ・ドス。マカリア、スティーブン。ジャン、アルバート Q.鄧、佳。ビダーマン、ステラ。ショーン・ウェレック(2023年10月16日)。「補題: 数学のためのオープンな言語モデル」EleutherAI ブログ2025 年1 月 26 日に取得
  157. ^ 「Julius AI」 . julius.ai .
  158. ^ Metz, Cade (2025年7月21日). 「Google AIシステムが国際数学オリンピックで金メダルを獲得」 .ニューヨーク・タイムズ. ISSN 0362-4331 . 2025年7月24日閲覧 
  159. ^ McFarland, Alex (2024年7月12日). 「数学ツールに最適なAI8選(2025年1月)」 . Unite.AI . 2025年1月26日閲覧
  160. ^マシュー・フィニオ&アマンダ・ダウニー:IBM Think 2024入門「金融における人工知能(AI)とは?」2023年12月8日
  161. ^ M. Nicolas、J. Firzli: Pensions Age / European Pensions 誌、「人工知能: 業界に聞く」、2024年5~6月。https ://videovoice.org/ai-in-finance-innovation-entrepreneurship-vs-over-regulation-with-the-eus-artificial-intelligence-act-wont-work-as-intended/ 2024年9月11日にWayback Machineアーカイブ
  162. ^ a b c議会調査局 (2019). 「人工知能と国家安全保障」 (PDF) . ワシントンD.C.: 議会調査局. 2020年5月8日時点のオリジナルよりアーカイブ(PDF) . 2024年2月25日閲覧。PD通知
  163. ^ a b Slyusar, Vadym (2019). 未来の制御ネットワークの基盤としての人工知能(プレプリント). doi : 10.13140/RG.2.2.30247.50087 .
  164. ^イラク、アムジャド (2024 年 4 月 3 日)。「『ラベンダー』:イスラエルのガザ爆撃を指揮しているAIマシン」+972マガジン。2024年10月10日時点のオリジナルよりアーカイブ。 2024年4月6日閲覧
  165. ^ハリー、デイヴィス;マッカーナン、ベサン。ダン・サッバーグ(2023年12月1日)。「『福音』:イスラエルはいかにしてAIを使ってガザ地区の爆撃目標を選定しているのか」ガーディアン紙。2023年12月6日時点のオリジナルよりアーカイブ。 2023年12月4日閲覧
  166. ^マルティ、J ヴェルナー (2024 年 8 月 10 日)。「Drohnen haben den Krieg in der Ukraine Revolutioniert, doch sie sind empfindlich auf Störsender – deshalb sollen sie Jetzt autonom opererieren」Neue Zürcher Zeitung (ドイツ語)。2024 年 8 月 10 日のオリジナルからアーカイブ2024 年8 月 10 日に取得
  167. ^ Banh, Leonardo; Strobel, Gero (2023). 「生成型人工知能」 . Electronic Markets . 33 (1) 63. doi : 10.1007/s12525-023-00680-1 .
  168. ^ Pasick, Adam (2023年3月27日). 「人工知能用語集:ニューラルネットワークとその他の用語の説明」 . The New York Times . ISSN 0362-4331 . 2023年9月1日時点のオリジナルよりアーカイブ。 2023年4月22日閲覧 
  169. ^グリフィス、エリン、メッツ、ケイド(2023年1月27日)「アントロピック、新たなAI資金3億ドル獲得目前か」ニューヨーク・タイムズ2023年12月9日時点のオリジナルよりアーカイブ。 2023年3月14日閲覧
  170. ^ Lanxon, Nate; Bass, Dina; Davalos, Jackie (2023年3月10日). 「AI関連の流行語とその意味のチートシート」 . Bloomberg News . 2023年11月17日時点のオリジナルよりアーカイブ。 2023年3月14日閲覧
  171. ^ケビン・ルース(2022年10月21日)「シリコンバレーの新たなブーム、ジェネレーティブAIのカミングアウトパーティー」ニューヨーク・タイムズ2023年2月15日時点のオリジナルよりアーカイブ2023年3月14日閲覧
  172. ^ Shahaf, Tal; Shahaf, Tal (2025年10月23日). 「Lightricks、OpenAIとGoogleに挑戦する強力なAIビデオモデルを発表」 Ynetglobal . 2025年12月22日閲覧
  173. ^ Metz, Cade (2024年2月15日). 「OpenAI、目を見張るような動画を瞬時に生成するAIを発表」 . The New York Times . ISSN 0362-4331 . 2024年2月15日時点のオリジナルよりアーカイブ。 2024年2月16日閲覧 
  174. ^ TechForge (2025年10月24日). 「LightricksのオープンソースAIビデオは4K、サウンド、高速レンダリングを提供」 . AI News . 2025年12月22日閲覧
  175. ^ 「AIラボの競争が激化」『エコノミスト』誌2023年1月30日。2023年11月17日時点のオリジナルよりアーカイブ2023年3月14日閲覧。
  176. ^ペトレラ, ステファニー; ミラー, クリス; クーパー, ベンジャミン (2021). 「ロシアの人工知能戦略:国営企業の役割」. Orbis . 65 (1): 75–100 . doi : 10.1016/j.orbis.2020.11.004 .
  177. ^ Raza, Marium M.; Venkatesh, Kaushik P.; Kvedar, Joseph C. (2024年3月7日). 「医療における生成AIと大規模言語モデル:実装への道筋」 . npj Digital Medicine . 7 (1): 62. doi : 10.1038/s41746-023-00988-4 . ISSN 2398-6352 . PMC 10920625. PMID 38454007 .   
  178. ^ Mogaji, Emmanuel (2025年1月7日). 「生成型AIが金融サービスにもたらす変革と顧客にとっての意味」 . The Conversation . 2025年4月10日閲覧
  179. ^ Bean, Thomas H. Davenport, Randy (2023年6月19日). 「ジェネレーティブAIがハリウッドとエンターテインメントに与える影響」 . MIT Sloan Management Review . 2024年8月6日時点のオリジナルよりアーカイブ。 2025年4月10日閲覧
  180. ^ Brynjolfsson, Erik; Li, Danielle; Raymond, Lindsey R. (2023年4月), Generative AI at Work (Working Paper), Working Paper Series, doi : 10.3386/w31161 , 2024年3月28日時点のオリジナルよりアーカイブ, 2024年1月21日閲覧
  181. ^ 「AIによる雇用崩壊はまだ恐れる必要はない」エコノミスト、2023年3月6日。2023年11月17日時点のオリジナルよりアーカイブ2023年3月14日閲覧。
  182. ^ Coyle, Jake (2023年9月27日). 「ハリウッドの脚本家たちのAIとの戦い、今のところは人間が勝利」 . APニュース. Associated Press. 2024年4月3日時点のオリジナルよりアーカイブ。 2024年1月26日閲覧
  183. ^ 「ジェネレーティブAIは人間の創造性をどのように拡張できるか」ハーバード・ビジネス・レビュー、2023年6月16日。ISSN 0017-80122023620日時点のオリジナルよりアーカイブ。 2023年6月20日閲覧 
  184. ^プール、デイビッド、マックワース、アラン (2023). 『人工知能:計算エージェントの基礎』(第3版). ケンブリッジ大学出版局. doi : 10.1017/9781009258227 . ISBN 978-1-0092-5819-7
  185. ^ラッセル、スチュアート、ノーヴィグ、ピーター (2020). 『人工知能:現代的アプローチ』(第4版). ピアソン. ISBN 978-0-1346-1099-3
  186. ^ 「なぜエージェントが生成AIの次のフロンティアなのか」マッキンゼー・デジタル、2024年7月24日。2024年10月3日時点のオリジナルよりアーカイブ2024年8月10日閲覧。
  187. ^ 「Bing の Copilot Search のご紹介」 blogs.bing.com 2025年 4 月 4 日。
  188. ^ Peters, Jay (2023年3月14日). 「Bing AIボットが秘密裏にGPT-4を実行していた」 The Verge . 2025年8月31日閲覧
  189. ^ 「 Microsoft 365 Copilot のセキュリティ」。learn.microsoft.com
  190. ^オフラハティ、ケイト(2025年5月21日) 「Google AI概要 — 知っておくべきことすべて」Forbes
  191. ^ 「検索における生成AI:Googleがあなたに代わって検索します」 Google 2024年5月14日
  192. ^ Figueiredo, Mayara Costa; Ankrah, Elizabeth; Powell, Jacquelyn E.; Epstein, Daniel A.; Chen, Yunan (2024年1月12日). 「AIの力:AIの記述が妊娠追跡アプリケーションの認識に及ぼす影響の検証」ACMインタラクティブ・モバイル・ウェアラブル・ユビキタス技術会議論文集. 7 (4): 1– 24. doi : 10.1145/3631414 .
  193. ^ジェニファー・パワー、ティノニー・ピム、アレクサンドラ・ジェームズ、アンドレア・ワリング(2024年7月5日)「スマートセックストイ:文化、健康、安全に関する考察に関する最近の研究の叙述的レビュー」カレント・セクシャル・ヘルス・レポート16 (3): 199–215 . doi : 10.1007/s11930-024-00392-3 . ISSN 1548-3592 . 
  194. ^ Marcantonio, Tiffany L.; Avery, Gracie; Thrash, Anna; Leone, Ruschelle M. (2024年9月10日). 「アプリにおける大規模言語モデル:Snapchatの『My AI』が性的同意、性的拒否、性的暴行、セクスティングに関する質問にどのように応答するかについての定性的な合成データ分析の実施」. The Journal of Sex Research . 62 (9): 1905– 1919. doi : 10.1080/00224499.2024.2396457 . PMC  11891083. PMID 39254628 . 
  195. ^ハンソン、ケネス・R.;ボルトハウス、ハンナ(2024)「レプリカからエロティックなロールプレイを削除するのは、グランド・セフト・オートから銃や車を削除するようなものだ」:人工知能チャットボットと性的テクノロジーに関するRedditの議論。Sociusダイナミック世界のための社会学的研究。10 23780231241259627。doi :10.1177 /23780231241259627。ISSN 2378-0231 
  196. ^マニア、カロリナ (2024). 「欧州連合における復讐ポルノとディープフェイクポルノ被害者の法的保護:比較法研究の知見」 .トラウマ、暴力、虐待. 25 (1): 117– 129. doi : 10.1177/15248380221143772 . PMID 36565267 . 
  197. ^ Singh, Suyesha; Nambiar, Vaishnavi (2024). 「オンライン児童性的虐待防止における人工知能の役割:文献の体系的レビュー」応用セキュリティ研究ジャーナル. 19 (4): 586– 627. doi : 10.1080/19361610.2024.2331885 .
  198. ^ Razi, Afsaneh; Kim, Seunghyun; Alsoubai, Ashwaq; Stringhini, Gianluca; Solorio, Thamar; De Choudhury, Munmun ; Wisniewski, Pamela J. (2021年10月13日). 「オンライン性行為リスク検出のための計算論的アプローチに関する人間中心の体系的文献レビュー」Proceedings of the ACM on Human-Computer Interaction . 5 (CSCW2): 1– 38. doi : 10.1145/3479609 .
  199. ^ランズボサム、サム、キロン、デイビッド、ゲルバート、マーティン・リーブス(2017年9月6日)「人工知能によるビジネス改革」 MITスローン・マネジメント・レビュー2024年2月13日時点のオリジナルよりアーカイブ。
  200. ^ Sun, Yuran; Zhao, Xilei; Lovreglio, Ruggiero; Kuligowski, Erica (2024). 「大規模避難モデリングのためのAI:期待と課題」.土木インフラの分析、設計、評価、そして情報に基づいた意思決定のための解釈可能な機械学習. pp.  185– 204. doi : 10.1016/B978-0-12-824073-1.00014-9 . ISBN 978-0-12-824073-1
  201. ^ Gomaa, Islam; Adelzadeh, Masoud; Gwynne, Steven; Spencer, Bruce; Ko, Yoon; Bénichou, Noureddine; Ma, Chunyun; Elsagan, Nour; Duong, Dana; Zalok, Ehab; Kinateder, Max (2021年11月1日). 「インテリジェント火災検知・避難システムのためのフレームワーク」. Fire Technology . 57 (6): 3179– 3185. doi : 10.1007/s10694-021-01157-3 .
  202. ^ Zhao, Xilei; Lovreglio, Ruggiero; Nilsson, Daniel (2020年5月1日). 「機械学習を用いた避難前意思決定のモデル化と解釈」. Automation in Construction . 113 103140. doi : 10.1016/j.autcon.2020.103140 . hdl : 10179/17315 .
  203. ^ 「インドの最新選挙でAI技術が採用された。建設的に活用されたいくつかの方法を紹介する」 PBSニュース。2024年6月12日。 2024年9月17日時点のオリジナルよりアーカイブ。 2024年10月28日閲覧
  204. ^ "Экономист Дарон Асемоглу написал книгу об угрозах искусственного интеллекта — и о том, как правильное управление может обратить его на пользу человечеству Спецкор "Медузы" Маргарита Лютова узнала ученого, как скоро мирよろしくお願いしますприблизиться к этой утопии" . Meduza (ロシア語)。2023年 6 月 20 日にオリジナルからアーカイブ。20236 月 21 日に取得
  205. ^ 「AI時代における学習、思考、芸術的コラボレーション、そしてその他の人間の努力」The Hindu、2023年6月2日。2023年6月21日時点のオリジナルよりアーカイブ。 2023年6月21日閲覧
  206. ^ Müller, Vincent C. (2020年4月30日). 「人工知能とロボット工学の倫理」 .スタンフォード哲学百科事典アーカイブ. 2024年10月5日時点のオリジナルよりアーカイブ。 2024年10月5日閲覧
  207. ^ Simonite (2016) .
  208. ^ラッセル&ノルヴィグ(2021)、987頁。
  209. ^ 「将来の人工知能の潜在的なリスク、メリット、政策上の要請の評価」 OECD 2024年11月14日。 2025年8月1日閲覧
  210. ^ラスコウスキー (2023) .
  211. ^ GAO (2022) .
  212. ^ヴァリンスキー (2019) .
  213. ^ラッセル&ノルヴィグ(2021)、991頁。
  214. ^ラッセル&ノルヴィグ(2021)、991–992頁。
  215. ^クリスチャン(2020)、63頁。
  216. ^ヴィンセント (2022) .
  217. ^ Kopel, Matthew. 「著作権サービス:フェアユース」コーネル大学図書館. 2024年9月26日時点のオリジナルよりアーカイブ。 2024年4月26日閲覧
  218. ^バージェス、マット. 「AIの訓練にデータが利用されるのを防ぐ方法」 . Wired . ISSN 1059-1028 . 2024年10月3日時点のオリジナルよりアーカイブ。 2024年4月26日閲覧 
  219. ^ 「独占:複数のAI企業がウェブ標準を迂回して出版社のサイトをスクレイピング、ライセンス会社が主張」ロイター通信2024年11月10日時点のオリジナルよりアーカイブ。 2025年11月13日閲覧
  220. ^ Shilov, Anton (2024年6月21日). 「複数のAI企業がrobots.txtの除外を無視し、許可なくコンテンツをスクレイピングしていると報道」 . Tom's Hardware . 2025年11月13日閲覧
  221. ^ライスナー(2023) .
  222. ^アルター&ハリス(2023) .
  223. ^ 「AIに対応したイノベーションエコシステムの構築。知的財産政策ツールキット」PDF)。WIPO
  224. ^ Hammond, George (2023年12月27日). 「大手テック企業はAIスタートアップにVC企業よりも多くの資金を費やしている」 Ars Technica . 2024年1月10日時点のオリジナルよりアーカイブ。
  225. ^ Wong, Matteo (2023年10月24日). 「AIの未来はGOMAだ」 . The Atlantic . 2024年1月5日時点のオリジナルよりアーカイブ。
  226. ^ 「ビッグテックとAI支配の追求」エコノミスト、2023年3月26日。2023年12月29日時点のオリジナルよりアーカイブ。
  227. ^ Fung, Brian (2023年12月19日). 「AIを支配するための戦いはどこで勝利するかもしれない」 . CNN Business . 2024年1月13日時点のオリジナルよりアーカイブ。
  228. ^ Metz, Cade (2023年7月5日). 「AIの時代、テック業界の小さな企業には大きな友人が必要」 . The New York Times . 2024年7月8日時点のオリジナルよりアーカイブ。 2024年10月5日閲覧
  229. ^ Bhattarai, Abha; Lerman, Rachel (2025年12月25日). 「経済の方向性を示す10のチャート / 3. AI関連投資」 .ワシントン・ポスト. 2025年12月27日時点のオリジナルよりアーカイブ。出典: MSCI
  230. ^ 「Electricity 2024 – Analysis」 IEA 2024年1月24日。 2024年7月13日閲覧
  231. ^ Calvert, Brian (2024年3月28日). 「AIはすでに小さな国と同じくらいのエネルギーを消費している。これは始まりに過ぎない」 . Vox . ニューヨーク. 2024年7月3日時点のオリジナルよりアーカイブ。 2024年10月5日閲覧
  232. ^エヴァン・ハルパー、キャロライン・オドノヴァン(2024年6月21日)AIは電力網を枯渇させている。テクノロジー企業は奇跡の解決策を模索している」ワシントン・ポスト
  233. ^ Davenport, Carly. 「AIデータセンターと今後のYS電力需要の急増」(PDF)ゴールドマン・サックス2024年7月26日時点のオリジナル(PDF)からアーカイブ。 2024年10月5日閲覧
  234. ^ライアン、キャロル(2024年4月12日) 「エネルギーを大量に消費するAIはエネルギー節約の未来でもある」ウォール・ストリート・ジャーナル、ダウ・ジョーンズ。
  235. ^ Hiller, Jennifer (2024年7月1日). 「テック業界、AIのために原子力発電を閉鎖したい」 .ウォール・ストリート・ジャーナル. ダウ・ジョーンズ. 2024年10月5日時点のオリジナルよりアーカイブ。 2024年10月5日閲覧
  236. ^ケンドール、タイラー(2024年9月28日) 「NVIDIAの黄氏データセンターへの電力供給に原子力発電は選択肢になると語る」ブルームバーグ
  237. ^ Halper, Evan (2024年9月20日). 「マイクロソフトとの契約により、スリーマイル島原子力発電所が再開されAIが稼働」ワシントン・ポスト.
  238. ^ Hiller, Jennifer (2024年9月20日). 「Three Mile Island's Nuclear Plant to Reopen, Help Power Microsoft's AI Centers」 . Wall Street Journal . Dow Jones. 2024年10月5日時点のオリジナルよりアーカイブ。 2024年10月5日閲覧
  239. ^ a b c Niva Yadav (2024年8月19日). 「台湾、北部の大規模データセンター建設を停止へ、電力不足を理由に」 DatacenterDynamics. 2024年11月8日時点のオリジナルよりアーカイブ。 2024年11月7日閲覧
  240. ^ a b望月隆司;小田祥子(2024年10月18日)。「エヌビディア近隣の日本企業、原発近くでΑIデータセンター新設検討」ブルームバーグ(日本語)。2024 年 11 月 8 日のオリジナルからアーカイブ2024 年11 月 7 日に取得
  241. ^ a b Naureen S MalikとWill Wade(2024年11月5日)「原子力に飢えたAIキャンパスは、迅速に電力を確保するための新たな計画が必要」ブルームバーグ。
  242. ^ 「エネルギーとAI エグゼクティブサマリー」国際エネルギー機関2025年4月10日閲覧
  243. ^ニカス (2018) .
  244. ^ Rainie, Lee; Keeter, Scott; Perrin, Andrew (2019年7月22日). 「アメリカにおける信頼と不信」 . Pew Research Center . 2024年2月22日時点のオリジナルよりアーカイブ。
  245. ^ Kosoff, Maya (2018年2月8日). 「YouTube、陰謀問題への対処に苦戦」 . Vanity Fair . 2025年4月10日閲覧
  246. ^ベリー、デイヴィッド・M. (2025年3月19日). 「合成メディアと計算資本主義:人工知能の批判理論に向けて」. AI & Society . 40 (7): 5257–5269 . doi : 10.1007/s00146-025-02265-2 . ISSN 1435-5655 . 
  247. ^ 「Unreal: AIビデオの飛躍的進歩」 The Week、2025年6月17日。 2025年6月20日閲覧
  248. ^スノー、ジャッキー(2025年6月16日)「AI動画は現実味を帯びつつある。次に何が起こるかに気をつけろ」 Quartz 2025年6月20日閲覧
  249. ^ Chow, Andrew R.; Perrigo, Billy (2025年6月3日). 「Googleの新しいAIツールが暴動、紛争、選挙詐欺の説得力のあるディープフェイクを生成」 Time. 2025年6月20日閲覧。
  250. ^ウィリアムズ (2023) .
  251. ^ Olanipekun, Samson Olufemi (2025). 「計算によるプロパガンダと誤情報:メディア操作のツールとしてのAI技術」 . World Journal of Advanced Research and Reviews . 25 (1): 911– 923. doi : 10.30574/wjarr.2025.25.1.0131 . ISSN 2581-9615 . 
  252. ^テイラー&ハーン(2023) .
  253. ^リン・ハウス、チャルネック、ガブリエラ・チャルネック、ルイス、ベンジャミン、ジョシュア・P・ホワイト、アダム・J・ベリンスキー、トーマス・コステロ、ゴードン・ペニークック、デイビッド・G・ランド (2025). 「人間と人工知能による対話を用いた有権者の説得」. Nature . 648 (8093): 394– 401. Bibcode : 2025Natur.648..394L . doi : 10.1038/s41586-025-09771-9 . PMID 41345316 . 
  254. ^ 「AIと戦うには『人格の証明』が必要だとAI企業は言う」2025年4月24日時点のオリジナルよりアーカイブ2025年5月9日閲覧。
  255. ^ a bサミュエル・シガル (2022年4月19日). 「AIを公平かつ偏りのないものにするのはなぜこんなに難しいのか」 . Vox . 2024年10月5日時点のオリジナルよりアーカイブ。 2024年7月24日閲覧
  256. ^ a bローズ (2023) .
  257. ^ CNA (2019) .
  258. ^ Mazeika, Mantas; Yin, Xuwang; Tamirisa, Rishub; Lim, Jaehyuk; Lee, Bruce W.; Ren, Richard; Phan, Long; Mu, Norman; Khoja, Adam (2025)、ユーティリティエンジニアリング:AIにおける創発的価値システムの分析と制御、図16、arXiv2502.08640
  259. ^ゴフリー(2008年)、17ページ。
  260. ^ベルダールら。 (2023) ;ゴフリー (2008 年、17 ページ)。ローズ (2023) ;ラッセルとノーヴィグ (2021、p. 995)
  261. ^クリスチャン(2020)、25頁。
  262. ^ a bラッセル&ノルヴィグ(2021)、995頁。
  263. ^グラント&ヒル(2023) .
  264. ^ラーソン&アングウィン(2016) .
  265. ^クリスチャン(2020)、67–70頁。
  266. ^クリスチャン(2020年、67~70頁);ラッセル&ノルヴィグ(2021年、993~994頁)
  267. ^ラッセル&ノルヴィグ(2021年、995頁);リパティート(2011年、36頁);グッドマン&フラックスマン(2017年、6頁);クリスチャン(2020年、39~40頁、65頁)
  268. ^ Christian(2020年、65ページ)より引用
  269. ^ラッセル&ノルヴィグ(2021年、994頁);クリスチャン(2020年、40頁、80~81頁)
  270. ^クリスチャン(2020年、p.80)より引用
  271. ^ハント, アンドリュー; アグニュー, ウィリアム; ゼン, ヴィッキー; カシアンカ, セヴェリン; ゴンボレイ, マシュー (2022年6月21日~24日). 「ロボットが悪性ステレオタイプを助長する」 . 2022 ACM 公平性、説明責任、透明性に関する会議 (FAccT '22) の議事録. ソウル, 韓国: 計算機協会. doi : 10.1145/3531146.3533138 .
  272. ^分かりやすい要約については、ジョージア工科大学の発表とScienceDailyによる研究結果の報道をご覧ください。「欠陥のあるAIがロボットを人種差別的、性差別的にする」ジョージア工科大学研究ニュース、2022年6月23日。
  273. ^ 「欠陥のあるAIを搭載したロボットは人種差別的・性差別的になる、と研究で判明」 ScienceDaily . 2022年6月21日.
  274. ^サンプル (2017) .
  275. ^ “Black Box AI” . 2023年6月16日. 2024年6月15日時点のオリジナルよりアーカイブ。 2024年10月5日閲覧
  276. ^クリスチャン(2020)、110頁。
  277. ^クリスチャン(2020)、88–91頁。
  278. ^クリスチャン(2020年、p.83);ラッセル&ノルヴィグ(2021年、p.997)
  279. ^クリスチャン(2020)、91頁。
  280. ^クリスチャン(2020)、83頁。
  281. ^ヴェルマ (2021) .
  282. ^ロスマン (2020) .
  283. ^クリスチャン(2020)、105–108頁。
  284. ^クリスチャン(2020)、108–112頁。
  285. ^ロペック、ルーカス (2024年5月21日). 「新たな人類学的研究がAIの『ブラックボックス』に光を当てる」. Gizmodo . 2024年10月5日時点のオリジナルよりアーカイブ。 2024年5月23日閲覧
  286. ^ラッセル&ノルヴィグ(2021)、989頁。
  287. ^ a bラッセル&ノルヴィグ(2021)、987–990頁。
  288. ^ラッセル&ノルヴィグ(2021)、988頁。
  289. ^ロビツスキー (2018) ;才人 (2015)
  290. ^ハラリ (2018) .
  291. ^ Buckley, Chris; Mozur, Paul (2019年5月22日). 「中国はハイテク監視を利用して少数民族を抑圧している」 . The New York Times . 2019年11月25日時点のオリジナルよりアーカイブ。 2019年7月2日閲覧
  292. ^ Whittaker, Zack (2019年5月3日). 「セキュリティ違反で中国のスマートシティ監視システムが露呈」 TechCrunch . 2021年3月7日時点のオリジナルよりアーカイブ。 2020年9月14日閲覧
  293. ^ Urbina et al. (2022) .
  294. ^ a b McGaughey (2022) .
  295. ^フォード&コルビン(2015年)マクゴーヒー(2022年)
  296. ^ IGMシカゴ (2017) .
  297. ^ Arntz、Gregory、Zierahn(2016)、33ページ。
  298. ^ Lohr (2017) ; Frey & Osborne (2017) ; Arntz, Gregory & Zierahn (2016 , p. 33)
  299. ^ Zhou, Viola (2023年4月11日). 「中国ではAIが既にビデオゲームのイラストレーターの仕事を奪っている」 . Rest of World . 2024年2月21日時点のオリジナルよりアーカイブ。 2023年8月17日閲覧
  300. ^ Carter, Justin (2023年4月11日). 「中国のゲームアート業界、AI利用の拡大で壊滅的打撃か」 Game Developer . 2023年8月17日時点のオリジナルよりアーカイブ。 2023年8月17日閲覧
  301. ^モルゲンシュテルン (2015) .
  302. ^マハダウィ(2017)トンプソン(2014)
  303. ^ Ma, Jason (2025年7月5日). 「フォードCEOジム・ファーリー氏、AIがホワイトカラー職の半分を奪うと警告、しかし『生活必需品経済』では深刻な人手不足」 . Fortune . 2025年10月21日閲覧
  304. ^ターノフ、ベン(2023年8月4日)「エリザからの教訓」ガーディアン・ウィークリー、 34~ 39頁 
  305. ^ Cellan-Jones (2014) .
  306. ^ラッセル&ノルヴィグ 2021、1001頁。
  307. ^ボストロム (2014) .
  308. ^ラッセル(2019) .
  309. ^ボストロム (2014) ;ミュラーとボストロム (2014) ;ボストロム (2015)
  310. ^ハラリ (2023) .
  311. ^スチュワート (2025) .
  312. ^ミュラー&ボストロム(2014) .
  313. ^ 2015年頃のAIの存在リスクに関するリーダーたちの懸念: Rawlinson(2015) Holley(2015) Gibbs(2014) Sainato(2015)
  314. ^ "「人工知能のゴッドファーザーが新しいAIの影響と可能性を語る」CBSニュース、2023年3月25日。2023年3月28日時点のオリジナルよりアーカイブ。2023年3月28日閲覧。
  315. ^ピティス、ドン (2023年5月4日). 「カナダの人工知能リーダー、ジェフリー・ヒントン氏、コンピューターによる乗っ取りへの懸念を強める」 CBC . 2024年7月7日時点のオリジナルよりアーカイブ。 2024年10月5日閲覧
  316. ^ "「AIが人類を凌駕する確率は50対50だとジェフリー・ヒントン氏は語る」ブルームバーグBNN。2024年6月14日。2024年6月14日時点のオリジナルよりアーカイブ。2024年7月6日閲覧。
  317. ^ヴァランス (2023) .
  318. ^ Taylor, Josh (2023年5月7日). 「人工知能の台頭は避けられないが、恐れる必要はない、と『AIの父』は語る」 . The Guardian . 2023年10月23日時点のオリジナルよりアーカイブ。 2023年5月26日閲覧
  319. ^コルトン、エマ(2023年5月7日)「AIの父」はテクノロジーに対する懸念は杞憂だと語る。「それを止めることはできない」"。Fox News。2023年5月26日時点のオリジナルよりアーカイブ。2023年5月26日閲覧。
  320. ^ Jones, Hessie (2023年5月23日). 「『現代AIの父』として知られるユルゲン・シュミットフーバー氏、自身の生涯の仕事はディストピアにはつながらないと語る」 Forbes . 2023年5月26日時点のオリジナルよりアーカイブ。 2023年5月26日閲覧
  321. ^マクモロー、ライアン(2023年12月19日)「アンドリュー・ン:「知能が高ければ高いほど、あるいは低ければ低いほど、世界はより良い状態になると思いますか?」.フィナンシャル・タイムズ. 2024年1月25日時点のオリジナルよりアーカイブ。 2023年12月30日閲覧
  322. ^ウィル・ダグラス・ヘブン (2023年5月2日). 「ジェフリー・ヒントン氏が語る、自分が築き上げた技術を恐れる理由」 . MITテクノロジーレビュー. Ideas AI . 2026年1月4日閲覧
  323. ^ Levy, Steven (2023年12月22日). 「AIについて愚かにならない方法、ヤン・ルカンと」Wired . 2023年12月28日時点のオリジナルよりアーカイブ2023年12月30日閲覧
  324. ^ AIは差し迫ったリスクではないという主張:ブルックス(2014)ガイスト(2015)マドリガル(2015)リー(2014)
  325. ^ a bクリスチャン(2020)、67、73頁。
  326. ^ユドコウスキー (2008) .
  327. ^ a bアンダーソン&アンダーソン(2011) .
  328. ^ AAAI (2014) .
  329. ^ウォラック (2010) .
  330. ^ラッセル(2019)、173頁。
  331. ^アシュリー・スチュワート、モニカ・メルトン。「ハギング・フェイスCEO、時価総額45億ドルのオープンソースAIスタートアップの『持続可能なモデル』構築に注力」 Business Insider2024年9月25日時点のオリジナルよりアーカイブ。 2024年4月14日閲覧
  332. ^ Wiggers, Kyle (2024年4月9日). 「Google、AIモデル開発を支援するツールをオープンソース化」 . TechCrunch . 2024年9月10日時点のオリジナルよりアーカイブ。 2024年4月14日閲覧
  333. ^ Heaven, Will Douglas (2023年5月12日). 「オープンソースAIブームは大手テック企業による援助の上に成り立っている。それはいつまで続くのか?」 MITテクノロジーレビュー. 2024年4月14日閲覧。
  334. ^ Brodsky, Sascha (2023年12月19日). 「Mistral AIの新しい言語モデルはオープンソースの覇権を目指す」 . AI Business . 2024年9月5日時点のオリジナルよりアーカイブ。 2024年10月5日閲覧
  335. ^ Edwards, Benj (2024年2月22日). 「Stability社、次世代AI画像ジェネレーター「Stable Diffusion 3」を発表Ars Technica . 2024年10月5日時点のオリジナルよりアーカイブ。 2024年4月14日閲覧
  336. ^ Marshall, Matt (2024年1月29日). 「企業におけるオープンソースLLMの活用方法:16の事例」 . VentureBeat . 2024年9月26日時点のオリジナルよりアーカイブ。 2024年10月5日閲覧
  337. ^ Piper, Kelsey (2024年2月2日). 「最も強力なAIモデルをオープンソース化すべきか?」 Vox . 2024年10月5日時点のオリジナルよりアーカイブ。 2024年4月14日閲覧
  338. ^アラン・チューリング研究所 (2019). 「人工知能の倫理と安全性を理解する」(PDF) . 2024年9月11日時点のオリジナルよりアーカイブ(PDF) . 2024年10月5日閲覧
  339. ^アラン・チューリング研究所 (2023). 「AI倫理とガバナンスの実践」(PDF) . 2024年9月11日時点のオリジナルよりアーカイブ(PDF) . 2024年10月5日閲覧
  340. ^フロリディ、ルチアーノ、カウルズ、ジョシュ(2019年6月23日)「社会におけるAIのための5つの原則の統一フレームワーク」ハーバード・データ・サイエンス・レビュー1 (1)、doi : 10.1162/99608f92.8cd550d1
  341. ^ Buruk, Banu; Ekmekci, Perihan Elif; Arda, Berna (2020年9月1日). 「責任ある信頼できる人工知能のためのガイドラインに関する批判的視点」.医学・医療・哲学. 23 (3): 387– 399. doi : 10.1007/s11019-020-09948-1 . PMID 32236794 . 
  342. ^カミラ・マノジ・クマール、ジャスロティア・サヒル・シン(2023年1月1日)「人工知能開発における倫理的問題:リスクの認識」『国際倫理・システムジャーナル41(印刷前)45–63 . doi10.1108/IJOES-05-2023-0107 .
  343. ^ 「AI Safety Instituteが新たなAI安全性評価プラットフォームをリリース」英国政府、2024年5月10日。2024年10月5日時点のオリジナルよりアーカイブ。 2024年5月14日閲覧
  344. ^リスクを軽減するための AI の規制: Berryhill et al. (2019)バーフィールド & パガロ (2018)イプフェン & クリティコス (2019)ワーツ、ウェイラー & ガイヤー (2018)ブイテン (2019)
  345. ^ a bヴィンセント (2023) .
  346. ^スタンフォード大学 (2023) .
  347. ^ a b c dユネスコ (2021) .
  348. ^キッシンジャー (2021) .
  349. ^ Altman、Brockman、Sutskever (2023) .
  350. ^ VOAニュース (2023年10月25日). 「国連、人工知能に関する諮問機関を発表」 . Voice of America . 2024年9月18日時点のオリジナルよりアーカイブ。 2024年10月5日閲覧
  351. ^ 「AI法が発効 - 欧州委員会」commission.europa.eu . 2025年8月11日閲覧
  352. ^ 「欧州評議会、AIに関する初の国際条約に署名」欧州評議会2024年9月5日。2024年9月17日時点のオリジナルよりアーカイブ。 2024年9月17日閲覧
  353. ^エドワーズ (2023) .
  354. ^カスペロヴィッチ (2023) .
  355. ^フォックスニュース (2023) .
  356. ^ミルモ、ダン(2023年11月3日)「希望か恐怖か?AIの先駆者たちを二分する大論争」ガーディアン・ウィークリー、 10~ 12頁 
  357. ^ 「2023年11月1~2日に開催されたAI安全サミット参加国のブレッチリー宣言」GOV.UK 、2023年11月1日。2023年11月1日時点のオリジナルよりアーカイブ。 2023年11月2日閲覧
  358. ^ 「各国、画期的なブレッチリー宣言で最先端AIの安全かつ責任ある開発に合意」 GOV.UK プレスリリース)。2023年11月1日時点のオリジナルよりアーカイブ。 2023年11月1日閲覧
  359. ^ 「第2回グローバルAIサミット、企業から安全確保の確約を得る」ロイター、2024年5月21日。 2024年5月23日閲覧
  360. ^ 「Frontier AI Safety Commitments, AI Seoul Summit 2024」 . gov.uk. 2024年5月21日. 2024年5月23日時点のオリジナルよりアーカイブ。 2024年5月23日閲覧
  361. ^ a b Buntz, Brian (2024年11月3日). 「質 vs. 量:2024年の世界的なAI特許競争で米国と中国は異なる道筋を描く / 2024年のAI特許の地理的内訳」 . Research & Development World . R&D World. 2024年12月9日時点のオリジナルよりアーカイブ。
  362. ^ a bラッセル&ノルヴィグ 2021、p.9。
  363. ^ a b c Copeland, J.編 (2004). 『チューリングのエッセンス:コンピュータ時代を生み出したアイデア』オックスフォード、イギリス: クラレンドン・プレス. ISBN 0-1982-5079-7
  364. ^ “Google books ngram” . 2024年10月5日時点のオリジナルよりアーカイブ2024年10月5日閲覧。
  365. ^ AIの直接の先駆者: McCorduck(2004年、pp. 51–107)、 Crevier(1993年、pp. 27–32)、 Russell & Norvig(2021年、pp. 8–17)、 Moravec(1988年、p. 3)
  366. ^ a bチューリングによるチューリングテストの最初の出版は『計算機械と知能』の中で:チューリング(1950年) 歴史的影響と哲学的含意:ハウゲランド(1985年、6~9頁)、クレヴィエ(1993年、24頁)、マコーダック(2004年、70~71頁)、ラッセル&ノーヴィグ(2021年、2頁、984頁)
  367. ^クレヴィエ(1993)、47–49頁。
  368. ^ラッセル&ノルヴィグ(2003)、17ページ。
  369. ^ラッセル&ノルヴィグ(2003)、18ページ。
  370. ^ニュークイスト(1994)、86–86ページ。
  371. ^ Simon (1965 , p. 96) をCrevier (1993 , p. 109
  372. ^ミンスキー(1967年、p.2)をクレヴィエ(1993年、p.109)
  373. ^ラッセル&ノルヴィグ(2021)、21頁。
  374. ^ライトヒル(1973年)
  375. ^ NRC 1999、212~213頁。
  376. ^ラッセル&ノルヴィグ(2021)、22頁。
  377. ^エキスパートシステム Russell & Norvig(2021、pp. 23, 292)、 Luger & Stubblefield(2004、pp. 227–331)、 Nilsson(1998、chpt. 17.4)、 McCorduck(2004、pp. 327–335, 434–435)、 Crevier(1993、pp. 145–162, 197–203)、 Newquist(1994、pp. 155–183)
  378. ^ラッセル&ノルヴィグ(2021)、24頁。
  379. ^ニルソン(1998)、7ページ。
  380. ^マコーダック(2004年)、454–462頁。
  381. ^モラベック(1988) .
  382. ^ a bブルックス(1990) .
  383. ^開発ロボット工学: Weng et al. (2001) Lungarella et al. (2003)浅田ら。 (2009)オーデイヤー (2010)
  384. ^ラッセル&ノルヴィグ(2021)、25頁。
  385. ^クレヴィエ(1993年、214~215頁)、ラッセル&ノルヴィグ(2021年、24、26頁)
  386. ^ラッセル&ノルヴィグ(2021)、26頁。
  387. ^ 1990年代に採用された形式的および狭義の方法:ラッセル&ノーヴィグ(2021年、24~26頁)、マコーダック(2004年、486~487頁)
  388. ^ 1990年代後半に広く利用されたAI: Kurzweil(2005年、p.265)、 NRC(1999年、pp.216–222)、 Newquist(1994年、pp.189–201)
  389. ^ウォン(2023) .
  390. ^ムーアの法則とAI:ラッセル&ノルヴィグ(2021年、14、27ページ)
  391. ^ a b cクラーク (2015b) .
  392. ^ビッグデータラッセル&ノルヴィグ(2021年、26頁)
  393. ^ Sagar, Ram (2020年6月3日). 「OpenAIがGPT-3をリリース、これまでで最大のモデル」 . Analytics India Magazine . 2020年8月4日時点のオリジナルよりアーカイブ。 2023年3月15日閲覧
  394. ^ Milmo, Dan (2023年2月2日). 「ChatGPT、ローンチから2ヶ月でユーザー数1億人に到達」 . The Guardian . ISSN 0261-3077 . 2023年2月3日時点のオリジナルよりアーカイブ。 2024年12月31日閲覧 
  395. ^ Gorichanaz, Tim (2023年11月29日). 「ChatGPTが1周年:AIチャットボットの成功はテクノロジーと同じくらい人間について語っている」 . The Conversation . 2024年12月31日時点のオリジナルよりアーカイブ。 2024年12月31日閲覧
  396. ^ディフェリシアントニオ (2023) .
  397. ^ゴスワミ(2023) .
  398. ^ 「新興企業の4社に1社近くがAI企業」 PitchBook 2024年12月24日。 2025年1月3日閲覧
  399. ^グレイリング、アンソニー、ボール、ブライアン(2024年8月1日)「AI時代に哲学は重要」The Conversation . 2024年10月5日時点のオリジナルよりアーカイブ2024年10月4日閲覧
  400. ^ a b Jarow, Oshan (2024年6月15日). 「AIは意識を持つようになるのか?それは生物学についてどう考えるかによる」 Vox . 2024年9月21日時点のオリジナルよりアーカイブ。 2024年10月4日閲覧
  401. ^マッカーシー、ジョン. 「AIの哲学と哲学のAI」 . jmc.stanford.edu . 2018年10月23日時点のオリジナルよりアーカイブ。 2024年10月3日閲覧
  402. ^ a bチューリング(1950)、p.1。
  403. ^チューリング (1950)、「意識からの議論」の項。
  404. ^カーク=ジャンニーニ、キャメロン・ドメニコ、ゴールドスタイン、サイモン(2023年10月16日)。「AIは『知能』のチューリングテストにこれまで以上に近づいている。そうなったら何が起こるのか?」 The Conversation2024年9月25日時点のオリジナルよりアーカイブ。 2024年8月17日閲覧
  405. ^ラッセル&ノルヴィグ(2021)、3ページ。
  406. ^メーカー (2006) .
  407. ^マッカーシー(1999年)
  408. ^ミンスキー(1986) .
  409. ^ 「人工知能(AI)とは?」 Google Cloud Platform . 2023年7月31日時点のオリジナルよりアーカイブ。 2023年10月16日閲覧
  410. ^サックマン、ルーシー (2023). 「AIの議論の余地のない『物性』」 .ビッグデータ&ソサエティ. 10 (2) 20539517231206794. doi : 10.1177/20539517231206794 .
  411. ^ Rehak, Rainer (2025). 「AIナラティブの内訳:力と可能性の批判的評価」. 2025 ACM Conference on Fairness, Accountability, and Transparency 議事録. pp.  1250– 1260. doi : 10.1145/3715275.3732083 . ISBN 979-8-4007-1482-5
  412. ^ 「AI規制における最大の問題の一つは定義の合意である」カーネギー国際平和財団。 2024年7月31日閲覧
  413. ^ 「AIかBSか?マーケティングツールが本当に人工知能を使っているかを見分ける方法」 The Drum 2024年7月31日閲覧
  414. ^ Musser, George (2023年9月1日). 「AIは誰も教えてくれなかったことを知る方法」 . Scientific American . 2025年7月17日閲覧
  415. ^ニルソン(1983)、10ページ。
  416. ^ハウゲランド(1985)、112–117頁。
  417. ^物理的シンボルシステム仮説:ニューウェル&サイモン(1976年、p.116)歴史的意義:マコーダック(2004年、p.153)、ラッセル&ノルヴィグ(2021年、p.19)
  418. ^モラヴェックのパラドックス: Moravec (1988 , pp. 15–16), Minsky (1986 , p. 29), Pinker (2007 , pp. 190–191)
  419. ^ドレフュスのAI批判ドレフュス(1972)ドレフュス&ドレフュス(1986) 歴史的意義と哲学的含意:クレヴィエ(1993、pp. 120–132)、マコーダック(2004、pp. 211–239)、ラッセル&ノーヴィグ(2021、pp. 981–982)、フィアーン(2007、chpt. 3)
  420. ^クレヴィエ(1993)、125ページ。
  421. ^ラングレー (2011) .
  422. ^カッツ (2012) .
  423. ^ニート対スクラフィー、歴史的論争: McCorduck(2004年、421~424頁、486~489頁)、 Crevier(1993年、168頁)、 Nilsson(1983年、10~11頁)、 Russell&Norvig(2021年、24頁)知能に対する「スクラフィー」アプローチの典型的な例: Minsky(1986年) 21世紀におけるニートAIとその展望の現代的な例: Domingos(2015年)
  424. ^ペンナチン & ゲルツェル (2007)
  425. ^ a bロバーツ (2016) .
  426. ^ラッセル&ノルヴィグ(2021)、986頁。
  427. ^チャーマーズ(1995年)
  428. ^デネット(1991) .
  429. ^ホルスト(2005年)
  430. ^サール(1999年)
  431. ^サール(1980)、1ページ。
  432. ^ラッセル&ノルヴィグ(2021)、9817頁。
  433. ^サールの中国語の部屋論:サール(1980年) . サールによる思考実験の原典.、サール(1999年) . 議論:ラッセル&ノーヴィグ(2021年、985頁)、マコーダック(2004年、443~445頁)、クレヴィエ(1993年、269~271頁)
  434. ^ Leith, Sam (2022年7月7日). 「ニック・ボストロム:機械が意識を持っていないと確信できる方法は?」スペクテイター. 2024年9月26日時点のオリジナルよりアーカイブ。 2024年2月23日閲覧
  435. ^ a b c Thomson, Jonny (2022年10月31日). 「なぜロボットには権利がないのか?」 . Big Think . 2024年9月13日時点のオリジナルよりアーカイブ2024年2月23日閲覧。
  436. ^ a b Kateman, Brian (2023年7月24日). 「AIは人間を恐れるべき」 . Time . 2024年9月25日時点のオリジナルよりアーカイブ2024年2月23日閲覧。
  437. ^ウォン、ジェフ(2023年7月10日)「ロボットの権利についてリーダーが知っておくべきこと」 Fast Company
  438. ^ Hern, Alex (2017年1月12日). 「EU委員会、ロボットに『人格』の地位を与えるべきだと主張」 . The Guardian . ISSN 0261-3077 . 2024年10月5日時点のオリジナルよりアーカイブ。 2024年2月23日閲覧 
  439. ^ Dovey, Dana (2018年4月14日). 「専門家はロボットに権利を与えるべきではないと考えている」 . Newsweek . 2024年10月5日時点のオリジナルよりアーカイブ。 2024年2月23日閲覧
  440. ^ Cuddy, Alice (2018年4月13日). 「ロボットの権利は人権を侵害すると専門家がEUに警告」 . euronews . 2024年9月19日時点のオリジナルよりアーカイブ。 2024年2月23日閲覧
  441. ^知能爆発技術的特異点ラッセル&ノーヴィグ(2021年、pp. 1004–1005)、オモハンドロ(2008年)カーツワイル(2005年)IJグッドの「知能爆発」:グッド(1965年)ヴァーナー・ヴィンジの「特異点」:ヴィンジ(1993年)
  442. ^ラッセル&ノルヴィグ(2021)、1005頁。
  443. ^トランスヒューマニズムモラベック(1988)カーツワイル(2005)ラッセル&ノルヴィグ(2021、p.1005)
  444. ^ AIは進化である:エドワード・フレドキンはマコーダック(2004年、p.401)、バトラー(1863年)ダイソン(1998年)で引用されている。
  445. ^神話におけるAI:マコーダック(2004年、4~5ページ)
  446. ^マコーダック(2004年)、340~400頁。
  447. ^ブッタッツォ (2001) .
  448. ^アンダーソン (2008) .
  449. ^マコーリー(2007年)
  450. ^ガルバン(1997年)

教科書

AIの歴史

その他の情報源