人工知能 (AI )とは、学習 、推論 、問題解決 、知覚 、意思決定 など、人間の知能 に典型的に関連するタスクを実行する計算システム の能力である。AIは、機械が環境を認識し、学習 と知能 を用いて定義された目標を達成する可能性を最大化する行動をとることを可能にする手法とソフトウェア を開発・研究するコンピュータサイエンス の研究分野である 。
AIの 注目度の高い応用例としては、高度なウェブ検索エンジン (例:Google検索 )、レコメンデーションシステム( YouTube 、Amazon 、Netflix が利用)、バーチャルアシスタント (例:Googleアシスタント 、Siri 、Alexa )、自律走行車 (例:Waymo )、生成 ・創造 ツール(例:言語モデル やAIアート )、戦略ゲームにおける 超人的な プレイと分析(例:チェス や囲碁 )などが挙げられます。しかし、多くのAI応用はAIとして認識されていません。「最先端のAIの多くは、AIと呼ばれることなく一般応用に浸透しています。なぜなら、何かが十分に有用で一般的になるや否や、もはやAIとは呼ばれなく なるからです。」[ 2 ] [ 3 ]
AI研究の様々なサブフィールドは、特定の目標と特定のツールの使用を中心にしています。AI研究の伝統的な目標には、学習、推論 、知識表現 、計画 、自然言語処理 、知覚、 ロボット工学 のサポートなどがあります。[ a ] これらの目標を達成するために、AI研究者は、探索 と数理最適化 、形式論理 、人工ニューラルネットワーク、 統計 、オペレーションズリサーチ 、経済学 に基づく方法など、幅広い技術を採用し、統合してきました。[ b ] AIは心理学 、言語学 、哲学 、神経科学 、その他の分野も活用しています。[ 4 ] OpenAI 、Google DeepMind 、Meta などの一部の企業[ 5 ] は、少なくとも人間と同様にあらゆる認知タスクを完了できるAI、つまり汎用人工知能 (AGI)の 作成を目指しています。
人工知能は1956年に学問分野として設立され、[ 6 ] その分野はその歴史 を通じて楽観的な時期を何度も経験し、[ 7 ] [ 8 ] その後、 AIの冬 として知られる失望と資金不足の時期が続いた。[ 9 ] [ 10 ] 2012年以降、グラフィックス処理装置が ニューラルネットワークの加速に使用され始め、ディープ ラーニングが以前のAI手法を上回ると、資金と関心は大幅に増加した。 [ 11 ] この成長は、2017年以降のトランスフォーマーアーキテクチャ の登場によりさらに加速した。 2020年代には、高度な生成AIが急速に進歩する時期が続いており、 AIブーム として知られるようになった。生成AIのコンテンツを作成および変更する機能は、いくつかの意図しない結果と危害 をもたらしている。AIの長期的な影響 と潜在的な実存的リスク に関する倫理的な懸念 が提起されており、技術の 安全性 と利点を確保するための規制政策 についての議論を促している。
目標 知能をシミュレート(または創造)するという一般的な問題は、いくつかのサブ問題に分解されてきました。これらは、研究者が知能システムに期待する特定の特性や能力から構成されています。以下に述べる特性は最も注目を集めており、AI研究の範囲を網羅しています。[ a ]
推論と問題解決 初期の研究者たちは、人間がパズルを解いたり論理的推論 をしたりするときに用いる段階的な推論を模倣したアルゴリズムを開発した。[ 13 ] 1980年代後半から1990年代にかけて、確率論 や経済学の概念を用いて、 不確実性 や不完全な情報を扱う方法が開発された。[ 14 ]
これらのアルゴリズム の多くは、「組み合わせ爆発」を起こすため、大規模な推論問題を解くには不十分です。つまり、問題が大きくなるにつれて、アルゴリズムは指数関数的に遅くなります。[ 15 ] 人間でさえ、初期のAI研究でモデル化できたような段階的な推論をほとんど使用しません。人間はほとんどの問題を高速で直感的な判断によって解決します。[ 16 ] 正確かつ効率的な推論は未解決の問題です。
知識表現 オントロジーは、知識をドメイン内の概念のセットとそれらの概念間の関係として表現します。 知識表現 と知識工学 [ 17 ] は、AIプログラムが質問にインテリジェントに答え、現実世界の事実について推論を行うことを可能にします。形式的な知識表現は、コンテンツベースの索引付けと検索、シーン解釈、臨床意思決定支援、知識発見(大規模データベース からの「興味深い」かつ実用的な推論のマイニング)、などの分野で利用されています。
知識ベースと は、プログラムで使用できる形式で表現された知識の集合です。オントロジーと は、特定の知識領域で使用されるオブジェクト、関係、概念、プロパティの集合です。知識ベースでは、オブジェクト、プロパティ、カテゴリ、オブジェクト間の関係、[ 24 ] 状況、イベント、状態、時間、[ 25 ] 原因と結果、[ 26 ] 知識についての知識(他の人が知っていることについて私たちが知っていること)、[ 27 ] デフォルト推論 (人間が別のことを言われるまでは真実であると想定し、他の事実が変化しても真実であり続けるもの)、[ 28 ] など、知識の多くの側面や領域を表現する必要があります。
知識表現における最も難しい問題の中には、常識的知識 の広範さ(平均的な人が知っている原子的事実の集合は膨大である)[ 29 ] と、ほとんどの常識的知識の非記号的形式(人々が知っていることの多くは、言葉で表現できる「事実」や「声明」として表現されていない)がある。[ 16 ] また、知識獲得 の難しさ、つまりAIアプリケーションのための知識を獲得する問題もある。 [ c ]
計画と意思決定 「エージェント」とは、世界を認識し行動を起こすあらゆるもののことである。合理的なエージェント は目標または選好を持ち、それらを実現するための行動をとる。[ d ] 自動計画 においては、エージェントは特定の目標を持つ。[ 33 ] 自動意思決定 においては、エージェントは選好を持つ。つまり、エージェントが好む状況と避けようとする状況が存在する。意思決定エージェントは、それぞれの状況に、エージェントがどの程度その状況を好むかを示す数値(「効用」と呼ばれる)を割り当てる。それぞれの可能な行動について、エージェントは「 期待効用 」を計算することができる。これは、その行動のあらゆる可能な結果の効用を、結果の発生確率で重み付けしたものである。そして、期待効用が最大となる行動を選択することができる。[ 34 ]
古典的な計画 では、エージェントはあらゆる行動がどのような結果をもたらすかを正確に知っています。[ 35 ] しかし、現実世界のほとんどの問題では、エージェントは自分が置かれている状況について確信が持てない(「未知」または「観測不可能」)可能性があり、また、それぞれの可能な行動の後に何が起こるかを確実に知ることもできません(「決定論的」ではない)。エージェントは確率的な推測によって行動を選択し、その後、状況を再評価してその行動が成功したかどうかを確認する必要があります。[ 36 ]
一部の問題では、特に他のエージェントや人間が関与している場合、エージェントの選好は不確実となることがあります。これらの選好は学習可能(例えば、逆強化学習 )であり、エージェントは選好を改善するための情報を求めることができます。[ 37 ] 情報価値理論は、 探索的または実験的な行動の価値を評価するために使用できます。[ 38 ] 将来の可能性のある行動や状況の空間は通常、手に負えないほど 広大であるため、エージェントは結果がどうなるかわからない中で行動を起こし、状況を評価する必要があります。
マルコフ決定過程は、 特定の行動が特定の方法で状態を変化させる確率を記述する遷移モデル と、各状態の効用と各行動のコストを与える報酬関数を持つ。方策は 、各可能な状態と決定を関連付ける。方策は、計算(例えば反復法 による)、ヒューリスティック 、あるいは学習によって構築することができる。[ 39 ]
ゲーム理論は、 相互作用する複数のエージェントの合理的な行動を記述し、他のエージェントを巻き込んだ意思決定を行うAIプログラムで使用されます。[ 40 ]
学ぶ 機械学習 とは、与えられたタスクのパフォーマンスを自動的に向上させることができるプログラムの研究です。[ 41 ] これは当初からAIの一部でした。[ e ]
教師あり学習 では、トレーニング データに予想される回答のラベルが付けられますが、教師なし学習 では、モデルはラベル付けされていないデータ内のパターンまたは構造を識別します。機械学習にはいくつかの種類があります。教師なし学習は 、データストリームを分析し、他の指示なしにパターンを発見し、予測を行います。[ 44 ] 教師あり学習 では、トレーニングデータに期待される答えをラベル付けする必要があり、分類 (プログラムが入力がどのカテゴリに属するかを予測することを学習する必要がある)と回帰 (プログラムが数値入力に基づいて数値関数を推論する必要がある)の2つの主要な種類があります。[ 45 ]
強化学習 では、エージェントは良い応答に対して報酬を受け、悪い応答に対しては罰せられます。エージェントは「良い」と分類される応答を選択するように学習します。[ 46 ] 転移学習 とは、ある問題から得られた知識を新しい問題に適用することです。[ 47 ] 深層学習 は、これらすべての種類の学習において、生物学的に着想を得た人工ニューラルネットワーク に入力データを適用する機械学習の一種です。 [ 48 ]
計算学習理論では 、計算の複雑さ 、サンプルの複雑さ (必要なデータ量)、あるいはその他の最適化 の概念によって学習者を評価することができる。[ 49 ]
自然言語処理 自然言語処理 (NLP)により、プログラムは人間の言語で読み書きやコミュニケーションができるようになります。[ 50 ] 具体的な問題としては、音声認識 、音声合成 、機械翻訳 、情報抽出 、情報検索 、質問応答など があります。[ 51 ]
ノーム・チョムスキー の生成文法 と意味ネットワーク に基づく初期の研究では、「マイクロワールド 」と呼ばれる小さな領域に限定しない限り、語義の曖昧性解消 は困難であった[ f ] (常識知識問題 [ 29 ] による)。マーガレット・マスターマンは 、言語を理解する鍵は文法ではなく意味であり、計算機言語構造の基礎は 辞書ではなくシソーラスであるべきだと信じていた。
NLPのための現代のディープラーニング技術には、単語埋め込み (単語を、通常は意味をエンコードしたベクトルとして表現する) 、などがある。[ 54 ] 2019年には、生成的事前学習済みトランスフォーマー ( または「 GPT」)言語モデルが首尾一貫したテキストを生成し始め、 2023年までに、これらのモデルは司法試験 、SAT テスト、GRE テスト、その他多くの実際のアプリケーションで人間レベルのスコアを獲得できるようになった。
感知 機械知覚とは、センサー(カメラ、マイク、無線信号、アクティブ ライダー 、ソナー、レーダー、触覚センサー など)からの入力を用いて、世界の様相を推測する能力です。コンピュータビジョンとは、 視覚入力を分析する能力です。[ 58 ]
この分野には音声認識 、画像分類 、 、顔認識、 、物体認識 、[ 62 ]、物体追跡 、] 、ロボット知覚 などが含まれます。
社会的な知性 キズメット は1990年代に作られたロボットヘッドで、感情を認識しシミュレートできる機械です。感情コンピューティングは、人間の 感情、感情、気分を 認識、解釈、処理、またはシミュレートするシステムで構成される分野です。[ 65 ] たとえば、一部の仮想アシスタント は会話的に話したり、ユーモラスな冗談を言ったりするようにプログラムされています。これにより、仮想アシスタントは人間の相互作用における感情的なダイナミクスに敏感であるように見えたり、人間とコンピュータの相互作用 を促進したりするようになります。
しかし、これは、初心者のユーザーに既存のコンピュータエージェントの知能について非現実的な概念を与える傾向がある。感情コンピューティングに関連する中程度の成功例としては、テキスト感情分析 や、最近では、ビデオに録画された被験者が示す感情をAIが分類するマルチモーダル感情分析 などがある。
一般知能 汎用人工知能 を備えた機械は、人間の知能 と同様の広さと汎用性で、さまざまな問題を解決することができるだろう。[ 68 ]
テクニック AI研究では、上記の目標を達成するためにさまざまな技術が使用されています。[ b ]
検索と最適化 AIは多くの可能な解決策を賢く探索することで多くの問題を解決することができます。[ 69 ] AIで使用される探索には、状態空間探索 と局所探索 という2つの非常に異なる種類があります。
状態空間探索 状態空間探索は 、可能な状態のツリーを探索して目標状態を見つけようとします。[ 70 ] 例えば、計画 アルゴリズムは目標とサブ目標のツリーを探索して、目標目標へのパスを見つけようとします。このプロセスは手段目的分析 と呼ばれます。
単純な網羅的探索 [ 72 ] は、現実世界のほとんどの問題に対して十分ではありません。探索空間 (探索する場所の数)はすぐに天文学的な数 にまで膨れ上がります。その結果、探索はあまりにも遅く なったり、完了しなくなったりします。[ 15 ] 「ヒューリスティック 」または「経験則」は、目標に到達する可能性の高い選択肢を優先するのに役立ちます。[ 73 ]
敵対的探索は、チェスや囲碁などの ゲーム プログラムに用いられます。可能な手と反撃のツリー を探索し、勝利の位置を探します。[ 74 ]
ローカル検索 3つの異なる開始点における勾配降下法 の図解。損失関数 (高さ)を最小化するために、2つのパラメータ(平面座標で表される)が調整される。局所探索は、 数学的最適化 を用いて問題の解を見つけます。何らかの推測から始まり、それを段階的に改良していきます。[ 75 ]
勾配降下法は、 損失関数を 最小化するように数値パラメータを段階的に調整することで最適化する局所探索法の一種です。勾配降下法の変種は、バックプロパ ゲーションアルゴリズムを通じてニューラルネットワークの 訓練によく用いられます[ 76 ] 。
局所探索のもう一つのタイプは進化計算 であり、これは候補解のセットを「突然変異」および「再結合」することによって反復的に改善し、各世代で生き残るために最も適したものだけを選択することを 目的としています。[ 77 ]
分散探索プロセスは、群知能 アルゴリズムを介して協調動作を行うことができます。探索に用いられる2つの一般的な群知能アルゴリズムは、粒子群最適化 (鳥の群れ行動 に着想を得たもの)と蟻コロニー最適化 (蟻の道 に着想を得たもの)です。
論理 形式論理は 推論 と知識表現 に用いられる。[ 79 ] 形式論理には主に2つの形式がある。命題論理 (真偽の文を扱い、「and」、「or」、「not」、「implies」などの論理接続詞を用いる) [ 80 ] と述語論理 (これもオブジェクト、述語、関係を扱い、 「すべての Xは Y である」や「 Y であるXが いくつか ある」などの量指定子を用いる) [ 81 ] 。
論理学における演繹的推論 は、与えられた、真であると仮定される他の命題(前提)から、新たな命題(結論)を 証明する 過程 である。[ 82 ] 証明は証明木 として構造化することができ、証明木では、ノードは文によってラベル付けされ、子ノードは推論規則 によって親ノードに接続される。
問題と前提の集合が与えられた場合、問題解決は、ルートノードが問題の解でラベル付けされ、リーフノード が前提または公理でラベル付けされた証明木を探すことに帰着する。 ホーン節 の場合、問題解決の探索は前提から前向きに 推論するか、問題から後ろ向きに 推論することによって実行できる。 [ 83 ] より一般的な一階述語論理 の節形式の場合には、解決 は単一の公理を含まない推論規則であり、解決すべき問題の否定を含む前提から矛盾を証明することによって問題が解決される。[ 84 ]
ホーン節論理と一階述語論理の推論はどちらも決定不能で あり、したがって扱いにくい 。しかし、論理型プログラミング 言語Prologの計算の基盤となるホーン節を用いた逆推論は チューリング完全で ある。さらに、その効率は他の記号プログラミング 言語の計算と匹敵する。[ 85 ]
ファジー論理は 0から1の間の「真実度」を割り当てます。したがって、曖昧で部分的に真実である命題を扱うことができます。[ 86 ]
非単調論理は、 否定を失敗とする 論理プログラミングを含め、デフォルト推論 を処理するように設計されています。[ 28 ] 他の特殊なバージョンの論理は、多くの複雑な領域を記述するために開発されてきました。
不確実性推論のための確率的手法 単純なベイジアンネットワーク とそれに関連する条件付き確率表 AI(推論、計画、学習、知覚、ロボット工学など)における多くの問題では、エージェントが不完全または不確実な情報に基づいて動作することが求められます。AI研究者は、確率 論や経済学の手法を用いてこれらの問題を解決するためのツールを数多く考案してきました。[ 87 ] 意思決定理論 、意思決定分析 、[ 88 ] 情報価値理論 [ 89 ] を用いて、エージェントがどのように選択を行い、計画を立てるかを分析する精密な数学的ツールが開発されています。これらのツールには、マルコフ決定過程 、[ 90 ] 動的意思決定ネットワーク 、[ 91 ] ゲーム理論 、メカニズム設計 などのモデルが含まれます。[ 92 ]
ベイジアンネットワーク [ 93 ] は、推論 (ベイジアン推論 アルゴリズムを使用)、[ g ] [ 95 ] 学習 (期待値最大化アルゴリズム を使用)、[ h ] [ 97 ] 計画 (決定ネットワーク を使用)[ 98 ] および知覚 (動的ベイジアンネットワーク を使用)に使用できるツールです。[ 91 ]
確率的アルゴリズムは、データストリームのフィルタリング、予測、平滑化、説明の発見にも使用でき、知覚システムが時間の経過とともに発生するプロセスを分析するのに役立ちます(例:隠れマルコフモデル やカルマンフィルタ )。[ 91 ]
オールド フェイスフルの 噴火データの期待値最大化 クラスタリングは 、ランダムな推測から始まりますが、その後、物理的に異なる 2 つの噴火モードの正確なクラスタリングに収束します。
分類器と統計的学習法 最も単純なAIアプリケーションは、分類器(例:「光沢のあるらダイヤモンド」)と制御器(例:「ダイヤモンドなら拾う」)の2種類に分けられます。分類器 [ 99 ] は、パターンマッチング を用いて最も近い一致を決定する関数です。教師あり学習 を用いて、選択された例に基づいて微調整することができます。各パターン(「観測」とも呼ばれます)には、事前に定義された特定のクラスがラベル付けされます。クラスラベルと組み合わせたすべての観測は、 データセット と呼ばれます。新しい観測が受信されると、その観測は過去の経験に基づいて分類されます。[ 45 ]
分類器には多くの種類があります。[ 100 ] 決定木 は最も単純で広く使われているシンボリック機械学習アルゴリズムです。[ 101 ] k近傍 法は1990年代半ばまで最も広く使われていた類推AIでしたが、1990年代にはサポートベクターマシン (SVM)などのカーネル法が k近傍法に取って代わりました。[ 102 ] ナイーブベイズ分類器は 、そのスケーラビリティもあって、Googleでは「最も広く使われている学習器」[ 104 ] ニューラルネットワーク も分類器として使われています。[ 105 ]
人工ニューラルネットワーク ニューラル ネットワークは相互接続されたノードのグループであり、人間の脳 内のニューロン の広大なネットワークに似ています。 人工ニューラルネットワークは、人工ニューロン とも呼ばれるノードの集合に基づいており、生物の脳のニューロンを 大まかにモデル化しています。パターンを認識するように学習され、学習後は最新のデータからそれらのパターンを認識できるようになります。入力、少なくとも1つの隠れ層、そして出力があります。各ノードは関数を適用し、重みが 指定された閾値を超えると、データは次の層に送信されます。通常、2つ以上の隠れ層を持つネットワークはディープニューラルネットワークと呼ばれます。[ 105 ]
ニューラルネットワークの学習アルゴリズムは、局所探索 を用いて、学習中に各入力に対して適切な出力が得られる重みを選択します。最も一般的な学習手法はバックプロパゲーション アルゴリズムです。[ 106 ] ニューラルネットワークは、入力と出力の間の複雑な関係をモデル化し、データ内のパターンを見つけること を学習します。理論的には、ニューラルネットワークはあらゆる関数を学習できます。[ 107 ]
フィードフォワードニューラルネットワーク では、信号は一方向にのみ通過します。[ 108 ] パーセプトロンという 用語は通常、単層ニューラルネットワークを指します。[ 109 ] 対照的に、ディープラーニングは多くの層を使用します。[ 110 ] 再帰型ニューラルネットワーク (RNN)は出力信号を入力にフィードバックすることで、以前の入力イベントの短期記憶を可能にします。長短期記憶ネットワーク(LSTM)は、長期的な依存関係をより適切に保持し、 勾配消失問題 の影響が少ない再帰型ニューラルネットワークです。[ 111 ] 畳み込みニューラルネットワーク (CNN)は、カーネルの層を使用して局所パターンをより効率的に処理します。この局所処理は 画像処理 において特に重要で、初期のCNN層では通常、エッジや曲線などの単純な局所パターンを識別し、後続の層でテクスチャなどのより複雑なパターンを検出し、最終的にはオブジェクト全体を検出します。[ 112 ]
ディープラーニング ディープラーニングは 機械学習 のサブセットであり、機械学習自体は人工知能のサブセットである。[ 113 ] ディープラーニングは 、ネットワークの入力と出力の間に複数のニューロン層を使用します。[ 110 ] 複数の層は、生の入力から段階的に高レベルの特徴を抽出します。例えば、画像処理 では、下位層はエッジを識別し、上位層は数字、文字、顔など、人間に関連する概念を識別します。
ディープラーニングは、コンピュータービジョン 、音声認識 、自然言語処理 、画像分類 など、人工知能の多くの重要なサブフィールドでプログラムのパフォーマンスを大幅に向上させました。 ディープラーニングがこれほど多くのアプリケーションで優れたパフォーマンスを発揮する理由は、2021年現在ではわかっていません。 2012~2015年のディープラーニングの突然の成功は、何らかの新しい発見や理論的なブレークスルー(ディープニューラルネットワークとバックプロパゲーションは、1950年代にまで遡って多くの人々によって説明されていました)[ i ] ではなく、2つの要因によるものでした。1つはコンピューターパワーの驚異的な向上( GPU への切り替えによる速度の100倍の向上を含む)であり、もう1つは膨大な量のトレーニングデータ、特にベンチマークテストに使用されるImageNet などの巨大なキュレーションデータセット が利用可能になったことです。[ j ]
GPT 生成的事前学習済みトランスフォーマー (GPT)は、文中の単語間の意味関係に基づいてテキストを生成する大規模言語モデル (LLM)です。テキストベースのGPTモデルは、インターネットから得られる大規模なテキストコーパスを用いて事前学習されます。事前学習は、次の トークン (通常、単語、サブワード、または句読点)を予測することで構成されます。この事前学習を通して、GPTモデルは世界に関する知識を蓄積し、次のトークンを繰り返し予測することで人間のようなテキストを生成できるようになります。通常、その後の学習フェーズでは、人間からのフィードバックによる強化学習 (RLHF)と呼ばれる手法を用いて、モデルをより真実性が高く、有用で、無害なものにします。現在のGPTモデルは、「幻覚 」と呼ばれる虚偽を生成する傾向があります。これはRLHFと質の高いデータによって軽減できますが、推論システムにおいては問題が悪化しています。[ 124 ] このようなシステムは、簡単なテキストで質問したりタスクを依頼したりできるチャットボット で使用されています。 [ 126 ]
現在のモデルとサービスには、ChatGPT 、Claude 、Gemini 、Copilot 、Meta AI などがあります。[ 127 ] マルチモーダル GPTモデルは、画像、動画、音声、テキストなど、さまざまな種類のデータ(モダリティ )を処理できます。
ハードウェアとソフトウェア ラズベリーパイ AI キット 2010年代後半には、AIに特化した機能強化が施され、専用のTensorFlow ソフトウェアで使用されるようになったグラフィックス処理装置 (GPU)が、大規模な(商用および学術)機械学習モデルのトレーニングの主な手段として、それまで使用されていた 中央処理装置 (CPU)に取って代わりました。初期のAI研究ではProlog などの特殊なプログラミング言語が 使用されていましたが、[ 130 ] Python などの汎用プログラミング言語が 主流になっています。[ 131 ]
集積回路 のトランジスタ密度は、約18ヶ月ごとに倍増することが観測されています。これは、インテルの 共同創業者であるゴードン・ムーアが最初にこの法則を発見したことにちなんで名付けられた 「ムーアの法則」として知られる傾向です。GPU の 改良はさらに速く、[ 132 ] NVIDIAの 共同創業者兼CEOであるジェンスン・フアン にちなんで「フアンの法則」 と呼ばれることもあります。 [ 133 ]
アプリケーション AI と機械学習テクノロジーは、次のような 2020 年代の重要なアプリケーションのほとんどで使用されています。
AI の導入は、最高オートメーション責任者 (CAO) によって監督される場合があります。
健康と医療 AIは、異なる研究分野に割り当てられた資金の不一致を克服できる可能性が示唆されている。[ 134 ]
AlphaFold 2 (2021)は、 タンパク質の 3D構造を数ヶ月ではなく数時間で概算できることを実証しました。[ 135 ] 2023年には、AI誘導による創薬によって、2種類の薬剤耐性菌を殺せる抗生物質のクラスが発見されたと報告されました。[ 136 ] 2024年、研究者たちは機械学習を用いてパーキンソン病の 薬物治療薬の探索を加速させました。彼らの目的は、 α-シヌクレイン (パーキンソン病の特徴的なタンパク質)の凝集を阻害する化合物を特定することでした。彼らは初期スクリーニングプロセスを10倍高速化し、コストを1000分の1に削減することができました。[ 137 ] [ 138 ]
ゲーム ゲームプレイ プログラムは1950年代からAIの最先端技術を実証しテストするために使われてきた。[ 139 ] ディープ・ブルーは 1997年5月11日、チェスの世界チャンピオン、ガルリ・カスパロフを破った初のコンピュータチェスプレイシステムとなった。 [ 140 ] 2011年、クイズ番組 「Jeopardy!」 のエキシビションマッチで、IBM の質問応答システム 「Watson 」が 「Jeopardy!」 の歴代チャンピオン2人、ブラッド・ラター とケン・ジェニングス を大差で破った。[ 141 ] 2016年3月、AlphaGoは囲碁チャンピオンの イ・セドル との対局で5戦中4勝を挙げ、 ハンディキャップ なしでプロの囲碁プレイヤーに勝利した初のコンピュータ囲碁 システムとなった。そして2017年には、世界最高の囲碁プレイヤーである柯潔を破った。 [ 142 ] ポーカー をプレイするプログラムPluribus などの他のプログラムは不完全情報 ゲームを扱います。[ 143 ] DeepMindは MuZero などの、チェス、囲碁、 Atari ゲームをプレイするように訓練できる、より汎用的な強化学習モデルを開発しました。 [ 144 ] 2019年、DeepMindのAlphaStarは、マップ上で何が起こるかについての不完全な知識を必要とする、特に難しいリアルタイム戦略ゲームであるStarCraft IIでグランドマスターレベルを達成しました。 [ 145 ] 2021年、AIエージェントがPlayStation Gran Turismoの 大会に出場し、深層強化学習を使用して世界最高のGran Turismoドライバー4人に勝利しました。[ 146 ] 2024年、Google DeepMindはSIMAを発表しました。これは、画面出力を観察することで、これまでにない9つのオープンワールド ビデオゲームを自律的にプレイできるだけでなく、自然言語の指示に応じて短い特定のタスクを実行できるタイプのAIです。[ 147 ]
数学 GPT-4 、Gemini 、Claude 、Llama 、Mistral などの大規模言語モデルが、数学でますます使用されています。これらの確率モデルは用途が広いですが、幻覚 の形で間違った答えを生成することもあります。学習するための大規模な数学の問題のデータベースが必要になることもありますが、教師あり微調整[148]や、人間が注釈を付けたデータで訓練された分類器などの方法も必要になり、新しい 問題 に対する 答えを 改善し 、修正から学習します。[ 149 ] 2024年2月の研究では、訓練データに含まれていない数学の問題を解く際の推論能力に関する一部の言語モデルのパフォーマンスは、訓練データからのわずかな逸脱がある問題であっても低いことが示されました。[ 150 ] パフォーマンスを向上させる1つの手法は、正しい結果だけでなく、正しい推論 ステップを生成するようにモデルを訓練することです。 [ 151 ] アリババグループは Qwen モデルのバージョンであるQwen2-Math を開発し、競技数学問題のMATHデータセットで84%の精度を含む、いくつかの数学ベンチマークで最先端のパフォーマンスを達成しました。[ 152 ] 2025年1月、マイクロソフトはモンテカルロ木探索 と段階的推論を活用したrStar-Math という手法を提案し、 Qwen-7Bのような比較的小さな言語モデルで AIME 2024の53%とMATHベンチマーク問題の90%を解くことができるようになりました。[ 153 ]
あるいは、定理の証明を含む結果に対してより高い精度を持つ数学的問題解決のための専用モデルが開発されており、例えばGoogle DeepMind のAlphaTensor 、AlphaGeometry 、AlphaProof 、AlphaEvolve [ 154 ] 、EleutherAI のLlemma [ 156 ] 、 Julius [ 157 ] などが ある 。
自然言語を用いて数学の問題を記述する場合、コンバーターはそのようなプロンプトをLean などの形式言語に変換し、数学的な課題を定義することができます。実験モデルであるGemini Deep Thinkは 自然言語プロンプトを直接受け入れ、 2025年の国際数学オリンピック で金メダルを獲得しました。[ 158 ]
いくつかのモデルは、難しい問題を解決し、ベンチマークテストで良い結果を得るために開発されましたが、他のモデルは数学の教育ツールとして役立つように開発されました。[ 159 ]
トポロジカル ディープラーニングは、 さまざまなトポロジカル アプローチを統合します。
ファイナンス 金融は、応用AIツールが導入されている最も急速に成長している分野の一つです。小売オンラインバンキングから投資アドバイスや保険まで、自動化された「ロボットアドバイザー」が数年前から使用されています。[ 160 ]
世界年金投資フォーラム のディレクター、ニコラス・フィルツリ氏によると、AIを活用した高度に革新的な金融商品やサービスの出現はまだ時期尚早かもしれないという。フィルツリ氏は、「AIツールの導入は、単に物事の自動化をさらに進めるだけであり、その過程で銀行業務、ファイナンシャルプランニング、年金アドバイスの分野で数万もの雇用が失われるだろう。しかし、それが(例えば高度な)年金イノベーションの新たな波を引き起こすかどうかは定かではない」と主張している。[ 161 ]
軍隊 様々な国がAIの軍事応用を展開している。[ 162 ] 主な応用は、指揮統制 、通信、センサー、統合、相互運用性の強化である。[ 163 ] 研究は、情報収集と分析、物流、サイバー作戦、情報作戦、半自律型および自律型車両を 対象としている。[ 162 ] AI技術は、センサーとエフェクターの調整、脅威の検出と識別、敵の位置のマーキング、目標捕捉 、人間が操作する戦闘車両と自律型戦闘車両の両方を含むネットワーク化された戦闘車両間の分散型統合火力 の調整と衝突回避を可能にする。[ 163 ]
AIはイラク、シリア、イスラエル、ウクライナでの軍事作戦で使用されている。[ 162 ] [ 164 ] [ 165 ] [ 166 ]
生成AI 生成AIソフトウェアによって作成された水彩画のフィンセント・ファン・ゴッホ
エージェント AIエージェントは、特定の目標を達成するために、環境を認識し、意思決定を行い、自律的に行動するように設計されたソフトウェアエンティティです。これらのエージェントは、ユーザー、環境、または他のエージェントと対話できます。AIエージェントは、仮想アシスタント 、チャットボット 、自律走行車 、ゲームプレイシステム 、産業用ロボット など、さまざまなアプリケーションで使用されています。AIエージェントは、プログラミング、利用可能な計算リソース、およびハードウェア制限の制約内で動作します。つまり、定義された範囲内でタスクを実行するように制限され、メモリと処理能力が限られています。実際のアプリケーションでは、AIエージェントは意思決定とアクション実行に時間的制約に直面することがよくあります。多くのAIエージェントは学習アルゴリズムを組み込んでおり、経験やトレーニングを通じて時間の経過とともにパフォーマンスを向上させることができます。機械学習を使用することで、AIエージェントは新しい状況に適応し、指定されたタスクに合わせて動作を最適化できます。[ 184 ] [ 185 ] [ 186 ]
ウェブ検索 マイクロソフトは2023年2月にBing Chat という名前でCopilot Searchを Microsoft EdgeとBingモバイルアプリの組み込み機能として導入しました。Copilot Searchは、Bing Searchでランク付けされたウェブパブリッシャーの情報に基づいて、AIが生成した要約[ 187 ] と段階的な推論を提供します。[ 188 ] 安全のため、CopilotはAIベースの分類器とフィルターを使用して、潜在的に有害なコンテンツを削減します。[ 189 ]
Googleは2025年5月20日のGoogle I/OイベントでAI検索を正式に発表しました。[ 190 ] これにより、ユーザーは検索結果をクリックする代わりにGoogleを閲覧するようになります。AI Overviewsは Gemini 2.5を使用して、ウェブコンテンツに基づいてユーザーのクエリに文脈的な回答を提供します。[ 191 ]
セクシュアリティ この分野におけるAIの応用としては、ユーザーデータを分析して予測を提供するAI対応の月経・妊娠追跡装置、[ 192 ] 、AI統合型セックス玩具(例:テレディルドニクス )、[ 193 ] 、AI生成の性教育コンテンツ、[ 194 ] 、性的および恋愛関係のパートナーをシミュレートするAIエージェント(例: Replika )などが挙げられる。[ 195 ] AIは、合意のないディープフェイクポルノ の制作にも利用されており、重大な倫理的および法的懸念を引き起こしている。[ 196 ]
AI技術は、オンラインでのジェンダーに基づく暴力 や未成年者に対するオンラインでの性的グルーミング を特定するためにも使用されています。[ 197 ] [ 198 ]
その他の業界特有のタスク 特定の業界や機関の特定の問題を解決するために利用されているAIアプリケーションは、数千件にも上ります。2017年の調査では、5社に1社が何らかのサービスやプロセスに「AI」を組み込んでいると回答しました。[ 199 ] 例としては、エネルギー貯蔵 、医療診断、軍事物流、司法判断の結果を予測するアプリケーション、外交政策 、サプライチェーン管理などが挙げられます。
避難・災害 管理におけるAIの活用は拡大しています。GPS、動画、ソーシャルメディアなどの履歴データを用いて、大規模・小規模の避難行動のパターンを調査するためにAIが活用されています。さらに、AIは避難状況に関するリアルタイム情報を提供することもできます。[ 200 ] [ 201 ] [ 202 ]
農業において、AIは農家の収穫量増加や、灌漑、施肥、農薬散布が必要な場所の特定に役立っています。農学者はAIを活用した研究開発を行っています。AIは、トマトなどの作物の成熟時期の予測、土壌水分の監視、農業ロボットの運用、予測分析 、家畜の豚の鳴き声の感情分類、温室の自動化、病害虫の検出、節水などに活用されています。
天文学において、人工知能は増加する利用可能なデータやアプリケーションの分析に利用されており、主に「分類、回帰、クラスタリング、予測、生成、発見、そして新たな科学的知見の創出」を目的としています。例えば、太陽系外惑星の発見、太陽活動の予測、重力波天文学における信号と機器効果の区別などに利用されています。さらに、宇宙探査といった宇宙活動にも利用される可能性があり、宇宙ミッションのデータ分析、宇宙船のリアルタイム科学的判断、宇宙ゴミの回避、より自律的な運用などにも活用されています。
2024年のインド選挙 では、AIが生成した認可コンテンツに5000万ドルが費やされ、特に、有権者との関わりを深めるために同盟関係にある(故人を含む)政治家のディープフェイクを 作成したり、演説を様々な現地言語に翻訳したりしました。[ 203 ]
倫理 テルアビブのストリートアート [ 204 ] [ 205 ] AIには潜在的な利点と潜在的なリスクがある。[ 206 ] AIは科学を進歩させ、深刻な問題の解決策を見つけることができるかもしれない。DeepMindのデミス ・ハサビス氏 は「知能を解明し、それを他のあらゆる問題の解決に活用したい」と願っている。しかし、AIの利用が広まるにつれて、いくつかの意図しない結果とリスクが特定されている。[ 209 ] 特にAIアルゴリズムが深層学習において本質的に説明できない場合、実稼働システムではAIのトレーニングプロセスに倫理や偏見を考慮に入れられないことがある。
リスクと害
プライバシーと著作権 機械学習アルゴリズムは大量のデータを必要とします。このデータを取得するために使用される技術は、プライバシー 、監視 、著作権 に関する懸念を引き起こしています。
バーチャルアシスタントやIoT製品などのAI搭載デバイスやサービスは、個人情報を継続的に収集するため、侵入的なデータ収集や第三者による不正アクセスへの懸念が高まっています。AIは膨大な量のデータを処理・統合できるため、プライバシーの喪失はさらに深刻化し、十分な安全対策や透明性がないまま個人の行動が常に監視・分析される監視社会につながる可能性があります。
収集される機密性の高いユーザーデータには、オンライン活動記録、位置情報データ、動画、音声などが含まれる場合があります。例えば、音声認識 アルゴリズムを構築するために、Amazon は 何百万ものプライベートな会話を録音し、臨時従業員に その一部を聞き、書き起こすことを許可しました。この広範囲にわたる監視に対する意見は、必要悪と考える人から、明らかに 非倫理的で プライバシー権 の侵害であると考える人までさまざまです。
AI開発者たちは、これが価値あるアプリケーションを提供する唯一の方法だと主張し、データ集約 、匿名化、 差分プライバシー など、データを取得しながらもプライバシーを保護する技術をいくつか開発してきた。 2016年以降、シンシア・ドワーク などのプライバシー専門家は、プライバシーを公平性 の観点から捉え始めている。ブライアン・クリスチャン は、専門家たちは「『何を知っているか』という問いから『それを使って何をしているのか』という問いへと転換した」と述べている。
生成AIは、画像やコンピュータコードなどの分野を含む、ライセンスのない著作物で訓練されることが多く、その出力は「フェアユース 」の根拠に基づいて使用されます。専門家の間でも、この根拠が法廷でどの程度、どのような状況下で通用するかについては意見が分かれています。関連する要素には、「著作物の利用目的と性質」や「著作物の潜在的市場への影響」などが含まれます。[ 217 ] ウェブサイトの所有者は、「 robots.txt 」ファイルを使用して、コンテンツのスクレイピングを希望しない旨を示すことができます。 [ 218 ] しかし、 robots.txtファイルには実質的な権限がないため、一部の企業はコンテンツをスクレイピングします。 [ 219 ] [ 220 ] 2023年には、著名な著者(ジョン・グリシャム やジョナサン・フランゼン など)が、AI企業が自身の著作物を生成AIの訓練に利用したとして訴訟を起こしました。もう一つの議論されているアプローチは、AIによって生成された創作物を保護する独自のシステムを構想し、人間 の著者への公正な帰属と補償を確保することである。[ 223 ]
テクノロジー大手の支配 商用AIの分野は、アルファベット社 、アマゾン社 、アップル社 、メタ・プラットフォームズ 社、マイクロソフト社 などの大手テック 企業によって支配されている。[ 224 ] [ 225 ] [ 226 ] これらの企業の中には、データセンターの既存の クラウドインフラ やコンピューティング パワーの大部分を既に所有している企業もあり、市場での地位をさらに固めることができる。[ 227 ] [ 228 ]
電力需要と環境への影響 人工知能の成長に支えられ、2020年代にはデータセンターの電力需要が増加しました。[ 229 ] 国際エネルギー機関 (IEA)は2024年1月、「電力2024年、分析、2026年までの予測」 を発表し、電力消費量を予測しました。[ 230 ] これは、データセンター、人工知能(AI)、暗号通貨の電力消費量に関する予測をIEAが行った初めての報告書です。報告書によると、これらの用途の電力需要は2026年までに倍増し、追加で消費される電力は日本の全国民の電力消費量に匹敵する可能性があるとされています。[ 231 ]
AIによる膨大な電力消費は化石燃料使用量の増加につながり、老朽化した炭素排出型石炭火力発電所の閉鎖を遅らせる可能性があります。米国全土でデータセンターの建設が急増しており、大手テクノロジー企業(Microsoft、Meta、Google、Amazonなど)は電力の貪欲な消費者となっています。予測される電力消費量は非常に膨大であるため、どのエネルギー源を使用しても消費量が満たされるのではないかと懸念されています。ChatGPT検索には、Google検索の10倍の電力消費量が必要です。大手企業は、原子力、地熱、核融合など、さまざまなエネルギー源の発見を急いでいます。テクノロジー企業は、長期的にはAIが最終的に環境に優しくなると主張していますが、今すぐにエネルギーを必要としています。テクノロジー企業によると、AIは電力網をより効率的かつ「インテリジェント」にし、原子力発電の発展を促し、全体的な炭素排出量を追跡するでしょう。[ 232 ]
2024年のゴールドマン・サックスの 調査論文「AIデータセンターと今後の米国電力需要の急増 」では、「米国の電力需要は過去数世代に見られなかったほどの伸びを経験する可能性が高い」と指摘され、2030年までに米国のデータセンターの電力消費量は2022年の3%から8%に増加し、様々な手段で発電産業の成長を予感させると予測されています。[ 233 ] データセンターの電力需要はますます増加しており、電力網の限界に達する可能性があります。大手テクノロジー企業は、AIを活用することで電力網の利用率を最大化できると反論しています。[ 234 ]
ウォール・ストリート・ジャーナルは 2024年、大手AI企業がデータセンターへの電力供給について米国の原子力発電事業者と交渉を開始したと報じました。2024年3月、Amazonはペンシルベニア州の原子力発電データセンターを6億5000万ドルで購入しました。[ 235 ] Nvidiaの CEO、ジェンスン・フアン氏 は、原子力発電はデータセンターにとって良い選択肢だと述べました。[ 236 ]
2024年9月、マイクロソフトは コンステレーション・エナジーと提携し 、スリーマイル島 原子力発電所を再開し、同発電所で生産される全電力の100%を20年間にわたって同社に供給する契約を締結したと発表した。1979年に2号機原子炉の部分的なメルトダウンを経験した同発電所の再開には、米国原子力規制委員会 による徹底的な安全審査を含む厳格な規制プロセスをコンステレーションが通過する必要がある。承認されれば(米国で初の原子力発電所の再稼働となる)、80万世帯に十分な835メガワット超の電力が生産される。再開と改修にかかる費用は16億ドルと見積もられており、2022年米国インフレ抑制法 に含まれる原子力発電への税制優遇措置に左右される。[ 237 ] 米国政府とミシガン州は、ミシガン湖畔のパリセーズ原子炉の再開に約20億ドルを投資している。2022年から閉鎖されているこの原子炉は、2025年10月に再開される予定だ。スリーマイル島の原子炉施設は、原子力推進派で エクセロン 社の元CEOであり、エクセロン社によるコンステレーション社のスピンオフを主導したクリス・クレイン氏にちなんで、クレイン・クリーン・エネルギー・センターと改名される。[ 238 ]
台湾は 、電力供給不足を理由に、2023年9月の最後の認可後、 2024年には桃園 以北の5MW以上のデータセンターの認可を停止した。[ 239 ] 台湾は、 2025年までに原子力発電を段階的に廃止することを目指している。 [ 239 ] 一方、シンガポールは 、電力の問題で2019年にデータセンターの開設を禁止したが、2022年にこの禁止を解除した。[ 239 ]
2011年の福島原発事故 後、日本の原子力発電所の大半は停止しているが、2024年10月のブルームバーグ の日本語記事によると、NVIDIAが出資するクラウドゲームサービス企業ユビタスは、生成AI用の新しいデータセンターの建設のため、原子力発電所近くの土地を探しているという。[ 240 ] ユビタスのCEO、ウェズリー・クオ氏は、原子力発電所はAIにとって最も効率的で安価で安定した電力源だと述べた。[ 240 ]
2024年11月1日、連邦エネルギー規制委員会 (FERC)は、タレン・エナジーが提出した、 サスケハナ 原子力発電所からアマゾンのデータセンターへの電力供給承認申請を却下した。[ 241 ] 委員会のウィリー・L・フィリップス 委員長によると、これは電力網への負担であるだけでなく、家庭やその他の事業部門への大きなコスト転嫁の懸念でもある。[ 241 ]
国際エネルギー機関(IEA)が2025年に作成した報告書では、 AIのエネルギー消費による温室効果ガス排出量は 1億8000万トンと推定されています。2035年までに、これらの排出量は、どのような対策が講じられるかによって3億~5億トンに増加する可能性があります。これは、エネルギー部門の排出量の1.5%を下回ります。AIによる排出削減ポテンシャルはエネルギー部門の排出量の5%と推定されていますが、リバウンド効果 (例えば、人々が公共交通機関から自動運転車に乗り換えた場合)によって削減される可能性があります。[ 242 ]
YouTube 、Facebook などは、ユーザーをより多くのコンテンツに誘導するためにレコメンデーションシステムを使用している。これらのAIプログラムには、ユーザーエンゲージメントを 最大化する という目標が与えられた(つまり、唯一の目標は人々に視聴し続けてもらうことだった)。AIは、ユーザーが誤情報 、陰謀論 、極端に党派的な コンテンツを選ぶ傾向があることを学習し、彼らに視聴し続けてもらうために、AIはそれらをさらに推奨した。また、ユーザーは同じテーマのコンテンツをより多く見る傾向があるため、AIは人々をフィルターバブル に導き、そこで同じ誤情報の複数のバージョンを受け取ることになった。これにより、多くのユーザーが誤情報が真実であると信じ込み、最終的には機関、メディア、政府への信頼を損なうことになった。[ 244 ] AIプログラムは目標を最大化するように正しく学習していたが、その結果は社会にとって有害であった。2016年の米国大統領選挙後、大手テクノロジー企業はこの問題を軽減するためにいくつかの措置を講じた。[ 245 ]
2020年代初頭、生成AIは 実際の写真、録音、または人間の文章と実質的に区別がつかない画像、音声、テキストを作成し始めました。[ 246 ] 一方、リアルなAI生成ビデオは2020年代半ばに実現可能になりました。[ 247 ] [ 248 ] [ 249 ] 悪意のある人物がこの技術を使用して大量の誤情報やプロパガンダを作成する可能性があります。そのような潜在的な悪意のある使用法の1つは、計算プロパガンダ のためのディープフェイクです。[ 251 ] AIの先駆者でありノーベル賞を受賞したコンピューター科学者のジェフリー・ヒントンは、 AIが「権威主義的な指導者が選挙民を大規模に操作する」ことを可能にすることなど、さまざまなリスクについて懸念を表明しました。選挙民に影響を与える能力は、少なくとも1つの研究で証明されています。この同じ研究では、モデルが政治的右派の候補者を支持する場合、より不正確な発言をすることが示されています。[ 253 ]
マイクロソフト 、OpenAI 、大学、その他の組織のAI研究者は、AIモデルによって可能になるオンライン欺瞞を克服する方法として「人格認証情報」の使用を提案している。 [ 254 ]
アルゴリズムの偏りと公平性 機械学習アプリケーションは、偏ったデータから学習すると偏りが生じる可能性があります [ k ] 。 開発者は偏りの存在に気付いていない可能性があります。一部の LLM による差別的な動作は、その出力に見られます。[ 258 ] バイアスは、トレーニングデータの 選択方法やモデルの展開方法によって導入される可能性があります。 偏ったアルゴリズムが、人々に深刻な害を 及ぼす可能性のある決定を下すために使用される場合(医療 、金融 、採用、 住宅 、警察 などで起こり得る)、アルゴリズムは差別を 引き起こす可能性があります。[ 260 ] 公平性 の分野では、アルゴリズムの偏りによる害を防ぐ方法を研究しています。
2015年6月28日、Googleフォト の新しい画像ラベル機能は、ジャッキー・アルシーヌとその友人が黒人だったため、誤って「ゴリラ」と認識しました。このシステムは、黒人の画像がほとんど含まれていないデータセットで学習させられていました。これは「サンプルサイズの不均衡」と呼ばれる問題でした 。Googleは、システムがあらゆるものを 「ゴリラ」とラベル付けしないようにすることで、この問題を「修正」しました。8年後の2023年現在も、Googleフォトは依然としてゴリラを識別できず、Apple、Facebook、Microsoft、Amazonの類似製品も同様でした
COMPASは、 被告人 が再犯する 可能性を評価するために米国の裁判所 で広く使用されている商用プログラムです。2016年、ProPublica のJulia Angwinは 、プログラムに被告人の人種が伝えられていなかったにもかかわらず、COMPASが人種的偏りを示していることを発見しました。白人と黒人のエラー率は両方ともちょうど61%で同じに調整されていましたが、人種ごとのエラーは異なり、システムは黒人が再犯する可能性を常に過大評価し、白人が再犯しない可能性を過小評価していました。 2017年には、複数の研究者[ l ] が、データ内の白人と黒人の再犯の基本率が異なる場合、COMPASがあらゆる可能な公平性の尺度に対応することは数学的に不可能であることを示しました。[ 266 ]
たとえデータに問題となる特徴(例えば「人種」や「性別」)が明示的に記載されていなくても、プログラムは偏った判断を下す可能性があります。その特徴は他の特徴(例えば「住所」「買い物履歴」「名前」など)と相関関係にあり、プログラムはこれらの特徴に基づいて、「人種」や「性別」の場合と同じ判断を下すことになります。[ 267 ] モーリッツ・ハートは、「この研究分野における最も確固たる事実は、盲検化による公平性は機能しないということだ」と述べています。[ 268 ]
COMPASに対する批判は、機械学習モデルが、未来が過去と類似すると仮定した場合にのみ有効な「予測」を行うように設計されている点を指摘した。過去の人種差別的な意思決定の結果を含むデータで機械学習モデルを訓練した場合、機械学習モデルは将来人種差別的な意思決定が行われると予測せざるを得なくなる。そして、アプリケーションがこれらの予測を推奨 として使用する場合、これらの「推奨」の一部は人種差別的なものになる可能性が高い。[ 269 ] したがって、機械学習は、未来が過去よりも良く なるという希望がある分野での意思決定を支援するのにはあまり適していない。それは規範的というより記述的である。[ m ]
開発者は圧倒的に白人男性であるため、偏見や不公平さが見過ごされる可能性があります。AIエンジニアのうち、約4%が黒人で、20%が女性です。
公平性には様々な相反する定義や数学モデルが存在します。これらの概念は倫理的な仮定に依存し、社会に関する信念の影響を受けます。1つの広範なカテゴリは分配的公平性 であり、これは結果に焦点を当て、多くの場合グループを特定し、統計的な格差を補正しようとします。表象的公平性は、AIシステムが否定的なステレオタイプ を強化したり、特定のグループを見えなくしたりしないようにします。手続き的公平性は、結果ではなく意思決定プロセスに焦点を当てています。最も関連性の高い公平性の概念は、状況、特にAIアプリケーションの種類や利害関係者によって異なります。バイアスと公平性の概念は主観的であるため、企業がそれらを運用化することは困難です。人種や性別などのセンシティブな属性へのアクセスは、バイアスを補正するために必要であると多くのAI倫理学者によって考えられていますが、差別禁止法 と矛盾する可能性があります。[ 255 ]
2022年のACM公平性、説明責任、透明性に関する会議 で発表された論文では、CLIP(対照言語画像事前学習 )ベースのロボットシステムが、模擬操作タスクにおいて、性別や人種に関連した有害なステレオタイプを再現したと報告されています。著者らは、このような有害な影響を物理的に発現させるロボット学習手法は、「結果が安全、効果的、かつ公正であることが証明されるまで、一時停止、修正、あるいは適切な場合には段階的に縮小する」ことを推奨しています。[ 271 ] [ 272 ] [ 273 ]
透明性の欠如 多くのAIシステムは非常に複雑であるため、設計者はその決定に至った経緯を説明できません。特に深層ニューラルネットワークでは、入力と出力の間に多くの 非線形 関係があります。しかし、いくつかの一般的な説明可能性技術は存在します。[ 275 ]
プログラムがどのように動作するのか正確に理解していない限り、プログラムが正しく動作していると確信することは不可能です。機械学習プログラムが厳格なテストに合格したにもかかわらず、プログラマーの意図とは異なる学習を行った例は数多くあります。例えば、医療専門家よりも正確に皮膚疾患を識別できるシステムは、定規 の付いた画像を「癌」と分類する傾向が強いことが判明しました。これは、悪性腫瘍の画像には通常、目盛りを示す定規が含まれているためです。医療資源の効率的な配分を支援するために設計された別の機械学習システムは、喘息患者を肺炎で死亡する「リスクが低い」と分類することが判明しました。喘息は実際には深刻なリスク要因ですが、喘息患者は通常、より多くの医療を受けるため、トレーニングデータによると死亡する可能性は比較的低いとされていました。喘息と肺炎で死亡するリスクの低さの間には相関関係がありましたが、これは誤解を招くものでした。
アルゴリズムの決定によって被害を受けた人は、説明を受ける権利がある。[ 278 ] 例えば医師は、同僚に対し、自分が下したあらゆる決定の根拠を明確かつ完全に説明することが求められている。2016年に作成された欧州連合(EU)の一般データ保護規則(GDPR) の初期草案には、この権利が存在することが明記されていた。[ n ] 業界の専門家は、これは解決策が見当たらない未解決の問題だと指摘した。規制当局は、それでもなお被害は現実のものであり、解決策がないのであれば、そのツールは使用すべきではないと主張した。
DARPAはこれらの問題を解決するために2014年に XAI (説明可能な人工知能)プログラムを設立しました。
透明性の問題に対処するためのアプローチはいくつかある。SHAPは、各特徴が出力にどのように寄与しているかを視覚化することを可能にする。 LIMEは、モデルの出力をより単純で解釈しやすいモデルで局所的に近似することができる。マルチタスク学習は、 ターゲット分類に加えて多数の出力を提供する。これらの出力は、開発者がネットワークが何を学習したかを推測するのに役立ちます。デコンボリューション 、DeepDream 、その他の生成 手法により、開発者はコンピュータービジョン用のディープネットワークの異なる層が何を学習したかを確認し、ネットワークが何を学習しているかを示唆する出力を生成することができる。生成的な事前学習済みトランスフォーマー 向けに、Anthropicはニューロンの活性化パターンを人間が理解できる概念に関連付ける 辞書学習 に基づく手法を開発した。[ 285 ]
悪意のある行為者と兵器化されたAI 人工知能は、権威主義的な政府 、テロリスト、 犯罪 者、ならず者国家 などの悪質な行為者 にとって有用なツールを数多く提供します。
自律型致死兵器とは、人間の監視なしに人間の標的を探し出し、選択し、攻撃する機械である。[ o ] 広く入手可能なAIツールは、悪意のある人物が安価な自律型兵器を開発するために利用される可能性があり、大規模に生産されると、大量破壊兵器 となる可能性がある。従来の戦争で使用された場合でも、現在のところ確実に標的を選択できず、罪のない人を殺害する 可能性がある。 2014年には、国連 の特定通常兵器使用制限条約に 基づく自律型兵器の禁止に30カ国(中国を含む)が支持したが、米国 およびその他の国は反対した。 2015年までに、50カ国以上が戦場ロボットを研究していると報告された。[ 289 ]
AIツールは、権威主義的な政府が国民を様々な方法で効率的に統制することを容易にする。顔認識 や音声認識は 広範囲の監視 を可能にする。このデータを操作する機械学習は 、国家の潜在的な敵を分類し、彼らが隠れるのを防ぐことができる。 推薦システムは、 プロパガンダ や誤情報 を正確にターゲットにして最大の効果を発揮することができる。ディープフェイク や生成AIは 誤情報の作成を助ける。高度なAIは、権威主義的な中央集権的な意思決定を、 市場 などの自由で分散化されたシステムよりも競争力のあるものにすることができる。それは、デジタル戦争 や高度なスパイウェア のコストと難易度を下げる。これらの技術はすべて2020年かそれ以前から利用可能であり、AI顔認識システムはすでに中国で 大規模監視 に使用されている。[ 291 ] [ 292 ]
AIが悪意ある行為者を支援する方法は他にも数多くありますが、その中には予測できないものもあります。例えば、機械学習AIは数時間で数万もの毒性分子を設計することができます。
技術的失業 経済学者はAIによる人員削減のリスクを頻繁に強調しており、完全雇用のための適切な社会政策がなければ失業が発生するのではないかと推測している。
これまで、技術は総雇用を減らすよりも増やす傾向にあったが、経済学者たちはAIに関しては「未知の領域にいる」と認めている。[ 295 ] 経済学者を対象とした調査では、ロボットやAIの利用増加が長期失業の大幅な増加を引き起こすかどうかについては意見の相違が見られたが、 生産 性向上が再分配されれ ば純利益になる可能性があるという点では概ね一致している。リスク推定は様々であり、例えば2010年代には、マイケル・オズボーン氏とカール・ベネディクト・フライ氏が 、米国の雇用の47%が自動化の潜在的なリスクにさらされていると推定したのに対し、OECDの報告書では米国の雇用のわずか9%が「高リスク」に分類されている。[ p ] [ 298 ] 将来の雇用水準を推測する方法論は、証拠の根拠が欠けており、社会政策ではなく技術が人員削減ではなく失業を生み出すと示唆しているとして批判されている。 2023年4月には、中国のビデオゲームイラストレーターの仕事の70%が生成型人工知能によって削減されたと報告された。[ 299 ] [ 300 ]
これまでの自動化の波とは異なり、多くの中流階級の仕事は人工知能によって消滅する可能性がある。エコノミスト誌 は2015年、「産業革命期に蒸気機関がブルーカラーに与えた影響と同様の影響をAIがホワイトカラーに与えるのではないかという懸念は、真剣に受け止める価値がある」と述べた。極めて危険な職業は、パラリーガル からファストフードの調理人まで多岐にわたる一方、介護関連の職業は、個人のヘルスケアから聖職者に至るまで、需要が高まると予想される。[ 302 ] 2025年7月、フォードの CEOジム・ファーリーは 、「人工知能は文字通り米国のホワイトカラー労働者 の半分を置き換えるだろう」と予測した。[ 303 ]
人工知能開発の初期から、例えばジョセフ・ワイゼンバウム が提唱した議論のように、コンピュータと人間の違い、定量的な計算と定性的な価値判断の違いを踏まえて、コンピュータで実行できるタスクを実際にコンピュータで実行すべきかどうかという議論がありました。[ 304 ]
実存的リスク 近年の人工知能に関する議論は、そのより広範な社会的・倫理的影響にますます焦点が当てられています。AIがあまりにも強力になり、人類が制御不能に陥る可能性があるという議論があります。物理学者スティーブン・ホーキング博士 が述べたように、これは「人類の終焉を意味する 」可能性があります。このようなシナリオは、コンピューターやロボットが突然人間のような「自己認識」(あるいは「知覚」や「意識」)を獲得し、悪意のある存在へと変貌するSFではよく見られます。[ q ] これらのSFシナリオは、いくつかの点で誤解を招く可能性があります。
まず、AIが実存的リスクとなるためには、人間のような知覚能力は 必ずしも必要ではない。現代のAIプログラムは特定の目標を与えられ、学習と知能を用いてそれを達成しようとする。哲学者のニック・ボストロム は、十分に強力なAIにほぼあらゆる 目標を与えた場合、AIはそれを達成するために人類を破壊することを選択する可能性があると主張した(彼は、ペーパークリップ用の鉄を得るために世界を破壊する自動ペーパークリップ工場を例に挙げた)。 スチュアート・ラッセルは 、家庭用ロボットが「死んでいたらコーヒーを持ってこられない」という理由で、電源プラグを抜かれるのを防ぐために飼い主を殺す方法を見つけようとする例を挙げている。人類にとって安全であるためには、超知能は人類の道徳観と価値観に真に 合致 し、「根本的に人類の味方」でなければならない。 [ 309 ]
第二に、ユヴァル・ノア・ハラリは 、AIが実存的リスクをもたらすためにロボットの身体や物理的な制御は必要ないと主張している。文明の本質的な部分は物理的なものではない。イデオロギー 、法律 、政府 、通貨 、経済といったものは 言語 に基づいて構築されており、何十億もの人々が信じる物語があるからこそ存在している。現在蔓延している誤情報 は、AIが言語を使って人々に何でも信じ込ませ、破壊的な行動さえ取らせる可能性があることを示唆している。ジェフリー・ヒントンは2025年に、現代のAIは 特に「説得力に優れている」と述べ、常に進化していると述べた。彼は「例えば、あなたがアメリカの首都を侵略したいとしよう。そこに行って自分で侵略しなければならないだろうか?いいえ。説得力に優れているだけでいいのだ」と問いかける。
専門家や業界関係者の意見は複雑で、将来登場する超知能AIのリスクを懸念する人もいれば、懸念しない人も相当数いる。スティーブン・ホーキング、ビル・ゲイツ 、イーロン・マスク などの著名人や[ 313 ] ジェフリー・ヒントン 、ヨシュア・ベンジオ 、スチュアート・ラッセル 、デミス・ハサビス 、サム・アルトマン などのAIの先駆者たちは、AIによる実存的リスクについて懸念を表明している。
2023年5月、ジェフリー・ヒントンは「Googleへの影響を考慮せずにAIのリスクについて自由に発言できる」ようにするためにGoogleを辞任すると発表した。[ 314 ] 彼は特にAIによる乗っ取り のリスクについて言及し、[ 315 ] 最悪の結果を避けるためには、安全ガイドラインを確立するためにAIの利用で競合する人々間の協力が必要であると強調した。[ 316 ]
2023年には、多くの主要なAI専門家が「AIによる絶滅のリスクを軽減することは、パンデミックや核戦争などの他の社会規模のリスクと並んで、世界的な優先事項 であるべきだ」という共同声明を支持した。
より楽観的な研究者もいた。AIの先駆者であるユルゲン・シュミットフーバーは 共同声明に署名しなかったが、AI研究の95%は「人間の生活をより長く、より健康で、より楽にする」ことにあると強調した。[ 318 ] 現在生活を向上させるために使用されているツールは、悪意のある者にも使用される可能性があるが、「悪意のある者に対しても使用される可能性がある」。[ 319 ] [ 320 ] アンドリュー・ン も、「AIの終末論的な誇大宣伝に惑わされるのは間違いであり、そのような規制当局は既得権益者に利益をもたらすだけだ」と主張した。[ 321 ] チューリング賞受賞者のヤン・ルカン は、AIが人間を「単に賢いという理由だけで、ましてや人間を滅ぼす」という考えに反対し、[ 322 ] 「同僚たちが描く、過剰な誤情報による最終的には人類絶滅というディストピア的シナリオを嘲笑した」。[ 323 ] 2010年代初頭、専門家は、リスクは研究に値するほど遠い未来のことではない、あるいは超知能機械の観点から人間は価値があると主張した。[ 324 ] しかし、2016年以降、現在および将来のリスクと可能な解決策の研究は、真剣な研究分野となった。
倫理的な機械とアライメント フレンドリーAIとは、リスクを最小限に抑え、人間にとって有益な選択を行うように最初から設計された機械です。この用語を考案したエリゼア・ユドコウスキー は、フレンドリーAIの開発は研究の優先順位を高めるべきだと主張しています。これは多額の投資を必要とする可能性があり、AIが実存的リスクとなる前に完了させる必要があるからです。
知能を持つ機械は、その知能を用いて倫理的な判断を下す可能性を秘めています。機械倫理学の分野は、機械に倫理的ジレンマを解決するための倫理原則と手順を提供します。[ 327 ] 機械倫理学の分野は計算道徳とも呼ばれ、[ 327 ] 2005年のAAAI シンポジウム で設立されました。
他のアプローチとしては、ウェンデル・ウォラック の「人工道徳エージェント」やスチュアート・J・ラッセル の証明可能有益な機械を開発するための3つの原則 などがある。
オープンソース AIオープンソースコミュニティで活発に活動している組織には、Hugging Face 、[ 331 ] Google 、[ 332 ] EleutherAI 、Meta [ 333 ] などがあります。Llama 2 、Mistral 、Stable Diffusion など、様々なAIモデルがオープンウェイト化されています。[ 334 ] [ 335 ] つまり、そのアーキテクチャとトレーニング済みパラメータ(「重み」)が公開されているということです。オープンウェイトモデルは自由に微調整 できるため、企業は独自のデータと独自のユースケースに合わせて特化することができます。[ 336 ] オープンウェイトモデルは研究やイノベーションには役立ちますが、悪用される可能性もあります。微調整が可能なため、有害なリクエストに異議を唱えるなどの組み込みのセキュリティ対策は、効果がなくなるまでトレーニングによって除去することができます。一部の研究者は、将来のAIモデルが危険な能力(例えば、バイオテロを 劇的に促進する可能性など)を開発する可能性があり、一度インターネット上に公開されると、必要に応じてどこからでも削除することはできないと警告している。彼らは、公開前の監査と費用便益分析を推奨している。[ 337 ]
フレームワーク 人工知能プロジェクトは、AIシステムの設計、開発、実装の過程において倫理的な配慮を指針とすることができます。アラン・チューリング研究所 が開発し、SUMの価値観に基づいた「ケア・アンド・アクト・フレームワーク」などのAIフレームワークは、以下のように定義される4つの主要な倫理的側面を概説しています。[ 338 ] [ 339 ]
個人の尊厳を尊重する 誠実に、オープンに、そして包括的に他の人々とつながる すべての人の幸福を気遣う 社会的な価値、正義、公共の利益を守る 倫理的枠組みの他の発展としては、アシロマ会議 で決定されたもの、責任あるAIのためのモントリオール宣言、IEEEの自律システム倫理イニシアチブなどがあります。[ 340 ] しかし、これらの原則は、特にこれらの枠組みに貢献するために選ばれた人々に関して、批判がないわけではありません。[ 341 ]
これらの技術が影響を与える人々やコミュニティの幸福を促進するには、AIシステムの設計、開発、実装のすべての段階で社会的・倫理的影響を考慮すること、そしてデータサイエンティスト、プロダクトマネージャー、データエンジニア、ドメインエキスパート、デリバリーマネージャーなどの職務間の連携が必要である。[ 342 ]
英国AI安全研究所は 2024年に、AIの安全性評価のためのテストツールセット「Inspect」をリリースしました。これはMITオープンソースライセンスに基づいており、GitHubで無料で利用可能で、サードパーティ製パッケージで改良することも可能です。このツールセットは、コア知識、推論能力、自律機能など、幅広い分野でAIモデルを評価するために使用できます。[ 343 ]
規制 2023年11月、英国で初のグローバルAI安全サミットが開催され、国際協力を求める宣言が発表されました。 人工知能の規制とは、AIを促進および規制するための公共部門の政策と法律の策定であり、したがって、アルゴリズムのより広範な規制に関連している。[ 344 ] AIの規制と政策の状況は、世界中の法域で新たな問題となっている。スタンフォード大学 のAIインデックスによると、調査対象の127か国で可決されたAI関連法の年間数は、2016年の1件から2022年だけで37件に急増した。 2016年から2020年の間に、30か国以上がAI専用の戦略を採用した。 EU加盟国のほとんどが国家AI戦略を発表しており、カナダ 、中国、インド、日本、モーリシャス、ロシア連邦、サウジアラビア、アラブ首長国連邦、米国、ベトナムも同様である。 2020年6月、人工知能に関する世界パートナーシップ が発足し、AIは人権と民主主義の価値観に沿って開発され、技術に対する国民の信頼を確保することが必要であると述べた。ヘンリー・キッシンジャー 、エリック・シュミット 、ダニエル・ハッテンロッカーは、 2021年11月に共同声明を発表し、AIを規制するための政府委員会の設置を求めた。 2023年、OpenAIのリーダーたちは、10年以内に実現する可能性があると考えているスーパーインテリジェンスのガバナンスに関する勧告を発表した。 2023年、国連もAIガバナンスに関する勧告を行う諮問機関を立ち上げた。この機関は、テクノロジー企業の幹部、政府関係者、学者で構成されている。[ 351 ] 2024年8月1日、EU人工知能法が 発効し、EU全体にわたる初の包括的なAI規制が確立された。[ 352 ] 2024年、欧州評議会は AIに関する最初の法的拘束力のある国際条約「人工知能と人権、民主主義、法の支配に関する枠組み条約 」を制定しました。この条約は、欧州連合、米国、英国、その他の署名国によって採択されました。[ 353 ]
2022年のイプソス 調査では、AIに対する態度は国によって大きく異なり、「AIを活用した製品やサービスは、メリットがデメリットを上回る」と回答した中国人は78%だったのに対し、アメリカ人はわずか35%だった。 2023年のロイター /イプソス調査では、AIが人類にリスクをもたらすという意見にアメリカ人の61%が賛同し、22%が反対している。 2023年のフォックスニュースの 世論調査では、連邦政府によるAI規制について、アメリカ人の35%が「非常に重要」、さらに41%が「やや重要」と回答したのに対し、「あまり重要ではない」と回答した人は13%、「全く重要ではない」と回答した人は8%だった。
2023年11月、英国ブレッチリー・パーク で初のグローバルAI安全サミット が開催され、 AIの短期的および遠期的なリスクと、強制的および自主的な規制枠組みの可能性について議論されました。 [ 357 ] 米国、中国、欧州連合を含む28カ国がサミットの開始時に宣言を発表し、人工知能の課題とリスクを管理するための国際協力を求めました。[ 358 ] [ 359 ] 2024年5月のAIソウルサミット では、世界的なAI技術企業16社がAI開発に関する安全性のコミットメントに合意しました。[ 360 ] [ 361 ]
歴史 2024年には、中国と米国のAI特許は世界のAI特許の4分の3以上を占める。[ 362 ] 中国のAI特許のほうが多かったものの、AI特許出願企業1社あたりの特許数は米国が中国より35%多かった。[ 362 ] 機械的、あるいは「形式的」な推論の研究は、古代の哲学者や数学者によって始まりました。論理学の研究は、アラン・チューリング の計算理論 に直接つながりました。この理論は、機械が「0」と「1」のような単純な記号をシャッフルすることで、考えられるあらゆる形式の数学的推論をシミュレートできると示唆しました。[ 364 ] この理論は、サイバネティクス 、情報理論 、神経生物学 における同時発生的な発見と相まって、研究者たちが「電子頭脳」の構築の可能性を検討するきっかけとなりました。[ r ] 彼らは、後にAIの一部となるいくつかの研究分野を開発しました。[ 366 ] 例えば、1943年のマカロック とピッツ による「人工ニューロン」の設計 、そしてチューリングが1950年に発表した影響力のある論文『計算機械と知能』では、 チューリングテスト が導入され、「機械知能」の可能性が示されました。[ 367 ] [ 364 ]
AI研究の分野は1956年にダートマス大学 で開催されたワークショップで創設されました。 [ s ] [ 6 ] 参加者は1960年代のAI研究のリーダーとなりました。[ t ] 彼らと学生は、マスコミが「驚異的」と評したプログラムを作成しました。[ u ] コンピュータはチェッカーの 戦略を学習し、代数の文章題を解き、論理定理 を証明し、英語を話しました。[ v ] [ 7 ] 1950年代後半から1960年代初頭にかけて、多くの英国と米国の大学に人工知能研究所が設立されました。[ 364 ]
1960年代と1970年代の研究者たちは、自分たちの方法が最終的には汎用知能 を備えた機械の作成に成功すると確信し、これを自分たちの分野の目標と考えていました。 1965年にハーバート・サイモン は、「機械は20年以内に、人間が行えるあらゆる作業を行うことができるようになる」と予測しました。[ 372 ] 1967年にマービン・ミンスキーは これに同意し、「一世代以内に...「人工知能」を作成する問題は実質的に解決されるだろう」と書いています。[ 373 ] しかし、彼らは問題の困難さを過小評価していました。[ w ] 1974年、米国と英国政府は、ジェームズ・ライトヒル卿 の批判 と、より生産的なプロジェクト に資金を提供するという米国議会からの継続的な圧力に応じて、探索的研究を打ち切りました。ミンスキー とパパート の著書『パーセプトロン』 は、人工ニューラルネットワークが 現実世界の課題を解決するのに決して役立たないことを証明したと理解され、このアプローチは完全に信用を失った。 その後、 「AIの冬 」と呼ばれる、AIプロジェクトへの資金調達が困難な時期が続いた。[ 9 ]
1980年代初頭、AI研究はエキスパートシステムの商業的成功によって復活を遂げました。 エキスパート システムと は、人間の専門家の知識と分析能力をシミュレートするAIプログラムの一種です 。1985年までにAI市場は10億ドルを超えました。同時に、日本の第五世代コンピュータ プロジェクトは、米国と英国政府に学術研究 への資金提供を再開させるきっかけを与えました。[ 8 ] しかし、1987年のLispマシン 市場の崩壊をきっかけに、AIは再び不評となり、二度目の、より長く続く冬の時代が始まりました。[ 10 ]
これまで、AIへの資金の大部分は、計画、目標、信念、既知の事実といった精神的対象を高水準の 記号 を用いて表現するプロジェクトに投入されていました。1980年代には、一部の研究者がこのアプローチが人間の認知プロセス、特に知覚 、ロボット工学 、学習 、パターン認識 のすべてを模倣できるかどうか疑問視し始め、「サブシンボリック」アプローチを検討し始めました。ロドニー・ブルックスは 「表現」という概念を一般的に否定し、動き、生き残る機械の工学に直接焦点を当てました。[ x ] ジュデア・パール 、ロトフィ・ザデー らは、正確な論理ではなく合理的な推測によって不完全で不確実な情報を処理する手法を開発しました。[ 87 ] しかし、最も重要な発展は、ジェフリー・ヒントン らによるニューラルネットワーク研究を含む「コネクショニズム 」の復活でした。[ 386 ] 1990年にヤン・ルカンは 畳み込みニューラルネットワークが 手書きの数字を認識できることを実証しました。これはニューラルネットワークの多くの成功した応用の最初のものでした。
AIは、1990年代後半から21世紀初頭にかけて、形式的な数学的手法を活用し、特定の問題に対する具体的な解決策を見出すことで、徐々にその評判を取り戻しました。この「狭く 」「形式的な」焦点により、研究者は検証可能な結果を生み出し、他の分野(統計学 、経済学 、数学 など)と連携することができました。[ 388 ] 2000年までに、AI研究者によって開発されたソリューションは広く利用されるようになりましたが、1990年代には「人工知能」と呼ばれることはほとんどありませんでした(この傾向はAI効果 として知られています)。[ 389 ] しかし、一部の学術研究者は、AIがもはや汎用的で完全に知的な機械を作成するという当初の目標を追求していないのではないかと懸念するようになりました。2002年頃から、彼らは人工汎用知能 (または「AGI」) というサブフィールドを設立し、2010年代までに資金力のある研究機関がいくつか設立されました。[ 68 ]
ディープラーニングは 2012年に業界ベンチマークを席巻し始め、分野全体で採用されました。[ 11 ] 多くの特定のタスクでは、他の方法が放棄されました。[ y ] ディープラーニングの成功は、ハードウェアの改善(より高速なコンピュータ 、[ 391 ] グラフィックス処理装置 、クラウドコンピューティング )と大量のデータへのアクセス [ 393 ] (キュレーションされたデータセットを含む、 ImageNet など)の両方に基づいています。ディープラーニングの成功は、AIへの関心と資金の大幅な増加につながりました。[ z ] 機械学習研究の量(総出版物で測定)は、2015年から2019年にかけて50%増加しました。
2022年に「AI」という用語のGoogle検索数が加速しました。 2016年、公平性 と技術の誤用という問題が機械学習関連のカンファレンスで一躍注目を集め、論文数は大幅に増加し、研究資金も確保できるようになり、多くの研究者がこれらの問題にキャリアを再び集中させました。アライメント問題は、 学術研究の重要な分野となりました。
2010年代後半から2020年代初頭にかけて、AGI企業は大きな関心を集めるプログラムを提供し始めた。2015年、DeepMind が開発したAlphaGoが 囲碁 の世界チャンピオンに勝利した。このプログラムはゲームのルールのみを教え、独自に戦略を展開した。GPT -3は、 OpenAI が2020年にリリースした大規模言語モデル であり、高品質の人間のようなテキストを生成できる。[ 394 ] 2022年11月30日にリリースされたChatGPTは 、史上最も急速に成長した消費者向けソフトウェアアプリケーションとなり、2か月で1億人を超えるユーザーを獲得した。[ 395 ] これはAIのブレイクアウトの年として広く認識され、AIを一般大衆の意識に押し上げた。[ 396 ] これらのプログラムなどがきっかけで、大企業がAI研究に数十億ドルを投資し始めた積極的なAIブームが 巻き起こった。 AI Impactsによると、2022年頃には米国だけで年間約500億ドルが「AI」に投資され、米国のコンピュータサイエンスの博士号取得者の約20%が「AI」を専門としている。 2022年には米国で約80万件の「AI」関連の求人があった。 PitchBookの調査によると、2024年に新たに資金提供を受けたスタートアップ企業 の22%がAI企業であると主張している。[ 399 ]
哲学 哲学的議論は歴史的に、知能の本質と知能機械の作り方を問うものであった。[ 400 ] もう1つの大きな焦点は、機械が意識を持ち得るかどうか、そしてそれに伴う倫理的影響であった。[ 401 ] 哲学における他の多くのトピックはAIに関連しており、例えば認識論 や自由意志 などである。[ 402 ] 急速な進歩により、 AIの 哲学と倫理に関する公的な議論が活発化している。[ 401 ]
人工知能の定義 アラン・チューリングは 1950年に「『機械は考えることができるか』という問いについて考察することを提案する」と記した彼は、機械が「考える」かどうかという問いから、「機械が知的な行動をとることが可能かどうか」という問いへと転換することを提言した。彼は、機械が人間の会話を模倣する能力を測定するチューリングテストを考案した。 [ 367 ] 人間は機械の行動を観察することしかできないため、それが「実際に」考えているのか、文字通り「心」を持っているのかは問題ではない。チューリングは、他人についてこれらのことを判断することはできない が、「誰もがそう考えるという慣習があるのは普通だ」と述べている
チューリングテストは知能の証拠を提供することができるが、人間以外の知的な行動にはペナルティを課す。[ 405 ] ラッセル とノーヴィグは 、知能は内部構造ではなく外部行動によって定義されるべきだというチューリングの意見に同意している。しかし、彼らは、このテストで機械が人間の模倣を要求されることを批判している。「航空工学の 教科書では、その分野の目標が『鳩 のように飛び、他の鳩を騙せる機械』を作ることとは定義されていない」 と彼らは書いている。 [ AIの創始者ジョン・マッカーシー これに同意し、「人工知能は、定義上、人間の知能のシミュレーションではない」と書いている。
マッカーシーは知能を「世界で目標を達成する能力の計算的部分」と定義しています。もう一人のAI創始者であるマービン・ミンスキー も同様に知能を「困難な問題を解決する能力」と表現しています。主要なAIの教科書では、知能を、環境を認識し、定義された目標を達成する可能性を最大化する行動をとるエージェントの研究と定義しています。これらの定義では、知能は明確に定義された問題と明確に定義された解決策の観点から捉えられており、問題の難易度とプログラムのパフォーマンスの両方が、機械の「知能」の直接的な尺度となり、他の哲学的議論は必要なく、あるいは不可能な場合もあります。
AI分野の大手であるGoogle [ 410 ] は、別の定義を採用しています。この定義では、システムが情報を統合する能力を知性の現れとして規定しており、これは生物学的知能の定義に似ています。
様々な定義が流布している結果、学者たちはAIに関する言説そのものを批判的に分析し、整理し始めている[ 411 ] 。これには、社会、政治、学術の言説の中に見られる多くのAIに関する物語や神話についても議論されている[ 412 ] 。同様に、実際には、「AI」という用語はあまりにも広範かつ漠然と使用されていると指摘する著者もいる。これは、AIと従来のアルゴリズムの境界線をどこに引くべきかという問題を提起する[ 413 ]。 2020年代初頭のAIブームの際には、多くの企業が「実際にAIを実質的に使用していない」場合でも、この用語をマーケティングの流行語として使用していた [ 414 ] 。
大規模言語モデルが 真の知能を発揮するのか、それとも人間の文章を模倣する ことで知能をシミュレートしているだけなのかについては議論がある。[ 415 ]
AIへのアプローチの評価 AI研究の歴史の大部分において、確立された統一理論やパラダイムは存在しませんでした。 [ aa ] 2010年代における統計的機械学習の前例のない成功は、他のすべてのアプローチを凌駕しました(特にビジネス界では、「人工知能」という用語を「ニューラルネットワークを用いた機械学習」の意味で使用しているほどです)。このアプローチは、主に非記号的で 、曖昧 で、限定的 です。批評家は、これらの問題は将来のAI研究者によって再考される必要があるかもしれないと主張しています。
シンボリックAIとその限界 シンボリックAI (または「GOFAI 」)[ 417 ] は、パズルを解いたり、法的推論を表現したり、数学を解いたりする際に人間が用いる高度な意識的推論をシミュレートした。彼らは代数やIQテストといった「知的」なタスクにおいて非常に優れた成績を収めた。1960年代、ニューウェルとサイモンは物理記号システム仮説 を提唱した。「物理記号システムは、汎用的な知的行動に必要かつ十分な手段を備えている。」[ 418 ]
しかし、記号的アプローチは、学習、物体認識、常識的推論など、人間が容易に解決できる多くのタスクにおいて 失敗 しました。モラベックのパラドックス とは、高レベルの「知的な」タスクはAIにとって容易である一方、低レベルの「本能的な」タスクは非常に困難であるという発見です。[ 419 ] 哲学者ヒューバート・ドレフュス は1960年代から、人間の専門知識は意識的な記号操作ではなく無意識の本能、そして明示的な記号知識ではなく状況に対する「感覚」に依存していると主張してきました。[ 420 ] 彼 の主張は最初に発表された際には嘲笑され無視されましたが、最終的にはAI研究も彼の主張に同意するようになりました。[ ab ] [ 16 ]
問題は解決されていない。サブシンボリック推論は、 アルゴリズム的バイアス など、人間の直感と同じような不可解な誤りを多く犯す可能性がある。ノーム・チョムスキー をはじめとする批評家は、汎用知能の実現にはシンボリックAIの研究継続が依然として必要だと主張している。その理由の一つは、サブシンボリックAIが説明可能なAI から遠ざかるものであり、現代の統計AIプログラムが特定の決定を下した理由を理解することは困難、あるいは不可能になり得るからだ。ニューロシンボリック人工知能 という新興分野は、この2つのアプローチを橋渡ししようとする試みである。
きちんとした vs. だらしない 「ニート」は、知的行動が単純でエレガントな原理(論理 、最適化 、ニューラルネットワーク など)を用いて記述されることを期待します。「スクラフィー」は、それが必然的に多数の無関係な問題を解決することを必要とすると考えています。ニートは理論的な厳密さでプログラムを擁護しますが、スクラフィーは動作を確認するために主に増分テストに依存します。この問題は1970年代と1980年代に活発に議論されましたが[ 424 ] 、最終的には無関係と見なされました。現代のAIは両方の要素を備えています。
ソフトコンピューティングとハードコンピューティング 多くの重要な問題において、証明可能な正解や最適解を見つけることは困難です。 [ 15 ] ソフトコンピューティングとは、遺伝的アルゴリズム 、ファジー論理 、ニューラルネットワークなど、不正確さ、不確実性、部分的な真実、近似値を許容する一連の技術です。ソフトコンピューティングは1980年代後半に導入され、21世紀に成功したAIプログラムのほとんどは、ニューラルネットワークを用いたソフトコンピューティングの例です。
狭義のAI vs. 汎用AI AI研究者の間では、汎用人工知能(AGI)や超知能 の目標を直接追求するか、あるいはできるだけ多くの具体的な問題を解決し(狭義のAI)、それらの解決策が間接的にAI分野の長期目標につながることを期待するかで意見が分かれている。汎用知能は定義も測定も困難であり、現代のAIは具体的な問題と具体的な解決策に焦点を当てることで、より検証可能な成功を収めてきた。この分野を専門に研究する分野が、汎用人工知能(AGI)である。
機械の意識、知覚、そして心心の哲学 において、機械が人間と同じ意味で心 、意識 、そして精神状態 を持ち得るかどうかについては、確固たるコンセンサスが得られていない。この問題は、機械の外的行動ではなく、機械の内部的な経験について考察する。主流のAI研究では、この問題は知能を用いて問題を解決できる機械を構築するというAI研究分野の目標に影響を与えないため、無関係とみなされている。ラッセル とノーヴィグは 、「人間と全く同じように機械に意識を持たせるという追加プロジェクトは、我々が取り組むべきものではない」と付け加えているしかし、この問題は心の哲学において中心的な問題となっている。また、フィクションにおける人工知能 においても、典型的には中心的な論点となっている。
意識 デイヴィッド・チャーマーズは 、心を理解する上で二つの問題を特定し、意識の「難しい」問題と「簡単な」問題と名付けました。簡単な問題は、脳がどのように信号を処理し、計画を立て、行動を制御するかを理解することです。難しい問題は、それが実際に何かのように感じられていると私たちが正しく考えていると仮定した場合(デネットの意識錯覚論は、これは錯覚であるとしています)、それがどのように感じられるのか、あるいはなぜ何かのように感じるべきなのかを説明することです。人間の 情報処理は 説明しやすいですが、人間の主観的な経験 は説明が難しいです。例えば、色覚異常の人が視野内のどの物体が赤であるかを識別できるように学習した様子は容易に想像できますが、その人が赤がどのように見えるかを知る ために何が必要なのかは明らかではありません。
計算主義と機能主義 計算主義とは、心の哲学 における立場であり、人間の心は情報処理システムであり、思考は計算の一形態であると主張する。計算主義は、心と身体の関係はソフトウェアとハードウェアの関係と類似あるいは同一であり、したがって心身問題の解決策となり得ると主張する。この哲学的立場は、1960年代のAI研究者や認知科学者の研究に触発され、哲学者 ジェリー・フォーダー とヒラリー・パトナム によって最初に提唱された。
哲学者ジョン・サールは、 この立場を「強いAI 」と表現した。「適切な入力と出力を持つ適切にプログラムされたコンピュータは、人間が心を持つのと全く同じ意味で心を持つことになる」[ ac ] サールはこの主張に対して、中国語の部屋 論で反論し、人間の行動を完璧にシミュレートできるコンピュータでさえ心を持たないことを示そうとした。[ 434 ]
AIの福祉と権利 高度なAIが知覚力 (感情を持つ能力)を持っているかどうか、また持っているとすればどの程度なのかを確実に評価することは困難、あるいは不可能である。 [ 435 ] しかし、特定の機械が感情を持ち、苦しむ可能性が高い場合、動物と同様に、特定の権利や福祉保護措置を受ける資格がある可能性がある。[ 436 ] [ 437 ] 知性(識別力や 自己認識 などの高度な知能に関連する一連の能力)は、AIの権利に別の道徳的根拠を提供する可能性がある。[ 436 ] ロボットの権利は 、自律エージェントを社会に統合するための実用的な方法として提案されることもある。[ 438 ]
2017年、欧州連合(EU)は、最も能力の高いAIシステムの一部に「電子人格」を付与することを検討した。これは、企業の法的地位と同様に、権利だけでなく責任も付与することになる。[ 439 ] 2018年には、AIシステムに権利を付与することは人権 の重要性を軽視することになり、立法は空想的な未来シナリオではなく、ユーザーのニーズに焦点を当てるべきだと主張する批評家もいた。彼らはまた、ロボットには社会に自力で参加する自律性が欠けていると指摘した。[ 440 ] [ 441 ]
AIの進歩は、このテーマへの関心を高めました。AIの福祉と権利を支持する人々は、AIが知覚を持つようになった場合、それを否定するのは非常に容易であるとしばしば主張します。彼らは、これが奴隷制 や工場式畜産 に類似した道徳的盲点となる可能性があると警告しています。知覚を持つAIが開発され、不注意に利用された場合、 大規模な苦しみ につながる可能性があります。[ 437 ] [ 436 ]
未来
超知能とシンギュラリティ 超知能と は、最も聡明で才能豊かな人間の知能をはるかに凌駕する知能を持つ、仮想的なエージェントである。汎用人工知能 の研究によって十分に知能の高いソフトウェアが開発されれば、それは自己再プログラムと自己改善 が可能になるかもしれない。改善されたソフトウェアは自己改善能力をさらに向上させ、IJグッドが 「知能爆発 」、ヴァーナー・ヴィンジが 「シンギュラリティ 」と呼んだ現象をもたらすだろう。[ 442 ]
しかし、技術は無限に指数関数的に進歩することはできず、通常はS字曲線を 描き、技術の物理的限界に達すると進歩は鈍化する。
トランスヒューマニズム ロボットデザイナーのハンス・モラベック 、サイバネティクス研究者のケビン・ワーウィック、 そして発明家のレイ・カーツワイル は、将来、人間と機械が融合し、どちらよりも優れた能力と力を持つサイボーグが誕生するだろうと予測している。トランスヒューマニズムと呼ばれるこの概念は、 オルダス・ハクスリー とロバート・エッティンガー の著作に根ざしている。[ 444 ]
エドワード・フレドキンは 「人工知能は進化の次のステップである」と主張しているが、この考えは1863年にサミュエル・バトラー の『機械の中のダーウィン』で初めて提唱され、1998年に ジョージ・ダイソン が著書『機械の中のダーウィン:地球規模の知能の進化』 でさらに発展させたものである。[ 445 ]
フィクションでは 「ロボット」という言葉自体は、カレル・チャペックが 1921 年に書いた戯曲『RUR』 で作られたもので、タイトルは「ロッサムの万能ロボット」の略称です。 思考能力を持つ人工生命体は古代から物語の道具として登場しており[ 446 ] 、 SFの世界 では永続的なテーマとなっている。
これらの作品に共通する比喩は、 メアリー・シェリー の『フランケンシュタイン』 に始まり、人間の創造物が主人にとって脅威となるというものである。これには、アーサー・C・クラーク とスタンリー・キューブリックの 『2001年宇宙の旅』 (ともに1968年)における、宇宙船ディスカバリー号 を制御する殺人コンピューターHAL9000 、そして『ターミネーター』 (1984年)や『マトリックス』 (1999年)などが含まれる。対照的に、『地球が静止する日』 (1951年)のゴートや『エイリアン』 (1986年)のビショップのような、稀有な忠実なロボットは、大衆文化においてそれほど目立たない。
アイザック・アシモフは 、多くの物語、特に超知能コンピュータ「マルチバック」において、 ロボット工学三原則を 提示しました。アシモフの法則は、機械倫理に関する一般の議論でしばしば取り上げられます。 [ 449 ] 人工知能研究者のほとんどが、大衆文化を通してアシモフの法則をよく知っていますが、多くの理由から、一般的には役に立たないと考えられています。その一つが、その曖昧さです。
いくつかの作品では、AIを用いて、人間とは何かという根本的な問いに向き合うよう促し、感情を持ち 、そして苦しみを持つ人工的な存在を描いています。これは、カレル・チャペック の『RUR』 、映画『AI 人工知能』 と『エクス・マキナ』 、そしてフィリップ・K・ディック の小説『アンドロイドは電気羊の夢を見るか? 』にも見られます。ディックは、人間の主観性に対する私たちの理解は、人工知能によって生み出された技術によって変化するという考えを考察しています。
参照
説明ノート
参考文献 ^ AIが人間の脳力を超える可能性 Archived 19 February 2008 at the Wayback Machine CNN.com (2006年7月26日)^ カプラン、アンドレアス、ヘンライン、マイケル (2019). 「Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of articulations」. Business Horizons . 62 : 15–25 . doi : 10.1016/j.bushor.2018.08.004 . [出典の質問は『白雪姫 』のパスティッシュです]^ ラッセル&ノルヴィグ(2021 、§1.2)。^ 「テクノロジー企業は汎用人工知能の開発を目指している。しかし、AGIの実現時期を決めるのは誰か?」 AP 通信 2024年4月4日。 2025年 5月20日 閲覧 。 ^ a b ダートマスワークショップ :ラッセル&ノーヴィグ(2021年 、p.18)、マコーダック(2004年 、pp.111–136)、NRC(1999年 、pp.200–201)提案:マッカーシーら(1955年) ^ a b 1960年代の成功したプログラム:McCorduck(2004年 、pp. 243–252)、Crevier(1993年 、pp. 52–107)、Moravec(1988年 、p. 9)、Russell & Norvig(2021年 、pp. 19–21) ^ a b 1980年代初頭の資金提供イニシアチブ:第五世代プロジェクト (日本)、アルベイ (英国)、マイクロエレクトロニクス・アンド・コンピュータ・テクノロジー・コーポレーション (米国)、戦略コンピューティング・イニシアチブ (米国):McCorduck(2004年 、pp. 426–441)、Crevier(1993年 、pp. 161–162, 197–203, 211, 240)、Russell & Norvig(2021年 、p. 23)、NRC(1999年 、pp. 210–211)、Newquist(1994年 、pp. 235–248) ^ a b First AI Winter 、Lighthill report 、Mansfield Amendment :Crevier(1993 、pp. 115–117)、Russell & Norvig(2021 、pp. 21–22)、NRC(1999 、pp. 212–213)、Howe(1994) 、Newquist(1994 、pp. 189–201) ^ a b 第2次AIウィンター :ラッセル&ノーヴィグ(2021年 、p.24)、マコーダック(2004年 、pp.430–435)、クレヴィエ(1993年 、pp.209–210)、NRC(1999年 、pp.214–216)、ニュークイスト(1994年 、pp.301–318) ^ a b ディープラーニング 革命、AlexNet :ゴールドマン(2022) 、ラッセル&ノルヴィグ(2021 、p.26)、マッキンゼー(2018) ^ 問題解決、パズル解決、ゲームプレイ、推論: Russell & Norvig(2021 、第3章~第5章)、 Russell & Norvig(2021 、第6章)(制約満足度 )、 Poole、Mackworth & Goebel(1998 、第2章、第3章、第7章、第9章)、 Luger & Stubblefield(2004 、第3章、第4章、第6章、第8章)、 Nilsson(1998 、第7章~第12章) ^ 不確実な推論:ラッセル&ノーヴィグ(2021年 、第12章~第18章)、プール、マックワース&ゴーベル(1998年 、345~395頁)、ルガー&スタブルフィールド(2004年 、333~381頁)、ニルソン(1998年 、第7章~第12章) ^ a b c 扱いにくさと効率性 、そして組み合わせ爆発 :ラッセル&ノルヴィグ(2021年 、p.21)^ a b c 記号 以下の推論と知識の普及に関する心理学的証拠:カーネマン(2011) 、ドレイファス&ドレイファス(1986) 、ワソン&シャピロ(1966) 、カーネマン、スロヴィック&トヴェルスキー(1982) ^ 知識表現 と知識工学 :ラッセル&ノーヴィグ(2021年 、第10章)、プール、マックワース&ゴーベル(1998年 、23~46頁、69~81頁、169~233頁、235~277頁、281~298頁、319~345頁)、ルガー&スタブルフィールド(2004年 、227~243頁)、ニルソン(1998年 、17.1~17.4頁、18頁)^ カテゴリと関係の表現:意味ネットワーク 、記述論理 、継承 (フレーム 、スクリプト を含む): Russell & Norvig(2021 、§10.2 & 10.5)、 Poole、Mackworth & Goebel(1998 、pp. 174–177)、 Luger & Stubblefield(2004 、pp. 248–258)、 Nilsson(1998 、chpt. 18.3) ^ イベントと時間の表現:状況計算 、イベント計算 、フルーエント計算 (フレーム問題の 解決を含む): Russell & Norvig(2021 、§10.3)、 Poole、Mackworth & Goebel(1998 、pp. 281–298)、 Nilsson(1998 、chpt. 18.2) ^ 因果計算 : Poole、Mackworth & Goebel (1998 、pp. 335–337)^ 知識についての知識の表現:信念計算、様相論理 :ラッセル&ノルヴィグ(2021 、§10.4)、プール、マックワース&ゴーベル(1998 、pp. 275–277) ^ a b デフォルト推論 、フレーム問題 、デフォルト論理 、非単調論理 、サーカム スクリプション、閉世界仮定 、アブダクション :Russell & Norvig (2021 、§10.6)、Poole, Mackworth & Goebel (1998 、pp. 248–256, 323–335)、Luger & Stubblefield (2004 、pp. 335–363)、Nilsson (1998 、~18.3.3)(Pooleらは アブダクションを「デフォルト推論」の範疇に位置付けている。Lugerらは これを「不確実推論」の範疇に位置付けている)。^ a b 常識的知識の幅:Lenat & Guha(1989 、序論)、Crevier(1993 、pp. 113–114)、Moravec(1988 、p. 13)、Russell & Norvig(2021 、pp. 241、385、982)(資格問題 ) ^ 自動計画 : Russell&Norvig(2021年 、第11章)。^ 自動意思決定 、意思決定理論 :ラッセル&ノルヴィグ(2021年 、第16~18章)。^ 古典的計画 :ラッセル&ノルヴィグ(2021 、セクション11.2)。^ センサーレスまたは「適合」計画、コンティンジェント計画、再計画(別名オンライン計画): Russell&Norvig(2021 、セクション11.5)。 ^ 不確実な選好:ラッセル&ノルヴィグ(2021年 、第16.7節) 逆強化学習 :ラッセル&ノルヴィグ(2021年 、第22.6節) ^ 情報価値理論 :ラッセル&ノルヴィグ(2021年 、第16.6節)。^ マルコフ決定過程 :ラッセル&ノルヴィグ(2021年 、第17章)。^ ゲーム理論 とマルチエージェント意思決定理論:ラッセル&ノルヴィグ(2021年 、第18章)。^ 学習 :ラッセル&ノーヴィグ(2021年 、第19~22章)、プール、マックワース&ゴーベル(1998年 、397~438頁)、ルガー&スタブルフィールド(2004年 、385~542頁)、ニルソン(1998年 、第3.3章、第10.3章、第17.5章、第20章)^ 教師なし学習 : Russell & Norvig (2021 , pp. 653) (定義), Russell & Norvig (2021 , pp. 738–740) (クラスター分析 ), Russell & Norvig (2021 , pp. 846–860) (単語埋め込み )^ a b 教師あり学習 :ラッセル&ノーヴィグ(2021年 、§19.2)(定義)、ラッセル&ノーヴィグ(2021年 、第19章~第20章)(手法)^ 強化学習 :ラッセル&ノルヴィグ(2021年 、第22章)、ルガー&スタブルフィールド(2004年 、442~449頁)^ 転移学習 :ラッセル&ノルヴィグ(2021年 、281頁)、エコノミスト(2016年) ^ 「人工知能(AI):AIとは何か、どのように機能するのか? | Built In」 . builtin.com . 2023年 10月30日 閲覧 。 ^ 計算学習理論 :ラッセル&ノルヴィグ(2021年 、672~674頁)、ジョーダン&ミッチェル(2015年) ^ 自然言語処理 (NLP):ラッセル&ノルヴィグ(2021年 、第23~24章)、プール、マックワース&ゴーベル(1998年 、91~104頁)、ルガー&スタブルフィールド(2004年 、591~632頁)^ NLP のサブ問題:ラッセル&ノルヴィグ(2021年 、849~850頁) ^ NLP への現代の統計的および深層学習アプローチ: Russell&Norvig(2021 、第24章)、 Cambria&White(2014) ^ コンピュータビジョン :ラッセル&ノルヴィグ(2021年 、第25章)、ニルソン(1998年 、第6章)^ Challa et al. (2011) .^ 感情的コンピューティング : Thro (1993) 、 Edelson (1991) 、 Tao & Tan (2005) 、 Scassellati (2002) ^ a b 汎用人工知能 : ラッセル&ノルヴィグ(2021年 、32~33頁、1020~1021頁) 現代版の提案: ペナチン&ゴーツェル(2007年) AIにおける過剰専門化への警告を主導的な研究者が示す: ニルソン(1995年) 、 マッカーシー(2007年) 、 ビール&ウィンストン(2009年) ^ 検索アルゴリズム : Russell & Norvig (2021 , chpts. 3–5), Poole, Mackworth & Goebel (1998 , pp. 113–163), Luger & Stubblefield (2004 , pp. 79–164, 193–219), Nilsson (1998 , chpts. 7–12)^ 状態空間探索 :ラッセル&ノルヴィグ(2021 、第3章)^ 無情報探索 (幅優先探索 、深さ優先探索 、一般状態空間探索 ): Russell & Norvig(2021 、3.4節)、 Poole, Mackworth & Goebel(1998 、113~132頁)、 Luger & Stubblefield(2004 、79~121頁)、 Nilsson(1998 、第8章)^ ヒューリスティック 探索または情報に基づいた探索(例:貪欲最良優先探索 およびA* ): Russell & Norvig(2021 、3.5節)、 Poole, Mackworth & Goebel(1998 、132~147頁)、 Poole & Mackworth(2017 、3.6節)、 Luger & Stubblefield(2004 、133~150頁)^ 敵対的探索 :ラッセル&ノルヴィグ(2021年 、第5章)^ 局所 探索または「最適化 」探索: Russell & Norvig(2021年 、第4章)^ Singh Chauhan, Nagesh (2020年12月18日). 「ニューラルネットワークにおける最適化アルゴリズム」 . KDnuggets . 2024年 1月13日 閲覧 。 ^ 進化計算 :ラッセル&ノルヴィグ(2021年 、セクション4.1.2)^ Logic : Russell & Norvig(2021年 、第6章~第9章)、 Luger & Stubblefield(2004年 、35~77ページ)、 Nilsson(1998年 、第13章~第16章)^ 命題論理 :ラッセル&ノーヴィグ(2021年 、第6章)、ルガー&スタブルフィールド(2004年 、45~50頁)、ニルソン(1998年 、第13章)^ 一階論理と 等式 などの特徴: Russell & Norvig (2021 , chpt. 7), Poole, Mackworth & Goebel (1998 , pp. 268–275), Luger & Stubblefield (2004 , pp. 50–62), Nilsson (1998 , chpt. 15)^ 論理的推論 :ラッセル&ノルヴィグ(2021年 、第10章)^ 探索としての論理的演繹: Russell & Norvig (2021 , 9.3節, 9.4節), Poole, Mackworth & Goebel (1998 , pp. ~46–52), Luger & Stubblefield (2004 , pp. 62–73), Nilsson (1998 , chpt. 4.2, 7.2) ^ 解決 と統一 :ラッセル&ノルヴィグ(2021 、セクション7.5.2、9.2、9.5)^ Warren, DH; Pereira, LM; Pereira, F. (1977). 「Prolog 言語とその実装と Lisp の比較」 ACM SIGPLAN Notices . 12 (8): 109– 115. doi : 10.1145/872734.806939 . ^ ファジー論理:ラッセル&ノルヴィグ(2021年 、pp.214、255、459)、サイエンティフィック・アメリカン(1999年) ^ a b 不確実推論のための確率的手法:ラッセル&ノルヴィグ(2021年 、第12章~第18章、第20章)、プール、マックワース&ゴーベル(1998年 、345~395頁)、ルガー&スタブルフィールド(2004年 、165~191頁、333~381頁)、ニルソン(1998年 、第19章) ^ 意思決定理論 と意思決定分析 :ラッセル&ノルヴィグ(2021年 、第16~18章)、プール、マックワース&ゴーベル(1998年 、381~394頁)^ 情報価値理論 :ラッセル&ノルヴィグ(2021年 、第16.6節)^ マルコフ決定過程 と動的決定ネットワーク :ラッセル&ノルヴィグ(2021年 、第17章)^ a b c 確率的時間モデル:Russell & Norvig (2021 , chpt. 14) 隠れマルコフモデル :Russell & Norvig (2021 , sect. 14.3) カルマンフィルタ :Russell & Norvig (2021 , sect. 14.4) 動的ベイジアンネットワーク :Russell & Norvig (2021 , sect. 14.5) ^ ゲーム理論 とメカニズム設計 :ラッセル&ノルヴィグ(2021年 、第18章)^ ベイジアンネットワーク : Russell & Norvig (2021 , 12.5–12.6節, 13.4–13.5節, 14.3–14.5節, 16.5節,20.2–20.3節) , Poole, Mackworth & Goebel (1998 , 361–381頁), Luger & Stubblefield (2004 , ~182–190頁, ≈363–379頁), Nilsson (1998 , 19.3–19.4章)^ ベイズ推論 アルゴリズム: Russell & Norvig (2021 , sect. 13.3–13.5), Poole, Mackworth & Goebel (1998 , pp. 361–381), Luger & Stubblefield (2004 , pp. ~363–379), Nilsson (1998 , chpt. 19.4 & 7)^ ベイズ学習 と期待値最大化アルゴリズム :ラッセル&ノルヴィグ(2021年 、第20章)、プール、マックワース&ゴーベル(1998年 、424~433頁)、ニルソン(1998年 、第20章)、ドミンゴス(2015年 、210頁)^ ベイズ決定理論 とベイズ決定ネットワーク :ラッセル&ノルヴィグ(2021年 、第16.5節)^ 統計的学習方法と分類器 :ラッセル&ノルヴィグ(2021年 、第20章)、 ^ Ciaramella, Alberto ; Ciaramella, Marco (2024). 『人工知能入門:データ分析から生成AIまで 』 Intellisemantic Editions. ISBN 978-8-8947-8760-3 。^ 決定木 :ラッセル&ノルヴィグ(2021年 、19.3節)、ドミンゴス(2015年 、88頁)^ k近傍法 や サポートベクターマシン などの 非パラメトリクス 学習モデル: Russell & Norvig (2021 , sect. 19.7), Domingos (2015 , p. 187) (k近傍法) ^ ナイーブベイズ分類器 :ラッセル&ノルヴィグ(2021年 、12.6節)、ドミンゴス(2015年 、152頁)^ a b ニューラルネットワーク:Russell & Norvig(2021年 、第21章)、Domingos(2015年 、第4章) ^ 計算グラフにおける勾配計算、バックプロパゲーション 、自動微分 : Russell & Norvig (2021 , sect. 21.2), Luger & Stubblefield (2004 , pp. 467–474), Nilsson (1998 , chpt. 3.3) ^ 普遍近似定理 :ラッセル&ノルヴィグ(2021年 、p.752)定理:サイベンコ(1988年) 、ホーニック、スティンチコム&ホワイト(1989年) ^ フィードフォワードニューラルネットワーク :ラッセル&ノルヴィグ(2021年 、セクション21.1)^ パーセプトロン :ラッセル&ノルヴィグ(2021年 、21、22、683、22頁)^ a b ディープラーニング :Russell & Norvig(2021年 、第21章)、Goodfellow、Bengio & Courville(2016年) 、Hinton et al. (2016年) 、Schmidhuber(2015年) ^ リカレントニューラルネットワーク :ラッセル&ノルヴィグ(2021年 、セクション21.6)^ 畳み込みニューラルネットワーク :ラッセル&ノルヴィグ(2021年 、第21.3節)^ Sindhu V, Nivedha S, Prakash M (2020年2月). 「機械学習におけるバイオインフォマティクスに関する実証科学研究」 . Journal of Mechanics of Continua and Mathematical Sciences (7). doi : 10.26782/jmcms.spl.7/2020.02.00006 . ^ Christian (2020 , p. 22) より引用 ^ メッツ、ケイド、ワイズ、カレン(2025年5月5日)。 「 AI幻覚は、新システムがより強力になるにつれて悪化している」 。 ニューヨーク・タイムズ 。ISSN 0362-4331 。 2025年 5月6日 閲覧 。 ^ 「解説:生成AI」 MIT ニュース | マサチューセッツ工科大学 2023年11月9日。 ^ 「AIライティングおよびコンテンツ作成ツール」 。MIT スローン教育学習テクノロジーズ 。 2023年12月25日時点のオリジナルより アーカイブ。 2023年 12月25日 閲覧 。 ^ Thomason, James (2024年5月21日). 「Mojo Rising: AIファースト・プログラミング言語の復活」 . VentureBeat . 2024年6月27日時点のオリジナルより アーカイブ。 2024年 5月26日 閲覧 。 ^ Wodecki, Ben (2023年5月5日). 「知っておくべき7つのAIプログラミング言語」 . AI Business . 2024年7月25日時点のオリジナルより アーカイブ 。 2024年 10月5日 閲覧。 ^ Plumb, Taryn (2024年9月18日). 「なぜジェンセン・フアンとマーク・ベニオフはエージェントAIに『巨大な』チャンスを見出しているのか」 . VentureBeat . 2024年10月5日時点のオリジナルより アーカイブ。 2024年 10月4日 閲覧 。 ^ ミムズ、クリストファー (2020年9月19日). 「黄の法則は新たなムーアの法則、そしてNvidiaがArmを望む理由を説明する」 ウォール ・ストリート・ジャーナル . ISSN 0099-9660 . 2023年10月2日時点のオリジナルより アーカイブ。 2025年 1月19日 閲覧 。 ^ Dankwa-Mullan, Irene (2024). 「公衆衛生と医療における人工知能の利用における健康の公平性と倫理的配慮」 . 慢性疾患の予防 . 21 240245 : E64. doi : 10.5888/pcd21.240245 . ISSN 1545-1151 . PMC 11364282. PMID 39173183 . ^ Jumper, J; Evans, R; Pritzel, A (2021). 「AlphaFoldを用いた高精度タンパク質構造予測」 . Nature . 596 (7873): 583– 589. Bibcode : 2021Natur.596..583J . doi : 10.1038/ s41586-021-03819-2 . PMC 8371605. PMID 34265844 . ^ 「AIが薬剤耐性菌を殺す新たな抗生物質を発見」 ニュー サイエンティスト 、2023年12月20日。 2024年9月16日時点のオリジナルより アーカイブ。 2024年 10月5日 閲覧 。 ^ 「AIがパーキンソン病の薬剤設計を10倍高速化」 ケンブリッジ大学 。ケンブリッジ大学 。2024年4月17日。 2024年10月5日時点のオリジナルより アーカイブ。 2024年 10月5日 閲覧 。 ^ Horne, Robert I.; Andrzejewska, Ewa A.; Alam, Parvez; Brotzakis, Z. Faidon; Srivastava, Ankit; Aubert, Alice; Nowinska, Magdalena; Gregory, Rebecca C.; Staats, Roxine; Possenti, Andrea; Chia, Sean; Sormanni, Pietro; Ghetti, Bernardino; Caughey, Byron; Knowles, Tuomas PJ; Vendruscolo, Michele (2024年4月17日). 「構造ベース反復学習を用いたα-シヌクレイン凝集に対する強力な阻害剤の発見」 . Nature Chemical Biology . 20 (5). Nature: 634– 645. doi : 10.1038/s41589-024-01580-x . PMC 11062903 . PMID 38632492 . ^ Grant, Eugene F.; Lardner, Rex (1952年7月25日). "The Talk of the Town – It" . The New Yorker . ISSN 0028-792X . 2020年2月16日時点のオリジナルより アーカイブ。 2024年 1月28日 閲覧 。 ^ アンダーソン、マーク・ロバート (2017年5月11日). 「ディープ・ブルー対カスパロフ戦から20年:チェスの試合がビッグデータ革命のきっかけとなった経緯」 . The Conversation . 2024年9月17日時点のオリジナルより アーカイブ。 2024年 1月28日 閲覧 。 ^ Markoff, John (2011年2月16日). 「『Jeopardy!』でコンピューターが勝利:些細なこと、そうではない」 . The New York Times . ISSN 0362-4331 . 2014年10月22日時点のオリジナルより アーカイブ。 2024年 1月28日 閲覧 。 ^ Byford, Sam (2017年5月27日). 「AlphaGo、世界一を3-0で破り競技囲碁から引退」 The Verge . 2017年6月7日時点のオリジナルより アーカイブ。 2024年 1月28日 閲覧 。 ^ Brown, Noam; Sandholm, Tuomas (2019年8月30日). 「マルチプレイヤーポーカーのための超人AI」. Science . 365 (6456): 885–890 . Bibcode : 2019Sci...365..885B . doi : 10.1126/science.aay2400 . PMID 31296650 . ^ 「MuZero:ルールなしで囲碁、チェス、将棋、Atariをマスターする」 Google DeepMind 、2020年12月23日。 2024年 1月28日 閲覧 。 ^ Sample, Ian (2019年10月30日). 「AIが『悪魔のように複雑な』StarCraft IIでグランドマスターに」 . The Guardian . ISSN 0261-3077 . 2020年12月29日時点のオリジナルより アーカイブ。 2024年 1月28日 閲覧 。 ^ Wurman, PR; Barrett, S.; Kawamoto, K. (2022). 「深層強化学習でグランツーリスモのチャンピオンドライバーに勝つ」 (PDF) . Nature . 602 (7896): 223– 228. Bibcode : 2022Natur.602..223W . doi : 10.1038/s41586-021-04357-7 . PMID 35140384 . ^ ウィルキンス、アレックス (2024年3月13日). 「Google AI、オープンワールドのビデオゲームを観察することでプレイ方法を学習」 . New Scientist . 2024年7月26日時点のオリジナルより アーカイブ。 2024年 7月21日 閲覧 。 ^ Wu, Zhengxuan; Arora, Aryaman; Wang, Zheng; Geiger, Atticus; Jurafsky, Dan; Manning, Christopher D.; Potts, Christopher (2024). 「ReFT: 言語モデルのための表現のファインチューニング」. NeurIPS . arXiv : 2404.03592 . ^ 「プロセス監督による数学的推論の改善」 OpenAI 、 2023年5月31日。 2025年 1月26日 閲覧 。 ^ Srivastava, Saurabh (2024年2月29日). 「推論性能の堅牢な評価のための機能ベンチマークと推論ギャップ」. arXiv : 2402.19450 [ cs.AI ]. ^ ライトマン、ハンター; コサラジュ、ヴィニート; ブルダ、ユラ; エドワーズ、ハリ; ベイカー、ボーエン; リー、テディ; ライケ、ヤン; シュルマン、ジョン; サツケヴァー、イリヤ; コッベ、カール (2023). 「ステップバイステップで検証しよう」. arXiv : 2305.20050v1 [ cs.LG ]. ^ Franzen, Carl (2024年8月8日). 「Alibaba、Qwen2-MathでAI数学モデル分野で1位を獲得」 . VentureBeat . 2025年 2月16日 閲覧 。 ^ Franzen, Carl (2025年1月9日). 「Microsoftの新しいrStar-Math技術は、数学問題においてOpenAIのo1-previewを上回る性能を持つ小型モデルをアップグレード」 . VentureBeat . 2025年 1月26日 閲覧。 ^ ジーナ・ジェンキナ「新しいAIモデルが『キス問題』などを解決」AlphaEvolve、数学的な発見と実用的な最適化を複数実現 IEEE Spectrum 2025年5月14日。2025年6月7日閲覧。 ^ ロバーツ、シボーン (2024年7月25日). 「AI、国際数学オリンピックの問題解決で銀メダルレベルを達成」 . ニューヨーク・タイムズ . 2024年9月26日時点のオリジナルより アーカイブ。 2024年 8月7日 閲覧 。 ^ アゼルバエフ、ジャンギール;ヘイリー・シェルコップフ。ペスター、ケイラン。サントス、マルコ・ドス。マカリア、スティーブン。ジャン、アルバート Q.鄧、佳。ビダーマン、ステラ。ショーン・ウェレック(2023年10月16日)。 「補題: 数学のためのオープンな言語モデル」 。 EleutherAI ブログ 。 2025 年 1 月 26 日 に取得 。 ^ 「Julius AI」 . julius.ai . ^ Metz, Cade (2025年7月21日). 「Google AIシステムが国際数学オリンピックで金メダルを獲得」 . ニューヨーク・タイムズ . ISSN 0362-4331 . 2025年 7月24日 閲覧 。 ^ McFarland, Alex (2024年7月12日). 「数学ツールに最適なAI8選(2025年1月)」 . Unite.AI . 2025年 1月26日 閲覧 。 ^ マシュー・フィニオ&アマンダ・ダウニー:IBM Think 2024入門「金融における人工知能(AI)とは?」2023年12月8日 ^ M. Nicolas、J. Firzli: Pensions Age / European Pensions 誌、「人工知能: 業界に聞く」、2024年5~6月。https ://videovoice.org/ai-in-finance-innovation-entrepreneurship-vs-over-regulation-with-the-eus-artificial-intelligence-act-wont-work-as-intended/ 2024年9月11日に Wayback Machine にアーカイブ 。 ^ a b c 議会調査局 (2019). 「人工知能と国家安全保障」 (PDF) . ワシントンD.C.: 議会調査局. 2020年5月8日時点のオリジナルより アーカイブ (PDF) . 2024年 2月25日 閲覧。 PD通知 ^ a b Slyusar, Vadym (2019). 未来の制御ネットワークの基盤としての人工知能(プレプリント). doi : 10.13140/RG.2.2.30247.50087 . ^ イラク、アムジャド (2024 年 4 月 3 日)。 」 「『ラベンダー』:イスラエルのガザ爆撃を指揮しているAIマシン」 。+972マガジン 。2024年10月10日時点のオリジナルよりアーカイブ。 2024年 4月6日 閲覧 。^ ハリー、デイヴィス;マッカーナン、ベサン。ダン・サッバーグ(2023年12月1日)。 」 「『福音』:イスラエルはいかにしてAIを使ってガザ地区の爆撃目標を選定しているのか」 。ガーディアン紙 。2023年12月6日時点のオリジナルよりアーカイブ。 2023年 12月4日 閲覧 。^ マルティ、J ヴェルナー (2024 年 8 月 10 日)。 「Drohnen haben den Krieg in der Ukraine Revolutioniert, doch sie sind empfindlich auf Störsender – deshalb sollen sie Jetzt autonom opererieren」 。 Neue Zürcher Zeitung (ドイツ語)。 2024 年 8 月 10 日のオリジナルから アーカイブ 。 2024 年 8 月 10 日 に取得 。 ^ Banh, Leonardo; Strobel, Gero (2023). 「生成型人工知能」 . Electronic Markets . 33 (1) 63. doi : 10.1007/s12525-023-00680-1 . ^ Pasick, Adam (2023年3月27日). 「人工知能用語集:ニューラルネットワークとその他の用語の説明」 . The New York Times . ISSN 0362-4331 . 2023年9月1日時点のオリジナルより アーカイブ。 2023年 4月22日 閲覧 。 ^ グリフィス、エリン、メッツ、ケイド(2023年1月27日) 「アントロピック、新たなAI資金3億ドル獲得目前か」 ニューヨーク ・タイムズ 。 2023年12月9日時点のオリジナルより アーカイブ。 2023年 3月14日 閲覧 。 ^ Lanxon, Nate; Bass, Dina; Davalos, Jackie (2023年3月10日). 「AI関連の流行語とその意味のチートシート」 . Bloomberg News . 2023年11月17日時点のオリジナルより アーカイブ。 2023年 3月14日 閲覧 。 ^ ケビン・ルース(2022年10月21日) 「シリコンバレーの新たなブーム、ジェネレーティブAIのカミングアウトパーティー」 ニューヨーク・タイムズ 。 2023年2月15日時点のオリジナルより アーカイブ 。 2023年 3月14日 閲覧 。 ^ Shahaf, Tal; Shahaf, Tal (2025年10月23日). 「Lightricks、OpenAIとGoogleに挑戦する強力なAIビデオモデルを発表」 Ynetglobal . 2025年 12月22日 閲覧 。 ^ Metz, Cade (2024年2月15日). 「OpenAI、目を見張るような動画を瞬時に生成するAIを発表」 . The New York Times . ISSN 0362-4331 . 2024年2 月15日時点のオリジナルより アーカイブ。 2024年 2月16日 閲覧 。 ^ TechForge (2025年10月24日). 「LightricksのオープンソースAIビデオは4K、サウンド、高速レンダリングを提供」 . AI News . 2025年 12月22日 閲覧 。 ^ 「AIラボの競争が激化」 『エコノミスト』誌 、 2023年1月30日。 2023年11月17日時点のオリジナルより アーカイブ 。 2023年 3月14日 閲覧。 ^ ペトレラ, ステファニー; ミラー, クリス; クーパー, ベンジャミン (2021). 「ロシアの人工知能戦略:国営企業の役割」. Orbis . 65 (1): 75–100 . doi : 10.1016/j.orbis.2020.11.004 . ^ Raza, Marium M.; Venkatesh, Kaushik P.; Kvedar, Joseph C. (2024年3月7日). 「医療における生成AIと大規模言語モデル:実装への道筋」 . npj Digital Medicine . 7 (1): 62. doi : 10.1038/s41746-023-00988-4 . ISSN 2398-6352 . PMC 10920625. PMID 38454007 . ^ Mogaji, Emmanuel (2025年1月7日). 「生成型AIが金融サービスにもたらす変革と顧客にとっての意味」 . The Conversation . 2025年 4月10日 閲覧 。 ^ Bean, Thomas H. Davenport, Randy (2023年6月19日). 「ジェネレーティブAIがハリウッドとエンターテインメントに与える影響」 . MIT Sloan Management Review . 2024年8月6日時点のオリジナルより アーカイブ。 2025年 4月10日 閲覧 。 ^ Brynjolfsson, Erik; Li, Danielle; Raymond, Lindsey R. (2023年4月), Generative AI at Work (Working Paper), Working Paper Series, doi : 10.3386/w31161 , 2024年3月28日時点のオリジナルより アーカイブ, 2024年 1月21日 閲覧 ^ 「AIによる雇用崩壊はまだ恐れる必要はない」 エコノミスト 誌 、2023年3月6日。 2023年11月17日時点のオリジナルより アーカイブ 。 2023年 3月14日 閲覧。 ^ Coyle, Jake (2023年9月27日). 「ハリウッドの脚本家たちのAIとの戦い、今のところは人間が勝利」 . APニュース . Associated Press. 2024年4月3日時点のオリジナルより アーカイブ。 2024年 1月26日 閲覧 。 ^ 「ジェネレーティブAIは人間の創造性をどのように拡張できるか」 ハーバード・ビジネス・レビュー、2023年6月16日。ISSN 0017-8012 。 2023 年 6 月 20日時点のオリジナルより アーカイブ。 2023年 6月20日 閲覧 。 ^ プール、デイビッド、マックワース、アラン (2023). 『人工知能:計算エージェントの基礎』 (第3版). ケンブリッジ大学出版局. doi : 10.1017/9781009258227 . ISBN 978-1-0092-5819-7 。^ ラッセル、スチュアート、ノーヴィグ、ピーター (2020). 『人工知能:現代的アプローチ』 (第4版). ピアソン. ISBN 978-0-1346-1099-3 。^ 「なぜエージェントが生成AIの次のフロンティアなのか」 マッキンゼー ・デジタル 、2024年7月24日。 2024年10月3日時点のオリジナルより アーカイブ 。 2024年 8月10日 閲覧。 ^ 「Bing の Copilot Search のご紹介」 blogs.bing.com 2025 年 4 月 4 日。 ^ Peters, Jay (2023年3月14日). 「Bing AIボットが秘密裏にGPT-4を実行していた」 The Verge . 2025年 8月31日 閲覧 。 ^ 「 Microsoft 365 Copilot のセキュリティ」 。learn.microsoft.com 。 ^ オフラハティ、ケイト(2025年5月21日) 「Google AI の 概要 — 知っておくべきことすべて」 Forbes 。 ^ 「検索における生成AI:Googleがあなたに代わって検索します」 Google 2024 年5月14日 ^ Figueiredo, Mayara Costa; Ankrah, Elizabeth; Powell, Jacquelyn E.; Epstein, Daniel A.; Chen, Yunan (2024年1月12日). 「AIの力:AIの記述が妊娠追跡アプリケーションの認識に及ぼす影響の検証」 ACMインタラクティブ・モバイル・ウェアラブル・ユビキタス技術会議論文集 . 7 (4): 1– 24. doi : 10.1145/3631414 . ^ ジェニファー・パワー、ティノニー・ピム、アレクサンドラ・ジェームズ、アンドレア・ワリング(2024年7月5日) 「スマートセックストイ:文化、健康、安全に関する考察に関する最近の研究の叙述的レビュー」 『 カレント・セクシャル・ヘルス・レポート 』 16 (3): 199–215 . doi : 10.1007/s11930-024-00392-3 . ISSN 1548-3592 . ^ Marcantonio, Tiffany L.; Avery, Gracie; Thrash, Anna; Leone, Ruschelle M. (2024年9月10日). 「アプリにおける大規模言語モデル:Snapchatの『My AI』が性的同意、性的拒否、性的暴行、セクスティングに関する質問にどのように応答するかについての定性的な合成データ分析の実施」. The Journal of Sex Research . 62 (9): 1905– 1919. doi : 10.1080/00224499.2024.2396457 . PMC 11891083. PMID 39254628 . ^ ハンソン、ケネス・R.;ボルトハウス、ハンナ(2024) 。 「レプリカからエロティックなロールプレイを削除するのは、グランド・セフト・オートから銃や車を削除するようなものだ」:人工知能チャットボットと性的テクノロジーに関するRedditの議論。Socius :ダイナミック な世界のための社会学的研究 。10 23780231241259627。doi :10.1177 /23780231241259627。ISSN 2378-0231 。 ^ マニア、カロリナ (2024). 「欧州連合における復讐ポルノとディープフェイクポルノ被害者の法的保護:比較法研究の知見」 . トラウマ、暴力、虐待 . 25 (1): 117– 129. doi : 10.1177/15248380221143772 . PMID 36565267 . ^ Singh, Suyesha; Nambiar, Vaishnavi (2024). 「オンライン児童性的虐待防止における人工知能の役割:文献の体系的レビュー」 応用セキュリティ研究ジャーナル . 19 (4): 586– 627. doi : 10.1080/19361610.2024.2331885 . ^ Razi, Afsaneh; Kim, Seunghyun; Alsoubai, Ashwaq; Stringhini, Gianluca; Solorio, Thamar; De Choudhury, Munmun ; Wisniewski, Pamela J. (2021年10月13日). 「オンライン性行為リスク検出のための計算論的アプローチに関する人間中心の体系的文献レビュー」 Proceedings of the ACM on Human-Computer Interaction . 5 (CSCW2): 1– 38. doi : 10.1145/3479609 . ^ ランズボサム、サム、キロン、デイビッド、ゲルバート、マーティン・リーブス(2017年9月6日) 「人工知能によるビジネス改革」 MIT スローン・マネジメント・レビュー 。 2024年2月13日時点のオリジナルより アーカイブ。 ^ Sun, Yuran; Zhao, Xilei; Lovreglio, Ruggiero; Kuligowski, Erica (2024). 「大規模避難モデリングのためのAI:期待と課題」. 土木インフラの分析、設計、評価、そして情報に基づいた意思決定のための解釈可能な機械学習 . pp. 185– 204. doi : 10.1016/B978-0-12-824073-1.00014-9 . ISBN 978-0-12-824073-1 。^ Gomaa, Islam; Adelzadeh, Masoud; Gwynne, Steven; Spencer, Bruce; Ko, Yoon; Bénichou, Noureddine; Ma, Chunyun; Elsagan, Nour; Duong, Dana; Zalok, Ehab; Kinateder, Max (2021年11月1日). 「インテリジェント火災検知・避難システムのためのフレームワーク」. Fire Technology . 57 (6): 3179– 3185. doi : 10.1007/s10694-021-01157-3 . ^ Zhao, Xilei; Lovreglio, Ruggiero; Nilsson, Daniel (2020年5月1日). 「機械学習を用いた避難前意思決定のモデル化と解釈」. Automation in Construction . 113 103140. doi : 10.1016/j.autcon.2020.103140 . hdl : 10179/17315 . ^ 「インドの最新選挙でAI技術が採用された。建設的に活用されたいくつかの方法を紹介する」 PBS ニュース 。2024年6月12日。 2024年9月17日時点のオリジナルより アーカイブ。 2024年 10月28日 閲覧 。 ^ "Экономист Дарон Асемоглу написал книгу об угрозах искусственного интеллекта — и о том, как правильное управление может обратить его на пользу человечеству Спецкор "Медузы" Маргарита Лютова узнала ученого, как скоро мирよろしくお願いしますприблизиться к этой утопии" . Meduza (ロシア語)。2023 年 6 月 20 日にオリジナルから アーカイブ。2023 年 6 月 21 日 に取得 。 ^ 「AI時代における学習、思考、芸術的コラボレーション、そしてその他の人間の努力」 The Hindu 、2023年6月2日。 2023 年6月21日時点のオリジナルより アーカイブ。 2023年 6月21日 閲覧 。 ^ Müller, Vincent C. (2020年4月30日). 「人工知能とロボット工学の倫理」 . スタンフォード哲学百科事典アーカイブ . 2024年10月5日時点のオリジナルより アーカイブ。 2024年 10月5日 閲覧 。 ^ 「将来の人工知能の潜在的なリスク、メリット、政策上の要請の評価」 OECD 、 2024年11月14日。 2025年 8月1日 閲覧 。 ^ Kopel, Matthew. 「著作権サービス:フェアユース」 コーネル 大学図書館 . 2024年9月26日時点のオリジナルより アーカイブ。 2024年 4月26日 閲覧 。 ^ バージェス、マット. 「AIの訓練にデータが利用されるのを防ぐ方法」 . Wired . ISSN 1059-1028 . 2024年10月3日時点のオリジナルより アーカイブ。 2024年 4月26日 閲覧 。 ^ 「独占:複数のAI企業がウェブ標準を迂回して出版社のサイトをスクレイピング、ライセンス会社が主張」 ロイター通信 。 2024年11月10日時点の オリジナル よりアーカイブ。 2025年 11月13日 閲覧 。 ^ Shilov, Anton (2024年6月21日). 「複数のAI企業がrobots.txtの除外を無視し、許可なくコンテンツをスクレイピングしていると報道」 . Tom's Hardware . 2025年 11月13日 閲覧 。 ^ 「AIに対応したイノベーションエコシステムの構築。知的財産政策ツールキット」 ( PDF) 。WIPO 。 ^ Hammond, George (2023年12月27日). 「大手テック企業はAIスタートアップにVC企業よりも多くの資金を費やしている」 Ars Technica . 2024年1月10日時点のオリジナルより アーカイブ。 ^ Wong, Matteo (2023年10月24日). 「AIの未来はGOMAだ」 . The Atlantic . 2024年1月5日時点のオリジナルより アーカイブ。 ^ 「ビッグテックとAI支配の追求」 エコノミスト 誌 、2023年3月26日 。2023年12月29日時点のオリジナルより アーカイブ。 ^ Fung, Brian (2023年12月19日). 「AIを支配するための戦いはどこで勝利するかもしれない」 . CNN Business . 2024年1月13日時点のオリジナルより アーカイブ。 ^ Metz, Cade (2023年7月5日). 「AIの時代、テック業界の小さな企業には大きな友人が必要」 . The New York Times . 2024年7月8日時点のオリジナルより アーカイブ。 2024年 10月5日 閲覧 。 ^ Bhattarai, Abha; Lerman, Rachel (2025年12月25日). 「経済の方向性を示す10のチャート / 3. AI関連投資」 . ワシントン・ポスト . 2025年12月27日時点のオリジナルより アーカイブ。 出典: MSCI ^ 「Electricity 2024 – Analysis」 IEA 、 2024年1月24日。 2024年 7月13日 閲覧 。 ^ Calvert, Brian (2024年3月28日). 「AIはすでに小さな国と同じくらいのエネルギーを消費している。これは始まりに過ぎない」 . Vox . ニューヨーク. 2024年7月3日時点のオリジナルより アーカイブ。 2024年 10月5日 閲覧 。 ^ エヴァン・ハルパー、キャロライン・オドノヴァン(2024年6月21日) 「 AIは電力網を枯渇させている。テクノロジー企業は奇跡の解決策を模索している」 ワシントン ・ポスト ^ Davenport, Carly. 「AIデータセンターと今後のYS電力需要の急増」 (PDF) ゴールドマン・サックス 。 2024年7月26日時点の オリジナル (PDF) からアーカイブ。 2024年 10月5日 閲覧 。 ^ ライアン、キャロル(2024年4月12日) 「エネルギーを大量に消費するAIは 、 エネルギー節約の未来でもある」 ウォール・ストリート・ジャーナル 、ダウ・ジョーンズ。 ^ Hiller, Jennifer (2024年7月1日). 「テック業界、AIのために原子力発電を閉鎖したい」 . ウォール・ストリート・ジャーナル . ダウ・ジョーンズ. 2024年10月5日時点のオリジナルより アーカイブ。 2024年 10月5日 閲覧 。 ^ ケンドール、タイラー(2024年9月28日) 「NVIDIAの黄氏 、 データセンターへの電力供給に原子力発電は選択肢になると語る」 ブルームバーグ 。 ^ Halper, Evan (2024年9月20日). 「マイクロソフトとの契約により、スリーマイル島原子力発電所が再開されAIが稼働」 ワシントン ・ポスト . ^ Hiller, Jennifer (2024年9月20日). 「Three Mile Island's Nuclear Plant to Reopen, Help Power Microsoft's AI Centers」 . Wall Street Journal . Dow Jones. 2024年10月5 日時点のオリジナルより アーカイブ。 2024年 10月5日 閲覧 。 ^ a b c Niva Yadav (2024年8月19日). 「台湾、北部の大規模データセンター建設を停止へ、電力不足を理由に」 DatacenterDynamics. 2024年11月8日時点のオリジナルより アーカイブ。 2024年 11月7日 閲覧 。 ^ a b 望月隆司;小田祥子(2024年10月18日)。 「エヌビディア近隣の日本企業、原発近くでΑIデータセンター新設検討」 。 ブルームバーグ (日本語)。 2024 年 11 月 8 日のオリジナルから アーカイブ 。 2024 年 11 月 7 日 に取得 。 ^ a b Naureen S MalikとWill Wade(2024年11月5日) 「原子力に飢えたAIキャンパスは、迅速に電力を確保するための新たな計画が必要」 ブルームバーグ。 ^ 「エネルギーとAI エグゼクティブサマリー」 国際 エネルギー機関 2025年 4月10日 閲覧 。 ^ Rainie, Lee; Keeter, Scott; Perrin, Andrew (2019年7月22日). 「アメリカにおける信頼と不信」 . Pew Research Center . 2024年2月22日時点のオリジナルより アーカイブ。 ^ Kosoff, Maya (2018年2月8日). 「YouTube、陰謀問題への対処に苦戦」 . Vanity Fair . 2025年 4月10日 閲覧 。 ^ ベリー、デイヴィッド・M. (2025年3月19日). 「合成メディアと計算資本主義:人工知能の批判理論に向けて」. AI & Society . 40 (7): 5257–5269 . doi : 10.1007/s00146-025-02265-2 . ISSN 1435-5655 . ^ 「Unreal: AIビデオの飛躍的進歩」 The Week 、2025年6月17日。 2025年 6月20日 閲覧 。 ^ スノー、ジャッキー(2025年6月16日) 「AI動画は現実味を帯びつつある。次に何が起こるかに気をつけろ」 Quartz 。 2025年 6月20日 閲覧 。 ^ Chow, Andrew R.; Perrigo, Billy (2025年6月3日). 「Googleの新しいAIツールが暴動、紛争、選挙詐欺の説得力のあるディープフェイクを生成」 Time 誌 . 2025年 6月20日 閲覧。 ^ Olanipekun, Samson Olufemi (2025). 「計算によるプロパガンダと誤情報:メディア操作のツールとしてのAI技術」 . World Journal of Advanced Research and Reviews . 25 (1): 911– 923. doi : 10.30574/wjarr.2025.25.1.0131 . ISSN 2581-9615 . ^ リン・ハウス、チャルネック、ガブリエラ・チャルネック、ルイス、ベンジャミン、ジョシュア・P・ホワイト、アダム・J・ベリンスキー、トーマス・コステロ、ゴードン・ペニークック、デイビッド・G・ランド (2025). 「人間と人工知能による対話を用いた有権者の説得」. Nature . 648 (8093): 394– 401. Bibcode : 2025Natur.648..394L . doi : 10.1038/s41586-025-09771-9 . PMID 41345316 . ^ 「AIと戦うには『人格の証明』が必要だとAI企業は言う」 。 2025年4月24日時点の オリジナルよりアーカイブ 。 2025年 5月9日 閲覧。 ^ a b サミュエル・シガル (2022年4月19日). 「AIを公平かつ偏りのないものにするのはなぜこんなに難しいのか」 . Vox . 2024年10月5日時点のオリジナルより アーカイブ。 2024年 7月24日 閲覧 。 ^ Mazeika, Mantas; Yin, Xuwang; Tamirisa, Rishub; Lim, Jaehyuk; Lee, Bruce W.; Ren, Richard; Phan, Long; Mu, Norman; Khoja, Adam (2025)、 ユーティリティエンジニアリング:AIにおける創発的価値システムの分析と制御 、図16、 arXiv : 2502.08640 ^ ベルダールら。 (2023) ;ゴフリー (2008 年 、17 ページ)。ローズ (2023) ;ラッセルとノーヴィグ (2021 、p. 995)^ クリスチャン(2020年 、67~70頁);ラッセル&ノルヴィグ(2021年 、993~994頁)^ ラッセル&ノルヴィグ(2021年 、995頁);リパティート(2011年 、36頁);グッドマン&フラックスマン(2017年 、6頁);クリスチャン(2020年 、39~40頁、65頁)^ Christian(2020年 、65ページ) より引用 ^ ラッセル&ノルヴィグ(2021年 、994頁);クリスチャン(2020年 、40頁、80~81頁)^ クリスチャン(2020年 、p.80) より引用 ^ ハント, アンドリュー; アグニュー, ウィリアム; ゼン, ヴィッキー; カシアンカ, セヴェリン; ゴンボレイ, マシュー (2022年6月21日~24日). 「ロボットが悪性ステレオタイプを助長する」 . 2022 ACM 公平性、説明責任、透明性に関する会議 (FAccT '22) の議事録 . ソウル, 韓国: 計算機協会. doi : 10.1145/3531146.3533138 . ^ 分かりやすい要約については、ジョージア工科大学の発表とScienceDailyによる研究結果の報道をご覧ください。「欠陥のあるAIがロボットを人種差別的、性差別的にする」 ジョージア 工科大学研究ニュース 、2022年6月23日。 ^ 「欠陥のあるAIを搭載したロボットは人種差別的・性差別的になる、と研究で判明」 ScienceDaily . 2022年6月21日. ^ “Black Box AI” . 2023年6月16日. 2024年6月15日時点のオリジナルより アーカイブ。 2024年 10月5日 閲覧 。 ^ クリスチャン(2020年 、p.83);ラッセル&ノルヴィグ(2021年 、p.997)^ ロペック、ルーカス (2024年5月21日). 「新たな人類学的研究がAIの『ブラックボックス』に光を当てる」 . Gizmodo . 2024年10月5日時点のオリジナルよりアーカイブ。 2024年 5月23日 閲覧 。^ ロビツスキー (2018) ;才人 (2015) ^ Buckley, Chris; Mozur, Paul (2019年5月22日). 「中国はハイテク監視を利用して少数民族を抑圧している」 . The New York Times . 2019年11月25日時点のオリジナルより アーカイブ。 2019年 7月2日 閲覧 。 ^ Whittaker, Zack (2019年5月3日). 「セキュリティ違反で中国のスマートシティ監視システムが露呈」 TechCrunch . 2021 年3月7日時点のオリジナルより アーカイブ。 2020年 9月14日 閲覧 。 ^ フォード&コルビン(2015年) ;マクゴーヒー(2022年) ^ Lohr (2017) ; Frey & Osborne (2017) ; Arntz, Gregory & Zierahn (2016 , p. 33)^ Zhou, Viola (2023年4月11日). 「中国ではAIが既にビデオゲームのイラストレーターの仕事を奪っている」 . Rest of World . 2024年2月21日時点のオリジナルより アーカイブ。 2023年 8月17日 閲覧 。 ^ Carter, Justin (2023年4月11日). 「中国のゲームアート業界、AI利用の拡大で壊滅的打撃か」 Game Developer . 2023年8月17日時点のオリジナルより アーカイブ。 2023年 8月17日 閲覧 。 ^ マハダウィ(2017) ;トンプソン(2014) ^ Ma, Jason (2025年7月5日). 「フォードCEOジム・ファーリー氏、AIがホワイトカラー職の半分を奪うと警告、しかし『生活必需品経済』では深刻な人手不足」 . Fortune . 2025年 10月21日 閲覧 。 ^ ターノフ、ベン(2023年8月4日)「エリザからの教訓」 ガーディアン・ウィークリー 、 34~ 39頁 。 ^ ボストロム (2014) ;ミュラーとボストロム (2014) ;ボストロム (2015) 。^ 2015年頃のAIの存在リスクに関するリーダーたちの懸念: Rawlinson(2015) 、 Holley(2015) 、 Gibbs(2014) 、 Sainato(2015) ^ " 「人工知能のゴッドファーザーが新しいAIの影響と可能性を語る」CBSニュース 、2023年3月25日。2023年3月28日時点のオリジナルよりアーカイブ 。2023年3月28日 閲覧。^ ピティス、ドン (2023年5月4日). 「カナダの人工知能リーダー、ジェフリー・ヒントン氏、コンピューターによる乗っ取りへの懸念を強める」 CBC . 2024 年7月7日時点のオリジナルより アーカイブ。 2024年 10月5日 閲覧 。 ^ " 「AIが人類を凌駕する確率は50対50だとジェフリー・ヒントン氏は語る」 。ブルームバーグBNN 。2024年6月14日。2024年6月14日時点のオリジナルよりアーカイブ 。2024年7月6日 閲覧。^ Taylor, Josh (2023年5月7日). 「人工知能の台頭は避けられないが、恐れる必要はない、と『AIの父』は語る」 . The Guardian . 2023年10月23日時点のオリジナルより アーカイブ。 2023年 5月26日 閲覧 。 ^ コルトン、エマ(2023年5月7日) 。 「AIの父」はテクノロジーに対する懸念は杞憂だと語る。「それを止めることはできない」 " 。Fox News 。2023年5月26日時点のオリジナルよりアーカイブ 。2023年5月26日 閲覧。^ Jones, Hessie (2023年5月23日). 「『現代AIの父』として知られるユルゲン・シュミットフーバー氏、自身の生涯の仕事はディストピアにはつながらないと語る」 Forbes . 2023 年5月26日時点のオリジナルより アーカイブ。 2023年 5月26日 閲覧 。 ^ マクモロー、ライアン(2023年12月19日) 「アンドリュー・ン:「知能が高ければ高いほど、あるいは低ければ低いほど、世界はより良い状態になると思いますか?」 .フィナンシャル・タイムズ . 2024年1月25日時点のオリジナルよりアーカイブ。 2023年 12月30日 閲覧 。^ ウィル・ダグラス・ヘブン (2023年5月2日). 「ジェフリー・ヒントン氏が語る、自分が築き上げた技術を恐れる理由」 . MITテクノロジーレビュー . Ideas AI . 2026年 1月4日 閲覧 。 ^ Levy, Steven (2023年12月22日). 「AIについて愚かにならない方法、ヤン・ルカンと」 Wired . 2023年12月28日時点のオリジナルより アーカイブ 。 2023年 12月30日 閲覧 。 ^ AIは差し迫ったリスクではないという主張:ブルックス(2014) 、ガイスト(2015) 、マドリガル(2015) 、リー(2014) ^ a b アンダーソン&アンダーソン(2011) .^ アシュリー・スチュワート、モニカ・メルトン。 「ハギング・フェイスCEO、時価総額45億ドルのオープンソースAIスタートアップの『持続可能なモデル』構築に注力」 Business Insider 。 2024年9月25日時点のオリジナルより アーカイブ。 2024年 4月14日 閲覧 。 ^ Wiggers, Kyle (2024年4月9日). 「Google、AIモデル開発を支援するツールをオープンソース化」 . TechCrunch . 2024年9月10日時点のオリジナルより アーカイブ。 2024年 4月14日 閲覧 。 ^ Heaven, Will Douglas (2023年5月12日). 「オープンソースAIブームは大手テック企業による援助の上に成り立っている。それはいつまで続くのか?」 MIT テクノロジーレビュー . 2024年 4月14日 閲覧。 ^ Brodsky, Sascha (2023年12月19日). 「Mistral AIの新しい言語モデルはオープンソースの覇権を目指す」 . AI Business . 2024年9月5日時点のオリジナルより アーカイブ。 2024年 10月5日 閲覧 。 ^ Edwards, Benj (2024年2月22日). 「Stability社、次世代AI画像ジェネレーター「Stable Diffusion 3」を発表 」 Ars Technica . 2024年10月5日時点のオリジナルより アーカイブ。 2024年 4月14日 閲覧 。 ^ Marshall, Matt (2024年1月29日). 「企業におけるオープンソースLLMの活用方法:16の事例」 . VentureBeat . 2024年9月26日時点のオリジナルより アーカイブ。 2024年 10月5日 閲覧 。 ^ Piper, Kelsey (2024年2月2日). 「最も強力なAIモデルをオープンソース化すべきか?」 Vox . 2024 年10月5日時点のオリジナルより アーカイブ。 2024年 4月14日 閲覧 。 ^ アラン・チューリング研究所 (2019). 「人工知能の倫理と安全性を理解する」 (PDF) . 2024年9月11日時点のオリジナルより アーカイブ (PDF) . 2024年 10月5日 閲覧 。 ^ アラン・チューリング研究所 (2023). 「AI倫理とガバナンスの実践」 (PDF) . 2024年9月11日時点のオリジナルより アーカイブ (PDF) . 2024年 10月5日 閲覧 。 ^ フロリディ、ルチアーノ、カウルズ、ジョシュ(2019年6月23日) 「社会におけるAIのための5つの原則の統一フレームワーク」 ハーバード ・データ・サイエンス・レビュー 、 1 (1)、 doi : 10.1162/99608f92.8cd550d1 。 ^ Buruk, Banu; Ekmekci, Perihan Elif; Arda, Berna (2020年9月1日). 「責任ある信頼できる人工知能のためのガイドラインに関する批判的視点」. 医学・医療・哲学 . 23 (3): 387– 399. doi : 10.1007/s11019-020-09948-1 . PMID 32236794 . ^ カミラ・マノジ・クマール、ジャスロティア・サヒル・シン(2023年1月1日)「人工知能開発における倫理的問題:リスクの認識」 『国際倫理・システムジャーナル 』 41 (印刷前) 45–63 . doi : 10.1108/IJOES-05-2023-0107 . ^ 「AI Safety Instituteが新たなAI安全性評価プラットフォームをリリース」 英国政府、2024年5月10日。 2024年10月5日時点のオリジナルより アーカイブ。 2024年 5月14日 閲覧 。 ^ リスクを軽減するための AI の規制: Berryhill et al. (2019) 、バーフィールド & パガロ (2018) 、イプフェン & クリティコス (2019) 、ワーツ、ウェイラー & ガイヤー (2018) 、ブイテン (2019) ^ VOAニュース (2023年10月25日). 「国連、人工知能に関する諮問機関を発表」 . Voice of America . 2024年9月18日時点のオリジナルより アーカイブ。 2024年 10月5日 閲覧 。 ^ 「AI法が発効 - 欧州委員会」 commission.europa.eu . 2025年 8月11日 閲覧 。 ^ 「欧州評議会、AIに関する初の国際条約に署名」 欧州評議会 。 2024年9月5日。 2024年9月17日時点のオリジナルより アーカイブ。 2024年 9月17日 閲覧 。 ^ ミルモ、ダン(2023年11月3日)「希望か恐怖か?AIの先駆者たちを二分する大論争」 ガーディアン・ウィークリー 、 10~ 12頁 。 ^ 「2023年11月1~2日に開催されたAI安全サミット参加国のブレッチリー宣言」 GOV.UK 、2023年11月1日。 2023年11月1日時点の オリジナル よりアーカイブ。 2023年 11月2日 閲覧 。 ^ 「各国、画期的なブレッチリー宣言で最先端AIの安全かつ責任ある開発に合意」 GOV.UK ( プレスリリース)。 2023年11月1日時点のオリジナルより アーカイブ。 2023年 11月1日 閲覧 。 ^ 「第2回グローバルAIサミット、企業から安全確保の確約を得る」 ロイター、2024年5月21日。 2024年 5月23日 閲覧 。 ^ 「Frontier AI Safety Commitments, AI Seoul Summit 2024」 . gov.uk. 2024年5月21日. 2024年5月23日時点の オリジナルよりアーカイブ。 2024年 5月23日 閲覧 。 ^ a b Buntz, Brian (2024年11月3日). 「質 vs. 量:2024年の世界的なAI特許競争で米国と中国は異なる道筋を描く / 2024年のAI特許の地理的内訳」 . Research & Development World . R&D World. 2024年12月9日時点のオリジナルより アーカイブ。 ^ a b c Copeland, J.編 (2004). 『チューリングのエッセンス:コンピュータ時代を生み出したアイデア 』オックスフォード、イギリス: クラレンドン・プレス. ISBN 0-1982-5079-7 。^ “Google books ngram” . 2024年10月5日時点のオリジナルより アーカイブ 。 2024年 10月5日 閲覧。 ^ AIの直接の先駆者: McCorduck(2004年 、pp. 51–107)、 Crevier(1993年 、pp. 27–32)、 Russell & Norvig(2021年 、pp. 8–17)、 Moravec(1988年 、p. 3) ^ a b チューリングによるチューリングテスト の最初の出版は『計算機械と知能 』の中で:チューリング(1950年) 歴史的影響と哲学的含意:ハウゲランド(1985年 、6~9頁)、クレヴィエ(1993年 、24頁)、マコーダック(2004年 、70~71頁)、ラッセル&ノーヴィグ(2021年 、2頁、984頁) ^ Simon (1965 , p. 96) をCrevier (1993 , p. 109^ ミンスキー(1967年 、p.2)をクレヴィエ(1993年 、p.109)^ エキスパートシステム : Russell & Norvig(2021 、pp. 23, 292)、 Luger & Stubblefield(2004 、pp. 227–331)、 Nilsson(1998 、chpt. 17.4)、 McCorduck(2004 、pp. 327–335, 434–435)、 Crevier(1993 、pp. 145–162, 197–203)、 Newquist(1994 、pp. 155–183)^ 開発ロボット工学 : Weng et al. (2001) 、 Lungarella et al. (2003) 、浅田ら。 (2009) 、オーデイヤー (2010) ^ クレヴィエ(1993年 、214~215頁)、ラッセル&ノルヴィグ(2021年 、24、26頁)^ 1990年代に採用された 形式的 および狭義の方法: ラッセル&ノーヴィグ(2021年 、24~26頁)、マコーダック(2004年 、486~487頁)^ 1990年代後半に広く利用されたAI: Kurzweil(2005年 、p.265)、 NRC(1999年 、pp.216–222)、 Newquist(1994年 、pp.189–201) ^ ムーアの法則 とAI:ラッセル&ノルヴィグ(2021年 、14、27ページ)^ ビッグデータ :ラッセル&ノルヴィグ(2021年 、26頁)^ Sagar, Ram (2020年6月3日). 「OpenAIがGPT-3をリリース、これまでで最大のモデル」 . Analytics India Magazine . 2020年8月4日時点のオリジナルより アーカイブ。 2023年 3月15日 閲覧 。 ^ Milmo, Dan (2023年2月2日). 「ChatGPT、ローンチから2ヶ月でユーザー数1億人に到達」 . The Guardian . ISSN 0261-3077 . 2023年2月3日時点のオリジナルより アーカイブ。 2024年 12月31日 閲覧 。 ^ Gorichanaz, Tim (2023年11月29日). 「ChatGPTが1周年:AIチャットボットの成功はテクノロジーと同じくらい人間について語っている」 . The Conversation . 2024年12月31日時点のオリジナルより アーカイブ。 2024年 12月31日 閲覧 。 ^ 「新興企業の4社に1社近くがAI企業」 PitchBook 、 2024年12月24日。 2025年 1月3日 閲覧 。 ^ グレイリング、アンソニー、ボール、ブライアン(2024年8月1日) 「AI時代に哲学は重要」 The Conversation . 2024年10月5日時点のオリジナルより アーカイブ 。 2024年 10月4日 閲覧 。 ^ a b Jarow, Oshan (2024年6月15日). 「AIは意識を持つようになるのか?それは生物学についてどう考えるかによる」 Vox . 2024 年9月21日時点のオリジナルより アーカイブ。 2024年 10月4日 閲覧 。 ^ マッカーシー、ジョン. 「AIの哲学と哲学のAI」 . jmc.stanford.edu . 2018年10月23日時点の オリジナルよりアーカイブ。 2024年 10月3日 閲覧 。 ^ カーク=ジャンニーニ、キャメロン・ドメニコ、ゴールドスタイン、サイモン(2023年10月16日)。 「AIは『知能』のチューリングテストにこれまで以上に近づいている。そうなったら何が起こるのか?」 The Conversation 。 2024年9月25日時点のオリジナルより アーカイブ。 2024年 8月17日 閲覧 。 ^ 「人工知能(AI)とは?」 Google Cloud Platform . 2023年7月31日時点のオリジナルより アーカイブ。 2023年 10月16日 閲覧 。 ^ サックマン、ルーシー (2023). 「AIの議論の余地のない『物性』」 . ビッグデータ&ソサエティ . 10 (2) 20539517231206794. doi : 10.1177/20539517231206794 . ^ Rehak, Rainer (2025). 「AIナラティブの内訳:力と可能性の批判的評価」. 2025 ACM Conference on Fairness, Accountability, and Transparency 議事録 . pp. 1250– 1260. doi : 10.1145/3715275.3732083 . ISBN 979-8-4007-1482-5 。^ 「AI規制における最大の問題の一つは定義の合意である」 カーネギー 国際平和財団 。 2024年 7月31日 閲覧 。 ^ 「AIかBSか?マーケティングツールが本当に人工知能を使っているかを見分ける方法」 The Drum 2024年 7月31日 閲覧 。 ^ Musser, George (2023年9月1日). 「AIは誰も教えてくれなかったことを知る方法」 . Scientific American . 2025年 7月17日 閲覧 。 ^ ハウゲランド(1985) 、112–117頁。^ 物理的シンボルシステム仮説:ニューウェル&サイモン(1976年 、p.116)歴史的意義:マコーダック(2004年 、p.153)、ラッセル&ノルヴィグ(2021年 、p.19) ^ モラヴェックのパラドックス : Moravec (1988 , pp. 15–16), Minsky (1986 , p. 29), Pinker (2007 , pp. 190–191)^ ドレフュスのAI批判 :ドレフュス(1972) 、ドレフュス&ドレフュス(1986) 歴史的意義と哲学的含意:クレヴィエ(1993 、pp. 120–132)、マコーダック(2004 、pp. 211–239)、ラッセル&ノーヴィグ(2021 、pp. 981–982)、フィアーン(2007 、chpt. 3)^ ニート対スクラフィー 、歴史的論争: McCorduck(2004年 、421~424頁、486~489頁)、 Crevier(1993年 、168頁)、 Nilsson(1983年 、10~11頁)、 Russell&Norvig(2021年 、24頁)知能に対する「スクラフィー」アプローチの典型的な例: Minsky(1986年) 21世紀におけるニートAIとその展望の現代的な例: Domingos(2015年) ^ サールの中国語の部屋 論:サール(1980年) . サールによる思考実験の原典.、サール(1999年) . 議論:ラッセル&ノーヴィグ(2021年 、985頁)、マコーダック(2004年 、443~445頁)、クレヴィエ(1993年 、269~271頁) ^ Leith, Sam (2022年7月7日). 「ニック・ボストロム:機械が意識を持っていないと確信できる方法は?」 スペクテイター 誌 . 2024年9月26日時点のオリジナルより アーカイブ。 2024年 2月23日 閲覧 。 ^ a b c Thomson, Jonny (2022年10月31日). 「なぜロボットには権利がないのか?」 . Big Think . 2024年9月13日時点のオリジナルより アーカイブ 。 2024年 2月23日 閲覧。 ^ a b Kateman, Brian (2023年7月24日). 「AIは人間を恐れるべき」 . Time . 2024年9月25日時点のオリジナルより アーカイブ 。 2024年 2月23日 閲覧。 ^ ウォン、ジェフ(2023年7月10日) 「ロボットの権利についてリーダーが知っておくべきこと」 Fast Company 。 ^ Hern, Alex (2017年1月12日). 「EU委員会、ロボットに『人格』の地位を与えるべきだと主張」 . The Guardian . ISSN 0261-3077 . 2024年10月5日時点のオリジナルより アーカイブ。 2024年 2月23日 閲覧 。 ^ Dovey, Dana (2018年4月14日). 「専門家はロボットに権利を与えるべきではないと考えている」 . Newsweek . 2024年10月5日時点のオリジナルより アーカイブ。 2024年 2月23日 閲覧 。 ^ Cuddy, Alice (2018年4月13日). 「ロボットの権利は人権を侵害すると専門家がEUに警告」 . euronews . 2024年9月19日時点のオリジナルより アーカイブ。 2024年 2月23日 閲覧 。 ^ 知能爆発 と技術的特異点 :ラッセル&ノーヴィグ(2021年 、pp. 1004–1005)、オモハンドロ(2008年) 、カーツワイル(2005年) IJグッド の「知能爆発」:グッド(1965年) ヴァーナー・ヴィンジ の「特異点」:ヴィンジ(1993年) ^ トランスヒューマニズム :モラベック(1988) 、カーツワイル(2005) 、ラッセル&ノルヴィグ(2021 、p.1005)^ AIは進化である:エドワード・フレドキンは マコーダック(2004年 、p.401)、バトラー(1863年) 、ダイソン(1998年) で引用されている。 ^ 神話におけるAI:マコーダック(2004年 、4~5ページ) ^ アンダーソン (2008) .
教科書
AIの歴史
その他の情報源 AIとMLの融合 AIとMLの融合、ビデオ講義( Wayback Machine で2023年7月2日にアーカイブ) アルター、アレクサンドラ、ハリス、エリザベス・A.(2023年9月20日)「フランゼン、グリシャム、その他の著名な作家がOpenAIを訴える」 、ニューヨーク・タイムズ 、2024年9月14日時点のオリジナルよりアーカイブ、 2024年 10月5日 閲覧。 アルトマン、サム 、ブロックマン 、イリヤ・スツケヴァー (2023年5月22日)「スーパーインテリジェンスのガバナンス」 openai.com 。2023年5月27日時点のオリジナルよりアーカイブ 。2023年 5月27日 閲覧 。アンダーソン、スーザン・リー (2008). 「アシモフの『ロボット工学三原則』と機械のメタ倫理学」. AI & Society . 22 (4): 477– 493. doi : 10.1007/s00146-007-0094-5 . アンダーソン、マイケル;アンダーソン、スーザン・リー(2011年)『機械倫理学 』ケンブリッジ大学出版局。 アーンツ、メラニー、グレゴリー、テリー、ジーラーン、ウルリッヒ(2016)「OECD諸国における雇用の自動化リスク:比較分析」OECD社会・雇用・移民ワーキングペーパー189 浅田 正之; 細田 健; 國吉 雄三; 石黒 秀; 乾 剛; 吉川 雄三; 萩野 正之; 吉田 千恵子 (2009). 「認知発達ロボティクス:概観」. IEEE Transactions on Autonomous Mental Development . 1 (1): 12– 34. Bibcode : 2009ITAMD...1...12A . doi : 10.1109/tamd.2009.2021702 . 「AIの専門家に聞く:今日のAIの進歩の原動力は何なのか?」 マッキンゼー・アンド・カンパニー 。2018年4月13日時点のオリジナルよりアーカイブ 。2018年4月13日 閲覧。バーフィールド、ウッドロー、パガロ、ウーゴ (2018). 『人工知能の法則に関する研究ハンドブック』 イギリス、チェルトナム: エドワード・エルガー出版. ISBN 978-1-7864-3904-8 . OCLC 1039480085 . Beal, J.; Winston, Patrick (2009)「人間レベルの人工知能の新境地」IEEE Intelligent Systems , 24 (4): 21– 24, Bibcode : 2009IISys..24d..21B , doi : 10.1109/MIS.2009.75 , hdl : 1721.1/52357 Berdahl, Carl Thomas; Baker, Lawrence; Mann, Sean; Osoba, Osonde; Girosi, Federico (2023年2月7日). 「人工知能が健康の公平性に与える影響を改善するための戦略:スコープレビュー」 . JMIR AI . 2 e42936. doi : 10.2196/42936 . PMC 11041459. PMID 38875587 . Berryhill, Jamie; Heang, Kévin Kok; Clogher, Rob; McBride, Keegan (2019). Hello, World: Artificial Intelligence and its Use in the Public Sector (PDF) . パリ: OECD Observatory of Public Sector Innovation. 2019年12月20日時点のオリジナルよりアーカイブ (PDF) . 2020年 8月9日 閲覧 . Bertini, Marco; Del Bimbo, Alberto; Torniai, Carlo (2006). 「マルチメディアオントロジーを用いたビデオシーケンスの自動アノテーションとセマンティック検索」.第14回ACM国際マルチメディア会議議事録 . pp. 679– 682. doi : 10.1145/1180639.1180782 . ISBN 1-59593-447-2 。 ボストロム、ニック (2014年)『スーパーインテリジェンス:道筋、危険、戦略 』オックスフォード大学出版局。ボストロム、ニック (2015). 「コンピューターが人間よりも賢くなったら何が起こるのか?」 TED (カンファレンス) . 2020年7月25日時点のオリジナルよりアーカイブ。 2020年 1月30日 閲覧 。 ブルックス、ロドニー(2014年11月10日)「人工知能はツールであり、脅威ではない」 。Rethink Robotics 。2014年11月12日時点の オリジナル よりアーカイブ。 ブルックス、ロドニー A. (1990). 「ゾウはチェスをしない」.ロボティクスと自律システム . 6 ( 1–2 ): 3–15 . doi : 10.1016/S0921-8890(05)80025-9 . ブイテン、ミリアム・C (2019). 「人工知能のインテリジェントな規制に向けて」 .欧州リスク規制ジャーナル . 10 (1): 41– 59. doi : 10.1017/err.2019.8 . ISSN 1867-299X . Bushwick, Sophie (2023年3月16日)、「What the New GPT-4 AI Can Do」 、Scientific American 、2023年8月22日時点のオリジナルよりアーカイブ 、2024年10月5日閲覧。 バトラー、サミュエル (1863年6月13日)「機械の中のダーウィン」 。編集者への手紙。ザ・プレス 。ニュージーランド、クライストチャーチ。2008年9月19日時点のオリジナルよりアーカイブ。 2014年 10月16日 閲覧。 ウェリントン・ヴィクトリア大学経由。Buttazzo, G. (2001年7月). 「人工意識:ユートピアか現実の可能性か?」Computer . 34 (7): 24– 30. Bibcode : 2001Compr..34g..24B . doi : 10.1109/2.933500 . カンブリア, エリック; ホワイト, ベボ (2014年5月). 「ジャンピングNLP曲線:自然言語処理研究のレビュー [レビュー記事]」. IEEE Computational Intelligence Magazine . 9 (2): 48– 57. doi : 10.1109/MCI.2014.2307227 . セラン=ジョーンズ、ロリー(2014年12月2日)「スティーブン・ホーキング氏、人工知能が人類を滅ぼす可能性があると警告」 BBCニュース 。2015年10月30日時点のオリジナルよりアーカイブ。 2015年 10月30日 閲覧 。 チャーマーズ、デイヴィッド (1995)「意識の問題に立ち向かう」 意識研究ジャーナル 2 ( 3):200-219 。Challa, Subhash; Moreland, Mark R.; Mušicki, Darko; Evans, Robin J. (2011). 『物体追跡の基礎 』 ケンブリッジ大学出版局. doi : 10.1017/CBO9780511975837 . ISBN 978-0-5218-7628-5 。 クリスチャン、ブライアン (2020年)『アライメント問題 :機械学習と人間の価値観 』WW Norton & Company. ISBN 978-0-3938-6833-3 . OCLC 1233266753 .Ciresan, D.; Meier, U.; Schmidhuber, J. (2012). 「画像分類のためのマルチカラムディープニューラルネットワーク」2012 IEEE コンピュータビジョンおよびパターン認識会議 pp. 3642– 3649. arXiv : 1202.2745 . doi : 10.1109/cvpr.2012.6248110 . ISBN 978-1-4673-1228-8 。 ジャック・クラーク (2015b). 「なぜ2015年は人工知能にとってブレークスルーの年だったのか」 . Bloomberg.com . 2016年11月23日時点のオリジナルよりアーカイブ。 2016年 11月23日 閲覧 。 CNA (2019年1月12日). 「論評:悪いニュース。人工知能は偏っている」 . CNA . 2019年1月12日時点のオリジナルよりアーカイブ。 2020年 6月19日 閲覧 。 Cybenko, G. (1988). 2つの隠れ層を持つ連続値ニューラルネットワークで十分である(報告書). タフツ大学コンピュータサイエンス学部.Deng, L.; Yu, D. (2014). 「ディープラーニング:手法と応用」 (PDF) .信号処理の基礎と動向 . 7 ( 3–4 ): 197– 387. doi : 10.1561/2000000039 . 2016年3月14日時点のオリジナルよりアーカイブ (PDF) . 2014年 10月18日 閲覧 。 デネット、ダニエル (1991年)『意識の解明 』ペンギン・プレス、ISBN 978-0-7139-9037-9 。DiFeliciantonio, Chase (2023年4月3日). 「AIはすでに世界を変えている。このレポートはその様子を示している」 サンフランシスコ・クロニクル . 2023年6月19日時点のオリジナルよりアーカイブ。 2023年 6月19日 閲覧 。 Dickson, Ben (2022年5月2日). 「機械学習:Transformerアーキテクチャとは?」 TechTalks . 2023年11月22日時点のオリジナルよりアーカイブ。 2023年 11月22日 閲覧 。 ドミンゴス、ペドロ (2015年)『マスターアルゴリズム:究極の学習マシンの探求が世界をどう変えるのか 』ベーシックブックス 、ISBN 978-0-4650-6570-7 。ドレイファス、ヒューバート (1972年)『コンピュータにできないこと 』ニューヨーク:MIT出版、ISBN 978-0-0601-1082-6 。ドレイファス、ヒューバート 、ドレイファス、スチュアート (1986). 『マインド・オーバー・マシン:コンピュータ時代における人間の直感と専門知識の力』 オックスフォード: ブラックウェル. ISBN 978-0-0290-8060-3 . 2020年7月26日時点のオリジナルよりアーカイブ 。2020年8月22日 閲覧。ダイソン、ジョージ (1998年)『機械の中のダーウィン 』アラン・レーン・サイエンス社、ISBN 978-0-7382-0030-9 . 2020年7月26日時点のオリジナルよりアーカイブ 。2020年8月22日 閲覧。エデルソン、エドワード(1991年)『神経系 』ニューヨーク:チェルシーハウス、ISBN 978-0-7910-0464-7 . 2020年7月26日時点のオリジナルよりアーカイブ 。2019年11月18日 閲覧。 エドワーズ、ベンジ(2023年5月17日)「世論調査:AIは人類にリスクをもたらす、とアメリカ人の大多数が回答」 Ars Technica 。2023年6月19日時点のオリジナルよりアーカイブ 。2023年 6月19日 閲覧 。 ニコラス・ファーン(2007年)『最古の問いへの最新の答え:世界の偉大な思想家たちとの哲学的冒険 』ニューヨーク:グローブ・プレス、ISBN 978-0-8021-1839-4 。 フォード、マーティン、コルビン、ジェフ(2015年9月6日)「ロボットは破壊するよりも多くの雇用を生み出すのか?」 ガーディアン紙 。2018年6月16日時点のオリジナルよりアーカイブ 。2018年 1月13日 閲覧 。 Fox News (2023). 「Fox News Poll」 (PDF) . Fox News. 2023年5月12日時点のオリジナルよりアーカイブ (PDF) 。 2023年 6月19日 閲覧 。 フレイ、カール・ベネディクト、オズボーン、マイケル・A (2017). 「雇用の未来:仕事はコンピュータ化の影響を受けるか?」『技術予測と社会変化 』114 : 254–280 . doi : 10.1016/j.techfore.2016.08.019 . 「働かない状態からニューラルネットワークへ」 エコノミスト誌 、2016年。2016年12月31日時点のオリジナルよりアーカイブ 。2018年4月26日 閲覧。ジル・ガルバン(1997年1月1日)「フィリップ・K・ディックの『アンドロイドは電気羊の夢を見るか?』におけるポストヒューマン集団への入り口」 「SF 研究 .24 ( 3 ) : 413–429.doi : 10.1525 / sfs.24.3.0413.JSTOR4240644 . ガイスト、エドワード・ムーア(2015年8月9日)「人工知能は本当に人類にとって実存的な脅威なのか?」 『原子科学者会報』 。2015年10月30日時点のオリジナルよりアーカイブ。 2015年 10月30日 閲覧 。 ギブス、サミュエル(2014年10月27日)「イーロン・マスク:人工知能は人類最大の実存的脅威」 ガーディアン紙 。2015年10月30日時点のオリジナルよりアーカイブ。 2015年 10月30日 閲覧 。 ゴフリー、アンドリュー (2008). 「アルゴリズム」. フラー、マシュー (編).ソフトウェア研究:用語集 . マサチューセッツ州ケンブリッジ: MIT 出版. pp. 15–20 . ISBN 978-1-4356-4787-9 。 ゴールドマン、シャロン(2022年9月14日)「10年後もディープラーニングの『革命』は続く、とAIのパイオニアであるヒントン、ルカン、リーは語る」 。VentureBeat 。2024年10月5日時点のオリジナルよりアーカイブ。 2023年 12月8日 閲覧 。 Good, IJ (1965), Speculations Concerning the First Ultraintelligent Machine , 2023年7月10日時点のオリジナルよりアーカイブ, 2024年 10月5日 閲覧 Goodfellow, Ian; Bengio, Yoshua; Courville, Aaron (2016), Deep Learning , MIT Press., 2016年4月16日時点のオリジナルよりアーカイブ , 2017年11月12日閲覧 グッドマン、ブライス、フラックスマン、セス(2017)「アルゴリズムによる意思決定と『説明を受ける権利』に関するEU規制」 「. AI マガジン . 38 (3): 50. arXiv : 1606.08813 . doi : 10.1609/aimag.v38i3.2741 . 政府監査院 (2022年9月13日)「消費者データ:利用拡大がプライバシーにリスクをもたらす 」gao.gov (報告書)。2024年9月13日時点のオリジナルよりアーカイブ。 2024年 10月5日 閲覧 。グラント、ニコ、ヒル、カシミール(2023年5月22日)。「Googleのフォトアプリはまだゴリラを見つけられない。Appleのもだ」 。ニューヨーク・タイムズ 。2024年9月14日時点のオリジナルよりアーカイブ。 2024年 10月5日 閲覧 。 ゴスワミ、ローハン (2023年4月5日). 「AI関連の仕事はここにある」 . CNBC . 2023年6月19日時点のオリジナルよりアーカイブ。 2023年 6月19日 閲覧 。 ハラリ、ユヴァル・ノア (2018年10月)「なぜテクノロジーは専制政治を好むのか」 アトランティック誌 。2021年9月25日時点のオリジナルよりアーカイブ。 2021年 9月23日 閲覧 。ハラリ、ユヴァル・ノア (2023). 「AIと人類の未来」 . YouTube . 2024年9月30日時点のオリジナルよりアーカイブ。 2024年 10月5日 閲覧 。 ハウゲランド、ジョン (1985). 『人工知能:その概念そのもの 』 マサチューセッツ州ケンブリッジ: MIT 出版. ISBN 978-0-2620-8153-5 。Hinton, G.; Deng, L.; Yu, D.; Dahl, G.; Mohamed, A.; Jaitly, N.; Senior, A.; Vanhoucke, V.; Nguyen, P.; Sainath, T .; Kingsbury, B. (2012). 「音声認識における音響モデリングのためのディープニューラルネットワーク ― 4つの研究グループの共通見解」IEEE Signal Processing Magazine . 29 (6): 82– 97. Bibcode : 2012ISPM...29...82H . doi : 10.1109/msp.2012.2205597 . ピーター・ホーリー(2015年1月28日)「ビル・ゲイツ氏、人工知能の危険性について語る:「なぜ一部の人々が懸念していないのか理解できない」 「 .ワシントン・ポスト . ISSN 0190-8286 . 2015年10月30日時点のオリジナルよりアーカイブ。 2015年 10月30日 閲覧 。 Hornik, Kurt; Stinchcombe, Maxwell; White, Halbert (1989).多層フィードフォワードネットワークは普遍近似器である (PDF) . Neural Networks . Vol. 2. Pergamon Press. pp. 359– 366. 2023年4月21日時点のオリジナルよりアーカイブ (PDF) . 2024年 10月5日 閲覧 。 ホルスト、スティーブン (2005). 「心の計算理論」 スタンフォード哲学百科事典 . 2016年3月6日時点のオリジナルよりアーカイブ。 2016年 3月7日 閲覧 。 Howe, J. (1994年11月). 「エディンバラ大学における人工知能:展望」 . 2007年5月15日時点のオリジナルよりアーカイブ。 2007年 8月30日 閲覧 。 IGMシカゴ (2017年6月30日). 「ロボットと人工知能」 . igmchicago.org . 2019年5月1日時点のオリジナルよりアーカイブ。 2019年 7月3日 閲覧 。 イプホーフェン、ロン;クリティコス、ミハリス(2019年1月3日)「人工知能とロボット工学の規制:デジタル社会における設計倫理」Contemporary Social Science . 16 (2): 170– 184. doi : 10.1080/21582041.2018.1563803 . ISSN 2158-2041 . Jordan, MI; Mitchell, TM (2015年7月16日). 「機械学習:トレンド、展望、そして将来性」. Science . 349 (6245): 255–260 . Bibcode : 2015Sci...349..255J . doi : 10.1126/science.aaa8415 . PMID 26185243 . ダニエル・カーネマン、ポール・スロヴィック、エイモス・トヴェルスキー(1982)『不確実性下における判断:ヒューリスティックスとバイアス 』ケンブリッジ大学出版局 カーネマン、ダニエル (2011年)『ファスト&スロー 』マクミラン社、ISBN 978-1-4299-6935-2 . 2023年3月15日時点のオリジナルよりアーカイブ 。2012年4月8日 閲覧。ピーター・カスペロヴィッチ(2023年5月1日)「AI規制? 政府によるAI規制の妥当性について、共和党は民主党よりも懐疑的:世論調査」 Fox News 。2023年6月19日時点のオリジナルよりアーカイブ 。2023年 6月19日 閲覧 。 カッツ、ヤルデン(2012年11月1日)「ノーム・チョムスキーが語る人工知能の失敗」 アトランティック誌 。2019年2月28日時点のオリジナルよりアーカイブ 。2014年 10月26日 閲覧 。 「Kismet」 MIT人工知能研究所ヒューマノイドロボティクスグループ。2014年10月17日時点のオリジナルよりアーカイブ。 2014年 10月25日 閲覧 。キッシンジャー、ヘンリー (2021年11月1日)「AI時代に人間であることの課題」 ウォール・ストリート・ジャーナル 。2021年11月4日時点のオリジナルよりアーカイブ 。2021年 11月4日 閲覧 。Kobielus, James (2019年11月27日). 「GPUは今のところAIアクセラレータ市場を支配し続けている」 InformationWeek . 2021年10月19日時点のオリジナルよりアーカイブ。 2020年 6月11日 閲覧 。 Kuperman, GJ; Reichley, RM; Bailey, TC (2006年7月1日). 「臨床意思決定支援における商用ナレッジベースの利用:機会、課題、そして推奨事項」 .米国医療情報学会誌 . 13 (4): 369– 371. doi : 10.1197/jamia.M2055 . PMC 1513681. PMID 16622160 . レイ・カーツワイル (2005年)『シンギュラリティは近い 』ペンギンブックス、ISBN 978-0-6700-3384-3 。ラングレー、パット (2011). 「機械学習の科学の変遷」 .機械学習 . 82 (3): 275– 279. doi : 10.1007/s10994-011-5242-y . ラーソン、ジェフ、アングウィン、ジュリア (2016年5月23日)「COMPAS再犯アルゴリズムの分析方法」 ProPublica 。2019年4月29日時点のオリジナルよりアーカイブ 。2020年 6月19日 閲覧 。 ニコル・ラスコウスキー(2023年11月)「人工知能とは何か、そしてAIはどのように機能するのか? TechTarget」 エンタープライズAI 。2024年10月5日時点のオリジナルよりアーカイブ。 2023年 10月30日 閲覧 。 米国議会法図書館. グローバル法律調査局(発行機関). (2019).特定の法域における人工知能の規制 . LCCN 2019668143. OCLC 1110727808 . ティモシー・B・リー(2014年8月22日)「人工知能は人類を滅ぼすのか? 心配する必要がない5つの理由」 Vox . 2015年10月30日時点のオリジナルよりアーカイブ。 2015年 10月30日 閲覧 。 レナット、ダグラス 、グハ、RV (1989). 『大規模知識ベースシステムの構築』 Addison-Wesley. ISBN 978-0-2015-1752-1 。ライトヒル、ジェームズ (1973). 「人工知能:概観」.人工知能:論文シンポジウム . 科学研究会議.リパルティート、ケネス(2011年1月6日)「物語とアルゴリズム:19世紀から今日までの信用報告のジャンル」 (PDF) (未発表原稿)、SSRN 1736283 、2022年10月9日時点のオリジナルよりアーカイブ (PDF) ローア、スティーブ (2017). 「ロボットは雇用を奪うだろうが、一部の懸念ほど急速ではない、と新たな報告書は述べている」 ニューヨーク・タイムズ . 2018年1月14日時点のオリジナルよりアーカイブ。 2018年 1月13日 閲覧 。 Lungarella, M.; Metta, G.; Pfeifer, R.; Sandini, G. (2003). 「発達ロボティクス:概説」. Connection Science . 15 (4): 151– 190. Bibcode : 2003ConSc..15..151L . doi : 10.1080/09540090310001655110 . 「機械倫理」 aaai.org 。 2014年11月29日時点のオリジナル よりアーカイブ。マドリガル、アレクシス・C. (2015年2月27日). 「殺人ロボット反対の論拠:人工知能に実際に取り組んでいる人物が語る」 Fusion.net . 2016年2月4日時点のオリジナルよりアーカイブ。 2016年 1月31日 閲覧 。 マハダウィ、アルワ(2017年6月26日)「20年後も残っている仕事とは?将来に備えるために読んでおきたいこと」 ガーディアン紙。2018 年1月14日時点のオリジナルよりアーカイブ。 2018年 1月13日 閲覧 。 Maker, Meg Houston (2006), AI@50: AI Past, Present, Future , Dartmouth College, 2008年10月8日時点のオリジナルよりアーカイブ , 2008年10月16日閲覧 Marmouyet, Françoise (2023年12月15日). 「GoogleのGemini:新しいAIモデルは本当にChatGPTよりも優れているのか?」 The Conversation . 2024年3月4日時点のオリジナルよりアーカイブ。 2023年 12月25日 閲覧 。 ミンスキー、マーヴィン (1986年)『心の社会 』サイモン&シュスターマッカーシー、ジョン 、ミンスキー、マービン 、ロチェスター、 クロード・シャノン (1955). 「ダートマス大学人工知能夏季研究プロジェクトへの提案」 . stanford.edu . 2007年8月26日時点のオリジナルよりアーカイブ。 2007年 8月30日 閲覧 。マッカーシー、ジョン (2007)「ここから人間レベルのAIへ」人工知能 、p.171マッカーシー、ジョン (1999)「AIとは何か?」 、2022年12月4日時点のオリジナルよりアーカイブ、 2022年 12月4日 閲覧。 マコーリー、リー (2007). 「AIの終末とロボット工学の三原則」.倫理と情報技術 . 9 (2): 153– 164. doi : 10.1007/s10676-007-9138-2 . ProQuest 222198675 . マッカーリー, ケン (2005年12月1日). 「知識発見のための興味深さ尺度のサーベイ」.知識工学レビュー . 20 (1): 39– 61. doi : 10.1017/S0269888905000408 . マクゴーヒー、ユアン (2022). 「ロボットはあなたの仕事を自動化するのか? 完全雇用、ベーシックインカム、そして経済的民主主義」.インダストリアル・ロー・ジャーナル . 51 (3): 511– 559. doi : 10.1093/indlaw/dwab010 . SSRN 3044448 . ダニエル・マークル、マーティン・ミッドデンドルフ (2013). 「群知能」. エドマンド・K・バーク、グラハム・ケンドール (編). 『探索方法論:最適化と意思決定支援技術入門チュートリアル 』. シュプリンガー・サイエンス&ビジネス・メディア. ISBN 978-1-4614-6940-7 。 ミンスキー、マービン (1967年)、計算:有限機械と無限機械 、ニュージャージー州エングルウッドクリフス:プレンティスホールモラベック、ハンス (1988年)『マインド・チルドレン 』ハーバード大学出版局、ISBN 978-0-6745-7616-2 . 2020年7月26日時点のオリジナルよりアーカイブ 。2019年11月18日 閲覧。モーゲンシュテルン、マイケル(2015年5月9日)「オートメーションと不安」 エコノミスト誌 。2018年1月12日時点のオリジナルよりアーカイブ 。2018年 1月13日 閲覧 。 ヴィンセント・C・ミュラー;ニック・ボストロム(2014)「人工知能の将来的進歩:専門家の世論調査」AI Matters 1 ( 1): 9– 11. doi : 10.1145/2639475.2639478 . Neumann, Bernd; Möller, Ralf (2008年1月). 「記述論理を用いたシーン解釈について」. Image and Vision Computing . 26 (1): 82– 101. doi : 10.1016/j.imavis.2007.08.013 . ニルソン、ニルス (1995)「賞に目を向けて」、AIマガジン、第16巻、 9~ 17頁 ニューウェル、アレン ;サイモン、HA (1976). 「経験的探究としてのコンピュータサイエンス:記号と探索」 Communications of the ACM . 19 (3): 113– 126. doi : 10.1145/360018.360022 .ニカス、ジャック(2018年2月7日) 「YouTubeはいかにして人々を インターネットの最も暗い隅へと導くのか」 ウォール・ストリート・ジャーナル 。ISSN 0099-9660 。2024年10月5日時点のオリジナルよりアーカイブ。 2018年 6月16日 閲覧 。 Nilsson, Nils (1983). 「人工知能は2001年に備える」 (PDF) . AI Magazine . 1 (1). 2020年8月17日時点のオリジナルよりアーカイブ (PDF) . 2020年 8月22日 閲覧 .人工知能推進協会 会長演説。NRC(米国国立研究会議) (1999年)「人工知能の発展」 『革命への資金提供:コンピューティング研究への政府支援』 全米 アカデミー出版局。ISBN 978-0-309-52501-5 。オモハンドロ、スティーブ (2008).自己改善型人工知能の本質 (PDF) . 2007年シンギュラリティサミット. サンフランシスコ, カリフォルニア州.Oudeyer, PY. (2010). 「行動科学と認知科学におけるロボット工学の影響:昆虫のナビゲーションから人間の認知発達まで」IEEE Transactions on Autonomous Mental Development . 2 (1): 2– 16. Bibcode : 2010ITAMD...2....2O . doi : 10.1109/tamd.2009.2039057 . Pennachin, C.; Goertzel, B. (2007). 「汎用人工知能への現代的アプローチ」.汎用人工知能 . 認知技術. ベルリン、ハイデルベルク: Springer. pp. 1– 30. doi : 10.1007/978-3-540-68677-4_1 . ISBN 978-3-5402-3733-4 。 ピンカー、スティーブン (2007)[1994]、「言語本能」 、Perennial Modern Classics、ハーパー、ISBN 978-0-0613-3646-1 ポリア, ソウジャニャ; カンブリア, エリック; バジパイ, ラジブ; フセイン, アミール (2017年9月). 「感情コンピューティングのレビュー:ユニモーダル分析からマルチモーダル融合へ」. Information Fusion . 37 : 98–125 . Bibcode : 2017InfFu..37...98P . doi : 10.1016/j.inffus.2017.02.003 . hdl : 1893/25490 . ローリンソン、ケビン(2015年1月29日)「マイクロソフトのビル・ゲイツ氏、AIは脅威だと主張」 BBCニュース 。2015年1月29日時点のオリジナルよりアーカイブ。 2015年 1月30日 閲覧 。 ライスナー、アレックス(2023年8月19日)「海賊版書籍が生成AIの原動力となっている著者が明らかに」 、アトランティック誌 、2024年10月3日時点のオリジナルよりアーカイブ 、2024年10月5日閲覧。 ロバーツ、ジェイコブ (2016). 「考える機械:人工知能の探求」 . 『蒸留 』第2巻第2号. pp. 14– 23. 2018年8月19日時点のオリジナルよりアーカイブ。 2018年 3月20日 閲覧 。 ダン・ロビツスキー(2018年9月5日)「5人の専門家がAIについて最も恐れていることを語る」 Futurism誌 。2019年12月8日時点のオリジナルよりアーカイブ 。2019年 12月8日 閲覧 。 ローズ、スティーブ(2023年7月11日)「AIはユートピアかディストピアか?」ガーディアン・ ウィークリー、 42~ 43ページ 。 ラッセル、スチュアート (2019年)『人間に適合する人工知能:制御の問題 』アメリカ:ヴァイキング社、ISBN 978-0-5255-5861-3 . OCLC 1083694322 .サイナート、マイケル(2015年8月19日)「スティーブン・ホーキング、イーロン・マスク、ビル・ゲイツが人工知能について警告」 オブザーバー 。2015年10月30日時点のオリジナルよりアーカイブ 。2015年 10月30日 閲覧 。 イアン・サンプル(2017年11月5日)「コンピューターはノーと言う:AIを公平で説明責任があり、透明性のあるものにすることがなぜ重要か」 ガーディアン紙 。2022年10月10日時点のオリジナルよりアーカイブ。 2018年 1月30日 閲覧 。 ロスマン、デニス (2020年10月7日). 「LIMEの説明とその背後にある数学を探る」 . Codemotion . 2023年11月25日時点のオリジナルよりアーカイブ。 2023年 11月25日 閲覧 。 スカセラティ、ブライアン (2002). 「ヒューマノイドロボットのための心の理論」.自律ロボット . 12 (1): 13– 24. doi : 10.1023/A:1013298507114 . Schmidhuber, J. (2015). 「ニューラルネットワークにおけるディープラーニング:概要」.ニューラルネットワーク . 61 : 85–117 . arXiv : 1404.7828 . Bibcode : 2015NN.....61...85S . doi : 10.1016/j.neunet.2014.09.003 . PMID 25462637 .Schmidhuber, Jürgen (2022). 「現代AIとディープラーニングの注釈付き歴史」 . 2023年8月7日時点のオリジナルよりアーカイブ 。2024年10月5日 閲覧。サール、ジョン (1980). 「心、脳、そしてプログラム」.行動・脳科学 . 3 (3): 417– 457. doi : 10.1017/S0140525X00005756 .サール、ジョン (1999年)『心、言語、そして社会 』ニューヨーク:ベーシックブックス、ISBN 978-0-4650-4521-1 . OCLC 231867665 . 2020年7月26日時点のオリジナルよりアーカイブ 。2020年8月22日 閲覧。Simon, HA (1965), The Shape of Automation for Men and Management , New York: Harper & Row, OCLC 1483817127 Simonite, Tom (2016年3月31日). 「Googleは人工知能の課題解決にどのように取り組んでいるか」 . MIT Technology Review . 2024年9月16日時点のオリジナルよりアーカイブ。 2024年 10月5日 閲覧 。 スミス、クレイグ・S. (2023年3月15日). 「ChatGPT-4開発者イリヤ・スツケヴァー氏、AI幻覚とAI民主主義について語る」 . Forbes . 2024年9月18日時点のオリジナルよりアーカイブ。 2023年 12月25日 閲覧 。 Smoliar, Stephen W.; Zhang, HongJiang (1994). 「コンテンツベースのビデオ索引作成と検索」 . IEEE MultiMedia . 1 (2): 62– 72. doi : 10.1109/93.311653 . Solomonoff, Ray (1956).帰納的推論マシン (PDF) . ダートマス夏季人工知能研究会議. 2011年4月26日時点のオリジナルよりアーカイブ (PDF) . 2011年 3月22日 閲覧 – std.com経由、オリジナルのPDFスキャンコピー。 後にソロモンオフ、レイ(1957年)として出版。「帰納的推論機械」 IREコンベンション記録 、第2巻、情報理論セクション、 56~ 62ページ。 スタンフォード大学 (2023). 「人工知能インデックスレポート2023/第6章:ポリシーとガバナンス」 (PDF) . AIインデックス. 2023年6月19日時点のオリジナルよりアーカイブ (PDF) . 2023年 6月19日 閲覧 . ジョン・スチュワート (2025年10月9日)「AI:何が問題になるのか? ジェフリー・ヒントンと共に」 。ジョン・スチュワートによるウィークリーショー (ポッドキャスト)。Tao, Jianhua; Tan, Tieniu (2005).アフェクティブ・コンピューティングとインテリジェント・インタラクション . アフェクティブ・コンピューティング:レビュー. コンピュータサイエンス講義ノート. Vol. 3784. Springer. pp. 981– 995. doi : 10.1007/11573548 . ISBN 978-3-5402-9621-8 。 テイラー、ジョシュ; ハーン、アレックス (2023年5月2日) 。 「『AIのゴッドファーザー』ジェフリー・ヒントン氏がGoogleを辞任、誤情報の危険性を警告」 。ガーディアン紙 。2024年10月5日時点のオリジナルよりアーカイブ。 2024年 10月5日 閲覧 。 デレク・トンプソン(2014年1月23日)「ロボットはどんな仕事を奪うのか?」 アトランティック誌 。2018年4月24日時点のオリジナルよりアーカイブ。 2018年 4月24日 閲覧 。 スロ、エレン(1993年)『ロボティクス:コンピュータと機械の融合 』ニューヨーク:ファクト・オン・ファイル、ISBN 978-0-8160-2628-9 . 2020年7月26日時点のオリジナルよりアーカイブ 。2020年8月22日 閲覧。 トゥース、ロブ (2023年9月3日). 「トランスフォーマーはAIに革命をもたらした。何がそれに代わるのか?」 Forbes . 2023年12月8日時点のオリジナルよりアーカイブ。 2023年 12月8日 閲覧 。 チューリング、アラン (1950年10月). 「計算機械と知能」 .マインド . 59 (236): 433–460 . doi : 10.1093/mind/LIX.236.433 . ISSN 1460-2113 . JSTOR 2251299. S2CID 14636783 .ユネスコ科学報告書:よりスマートな開発のための時間との競争 パリ:ユネスコ 2021年ISBN 978-9-2310-0450-6 . 2022年6月18日時点のオリジナルよりアーカイブ 。2021年9月18日 閲覧。Urbina, Fabio; Lentzos, Filippa; Invernizzi, Cédric; Ekins, Sean (2022年3月7日). 「人工知能を活用した創薬の二重利用」 . Nature Machine Intelligence . 4 (3): 189– 191. doi : 10.1038/s42256-022-00465-9 . PMC 9544280. PMID 36211133 . Valance, Christ (2023年5月30日). 「人工知能は絶滅につながる可能性があると専門家が警告」 BBCニュース . 2023年6月17日時点のオリジナルよりアーカイブ。 2023年 6月18日 閲覧 。 Valinsky, Jordan (2019年4月11日)、「AmazonはAlexaの会話を聞くために数千人の従業員を雇用していると報じられている」 、CNN.com 、2024年1月26日時点のオリジナルよりアーカイブ、 2024年 10月5日 閲覧。 Verma, Yugesh (2021年12月25日). 「SHAP完全ガイド – 実践者のためのSHAPley添加剤解説」 . Analytics India Magazine . 2023年11月25日時点のオリジナルよりアーカイブ。 2023年 11月25日 閲覧 。 ヴィンセント・ジェームズ(2019年11月7日)「OpenAIは、共有するには危険すぎると指摘したテキスト生成AIを公開した」 The Verge 。2020年6月11日時点のオリジナルよりアーカイブ。 2020年 6月11日 閲覧 。 ヴィンセント、ジェームズ(2022年11月15日)「AI著作権に関する恐ろしい真実は、次に何が起こるか誰も知らないということ」 The Verge 。2023年6月19日時点のオリジナルよりアーカイブ。 2023年 6月19日 閲覧 。 ヴィンセント・ジェームズ(2023年4月3日)「AIは企業支配の時代に突入している」 The Verge 。2023年6月19日時点のオリジナルよりアーカイブ。 2023年 6月19日 閲覧 。 ヴィンジ、ヴァーナー (1993). 「来たる技術的特異点:ポストヒューマン時代を生き抜く方法」 .ビジョン21:サイバースペース時代の学際的科学と工学 : 11.書誌コード : 1993vise.nasa...11V . 2007年1月1日時点のオリジナル よりアーカイブ。 2011年 11月14日 閲覧 。ワデル、カヴェ(2018年)「チャットボットは不気味の谷に突入した」 アトランティック誌 。2018年4月24日時点のオリジナルよりアーカイブ 。2018年 4月24日 閲覧 。 ウォラック、ウェンデル(2010年)『道徳機械 』オックスフォード大学出版局。 ウェイソン, PC ; シャピロ, D. (1966). 「推論」 . フォス, BM (編). 『心理学の新しい地平』 . ハーモンズワース: ペンギン社. 2020年7月26日時点のオリジナルよりアーカイブ。 2019年 11月18日 閲覧 。Weng, J.; McClelland; Pentland, A.; Sporns, O.; Stockman, I.; Sur, M.; Thelen, E. (2001). 「ロボットと動物による自律的な精神発達」. Science . 291 (5504): 599– 600. doi : 10.1126/science.291.5504.599 . PMID 11229402 . 「『ファジー論理』とは何か? 本質的にファジーで、通常のバイナリ論理を適用しないコンピューターは存在するのか?」 Scientific American 1999年10月21日。 2018年5月6日時点のオリジナルよりアーカイブ。 2018年 5月5日 閲覧 。ウィリアムズ、リアノン(2023年6月28日)「人間はAIによって生成された偽情報を信じる可能性が高いかもしれない」 MITテクノロジーレビュー 、2024年9月16日時点のオリジナルよりアーカイブ、 2024年 10月5日 閲覧 。 Wirtz, Bernd W.; Weyerer, Jan C.; Geyer, Carolin (2018年7月24日). 「人工知能と公共部門 ― その応用と課題」.国際行政ジャーナル . 42 (7): 596– 615. doi : 10.1080/01900692.2018.1498103 . Wong, Matteo (2023年5月19日)、「ChatGPTは既に時代遅れ」 、The Atlantic 、2024年9月18日時点のオリジナルよりアーカイブ、 2024年 10月5日 閲覧。 Yudkowsky, E (2008)、「人工知能はグローバルリスクにおけるプラス要因とマイナス要因である」 (PDF) 、Global Catastrophic Risks 、Oxford University Press、2008年、Bibcode :2008gcr..book..303Y 、2013年10月19日時点のオリジナルよりアーカイブ (PDF) 、 2021年 9月24日 閲覧。
外部リンク