AI@50

2006年人工知能会議
AI@50
開催国全世界

AI@50 は、正式名称を「ダートマス人工知能会議:次の50年」(2006年7月13日~15日)とし、ジェームズ・H・ムーアが主催した会議で、人工知能の歴史を事実上幕開けさせたダートマス・ワークショップの50周年を記念するものでした。当初の参加者10名のうち、マービン・ミンスキーレイ・ソロモンオフ、オリバー・セルフリッジトレンチャード・モア、ジョン・マッカーシーの5名が出席しました。[1]

ダートマス大学ゼネラル・エレクトリック、フレデリック・ウィットモア財団の後援を受け、国防高等研究計画局 (DARPA)から 20 万ドルの助成金を得て、次のような議事録を作成することが求められました。

  • AIの最初の50年間の課題の進捗を分析し、課題が当初考えられていたよりも「簡単」だったのか「困難」だったのか、そしてその理由を評価する。
  • AI@50の参加者が、今後50年間にこの分野が直面する主要な研究開発上の課題は何であると考えているかを文書化し、それらの課題を解決するためにどのようなブレークスルーが必要かを特定する。
  • これらの課題とブレークスルーを、制御理論、信号処理、情報理論、統計学、最適化理論などの他の分野の発展や動向と関連付けます。[2]

会議ディレクターのジェームズ・H・ムーアによる概要レポートがAIマガジンに掲載されました[3]

AI:過去、現在、未来

未来の思考モデル

ネットワークモデルの未来

  • ジェフリー・ヒントン&サイモン・オシデロ『パンデモニウムからグラフィカルモデルへ、そして再びパンデモニウムへ』
  • リック・グレンジャー『脳の回路から心の製造へ』

AIの未来

ビジョンの未来

推論の未来

言語と認知の未来

未来の未来

AIとゲーム

インテリジェントマシンとの将来のインタラクション

選出された投稿論文:AIの将来戦略

提出論文集:AIの将来の可能性

  • エリック・スタインハート『デジタルゴーストとしての生存』[13]
  • コリン・TA・シュミット、その「装置」を妹に預けたのですか?[14]
  • マイケル・アンダーソンとスーザン・リー・アンダーソン『機械倫理の現状』[15]
  • マルチェロ・グアリーニ「計算、一貫性、倫理的推論」[16]

参考文献

  1. ^ ニルソン、ニルス・J. (2009). 『人工知能の探求』 ケンブリッジ大学出版局. ISBN 978-0-521-12293-180-81ページ
  2. ^ Knapp, Susan (2006年7月6日). 「ダートマス大学、AI@50カンファレンスを支援するためDARPAから助成金を受領」ダートマス大学広報室. 2010年6月7日時点のオリジナルよりアーカイブ。 2010年6月11日閲覧
  3. ^ ムーア、ジェームズ (2006). 「ダートマス大学人工知能会議:今後50年」(PDF) . AIマガジン. 27 (4): 87– 91. ISSN  0738-4602.
  4. ^ Knapp, Susan (2006年7月24日). 「人工知能:過去、現在、そして未来」. Vox of Dartmouth . 2020年10月25日時点のオリジナルよりアーカイブ。 2010年6月11日閲覧
  5. ^ Russell, Stuart (2006年7月12日). 「現代AIのアプローチ」. オリジナル(PPT)から2012年3月24日アーカイブ2010年6月11日閲覧。
  6. ^ Solomonoff, Ray J. (2006). 「機械学習 ― 過去と未来」(PDF) . 2008年7月25日閲覧
  7. ^ Langley, Pat (2006). 「人間と機械の知的行動」(PDF) . 2008年7月25日閲覧
  8. ^ レイ・カーツワイル(2006年7月14日)「なぜ我々は25年以内にチューリングテストの能力を確信できるのか」。2006年8月10日時点のオリジナルよりアーカイブ2006年7月25日閲覧。
  9. ^ Hall, J. Stoors (2007). 「自己改善型AI:分析」. Minds and Machines . 17 (3): 249– 259. doi :10.1007/s11023-007-9065-3. S2CID  15347250.自己改善は、1956年のダートマス会議で研究対象として提案されたAIの側面の一つでした。チューリングは、人間のやり方で学習させることで成人レベルの知能を獲得できる「子供機械」を提案しました。後世において、AIシステムが無限に学習・自己改善するように構築できるという主張は、「ブートストラップの誤謬」と呼ばれるようになりました。AI分野におけるそのようなシステムの実装の試みは、半世紀にわたって一貫して失敗に終わっています。しかし、技術楽観主義者たちは、そのようなシステムは実現可能であり、もし実装されれば、知能の急速な指数関数的向上につながるフィードバックループを生み出すと主張してきました。私たちは両方の立場の議論を検討し、いくつかの結論を導き出しました。セルフアーカイブ 2010年2月15日Wayback Machineにアーカイブ
  10. ^ Bringsjord, Selmer (2008年12月). 「論理主義者の宣言:ついに論理ベースAIを独自の分野に」. Journal of Applied Logic . 6 (4): 502– 525. doi :10.1016/j.jal.2008.09.001.本論文は、論理ベースAIは、現在AIの「傘」の下に依然として含まれているパラダイム(コネクショニズムや連続システムアプローチなど)から完全に切り離された、自己完結的な分野になるべきであるという見解を一貫して主張するものである。本論文には、論理ベースAIの自己完結的な要約と、ここで表明された独立宣言に対して必然的に提起されるであろういくつかの反論が含まれている。セルフアーカイブ
  11. ^ Müller, Vincent C. (2007年3月). 「表象のないAIに未来はあるか?」. Minds and Machines . 17 (1): 101– 115. arXiv : 2503.18955 . doi :10.1007/s11023-007-9067-1. S2CID  14355608.本論文は、ロドニー・ブルックスによる表象のないAIの提案の展望を検証する。「新しいAI」の特徴とされるもの(身体性、状況性、推論の欠如、表象の欠如)はすべて従来のシステムにも存在することが判明した。つまり、「新しいAI」は古いAIと全く同じである。ブルックスの提案は、知能エージェントにおける中央制御のアーキテクチャ的拒絶に帰着するが、これは非常に重要であることが判明した。近年の認知科学の一部は、知的エージェントを中枢的な表象プロセッサとみなすイメージを捨て去るべきかもしれないと示唆している。このパラダイムシフトが達成されれば、ブルックスの提唱する表象なしの認知は、本格的な知的エージェントにとっては有望な選択肢となるだろう。ただし、意識を持つエージェントにとってはそうではない。セルフアーカイブ 2009年11月17日Wayback Machineにアーカイブ
  12. ^ Thórisson, Kristinn R. (2007年3月). 「統合AIシステム」. Minds and Machines . 17 (1): 11– 25. doi :10.1007/s11023-007-9055-5. S2CID  21891058.人間や動物が示す幅広い能力は、多種多様な、緊密に統合された認知メカニズムの大規模な集合体によって実現されています。人工システムをこのような汎用知能に近づけるためには、この大規模な集合体の一部、おそらくはかなりの部分を複製することを避けて通ることはできません。この方向への進歩には、システム統合を基礎的研究課題としてより真剣に捉えることが必要です。本稿では、知能は全体的に研究されるべきであると主張します。私は、統合の分野で対処しなければならない主要な問題を提示し、(a) 大規模で複雑なアーキテクチャを構築するためのツール、(b) リアルタイム AI システムを構築するための設計方法論、(c) コミュニティ レベルでのコード共有を促進するための方法など、より強力で統合された AI システムへの進歩を加速するためのソリューションを提案します。
  13. ^ Steinhart, Eric (2007年10月). 「デジタルゴーストとしての生存」. Minds and Machines . 17 (3): 261– 271. doi :10.1007/s11023-007-9068-0. S2CID  2741620.死後、様々な形で生き続けることができます。日記、写真、録音、そして映画の中に生き続けることができます。しかし、これらの形はあなたの表面的な特徴しか記録していません。私たちはすでに、人間の人生全体を部分的に、そして近似的に複製するプログラム(記憶を保存し、人格を複製することで)の構築に近づいています。デジタルゴーストとは、あなたの人生のすべてを知っている人工知能プログラムです。それは動く自伝です。あなたの信念や欲望のパターンを複製します。あなたは死後、デジタルゴーストの中で生き続けることができます。今後50年間で登場する一連のデジタルゴーストについて議論します。時間が経ち、技術が進歩するにつれて、それらはオリジナルの作者の人生を次第に完璧に再現したものになっていきます。
  14. ^ Schmidt, Colin TA (2007年10月). 「子ども、ロボット、そして…親の役割」. Minds and Machines . 17 (3): 273– 286. doi :10.1007/s11023-007-9069-z. S2CID  6578298.本論文の存在意義は、知能コンピューティングとロボティクスの研究を鋭敏に分析する多くの研究者が、アプリケーション開発の本質、すなわちその最終目標を明確に表現する点を見落としていることにある。あるいは、知識の乏しい一般の人々に向けて、その目標を適切に提示できていない。著者は、この問題を解決できるとは主張していない。むしろ、この先見の明のある研究は、学習とコンピューティングを他の関連分野と組み合わせ、より広い視野の中で人間を体現した姿で完全にシミュレートすることを提案している。初めて、生産された技術的オブジェクトに割り当てられた社会的役割が、ユーモラスなイラストとともに疑問視されています。
  15. ^ アンダーソン、マイケル、スーザン・リー・アンダーソン (2007年3月). 「機械倫理の現状:AAAIシンポジウム報告」. Minds and Machines . 17 (1): 1– 10. doi :10.1007/s11023-007-9053-7. S2CID  33329318.本論文は、AAAI 2005年秋季機械倫理シンポジウムで発表された研究の要約と評価であり、コンピュータサイエンスと哲学の分野の参加者を集め、この新興分野の性質を明らかにし、倫理的な機械の創造という究極の目標の実現に向けた様々なアプローチについて議論しました。
  16. ^ Guarini, Marcello (2007年3月). 「計算、一貫性、そして倫理的推論」. Minds and Machines . 17 (1): 27– 46. doi :10.1007/s11023-007-9056-4. S2CID  7794353.道徳理論、そしてより一般的には実践的推論は、一貫性の概念に依拠することがあります。ポール・サガードは、実践的推論に含まれる一貫性について、計算論的に詳細な説明を試み、それが倫理学における基礎主義的アプローチの問題点を克服するのに役立つと主張しています。本稿の議論は、サガードが提唱する実践的推論における一貫性の役割を反駁するものです。これまでの議論から得られる一般的な教訓はいくつかありますが、あらゆる文脈におけるあらゆる形態の一貫性に反論するものではありません。また、計算モデルの有用性についても疑問視されていません。重要なのは、一貫性は、道徳的推論を理解する上で、一貫性主義者が考えるほど有用ではないということだ。この結果は、AIの新たな分野である機械倫理学の将来に明確な示唆を与える。
  • ダートマス人工知能会議:次の50年。公式会議ウェブサイト。
  • ジェームズ・ムーア. ダートマス大学人工知能会議:これからの50年. AI Magazine 27:4 [2006]: 87–91. ISSN 0738-4602. 写真付き公式会議報告書。オンラインで無料で入手可能なPDF。
  • Peter Norvig、AI@50の写真。会議発表者の写真。
「https://en.wikipedia.org/w/index.php?title=AI@50&oldid=1302123542」より取得