AI安全研究所(AISI )は、最先端の人工知能(AI)モデル(フロンティアAIモデルとも呼ばれる)の安全性を評価し、確保することを目的とした国営機関です。[ 1 ]
2023年には、AIの潜在的な実存的リスクに関する公的な宣言をきっかけに、 AIの安全性が注目を集めるようになりました。 2023年11月のAI安全サミットでは、英国と米国がそれぞれ独自のAI安全研究所(AISI)を設立しました。 2024年5月のAIソウルサミットでは、国際リーダーたちが、英国、米国、日本、フランス、ドイツ、イタリア、シンガポール、韓国、オーストラリア、カナダ、欧州連合の研究所からなるAI安全研究所のネットワークを形成することに合意しました。[ 2 ] 2025年には、英国のAI安全研究所が「AIセキュリティ研究所」に改名され、米国のAI安全研究所はAI標準イノベーションセンター(CAISI)となりました。
2023年、英国のリシ・スナック首相は「英国を単なる知的拠点ではなく、世界的なAI安全規制の地理的拠点にする」という意向を表明し、AI安全サミットの開催計画を明らかにした。 [ 3 ]スナック首相は、AI企業が「自らの課題を採点することはできない」として、独立した安全性評価の必要性を強調した。[ 4 ]スナック首相は、2023年11月のサミットにおいて、フロンティアAIタスクフォースの発展型として英国AISIが正式に設立され、[ 5 ]米国AISIはNISTの一部として設立された。日本もこれに続き、2024年2月にAI安全研究所を設立した。[ 6 ]
ポリティコは2024年4月、多くのAI企業が評価のための最先端のAIモデルへの展開前アクセスを共有していないと報じた。Metaのグローバルアフェアーズ担当社長ニック・クレッグ氏は、多くのAI企業が英国と米国のAI安全研究所が共通の評価ルールと手順を策定するのを待っていると述べた。[ 7 ]英国と米国の間では、少なくとも1つの共同安全性テストで協力するための合意が2024年4月に締結された。[ 8 ]当初ロンドンに設立された英国AI安全研究所は、2024年5月に多くのAI企業が拠点を置くサンフランシスコにオフィスを開設すると発表した。これは、英国の技術大臣ミシェル・ドネラン氏によると、「AIの安全性に関する新たな国際基準を設定する」計画の一環である。[ 9 ] [ 10 ]
2024年5月に開催されたAIソウルサミットでは、欧州連合(EU)をはじめとする各国が独自のAI安全機関を設立し、国際的なネットワークを形成することに合意した。[ 2 ]
英国は2023年4月に、初期予算1億ポンドでフロンティアAIタスクフォースと呼ばれる安全組織を設立した。 [ 11 ] 2023年11月にはAI安全研究所(AI Safety Institute)へと発展し、引き続きイアン・ホガースが率いる。AISIは英国科学技術イノベーション省(SICE)の一部門である。[ 5 ]
英国のAI戦略は、安全性とイノベーションの両立を目指しています。AI法を採択した欧州連合とは異なり、英国はAI分野の成長を阻害する可能性があること、また技術の進歩によって法律が時代遅れになる可能性があることを考慮し、早期の立法化には消極的です。[ 6 ]
同研究所は2024年5月にAIモデルの推論能力や自律性などを評価するAI安全ツール「Inspect」をオープンソース化した。[ 12 ]
2025年2月、英国の機関はAIセキュリティ研究所に改名されました。観測筋は、この名称変更は、研究所がAI応用におけるアルゴリズムのバイアスや言論の自由といった倫理的問題に焦点を当てないことのシグナルであると捉えました。[ 13 ]
米国AISIは、2023年11月にNISTの一部として設立されました。これは、大統領令14110号が署名された翌日のことでした。[ 14 ] 2024年2月、ジョー・バイデン前大統領の経済政策顧問であるエリザベス・ケリー氏がAISIの所長に任命されました。[ 15 ]
2024年2月、米国政府はGoogle、Anthropic、Microsoftなどの200以上の組織を再編し、米国AI安全研究所コンソーシアム(AISIC)を設立しました。[ 16 ]
2024年3月には1,000万ドルの予算が割り当てられた。[ 17 ]観測筋は、特に米国には多くの大手AI企業が存在することを考慮すると、この投資額は比較的小さいと指摘している。AISIをホストするNIST自体も、慢性的な資金不足で知られている。[ 18 ] [ 6 ]バイデン政権による追加資金の要請は、議会の歳出担当部署によるさらなる予算削減によって阻止された。[ 19 ] [ 18 ]
トランプ大統領の下、 2025年2月にパリで開催されるAIアクションサミットにAI関連機関のメンバーが出席する計画は撤回された。 [ 20 ]米国と英国はサミットの最終声明への署名を拒否した。J・D・ヴァンス米副大統領は、「成長促進型AI政策」を安全よりも優先すべきだと述べた。[ 21 ]
2025年6月、機関名はAI標準イノベーションセンター(CAISI)に変更され、その使命も変化しました。[ 22 ]ハワード・ラトニック商務長官は、「あまりにも長い間、国家安全保障を装って検閲と規制が行われてきました。イノベーターはもはやこれらの標準によって制限されることはありません。CAISIは、急速に発展する商用AIシステムの米国のイノベーションを評価・強化するとともに、それらが国家安全保障基準に適合していることを保証します。」と述べています。 [ 23 ] [ 24 ]米国商務省は、CAISIが米国の利益を国際的に代表し、外国政府による米国の技術に対する煩わしく不必要な規制を防ぐと述べています。CAISIはNIST情報技術研究所と協力関係にあります。[ 24 ]
インド電子情報技術省は、 2024年10月7日にAI安全研究所の設立に関して 、メタ・プラットフォームズ、グーグル、マイクロソフト、IBM、OpenAI、NASSCOM、ブロードバンド・インディア・フォーラム、ソフトウェア・アライアンス、インド工科大学(IIT)、クォンタム・ハブ、デジタル・エンパワーメント財団、アクセス・ナウと協議を行った。AI安全研究所は、規制から標準設定、リスク特定、被害検知へと重点を移すことを決定した。これらはすべて相互運用可能な技術を必要とする。AISIは、初期予算として、IndiaAIミッションの安全と信頼の柱に割り当てられた2億ルピーを支出する可能性がある。将来の資金は、IndiaAIミッションの他の構成要素から提供される可能性がある。[ 25 ] [ 26 ]
ユネスコとMeitYは、 2024年から人工知能の安全性と倫理に関するAI準備状況評価手法に関する協議を開始しました。これは、産業界におけるAIの倫理的かつ責任ある利用を促進することを目的としています。この調査では、特に制度的および規制的能力の強化に向けた取り組みにおいて、政府が関与できる分野が明らかになるでしょう。[ 27 ] [ 28 ]
アシュウィニ・ヴァイシュナウ電子情報技術大臣は、2025年1月30日、AIモデルの倫理的かつ安全な適用を確保するため、IndiaAI安全研究所を設立すると発表した。同研究所は、インドの社会的、経済的、文化的、言語的多様性に基づき、インドのデータセットに基づいた国内研究開発を推進する。学術研究機関や民間パートナーの協力を得て、同研究所はハブ・アンド・スポーク方式を採用し、IndiaAIミッションの「安全と信頼の柱」に沿ったプロジェクトを実施する。[ 29 ] [ 30 ]同研究所は、IITなどの学術機関、テクノロジー企業、ユネスコなどの国際機関との協力を得て、「ハブ・アンド・スポーク」モデルの下で運営されている。[ 31 ]