レオポルド・アッシェンブレンナー(2001年または2002年生まれ[ 1 ])は、ドイツの人工知能(AI)研究者であり投資家である。彼はOpenAIの「スーパーアライメント」チームに所属していたが、2024年4月に情報漏洩疑惑により解雇された。アッシェンブレンナーはこの疑惑を否定している。彼は、汎用人工知能の出現とそれに関連するセキュリティリスクについて書かれた人気エッセイ「シチュエーショナル・アウェアネス」を出版している。[ 2 ]彼は、AI技術開発に携わる企業に投資するヘッジファンド、シチュエーショナル・アウェアネスLPの創設者兼最高投資責任者(CIO)である。 [ 3 ]
若いころ
アッシェンブレンナーは、両親が医師であるドイツで生まれました。[ 4 ]ベルリンのジョン・F・ケネディスクールで教育を受け、2021年に19歳でコロンビア大学を首席で卒業し、経済学と数学統計学を専攻しました。[ 1 ] [ 5 ] [ 6 ]コロンビア大学在学中、大学の効果的利他主義(EA)支部の共同設立者となりました。[ 4 ]オックスフォード大学のグローバル・プライオリティ・イニシアチブの研究を行い、2024年のワーキングペーパーをオックスフォード大学のフィリップ・トラメルと共著しました。 アッシェンブレンナーは、FTX財団によって設立されたEA慈善イニシアチブであるFTXフューチャーファンドチームのメンバーでした。[ 7 ] 2022年2月から同年11月のFTXの破産前に辞任するまで。 [ 8 ] [ 9 ]
キャリア
オープンAI
アシェンブレンナーは2023年にOpenAIに加わり、ヤン・ライケとイリヤ・スツケヴァーが率いる「スーパーアライメント」というチームに所属しました。このチームは、人間よりも賢いAIシステムを操縦・制御するための技術的ブレークスルーを追求しました。[ 10 ]アシェンブレンナーはチームメンバーとして、「Weak to Strong Generalization」[ 11 ]の共著者であり、 2024年の国際機械学習会議で発表されました。[ 12 ]
2023年4月、ハッカーがOpenAIの内部メッセージシステムにアクセスし、情報を盗んだが、OpenAIはこの事件を非公開にしていた。[ 13 ]その後、アッシェンブレンナーはOpenAIの取締役会に、中国やその他の外国の団体による産業スパイの可能性についてメモを書き、OpenAIのセキュリティが不十分であると主張した。アッシェンブレンナーによると、このメモが原因で取締役会と経営陣の間にセキュリティに関する緊張が生じ、彼は人事部から警告を受けた。OpenAIはその後、2024年4月に情報漏洩の疑いで彼を解雇した。アッシェンブレンナーによると、これはフィードバックを得るために3人の外部研究者に共有された無害なブレインストーミング文書に関するものだったという。OpenAIは、解雇はセキュリティメモとは無関係であると述べたが、アッシェンブレンナーは当時、それが主な理由であると彼に明確に伝えられたと述べた。[ 14 ] [ 15 ]「スーパーアライメント」チームは1ヶ月後に解散し、イリヤ・スツケヴァーやヤン・ライケなどの他の研究者もOpenAIを去った。[ 16 ]
投資会社
2024年に『シチュエーショナル・アウェアネス』を出版した後、アシェンブレナーはパトリック・コリソン、ジョン・コリソン、ダニエル・グロス、ナット・フリードマンが支援する投資会社、シチュエーショナル・アウェアネスLPを設立した。[ 17 ] [ 18 ]彼のエッセイ「シチュエーショナル・アウェアネス」にちなんで名付けられたこのAI特化型ヘッジファンドは、2025年時点で15億ドル以上の資産を運用している。[ 3 ]
状況認識に関するエッセイ
2024年、アッシェンブレンナーは「状況認識:これからの10年」と題する165ページのエッセイを執筆した。[ 19 ] このエッセイには、AGIの出現を予測し、AGIから超知能への道筋を想像し、人類にとっての4つのリスクを解説し、人間が超知能を持つ機械に対処する方法を概説し、「AGIリアリズム」の原則を明確にするセクションが含まれている。彼は特に、米国はロシアや中国などの国々によるAI技術の利用を防御する必要があると警告している。[ 17 ]アッシェンブレンナーは、2027年までにAIシステムが独自のAI研究を行う能力を持つようになると主張している。そうなれば、数億台のAGIがAI研究を自動化し、10年分のアルゴリズムの進歩を1年足らずに圧縮し、「暴走する超知能」へとつながるだろう。[ 20 ]
アッシェンブレンナーのエッセイは、主流メディア[ 21 ] [ 22 ]、[ 23 ] [ 24 ]、[ 25 ] [ 26 ]などから広く報道された。
私生活
2025年現在、アッシェンブレナーはアントロピックのCEO首席補佐官であるアヴィタル・バルウィットと婚約している。[ 4 ]彼はサンフランシスコに住んでいる。[ 27 ]
参考文献
- ^ a bナーラント州、ミナ・ハウゲ;ビョルケン、クリスチャンあたり(2024-06-24)。「22-åring har satt fyr på Silicon Valley」 [22歳がシリコンバレーに火をつけた]。アフテンポステン(ノルウェー語)。ISSN 0804-3116。
- ^ 「序論 - 状況認識:これからの10年」 . situational-awareness.ai . 2025年8月28日閲覧。
- ^ a b Rudegeair, Peter (2025年8月10日). 「AI関連の投資に注力する新規ヘッジファンドに数十億ドルの資金が流入」 .ウォール・ストリート・ジャーナル. 2025年8月11日閲覧。
- ^ a b cゴールドマン、シャロン(2025年10月8日)。「元OpenAI研究者のレオポルド・アッシェンブレナーは、15億ドルのヘッジファンドとシリコンバレーからワシントンD.C.への大きな影響力で、いかにしてAIの予言を利益に変えたのか」フォーチュン誌。 2025年10月9日閲覧。
- ^ “Die Jugend forscht Landessieger 2016 stehen fest” [2016 年の青少年研究州の受賞者が発表されました] (ドイツ語)。ユーゲント・フォルシュト。 2016年3月16日。
- ^ 「コロンビア大学、2021年度の卒業生代表と次席卒業生代表を発表」コロンビア大学2021年4月9日. 2025年9月23日閲覧。
- ^ Allen, Mike (2024年6月23日). 「10のポイント:AIが今から2034年まで」 . Axios . 2024年12月27日閲覧。
- ^ハウクロフト、エリザベス (2023年4月6日). 「FTXの破綻により研究者は助成金を失っており、強制返済への懸念が高まっている」ロイター.
- ^パワ、ニティーシュ (2023年12月13日). 「The Money Is Oregone」 . Slate . ISSN 1091-2339 .
- ^ 「元OpenAI社員がAIエッセイを執筆:中国との戦争、資源、そしてロボット」heise online . 2024年7月2日. 2024年12月28日閲覧。
- ^ Burns, C.; Izmailov, P.; Kirchner, JH; Baker, B.; Gao, L.; Aschenbrenner, L.; Chen, Y.; Ecoffet, A.; Joglekar, M.; Leike, J.; Sutskever, I.; Wu, J. (2023年12月14日). 「弱から強への一般化:弱い監督による強い能力の引き出し」. arXiv : 2312.09390 [ cs.CL ].
- ^ 「口頭 - 弱から強への一般化:弱い監督による強い能力の引き出し」 ICML 2024年。 2025年10月1日閲覧。
- ^ Metz, Cade (2024年7月4日). 「ハッカーがOpenAIの秘密を盗み、中国も盗めるのではないかとの懸念が高まる」 . The New York Times . 2024年12月26日時点のオリジナルよりアーカイブ。 2024年12月27日閲覧。
- ^アルチェク、アナ。「元OpenAI社員が解雇理由を語る:「私は一部の人々の反感を買った」」「 . Business Insider . 2024年12月28日閲覧。
- ^ 「元OpenAI社員が解雇理由を明かす、「セキュリティメモは…」" . NDTV . 2024年6月6日. 2024年12月28日閲覧。
- ^ Field, Hayden (2024年5月17日). 「OpenAI、AIの長期的なリスクに焦点を当てたチームを解散、発表から1年も経たないうちに」 . CNBC . 2024年12月28日閲覧。
- ^ a bジョン・ノートン (2024年6月15日). 「これは衝撃的だ ― 米国はAIを次のマンハッタン計画にしなければならない」 .オブザーバー. ISSN 0029-7712 . 2024年12月27日閲覧。
- ^ 「追記:スイスの独裁者パトリック・コリソン、元アイルランド銀行総裁がマキレン=ボノのウイスキーで買収」 www.businesspost.ie . 2024年12月27日閲覧。
- ^ Aschenbrenner, Leopold (2024年6月). 「状況認識:今後10年」 . Situational-Awareness . 2025年9月17日閲覧。
- ^ Toews, Rob (2024年11月5日). 「AIを発明できるAIがやってくる。シートベルトを締めよう」 . Forbes . 2024年12月27日閲覧。
- ^ハーマン、ジョン(2025年4月10日)「AGIが想像を絶する未来を作った理由 高度な人工知能はすべてを変えると言われています。私たちにも発言権はあるのでしょうか?」ニューヨーク(雑誌)
- ^ノートン、ジョン(2024年6月15日)「これは衝撃的だ ― 米国はAIを次のマンハッタン計画にしなければならない」ガーディアン紙。
- ^ホッセンフェルダー、サビーネ(2024年6月20日)「超人AIの現実検証」 Nautilus Quarterly。
- ^スコット、アレックス(2025年2月7日)「人工知能は雇用を生み出すのか、それとも奪うのか?」 Chemical & Engineering News。
- ^ペトコウキス、ジェームズ(2025年1月15日)「AI加速:AIリスクへの解決策」アメリカンエンタープライズ研究所。
- ^ボイド、ブライアン・JA(2025年春)「来たる汎用人工知能に関する状況認識の獲得」『ニュー・アトランティス』(ジャーナル)
- ^ノートン、ジョン(2024年6月15日)「これは衝撃的だ ― 米国はAIを次のマンハッタン計画にしなければならない」ガーディアン紙ISSN 0261-3077 . 2025年10月9日閲覧。
外部リンク