ダン・ヘンドリックス | |
|---|---|
2025年のヘンドリックス | |
| 誕生 | 1994年または1995年(30~31歳) |
| 学歴 | シカゴ大学(理学士、2018年) カリフォルニア大学バークレー校(博士号、2022年) |
| 科学的なキャリア | |
| 分野 | |
| 機関 | カリフォルニア大学バークレー校 AI安全センター |
ダン・ヘンドリックス(1994年または1995年生まれ[1])は、アメリカの機械学習研究者です。カリフォルニア州サンフランシスコに拠点を置く非営利団体「AI Safety Center」の所長を務めています。
幼少期と教育
ヘンドリックスはミズーリ州マーシュフィールドのキリスト教福音派の家庭で育った。[2] [3]彼は2018年にシカゴ大学で理学士号を取得し、 2022年にカリフォルニア大学バークレー校でコンピュータサイエンスの博士号を取得した。 [4]
キャリアと研究
ヘンドリックスの研究は、機械学習の安全性、機械倫理、堅牢性 などのトピックに焦点を当てています
彼は、効果的利他主義(EA)運動に関連した80,000 Hoursプログラムに参加したことが、AIの安全性にキャリアを集中させるきっかけになったと考えています。ただし、EAの支持者であることを否定しています。[2]
ヘンドリックスは、2016年に活性化関数GELUを紹介した研究論文[5]と、2020年に言語モデルベンチマークMMLU(大規模マルチタスク言語理解)を紹介した論文[ 6]の主著者である。[7]
2022年2月、ヘンドリックスは米国国立標準技術研究所(NIST)に人工知能によるリスク管理に関する情報を提供するための勧告を共同執筆した。[8] [9]
2022年9月、ヘンドリックスはAI研究が社会リスクに与える影響を分析するための枠組みを提供する論文を執筆した。[10] [11]その後、2023年3月には、自然淘汰と競争圧力が人工エージェントの目標をどのように形成するかを検証した論文を発表した。[12] [13] [14]これに続き、「壊滅的なAIリスクの概要」では、悪意のある使用、AI競争のダイナミクス、組織リスク、不正なAIエージェントという4つのリスクカテゴリーについて議論している。[15] [16]
ヘンドリックス氏は、2023年にイーロン・マスク氏が設立したAIスタートアップ企業xAIの安全アドバイザーを務めている。利益相反の可能性を避けるため、同氏は象徴的な1ドルの給与を受け取り、会社の株式は保有していない。[1] [17] 2024年11月には、 Scale AIにもアドバイザーとして参加し、1ドルの給与を受け取っている。[18]ヘンドリックス氏は、Scale AIと共同で開発した大規模言語モデルの能力を評価するベンチマークであるHumanity's Last Examの作成者でもある。[19] [20]
2024年にヘンドリックスは、以前に開発したコースウェアに基づいて、「AIの安全性、倫理、社会入門」と題した568ページの本を出版しました。[21]
主な出版物
- ヘンドリックス、ダン、ギンペル、ケビン (2020-07-08).「ガウス誤差線形単位 (GELU)」. arXiv : 1606.08415 [cs.LG]
- ヘンドリックス、ダン;ギンペル、ケビン (2018年10月3日). 「ニューラルネットワークにおける誤分類および分布外の例を検出するためのベースライン」国際学習表現会議 2017 . arXiv : 1610.02136 .
- Hendrycks, Dan; Mazeika, Mantas; Dietterich, Thomas (2019-01-28). 「外れ値露出による深層異常検知」.国際表現学習会議2019. arXiv : 1812.04606 .
- ヘンドリックス, ダン; マゼイカ, マンタス; ゾウ, アンディ (2021年10月25日). 「ジミニー・クリケットならどうする? 道徳的に行動するエージェントに向けて」神経情報処理システム会議 2021 . arXiv : 2110.13136 .
参考文献
- ^ ヘンシャル、ウィル(2023年9月7日)「タイム100 AI:ダン・ヘンドリックス」タイム誌
- ^ ab Scharfenberg, David (2023年7月6日). 「ダン・ヘンドリックスはAIの大惨事から私たちを救いたいと考えている。成功するかどうかは確信がない」 .ボストン・グローブ. 2023年7月8日時点のオリジナルよりアーカイブ。
- ^ カスタルド、ジョー(2023年6月23日)「『自分が間違っていることを願う』:なぜ一部の専門家はAIに破滅を予見するのか」『グローブ・アンド・メール』
- ^ 「ダン・ヘンドリックス」. people.eecs.berkeley.edu 。2023 年 4 月 14 日に取得。
- ^ Hendrycks, Dan; Gimpel, Kevin (2023-06-06),ガウス誤差線形単位 (GELUs) , arXiv : 1606.08415
- ^ Hendrycks, Dan; Burns, Collin; Basart, Steven; Zou, Andy; Mazeika, Mantas; Song, Dawn; Steinhardt, Jacob (2021-01-12),大規模マルチタスク言語理解の測定, arXiv : 2009.03300
- ^ ルース、ケビン (2024年4月15日). 「AIには測定上の問題がある」.ニューヨーク・タイムズ. ISSN 0362-4331 . 2025年3月1日閲覧。
- ^ 「NvidiaがAIサービスに参入、ChatGPTでクレジットカードが利用可能に」Fortune 2023年4月13日閲覧。
- ^ 「国家人工知能研究開発戦略計画の最新情報に対する情報提供要請:回答」(PDF) .国家人工知能イニシアチブ. 2022年3月。
- ^ Hendrycks, Dan; Mazeika, Mantas (2022-06-13). 「AI研究のためのXリスク分析」. arXiv : 2206.05862v7 [cs.CY].
- ^ ジェンドロン、ウィル. 「AIの安全性に関する専門家が、兵器化から権力追求行動まで、様々な終末シナリオを概説」. Business Insider . 2023年5月7日閲覧。
- ^ Hendrycks, Dan (2023-03-28). 「自然選択は人間よりもAIを支持する」arXiv : 2303.16200 [cs.CY].
- ^ Colton, Emma (2023年4月3日). 「AIは『ターミネーター』のように、ダーウィンの進化論の原則において人間よりも優位に立つ可能性があると報告書は警告している」Fox News . 2023年4月14日閲覧。
- ^ Klein, Ezra (2023年4月7日). 「AIがあなたの仕事を奪ったり、経済を活性化させたりしない理由」ニューヨーク・タイムズ. 2023年4月14日閲覧。
- ^ Hendrycks, Dan; Mazeika, Mantas; Woodside, Thomas (2023). 「AIの壊滅的リスクの概要」arXiv : 2306.12001 [cs.CY].
- ^ Scharfenberg, David (2023年7月6日). 「ダン・ヘンドリックスはAIの大惨事から私たちを救いたいと考えている。しかし、成功するかどうかは確信が持てない」.ボストン・グローブ. 2023年7月10日閲覧。
- ^ ラブリー・ギャリソン(2024年1月22日)「人類はAIを生き残れるか?」ジャコビン誌。
- ^ Goldman, Sharon (2024年11月14日). 「イーロン・マスクのxAI安全担当がScale AIのアドバイザーに就任」. Fortune . 2024年11月14日閲覧。
- ^ ケビン・ルース (2025年1月23日). 「AIがこのテストに合格したら、注意が必要」.ニューヨーク・タイムズ. ISSN 0362-4331 . 2025年2月4日閲覧。
- ^ ダスティン、ジェフリー、ポール、ケイティ (2024年9月16日). 「AI専門家が『人類最後の試験』に臨み、強力なテクノロジーを翻弄」ロイター.
- ^ 「AIの安全性、倫理、社会に関する教科書」www.aisafetybook.com . 2024年5月9日閲覧。