ジョイ・ブオラムウィニ | |
|---|---|
ウィキマニア2018でのBuolamwini氏 | |
| 生まれる | ジョイ・アドワ・ブオラムウィニ (1990年1月23日)1990年1月23日 |
| 教育 | コルドバ高校 |
| 母校 | ジョージア工科大学( BS )ジーザス・カレッジ・オックスフォード( MS )マサチューセッツ工科大学( MS、PhD ) |
| 知られている | アルゴリズム・ジャスティス・リーグ |
| 科学者としてのキャリア | |
| フィールド | メディア芸術科学コンピュータサイエンスアルゴリズムバイアス |
| 機関 | MITメディアラボ |
| 論文 | |
| 博士課程の指導教員 | イーサン・ザッカーマン[ 1 ] |
| Webサイト | www.poetofcode.com |
ジョイ・アドワー・ブオラムウィニは、かつてMITメディアラボに所属していたカナダ系アメリカ人のコンピュータ科学者であり、デジタル活動家です。[ 2 ]彼女は、意思決定ソフトウェアの偏見に挑戦する組織であるアルゴリズム・ジャスティス・リーグ(AJL)を設立し、芸術、擁護活動、研究を通じて人工知能(AI)の社会的影響と害を明らかにしています。[ 3 ] [ 4 ]
ブオラムウィニはアルバータ州エドモントンで生まれ、ミシシッピ州で育ち、テネシー州コルドバのコルドバ高校に通った。[ 5 ] 9歳の時、 MITのロボット「Kismet」に感銘を受け、独学でXHTML、JavaScript、PHPを習得した。[ 6 ] [ 7 ]学生時代は棒高跳びの競技選手として活躍し[ 8 ]、バスケットボールもプレーした。ブレネ・ブラウンの番組「Dare to Lead」に収録されたポッドキャストのエピソードでは、バスケットボールの休憩時間にAP物理の宿題をこなしていたことを回想している。[ 9 ]
学部生として、ブオラムウィニはジョージア工科大学でコンピュータサイエンスを学び、そこで健康情報学を研究しました。[ 10 ]ブオラムウィニは2012年にジョージア工科大学からスタンプス学長奨学生として卒業し[ 11 ] 、 [ 12 ]、2009年にはジョージア工科大学インベンチャー賞の最年少ファイナリストとなりました。[ 13 ]
ブオラムウィニはローズ奨学生、フルブライト研究員、スタンプス奨学生、宇宙飛行士奨学生、アニタ・ボーグ研究所奨学生である。[ 14 ]ローズ奨学生として、彼女はオックスフォード大学で学習とテクノロジーを学び、オックスフォード大学ジーザス・カレッジを拠点とする学生であった。[ 15 ] [ 16 ]奨学金期間中、彼女はコミュニティに焦点を当てたプロジェクトに携わる最初の正式な奉仕年に参加した。[ 16 ] [ 17 ]彼女は、イーサン・ザッカーマン の指導の下で研究を行い、2017年にMITからメディア芸術科学の修士号を授与された。[ 1 ]彼女は、2022年にMITメディアラボから「Facing the Coded Gaze with Evocative Audits and Algorithmic Audits」という論文でメディア芸術科学の博士号を授与された。[ 18 ]
2011年、ブオラムウィニはカーターセンターのトラコーマプログラムと協力し、エチオピアで使用するためのAndroidベースの評価システムを開発した。[ 19 ] [ 6 ]

フルブライト研究員として、彼女は2013年にザンビアの地元のコンピュータ科学者と協力し、ザンビアの若者がテクノロジークリエイターになるのを支援しました。[ 20 ] 2016年9月14日、ブオラムウィニはホワイトハウスの「すべての人のためのコンピュータサイエンス」サミットに出席しました。[ 21 ]
ブオラムウィニはMITメディアラボの研究者で、アルゴリズムの偏りを特定し、設計中の説明責任を果たすための実践を開発していました。[ 22 ]ブオラムウィニは、ラボでイーサン・ザッカーマンの市民メディアセンターグループのメンバーでした。[ 23 ] [ 24 ]研究中、ブオラムウィニは1,000人の顔を顔認識システムに見せ、顔が女性か男性かを識別するようにシステムに依頼したところ、ソフトウェアは肌の色の濃い女性を識別するのが難しいことがわかりました。[ 25 ]彼女のプロジェクト、ジェンダーシェードは、MITでの学位論文の一部となりました。[ 1 ] [ 26 ]彼女の2018年の論文、ジェンダーシェード:商業的な性別分類における交差的な精度の差[ 27 ]は、 IBMとMicrosoftからの対応を促し、アルゴリズムの精度を向上させるための是正措置を講じ、彼らのソフトウェアを迅速に改善し、業界への彼女の影響力を示しました。[ 28 ] [ 29 ]彼女はまた、ユーザーがインスピレーションに基づいて自分自身を映し出すデバイスであるAspire Mirrorを作成した。[ 30 ]彼女のプログラム、Algorithmic Justice Leagueは、過小評価されたグループに対する差別につながる可能性のあるコードの偏見に焦点を当てている。[ 31 ]彼女は2つの映画、 Code4RightsとAlgorithmic Justice League:Unmasking Biasを制作した。[ 32 ] [ 33 ]彼女が現在も監督を務めるCode4rightsは、テクノロジーを使用して人権意識を広めることを目的として2012年に設立された擁護団体である。[ 34 ]彼女はヘアケアテクノロジー企業Techturized Inc.の最高技術責任者(CTO)を務めた。 [ 10 ]
ブオラムウィニの研究は、2020年にグーグルとマイクロソフトが製品やプロセスにおける性別や人種の偏見に対処する上で影響を与えたとして引用された。 [ 35 ]
彼女はまた、2023年10月30日に発表されたバイデン政権の大統領令14110号に先立ち、大統領の顧問を務めた。この命令は、人工知能の安全、セキュリティ、信頼性のある開発と利用に関する大統領令(「人工知能に関する大統領令」と呼ばれることもある)としても知られている。[ 36 ] [ 37 ]
2023年に彼女は自身の研究を記録した初の著書『AIの正体を暴く:機械の世界で人間らしさを守る私の使命』を出版した。[ 38 ]彼女の著書を通して:
ジョイ・ブオラムウィニ博士によるAIバイアスに関する研究は、工学・テクノロジー分野におけるジェンダー平等の推進において極めて重要な役割を果たしてきました。彼女の研究によると、AI搭載の顔認識システムは、肌の色が濃い女性を識別する際に高いエラー率を示し、肌の色が薄い男性では0.8%であるのに対し、34.7%に達することが分かりました。これらの差異は、アルゴリズム設計における潜在的なバイアスを示唆しており、偏った学習データと不完全な評価プロセスが、性別と肌の色の両方に基づいて不平等な技術的成果をもたらしていると考えられます。[ 42 ]
ブオラムウィニ氏は、AIの性能限界に関する個人的な経験から、アルゴリズムの偏りに関する研究を始めた。MITメディアラボで顔認識に基づくアートプロジェクトに取り組んでいた際、市販のAIシステムが彼女の肌の色が濃いため、彼女の顔を安定して検出できないことに気づいた。このフラストレーションが、IBM、Microsoft、Face++の顔分析システムを厳密に評価した画期的な研究プロジェクト「ジェンダー・シェード」の着想のきっかけとなった。彼女の研究では、これらのシステムは肌の色が薄い男性に対して最も正確で、エラー率は1%と低かったのに対し、肌の色が濃い女性に対しては精度が急落し、誤分類率は47%にも達することが明らかになった。[ 43 ]
これらの失敗はデータの不均衡に起因することを認識したブオラムウィニは、典型的なAIトレーニングセットにおける、男性の顔が75%以上、肌の色が薄い顔が80%以上を占めるという表現不足に対処するために設計された多様なデータセットであるパイロット・パーラメンツ・ベンチマークを導入しました。この新しいベンチマークは、より公平なテスト基準を確保することでAIの性能を評価・改善するための重要な先例となりました。[ 43 ]
彼女の研究結果は、テクノロジー業界に大きな変化をもたらしました。彼女の研究発表後、IBMやMicrosoftなどの企業はアルゴリズムの改良に着手し、バイアスを軽減し、精度を向上させました。しかし、ブオラムウィニは、技術的な精度の向上だけでは、人種プロファイリング、監視、採用決定といった分野における潜在的な悪用リスクを排除することはできないと指摘しています。[ 43 ]
これらの懸念に対処するため、ブオラムウィニ氏は「Safe Face Pledge」の共同設立者となり、テクノロジー企業に対し倫理的なAI活用を促しています。この誓約は、顔認識技術の武器化を禁じ、警察による違法な使用を禁じ、政府の監視アプリケーションにおける透明性を求めています。彼女の提唱は、AI開発における公平性の実現には、規制枠組みや協力的な取り組みを含む多面的なアプローチが必要であることを強調しています。[ 43 ]

ブオラムウィニは2016年に、公平で説明責任のある人工知能(AI)を促進するために、アルゴリズム・ジャスティス・リーグ(AJL)を設立しました。 [ 44 ] AJLは芸術と研究を融合させ、社会への影響を調査し、AI関連の危害を軽減しています。同社は、AIの影響に対する一般の認識を高めるとともに、偏見の緩和に関する研究を推進しています。また、公平性とテクノロジーが交差する問題にも取り組んでおり、より包括的でアクセスしやすいエンジニアリングシステムを推進しています。AJLはまた、インタラクティブなキャンペーン、展示会、教育イニシアチブを通じて一般の人々の関与を促進し、偏見のあるアルゴリズムがジェンダー平等に与える影響について幅広い聴衆に情報を提供しています。
AJLは、その活動範囲を広げるため、Black Girls Codeなどの団体と提携し、アフリカ系アメリカ人の女子がSTEM分野のキャリアを追求することを奨励しています。これにより、テクノロジー業界における多様性の促進に努めています。AJLは、AIバイアスについて一般市民やテクノロジーコミュニティに啓発するためのワークショップやリソースの提供を行い、特にマイノリティ層がAIシステムに積極的に関わり、異議を唱えられるよう支援することに重点を置いています。
AJLの成功は、チームの総合的な努力の賜物です。アルゴリズミック・ジャスティス・リーグの主要メンバーには、組織開発と、公平で説明責任のあるAIの推進を目的とした関係構築に注力するチーフ・オブ・スタッフのレイチェル・フェイゲン氏がいます。また、AI危害アナリストのオーラム・リン氏は、人工知能の悪影響を特定し、軽減することに専念しています。アルゴリズミック・ジャスティス・リーグは、COREの資金提供者、諮問委員会、研究協力者など、様々な団体と協力し、AIシステムの透明性と説明責任を強化し、その活動が効果的かつ包括的なものとなるよう努めています。[ 45 ]
AJLのウェブサイトでは、情報とライブブログを提供しています。[ 46 ]サイトには、ユーザーがストーリーを共有したり、寄付したり、米国議会議員に手紙を書いたりできるセクションがいくつかあります。ブオラムウィニ氏は、AIアプリケーションにおけるジェンダー差別に対処するための政策議論に影響を与え、AIを活用した意思決定システムにおける公平性を確保する規制を提唱しています。2019年には、米国下院監視・改革委員会で顔認識技術のリスクについて証言しました。[ 47 ]彼女の証言は、顔認識技術の導入、特にこれらのシステムがジェンダーの不平等を悪化させる可能性のある分野における説明責任の必要性を強調しました。
彼女は、今回の大統領令は、マイノリティコミュニティに害を及ぼすAIシステムに対する救済措置、あるいは結果の面で不十分だと考えている。[ 48 ]彼女の努力は、 AIアプリケーション、特に雇用、住宅、刑事司法といった分野における差別に対処するための措置の導入を支持した。バイデン氏の大統領令は「長期にわたる継続的なプロセス」であり、業界にそうするインセンティブがないため、このような状況になっていると彼女は述べた。[ 49 ]
ジョイ・ブオラムウィニは、アルゴリズミック・ジャスティス・リーグ(AJL)を通じて、テクノロジー分野における女性、トランスジェンダー、ノンバイナリーの人々の包摂と支援を推進する上で重要な役割を果たしてきました。彼女の活動は、これらの過小評価されたグループに不均衡な影響を与える人工知能(AI)におけるバイアスを明らかにし、軽減することに重点を置いています。
ブオラムウィニ氏は、AIとテクノロジー分野におけるジェンダー平等を目指すキャンペーンを主導してきました。2021年には、Olay社と共同で「Decode the Bias(偏見を解読する)」キャンペーンを実施し、有色人種の女性に影響を与える美容アルゴリズムのバイアスについて調査しました。この取り組みでは、Olay社のスキンアドバイザーシステムを評価し、あらゆる肌の色調における公平な扱いを実現しました。[ 50 ]
これらの取り組みを基に、AJLはアルゴリズムシステムの害悪に関するコミュニティ報告(CRASH)を立ち上げました。これは主要な利害関係者を結集し、説明責任のある公平なAIシステムの構築に幅広い参加を可能にするツールを開発し、過小評価されている性別に影響を与える問題に直接対処するものです。[ 51 ]
AJLウェブサイトのVoicing Erasureセクションでは、音声システムの偏見について、Buolamwini、Allison Koenecke、Safiya Noble、Ruha Benjamin、Kimberlé Crenshaw、Megan Smith、Sasha Costanza-Chockによる講演が掲載されている。[ 52 ] [ 53 ] BuolamwiniとKoeneckeは、音声システムの偏見を明らかにするためにウェブサイトで研究している主任研究者である。彼らは、音声認識システムはアフリカ系アメリカ人の母国語の英語話者に最も問題を抱えており、これらのシステムは密かにユーザーの会話を聞いていると書いている。[ 54 ]彼らはまた、 Siri、Amazon Alexa、Microsoft Cortanaの音声認識システムによって永続化されていると彼らが考える有害なジェンダーステレオタイプについても書いている。[ 55 ]
彼女の方法論と結果はアマゾンのような業界から批判を受けたが、彼女はTEDトークの中で、「社会への影響、テクノロジー、そしてインクルージョン」の交差点を無視していることを強調することで、「コード化された視線」に対処したと説明した。[ 56 ]
彼女の「Voicing Erasure」プロジェクトは、音声認識システムにおけるバイアス、特に女性やノンバイナリーの人々の音声を正確に処理できないことが多いバイアスを明らかにすることで、ジェンダー平等に焦点を当てています。このプロジェクトは、こうした限界への意識を高めることで、より包括的なAI開発を推進しています。[ 50 ]
「コード化された視線」は、2016年にボストン美術館で初公開され、現在YouTubeで公開されているミニドキュメンタリーです。ブオラムウィニ氏はこのミニドキュメンタリーを通して、人工知能の機能に存在すると彼女が考える偏見について語っています。このミニドキュメンタリーと研究の着想は、彼女がMIT在学中に制作した作品「Aspire Mirror」に端を発しています。これは、顔認識技術を用いて、ユーザーにインスピレーションを与える人物像をそのユーザーの顔に映し出すものです。[ 57 ]ブオラムウィニ氏は、同じく肌の色が濃い女性であるセリーナ・ウィリアムズ選手の顔が自分の顔に映し出されることを期待していました。しかし、この技術は彼女の顔を認識しませんでした。ブオラムウィニ氏の研究では、なぜこのような結果になったのかを調査し、結果として、自分に似た人々が排除されるのは、彼女が「コード化された視線」と呼ぶ行為の結果であると結論付けました。[ 58 ]彼女はこの概念について、ミニドキュメンタリー「コード化された視線」の中でさらに詳しく論じています。このドキュメンタリーは、AIが開発者の見解や文化的背景を反映した人種的・性別的偏見の影響を受ける可能性があることを探求している。[ 59 ]
『コード化されたバイアス』は、シャリーニ・カンタヤ監督のドキュメンタリー映画で、顔認識技術と自動評価ソフトウェアにおけるAIの不正確さに関するブオラムウィニの研究を特集している。[ 60 ] [ 46 ]この映画は、 IBM、マイクロソフト、アマゾンが販売する顔認識ツールの規制の欠如と映画の制作者が考え、人種や性別の偏見を永続させていると主張するものに焦点を当てている。映画は、顔認識を使用して建物への入場を制御しようとしたブルックリンの入居者とビル管理会社との間の紛争を描いている。映画には、『Weapons of Math Destruction』の著者キャシー・オニールと、シルキー・カルロを含むロンドンのビッグ・ブラザー・ウォッチのメンバーが出演した。ドキュメンタリーは2021年4月5日にNetflixでストリーミング配信された。[ 61 ]
アルゴリズミック・ジャスティス・リーグが実施したプロジェクトは、英国ロンドンのバービカン・センターやオーストリア・リンツのアルス・エレクトロニカなどの美術館で展示されてきた。 [ 62 ]
2017年、ブオラムウィニは、2016年12月に公開された映画「Hidden Figures」と連動した「Search for Hidden Figures」コンテストのプロフェッショナル部門で最優秀賞を受賞しました。 [ 68 ]ペプシコと21世紀フォックスがスポンサーとなったこのコンテストは、「科学、技術、工学、数学の分野で次世代を担う女性リーダーの発掘を支援する」ことを目的としており、[ 69 ] 全米の若い女性から7,300件の応募がありました。[ 12 ]
ブオラムウィニはビーコンストリートで「アルゴリズムのバイアスとどう戦っているか」と題したTEDx講演を行った。[ 70 ] [ 71 ] [ 72 ] 2018年にはTEDラジオアワーに出演した。[ 73 ] 2018年にはエイミー・ポーラーのスマートガールズに出演した。[ 5 ]ファストカンパニー誌は彼女を「オンラインで民主主義を守るデザインヒーロー4人」の1人として紹介した。[ 74 ]彼女は2018年にBBCの100人の女性に選ばれた。[ 75 ]
2019年、ブオラムウィニはフォーチュン誌の2019年版「世界の偉大なリーダー50人」に選出され、「AI革命の良心」と評された。[ 76 ]また、2019年にはタイム誌の初となる100 Nextリストにも選ばれた。[ 77 ] 2020年、ブオラムウィニは国際女性デーに衣料品会社リーバイスが実施した女性エンパワーメントキャンペーンに登場した。[ 78 ]彼女はドキュメンタリー映画『Coded Bias』にも登場した。[ 79 ] 2020年、ニューヨークのカーネギー財団が授与するグレート・イミグランツ賞の受賞者。[ 80 ]
2022年、ブオラムウィニはASQハッチェンズメダリストに選ばれました。[ 81 ] 2023年には、タイム100 AIに掲載されました。[ 82 ]
2024年6月9日、ブオラムウィニ氏は、AIシステムにおけるバイアスの解明とAIによる危害の防止に関する研究で、ダートマス大学から名誉理学博士号を授与されました。また、ダートマス大学が主催する2024年度社会正義賞の基調講演者として招待されました。[ 83 ]
2024年11月、ブオラムウィニはアフリカ系アメリカ人宗教生活研究センター(CSAARL)のコンピューターサイエンス部門オクタヴィア・バトラー賞を受賞した。[ 84 ]
2024年3月14日、ブオラムウィニはNAACPアーチウェル財団デジタル公民権活動家賞を受賞しました。この賞に加え、ブオラムウィニにはこの分野における新たな活動に充てるための10万ドルが授与されました。[ 85 ]
ブオラムウィニはカナダのアルバータ州エドモントンでガーナ移民の両親のもとに生まれた。[ 86 ]彼女はガーナ、スペインのバルセロナ、イギリスのオックスフォード、そしてアメリカではテネシー州メンフィスとジョージア州アトランタに住んでいた。[ 13 ] 彼女は自分自身を「科学と芸術の娘」と表現しており、[ 9 ]彼女の父親は学者で、母親は芸術家であり、コード詩人でもあった。[ 9 ]
{{cite web}}: CS1 maint: 数値名: 著者リスト (リンク){{cite web}}: CS1 maint: 複数の名前: 著者リスト (リンク){{cite web}}: CS1 maint: 数値名: 著者リスト (リンク)