ジョイ・ブオラムウィニ

ジョイ・ブオラムウィニ
ウィキマニア2018でのBuolamwini氏
生まれる
ジョイ・アドワ・ブオラムウィニ
1990年1月23日1990年1月23日
教育コルドバ高校
母校ジョージア工科大学( BS )ジーザス・カレッジ・オックスフォード( MS )マサチューセッツ工科大学( MSPhD )
知られているアルゴリズム・ジャスティス・リーグ
科学者としてのキャリア
フィールドメディア芸術科学コンピュータサイエンスアルゴリズムバイアス
機関MITメディアラボ
論文
博士課程の指導教員イーサン・ザッカーマン[ 1 ]
Webサイトwww.poetofcode.comWikidataで編集する

ジョイ・アドワー・ブオラムウィニは、かつてMITメディアラボに所属していたカナダ系アメリカ人のコンピュータ科学者であり、デジタル活動家です。[ 2 ]彼女は、意思決定ソフトウェアの偏見に挑戦する組織であるアルゴリズム・ジャスティス・リーグ(AJL)を設立し、芸術、擁護活動、研究を通じて人工知能(AI)の社会的影響と害を明らかにしています。[ 3 ] [ 4 ]

幼少期と教育

ブオラムウィニはアルバータ州エドモントンで生まれ、ミシシッピ州で育ち、テネシー州コルドバのコルドバ高校に通った。[ 5 ] 9歳の時、 MITのロボット「Kismet」に感銘を受け、独学でXHTMLJavaScriptPHPを習得した。[ 6 ] [ 7 ]学生時代は棒高跳びの競技選手として活躍し[ 8 ]、バスケットボールもプレーした。ブレネ・ブラウンの番組「Dare to Lead」に収録されたポッドキャストのエピソードでは、バスケットボールの休憩時間にAP物理の宿題をこなしていたことを回想している。[ 9 ]

学部生として、ブオラムウィニはジョージア工科大学でコンピュータサイエンスを学び、そこで健康情報学を研究しました。[ 10 ]ブオラムウィニは2012年にジョージア工科大学からスタンプス学長奨学生として卒業し[ 11 ] 、 [ 12 ]、2009年にはジョージア工科大学インベンチャー賞の最年少ファイナリストとなりました。[ 13 ]

ブオラムウィニはローズ奨学生フルブライト研究員スタンプス奨学生、宇宙飛行士奨学生、アニタ・ボーグ研究所奨学生である。[ 14 ]ローズ奨学生として、彼女はオックスフォード大学で学習とテクノロジーを学び、オックスフォード大学ジーザス・カレッジを拠点とする学生であった。[ 15 ] [ 16 ]奨学金期間中、彼女はコミュニティに焦点を当てたプロジェクトに携わる最初の正式な奉仕年に参加した。[ 16 ] [ 17 ]彼女は、イーサン・ザッカーマン の指導の下で研究を行い、2017年にMITからメディア芸術科学の修士号を授与された。[ 1 ]彼女は、2022年にMITメディアラボから「Facing the Coded Gaze with Evocative Audits and Algorithmic Audits」という論文でメディア芸術科学の博士号を授与された。[ 18 ]

キャリアと研究

2011年、ブオラムウィニはカーターセンターのトラコーマプログラムと協力し、エチオピアで使用するためのAndroidベースの評価システムを開発した。[ 19 ] [ 6 ]

顔認識システムのバイアスを評価するジョイ・ブオラムウィニのジェンダー・シェード・プロジェクトのインターフェース
ケープタウンで開催されたウィキマニア2018に出席したジョイ・ブオラムウィニ

フルブライト研究員として、彼女は2013年にザンビアの地元のコンピュータ科学者と協力し、ザンビアの若者がテクノロジークリエイターになるのを支援しました。[ 20 ] 2016年9月14日、ブオラムウィニはホワイトハウスの「すべての人のためのコンピュータサイエンス」サミットに出席しました。[ 21 ]

ブオラムウィニはMITメディアラボの研究者で、アルゴリズムの偏りを特定し、設計中の説明責任を果たすための実践を開発していました。[ 22 ]ブオラムウィニは、ラボでイーサン・ザッカーマン市民メディアセンターグループのメンバーでした。[ 23 ] [ 24 ]研究中、ブオラムウィニは1,000人の顔を顔認識システムに見せ、顔が女性か男性かを識別するようにシステムに依頼したところ、ソフトウェアは肌の色の濃い女性を識別するのが難しいことがわかりました。[ 25 ]彼女のプロジェクト、ジェンダーシェードは、MITでの学位論文の一部となりました。[ 1 ] [ 26 ]彼女の2018年の論文、ジェンダーシェード:商業的な性別分類における交差的な精度の差[ 27 ]は、 IBMMicrosoftからの対応を促し、アルゴリズムの精度を向上させるための是正措置を講じ、彼らのソフトウェアを迅速に改善し、業界への彼女の影響力を示しました。[ 28 ] [ 29 ]彼女はまた、ユーザーがインスピレーションに基づいて自分自身を映し出すデバイスであるAspire Mirrorを作成した。[ 30 ]彼女のプログラム、Algorithmic Justice Leagueは、過小評価されたグループに対する差別につながる可能性のあるコードの偏見に焦点を当てている。[ 31 ]彼女は2つの映画、 Code4RightsAlgorithmic Justice League:Unmasking Biasを制作した。[ 32 ] [ 33 ]彼女が現在も監督を務めるCode4rightsは、テクノロジーを使用して人権意識を広めることを目的として2012年に設立された擁護団体である。[ 34 ]彼女はヘアケアテクノロジー企業Techturized Inc.の最高技術責任者(CTO)を務めた。 [ 10 ]

ブオラムウィニの研究は、2020年にグーグルマイクロソフトが製品やプロセスにおける性別や人種の偏見に対処する上で影響を与えたとして引用された。 [ 35 ]

彼女はまた、2023年10月30日に発表されたバイデン政権の大統領令14110号に先立ち、大統領の顧問を務めた。この命令は、人工知能の安全、セキュリティ、信頼性のある開発と利用に関する大統領令(「人工知能に関する大統領令」と呼ばれることもある)としても知られている。[ 36 ] [ 37 ]

2023年に彼女は自身の研究を記録した初の著書『AIの正体を暴く:機械の世界で人間らしさを守る私の使命』を出版した[ 38 ]彼女の著書を通して:

  • ブオラムウィニはAIの社会的影響について深く掘り下げ、顔分析システムの偏見とそれが何百万人もの人々、特に既存の固定観念を強化する場合に及ぼす潜在的な害について警告している。[ 39 ] [ 40 ]
  • 彼女はAIの差別的影響を軽減するために、包括的なデータセット、透明性のある監査、倫理的なポリシーの開発を主張している。[ 41 ]

AIバイアスとジェンダー平等

ジョイ・ブオラムウィニ博士によるAIバイアスに関する研究は、工学・テクノロジー分野におけるジェンダー平等の推進において極めて重要な役割を果たしてきました。彼女の研究によると、AI搭載の顔認識システムは、肌の色が濃い女性を識別する際に高いエラー率を示し、肌の色が薄い男性では0.8%であるのに対し、34.7%に達することが分かりました。これらの差異は、アルゴリズム設計における潜在的なバイアスを示唆しており、偏った学習データと不完全な評価プロセスが、性別と肌の色の両方に基づいて不平等な技術的成果をもたらしていると考えられます。[ 42 ]

ブオラムウィニ氏は、AIの性能限界に関する個人的な経験から、アルゴリズムの偏りに関する研究を始めた。MITメディアラボで顔認識に基づくアートプロジェクトに取り組んでいた際、市販のAIシステムが彼女の肌の色が濃いため、彼女の顔を安定して検出できないことに気づいた。このフラストレーションが、IBM、Microsoft、Face++の顔分析システムを厳密に評価した画期的な研究プロジェクト「ジェンダー・シェード」の着想のきっかけとなった。彼女の研究では、これらのシステムは肌の色が薄い男性に対して最も正確で、エラー率は1%と低かったのに対し、肌の色が濃い女性に対しては精度が急落し、誤分類率は47%にも達することが明らかになった。[ 43 ]

これらの失敗はデータの不均衡に起因することを認識したブオラムウィニは典型的なAIトレーニングセットにおける、男性の顔が75%以上、肌の色が薄い顔が80%以上を占めるという表現不足に対処するために設計された多様なデータセットであるパイロット・パーラメンツ・ベンチマークを導入しました。この新しいベンチマークは、より公平なテスト基準を確保することでAIの性能を評価・改善するための重要な先例となりました。[ 43 ]

彼女の研究結果は、テクノロジー業界に大きな変化をもたらしました。彼女の研究発表後、IBMやMicrosoftなどの企業はアルゴリズムの改良に着手し、バイアスを軽減し、精度を向上させました。しかし、ブオラムウィニは、技術的な精度の向上だけでは、人種プロファイリング、監視、採用決定といった分野における潜在的な悪用リスクを排除することはできないと指摘しています。[ 43 ]

これらの懸念に対処するため、ブオラムウィニ氏は「Safe Face Pledge」の共同設立者となり、テクノロジー企業に対し倫理的なAI活用を促しています。この誓約は、顔認識技術の武器化を禁じ、警察による違法な使用を禁じ、政府の監視アプリケーションにおける透明性を求めています。彼女の提唱は、AI開発における公平性の実現には、規制枠組みや協力的な取り組みを含む多面的なアプローチが必要であることを強調しています。[ 43 ]

アクティビズム

アルゴリズミック・ジャスティス・リーグのロゴ

ブオラムウィニは2016年に、公平で説明責任のある人工知能(AI)を促進するために、アルゴリズム・ジャスティス・リーグ(AJL)を設立しました。 [ 44 ] AJLは芸術と研究を融合させ、社会への影響を調査し、AI関連の危害を軽減しています。同社は、AIの影響に対する一般の認識を高めるとともに、偏見の緩和に関する研究を推進しています。また、公平性とテクノロジーが交差する問題にも取り組んでおり、より包括的でアクセスしやすいエンジニアリングシステムを推進しています。AJLはまた、インタラクティブなキャンペーン、展示会、教育イニシアチブを通じて一般の人々の関与を促進し、偏見のあるアルゴリズムがジェンダー平等に与える影響について幅広い聴衆に情報を提供しています。

AJLは、その活動範囲を広げるため、Black Girls Codeなどの団体と提携し、アフリカ系アメリカ人の女子がSTEM分野のキャリアを追求することを奨励しています。これにより、テクノロジー業界における多様性の促進に努めています。AJLは、AIバイアスについて一般市民やテクノロジーコミュニティに啓発するためのワークショップやリソースの提供を行い、特にマイノリティ層がAIシステムに積極的に関わり、異議を唱えられるよう支援することに重点を置いています。

AJLの成功は、チームの総合的な努力の賜物です。アルゴリズミック・ジャスティス・リーグの主要メンバーには、組織開発と、公平で説明責任のあるAIの推進を目的とした関係構築に注力するチーフ・オブ・スタッフのレイチェル・フェイゲン氏がいます。また、AI危害アナリストのオーラム・リン氏は、人工知能の悪影響を特定し、軽減することに専念しています。アルゴリズミック・ジャスティス・リーグは、COREの資金提供者、諮問委員会、研究協力者など、様々な団体と協力し、AIシステムの透明性と説明責任を強化し、その活動が効果的かつ包括的なものとなるよう努めています。[ 45 ]

AJLのウェブサイトでは、情報とライブブログを提供しています。[ 46 ]サイトには、ユーザーがストーリーを共有したり、寄付したり、米国議会議員に手紙を書いたりできるセクションがいくつかあります。ブオラムウィニ氏は、AIアプリケーションにおけるジェンダー差別に対処するための政策議論に影響を与え、AIを活用した意思決定システムにおける公平性を確保する規制を提唱しています。2019年には、米国下院監視・改革委員会で顔認識技術のリスクについて証言しました。[ 47 ]彼女の証言は、顔認識技術の導入、特にこれらのシステムがジェンダーの不平等を悪化させる可能性のある分野における説明責任の必要性を強調しました。

彼女は、今回の大統領令は、マイノリティコミュニティに害を及ぼすAIシステムに対する救済措置、あるいは結果の面で不十分だと考えている。[ 48 ]彼女の努力は、 AIアプリケーション、特に雇用、住宅、刑事司法といった分野における差別に対処するための措置の導入を支持した。バイデン氏の大統領令は「長期にわたる継続的なプロセス」であり、業界にそうするインセンティブがないため、このような状況になっていると彼女は述べた。[ 49 ]

ジョイ・ブオラムウィニは、アルゴリズミック・ジャスティス・リーグ(AJL)を通じて、テクノロジー分野における女性、トランスジェンダー、ノンバイナリーの人々の包摂と支援を推進する上で重要な役割を果たしてきました。彼女の活動は、これらの過小評価されたグループに不均衡な影響を与える人工知能(AI)におけるバイアスを明らかにし、軽減することに重点を置いています。

ブオラムウィニ氏は、AIとテクノロジー分野におけるジェンダー平等を目指すキャンペーンを主導してきました。2021年には、Olay社と共同で「Decode the Bias(偏見を解読する)」キャンペーンを実施し、有色人種の女性に影響を与える美容アルゴリズムのバイアスについて調査しました。この取り組みでは、Olay社のスキンアドバイザーシステムを評価し、あらゆる肌の色調における公平な扱いを実現しました。[ 50 ]

これらの取り組みを基に、AJLはアルゴリズムシステムの害悪に関するコミュニティ報告(CRASH)を立ち上げました。これは主要な利害関係者を結集し、説明責任のある公平なAIシステムの構築に幅広い参加を可能にするツールを開発し、過小評価されている性別に影響を与える問題に直接対処するものです。[ 51 ]

消去を表明する

AJLウェブサイトのVoicing Erasureセクションでは、音声システムの偏見について、Buolamwini、Allison Koenecke、Safiya Noble、Ruha Benjamin、Kimberlé Crenshaw、Megan Smith、Sasha Costanza-Chockによる講演が掲載されている。[ 52 ] [ 53 ] BuolamwiniKoenecke音声システム偏見明らかにするためウェブサイトで研究している主任研究者である。彼らは、音声認識システムはアフリカ系アメリカ人の母国語の英語話者に最も問題を抱えており、これらのシステムは密かにユーザーの会話を聞いていると書いている。[ 54 ]彼らはまた、 SiriAmazon AlexaMicrosoft Cortanaの音声認識システムによって永続化されていると彼らが考える有害なジェンダーステレオタイプについても書いている。[ 55 ]

彼女の方法論と結果はアマゾンのような業界から批判を受けたが、彼女はTEDトークの中で、「社会への影響、テクノロジー、そしてインクルージョン」の交差点を無視していることを強調することで、「コード化された視線」に対処したと説明した。[ 56 ]

彼女の「Voicing Erasure」プロジェクトは、音声認識システムにおけるバイアス、特に女性やノンバイナリーの人々の音声を正確に処理できないことが多いバイアスを明らかにすることで、ジェンダー平等に焦点を当てています。このプロジェクトは、こうした限界への意識を高めることで、より包括的なAI開発を推進しています。[ 50 ]

コード化された視線

「コード化された視線」は、2016年にボストン美術館で初公開され、現在YouTubeで公開されているミニドキュメンタリーです。ブオラムウィニ氏はこのミニドキュメンタリーを通して、人工知能の機能に存在すると彼女が考える偏見について語っています。このミニドキュメンタリーと研究の着想は、彼女がMIT在学中に制作した作品「Aspire Mirror」に端を発しています。これは、顔認識技術を用いて、ユーザーにインスピレーションを与える人物像をそのユーザーの顔に映し出すものです。[ 57 ]ブオラムウィニ氏は、同じく肌の色が濃い女性であるセリーナ・ウィリアムズ選手の顔が自分の顔に映し出されることを期待していました。しかし、この技術は彼女の顔を認識しませんでした。ブオラムウィニ氏の研究では、なぜこのような結果になったのかを調査し、結果として、自分に似た人々が排除されるのは、彼女が「コード化された視線」と呼ぶ行為の結果であると結論付けました。[ 58 ]彼女はこの概念について、ミニドキュメンタリー「コード化された視線」の中でさらに詳しく論じています。このドキュメンタリーは、AIが開発者の見解や文化的背景を反映した人種的・性別的偏見の影響を受ける可能性があることを探求している。[ 59 ]

コード化されたバイアス

『コード化されたバイアス』は、シャリーニ・カンタヤ監督のドキュメンタリー映画で、顔認識技術と自動評価ソフトウェアにおけるAIの不正確さに関するブオラムウィニの研究を特集している。[ 60 ] [ 46 ]この映画は、 IBMマイクロソフトアマゾンが販売する顔認識ツールの規制の欠如と映画の制作者が考え、人種や性別の偏見を永続させていると主張するものに焦点を当てている。映画は、顔認識を使用して建物への入場を制御しようとしたブルックリンの入居者とビル管理会社との間の紛争を描いている。映画には、『Weapons of Math Destruction』の著者キャシー・オニールと、シルキー・カルロを含むロンドンのビッグ・ブラザー・ウォッチのメンバーが出演した。ドキュメンタリーは2021年4月5日にNetflixでストリーミング配信された。[ 61 ]

展示会

アルゴリズミック・ジャスティス・リーグが実施したプロジェクトは、英国ロンドンのバービカン・センターやオーストリア・リンツのアルス・エレクトロニカなどの美術館で展示されてきた。 [ 62 ]

賞と栄誉

2017年、ブオラムウィニは、2016年12月に公開された映画「Hidden Figures」と連動した「Search for Hidden Figures」コンテストのプロフェッショナル部門で最優秀賞を受賞しました。 [ 68 ]ペプシコ21世紀フォックスがスポンサーとなったこのコンテストは、「科学、技術、工学、数学の分野で次世代を担う女性リーダーの発掘を支援する」ことを目的としており、[ 69 ] 全米の若い女性から7,300件の応募がありました。[ 12 ]

ブオラムウィニはビーコンストリート「アルゴリズムのバイアスとどう戦っているか」と題したTEDx講演を行った。[ 70 ] [ 71 ] [ 72 ] 2018年にはTEDラジオアワーに出演した。[ 73 ] 2018年にはエイミー・ポーラーのスマートガールズに出演した。[ 5 ]ファストカンパニー誌は彼女を「オンラインで民主主義を守るデザインヒーロー4人」の1人として紹介した。[ 74 ]彼女は2018年にBBCの100人の女性に選ばれた。[ 75 ]

2019年、ブオラムウィニはフォーチュン誌の2019年版「世界の偉大なリーダー50人」に選出され、「AI革命の良心」と評された。[ 76 ]また、2019年にはタイム誌の初となる100 Nextリストにも選ばれた。[ 77 ] 2020年、ブオラムウィニは国際女性デーに衣料品会社リーバイスが実施した女性エンパワーメントキャンペーンに登場した。[ 78 ]彼女はドキュメンタリー映画『Coded Bias』にも登場した。[ 79 ] 2020年、ニューヨークのカーネギー財団が授与するグレート・イミグランツ賞の受賞者。[ 80 ]

2022年、ブオラムウィニはASQハッチェンズメダリストに選ばれました。[ 81 ] 2023年には、タイム100 AIに掲載されました。[ 82 ]

2024年6月9日、ブオラムウィニ氏は、AIシステムにおけるバイアスの解明とAIによる危害の防止に関する研究で、ダートマス大学から名誉理学博士号を授与されました。また、ダートマス大学が主催する2024年度社会正義賞の基調講演者として招待されました。[ 83 ]

2024年11月、ブオラムウィニはアフリカ系アメリカ人宗教生活研究センター(CSAARL)のコンピューターサイエンス部門オクタヴィア・バトラー賞を受賞した。[ 84 ]

2024年3月14日、ブオラムウィニはNAACPアーチウェル財団デジタル公民権活動家賞を受賞しました。この賞に加え、ブオラムウィニにはこの分野における新たな活動に充てるための10万ドルが授与されました。[ 85 ]

私生活

ブオラムウィニはカナダのアルバータ州エドモントンでガーナ移民の両親のもとに生まれた。[ 86 ]彼女はガーナ、スペインのバルセロナ、イギリスのオックスフォード、そしてアメリカではテネシー州メンフィスジョージア州アトランタに住んでいた。[ 13 ] 彼女は自分自身を「科学と芸術の娘」と表現しており、[ 9 ]彼女の父親は学者で、母親は芸術家であり、コード詩人でもあった。[ 9 ]

参考文献

  1. ^ a b c Buolamwini, Joy Adowaa (2017).ジェンダーシェード:顔データセットとジェンダー分類器の交差表現型および人口統計学的評価(修士論文). MIT. hdl : 1721.1/114068 . OCLC  1026503582 .無料アクセスアイコン
  2. ^ 「Joy Buolamwini」 . forbes.com . 2022年3月19日閲覧
  3. ^ 「アルゴリズム・ジャスティス・リーグ ― AIの害と偏見を暴く」アルゴリズム・ジャスティス・リーグ ― AIの害と偏見を暴く2021年5月15日閲覧
  4. ^ 「TIME100 AI 2023: Joy Buolamwini」 . Time . 2023年9月7日. 2025年1月19日閲覧
  5. ^ a b「コンピューターサイエンスとテクノロジーの未来:注目すべき12人の若い女性 — パート2」。amysmartgirls.com 。エイミー・ポーラーのスマートガールズ。2018年2月19日。 2018年3月24日閲覧
  6. ^ a b “Joy Buolamwini | TryComputing.org” . trycomputing.org . 2018年3月25日時点のオリジナルよりアーカイブ。 2018年3月24日閲覧
  7. ^ 「人間の偏見を機械から取り除くデジタル活動家」 Bloomberg.com 2017年6月26日2018年3月24日閲覧
  8. ^ “CHS Pole Vaulting - Joy Buolamwini” . vault.awardspace.com . 2018年3月25日時点のオリジナルよりアーカイブ。 2018年3月24日閲覧
  9. ^ a b c「Spotify 。Spotify
  10. ^ a b「今週のテック系スタートアップ:Techturizedがヘアケア会社で勝利」 Black Enterprise、2013年3月15日。 2018年3月24日閲覧
  11. ^ 「スタンプス学長奨学生プログラム」 . stampsps.gatech.edu .
  12. ^ a b「ジョイ・ブオラムウィニ、機械学習における偏見と闘う活動で全国コンテストで優勝」MITニュース2018年3月24日閲覧
  13. ^ a b「Admissions Conquered | InVenture Prize」inventureprize.gatech.edu . 2021年9月25日閲覧
  14. ^ 「学者スポットライト:ジョイ・ブオラムウィニ|宇宙飛行士奨学金財団」 。 2021年9月25日閲覧
  15. ^ Buolamwini, Joy Adowaa (2014).大学院レベルのコンピュータサイエンス教育への参加増加:ジョージア工科大学のコンピュータサイエンス修士課程の事例研究. ox.ac.uk (修士論文). オックスフォード大学. OCLC 908967245 . 
  16. ^ a b「Joy Buolamwini Profile」 . rhodesproject.com . The Rhodes Project . 2018年3月24日閲覧
  17. ^ 「オックスフォード・ローンチパッド:起業家の告白:ジョイ・ブオラムウィニ | Enterprising Oxford」eship.ox.ac.uk2018年3月25日時点のオリジナルよりアーカイブ。 2018年3月24日閲覧
  18. ^ Buolamwini, Joy (2022).喚起的監査とアルゴリズム的監査によるコード化された視線への対処. mit.edu (博士論文). hdl : 1721.1/143396 .
  19. ^ 「学者スポットライト:ジョイ・ブオラムウィニ|宇宙飛行士奨学金財団」 astronautscholarship.org . 2018年3月24日閲覧
  20. ^ ZamrizeMedia (2013年4月28日)、Joy Buolamwini | Fulbright Fellow 2013 | ザンビア、 2018年3月24日閲覧。
  21. ^ Buolamwini, Joy (2017年3月27日). 「#CSForAll Tribute to Seymour Papert」 . MIT MEDIA LAB . 2024年12月9日閲覧
  22. ^ 「プロジェクト概要 ‹ Algorithmic Justice League – MIT Media Lab」 . MIT Media Lab . 2018年3月24日閲覧
  23. ^ "interview: joy buolamwini | MIT Admissions" . mitadmissions.org . 2017年3月5日. 2018年3月24日閲覧
  24. ^ 「Group People ‹ Civic Media – MIT Media Lab」 . MIT Media Lab . 2018年3月24日閲覧
  25. ^ 「写真アルゴリズムは白人男性を識別できるが、黒人女性はそうでもない」 wired.com . Wired誌. 2018年3月24日閲覧
  26. ^クラインマン、ゾーイ(2017年4月14日)「人工知能は人種差別的か?」 bbc.co.uk BBCニュース。 2018年3月24日閲覧
  27. ^ Buolamwini, Joy (2018). 「ジェンダー・シェード:商業的なジェンダー分類における交差的正確性格差」 .公平性、説明責任、透明性に関する会議. 81 : 77–91 – mir.press経由.
  28. ^ 「人工知能(AI)モデルにおけるバイアスの軽減 -- IBM Research」 ibm.com 2016年5月16日2018年3月24日閲覧
  29. ^ 「ジェンダー・シェード:商業的な性別分類における交差的精度格差」(PDF) . Proceedings of Machine Learning Research . 2018. 2018年3月24日閲覧
  30. ^ 「Aspire Mirror」 . Aspire Mirror . 2018年3月24日閲覧
  31. ^ International、Youth Radio-- Youth Media(2017年2月28日)。「『Hidden Figures』の探求で喜びが見つかる」。huffingtonpost.com ハフィントン・ポスト。 2018年3月24日閲覧
  32. ^ "Filmmakers Collaborative | Code4Rights" . filmmakerscollab.org . 2018年3月24日閲覧
  33. ^ 「Filmmakers Collaborative | Algorithmic Justice League: Unmasking Bias」 filmmakerscollab.org . 2018年3月24日閲覧
  34. ^ “Joy Buolamwini - TECHHER” . 2024年12月9日閲覧
  35. ^ 3月2日; Burt, 2020年 | Chris (2020年3月2日). 「テック大手、Googleに倣いコンピュータービジョンサービスから性別ラベルを削除するよう圧力」 biometricupdate.com .バイオメトリックアップデート. 2020年3月9日閲覧。{{cite web}}: CS1 maint: 数値名: 著者リスト (リンク)
  36. ^ Boak, Josh; Press, MATT O'BRIEN Associated (2023年10月30日). 「バイデン氏はAI保護策を迅速に進めたいと考えており、懸念事項に対処するための大統領令に署名」ロサンゼルス・タイムズ. 2024年1月22日閲覧
  37. ^ 「安全で安心、かつ信頼できる人工知能の開発と利用」連邦官報2023年10月30日。
  38. ^ 「コラム:彼女はロボット作りに着手した。そして結局、大手テクノロジー企業の実態を暴露することになった」ロサンゼルス・タイムズ、2023年11月3日。 2024年1月22日閲覧
  39. ^ "「『顔があれば、AIについての会話に参加できる』と専門家は語る」 NPR 2025年1月19日閲覧
  40. ^ Buolamwini, Joy; Gebru, Timnit (2018年1月21日). 「ジェンダー・シェード:商業上のジェンダー分類における交差的正確性格差」 .第1回公平性、説明責任、透明性に関する会議議事録. PMLR: 77–91 .
  41. ^ 「Unmasking AI by Joy Buolamwini: 9780593241844 | PenguinRandomHouse.com: Books」 PenguinRandomhouse.com . 2025年1月19日閲覧
  42. ^ 「研究で、商用人工知能システムにおける性別と肌のタイプによる偏見が判明」 MITニュース | マサチューセッツ工科大学2018年2月12日 . 2024年12月9日閲覧
  43. ^ a b c d「ジョイ・ブオラムウィニ:顔分析ソフトウェアにおける人種的・性別的偏見の検証」 Google Arts & Culture . 2024年12月9日閲覧
  44. ^ 「ミッション、チーム、ストーリー - アルゴリズミック・ジャスティス・リーグ」ajl.org . 2021年5月9日閲覧
  45. ^ 「ミッション、チーム、ストーリー - アルゴリズミック・ジャスティス・リーグ」 www.ajl.org . 2024年12月9日閲覧
  46. ^ a b「スポットライト - コード化されたバイアスのドキュメンタリー」ajl.org . 2021年5月9日閲覧
  47. ^ Quach, Katyanna (2019). 「顔認識に関する米国議会の証言を3時間以上聞いたので、皆さんはそれを理解する必要はありませんでした」 . theregister.com . 2022年1月13日閲覧
  48. ^ Feiner, Hayden Field, Lauren (2023年11月2日). 「バイデン大統領のAI規制命令は公平性への取り組みには不十分だったが、支持者たちは良い第一歩だと述べている」 . CNBC . 2024年12月9日閲覧{{cite web}}: CS1 maint: 複数の名前: 著者リスト (リンク)
  49. ^ 「バイデン大統領の大統領令はAIの害を制限することを目指している」マーケットプレイス。 2024年12月9日閲覧
  50. ^ a b「アルゴリズミック・ジャスティス・リーグ」Wikipedia、2024年10月10日、 2024年12月9日閲覧。
  51. ^ 「アルゴリズム脆弱性報奨金プロジェクト(AVBP)」www.ajl.org . 2024年12月9日閲覧
  52. ^ Voicing Erasure - 音声認識技術におけるバイアスを探るスポークンワードピース、2020年3月31日、 2021年5月9日閲覧
  53. ^ 「Voicing Erasure」 ajl.org . 2021年5月9日閲覧
  54. ^ 「MIT市民メディアセンター - 社会変革のためのテクノロジーの創造」2024年12月9日閲覧。
  55. ^ 「AIボットと音声アシスタントがジェンダーバイアスを強化する仕組み」ブルッキングス研究所。 2024年12月9日閲覧
  56. ^ Buolamwini, Joy (2017年3月9日). How I'm fighting bias in algorithms . 2024年12月9日閲覧– www.ted.comより。
  57. ^ 「コード化された視線:不平等を永続させるアルゴリズムのバイアスを解明する」 rockefellerfoundation.org . 2021年5月15日閲覧
  58. ^ 「コード化された視線:不平等を永続させるアルゴリズムのバイアスを解明する」ロックフェラー財団。 2021年6月20日閲覧
  59. ^ Sullivan, Mark (2019年5月22日). 「白人男性が偏った顔認識AIを構築するという悪循環をAOCが指摘」fastcompany.com . 2021年5月15日閲覧
  60. ^ 「Coded Bias | Films」 Independent Lens 2021年5月9日閲覧
  61. ^トレンホルム、リチャード(2021年3月31日) 「人種差別的なテクノロジーに立ち向かう目を見張るようなドキュメンタリー『Coded Bias』がNetflixで4月5日に配信開始CNET
  62. ^ 「アートと映画 - アルゴリズム・ジャスティス・リーグ」ajl.org . 2022年3月25日閲覧
  63. ^ 「 apexart展:犯罪者タイプ」。apexart.org
  64. ^ 「AIを理解する」アルスエレクトロニカセンター。2023年12月5日。
  65. ^AI: 人間を超える | バービカン」www.barbican.org.uk
  66. ^ 「今の9つの瞬間coopergallery.fas.harvard.edu .
  67. ^ 「ビッグバンデータ」 . MIT 博物館
  68. ^ 「Hidden No More: STEM Spotlight Shines On 'Hidden Figures' Like MIT's Joy Buolamwini」 youthradio.orgユースラジオ。2017年2月27日。2018年7月3日時点のオリジナルよりアーカイブ。 2018年3月24日閲覧
  69. ^ "「『Hidden Figures』がSTEM分野の少数派志望者のための奨学金コンテストを刺激」 fastcompany.com Fast Company 2017年1月19日2018年3月24日閲覧
  70. ^ 「講演者ジョイ・ブオラムウィニ:アルゴリズムにおけるバイアスとの戦い方」 scholar.harvard.edu 20183月24日閲覧
  71. ^ Buolamwini, Joy. 「アルゴリズムのバイアスと戦う方法 – MITメディアラボ」 MITメディアラボ. 2018年3月24日閲覧
  72. ^ TED(2017年3月29日)、アルゴリズムのバイアスとの戦い方 | Joy Buolamwini2018年3月24日閲覧
  73. ^ Joy Buolamwini: 顔認識ソフトウェアは肌の色をどのように認識するのか? 2018年3月24日閲覧
  74. ^シュワブ、キャサリン(2018年7月3日)「オンラインで民主主義を守る4人のデザインヒーローに会う」fastcompany.comFast Company Magazine 、 2018年7月21日閲覧。
  75. ^ 「BBC 100 Women 2018: Who is on the list?」 BBCニュース2018年11月19日. 2018年11月21日閲覧
  76. ^ 「Joy Buolamwini」 . Fortune . 2019年11月26日閲覧
  77. ^ 「TIME 100 Next 2019: Joy Buolamwini」 . Time . Time誌. 2019年12月16日閲覧
  78. ^ 「彼女はコードを書き換えている」 Off The Cuff . 2020年3月9日閲覧
  79. ^ Lee, Jennifer 8. (2020年2月8日). 「新ドキュメンタリー『Coded Bias』は、テクノロジーがいかに人種差別的・性差別的になり得るかを探る:コード・スイッチ」 . npr.org . NPR . 2020年12月12日閲覧{{cite web}}: CS1 maint: 数値名: 著者リスト (リンク)
  80. ^ 「ジョイ・ブオラムウィニ」ニューヨーク・カーネギー財団。 2024年6月26日閲覧
  81. ^ 「ハッチェンズMEdalists」 2024年1月4日。
  82. ^ 「2023年AI業界で最も影響力のある100人」Time誌2024年2月18日閲覧
  83. ^ 「2024年度名誉学位授与者発表」 Dartmouth.edu 2024年4月11日2024年6月10日閲覧
  84. ^ Buolamwini, Joy. 「Dr. Joy Buolamwini receives Octavia Butler Award in Computer Science」 MITメディアラボ. 2025年4月9日閲覧
  85. ^ 「2024 NAACP Archewell Foundation Digital Civil Rights Award」 . www.ajl.org . 2025年4月9日閲覧
  86. ^ニューヨーク・カーネギー財団. 「Joy Buolamwini | ニューヨーク・カーネギー財団」 .ニューヨーク・カーネギー財団. 2025年4月29日時点のオリジナルよりアーカイブ。 2025年9月18日閲覧