DALL-E

DALL-E
開発者オープンAI
初回リリース2021年1月5日 ( 2021-01-05 )
安定版リリース
DALL-E 3 / 2023年8月10日 ( 2023-08-10 )
プラットフォームクラウドコンピューティングプラットフォーム
後継GPTイメージ
タイプテキストから画像へのモデル
ライセンス独自のサービス

DALL-EDALL-E 2、およびDALL-E 3 (様式化されたDALL·E ) は、プロンプトと呼ばれる自然言語の説明からデジタル画像を生成するディープラーニング手法を使用してOpenAIが開発したテキストから画像へのモデルです。

DALL-Eの最初のバージョンは2021年1月に発表されました。翌年には後継のDALL-E 2がリリースされました。DALL-E 3は、2023年10月にChatGPT PlusおよびChatGPT Enterpriseの顧客向けにChatGPTにネイティブにリリースされ、 [ 1 ] OpenAIのAPI [ 2 ]と「Labs」プラットフォーム経由で11月初旬に利用可能になりました。[ 3 ] MicrosoftはBingのImage Creatorツールにこのモデルを実装しており、Designerアプリにも実装する予定です。[ 4 ] BingのImage Creatorツールでは、Microsoft CopilotがDALL-E 3上で動作します。[ 5 ] 2025年3月、DALL-E-3はChatGPTでGPT Imageのネイティブ画像生成機能に置き換えられました。[ 6 ]

歴史と背景

DALL-EはOpenAIが2021年1月5日のブログ投稿で公開したもので、画像生成用に改良された GPT-3 [ 7 ]のバージョンを使用しています。

2022年4月6日、OpenAIはDALL-E 2を発表しました。これは、より高解像度で「概念、属性、スタイルを組み合わせることができる」よりリアルな画像を生成するように設計された後継機です。[ 8 ] 2022年7月20日、DALL-E 2はベータフェーズに入り、100万人のウェイティングリストに登録された個人に招待状が送信されました。[ 9 ]ユーザーは毎月一定数の画像を無料で生成でき、さらに購入することもできます。[ 10 ]倫理と安全性への懸念から、以前は研究プレビューのために事前に選ばれたユーザーにアクセスが制限されていました。[ 11 ] [ 12 ] 2022年9月28日、DALL-E 2はすべての人に公開され、ウェイティングリストの要件は削除されました。[ 13 ] 2023年9月、OpenAIは最新の画像モデルであるDALL-E 3を発表しました。これは、以前のバージョンよりも「大幅に多くのニュアンスと詳細」を理解できます。[ 14 ] 2022年11月初旬、OpenAIはDALL-E 2をAPIとしてリリースし、開発者がモデルを独自のアプリケーションに統合できるようにしました。Microsoftは、BingMicrosoft Edgeに含まれるDesignerアプリとImage CreatorツールにDALL-E 2を実装したことを発表しました。[ 15 ] APIは画像1枚あたりの料金で動作し、画像の解像度に応じて価格が異なります。OpenAIのエンタープライズチームと提携している企業には、ボリュームディスカウントが適用されます。[ 16 ]

このソフトウェアの名前は、ピクサーのロボットアニメキャラクター「ウォーリー」とスペインのシュルレアリスト芸術家サルバドール・ダリの名前を組み合わせた造語である。[ 17 ] [ 7 ]

2024年2月、OpenAIはDALL-Eで生成された画像に、コンテンツ真正性イニシアチブが推進するC2PA(コンテンツの出所と真正性のための連合)標準のメタデータを含む透かしを追加し始めました。[ 18 ]

テクノロジー

最初の生成的事前学習済みトランスフォーマー(GPT)モデルは、2018年にOpenAIによって開発され、[ 19 ] Transformerアーキテクチャを採用していました。最初のイテレーションであるGPT-1 [ 20 ]は、 2019年にスケールアップされGPT-2が作成されました。 [ 21 ] 2020年にはさらにスケールアップされ、1750億のパラメータを持つGPT-3が作成されました。 [ 22 ] [ 7 ] [ 23 ]

DALL-E

DALL-Eは3つのコンポーネントから構成されています。離散VAE、GPT-3に似た自己回帰デコーダーのみのトランスフォーマー(120億パラメーター)、そして画像エンコーダーとテキストエンコーダーのCLIPペアです。[ 24 ]

離散VAEは、画像をトークンのシーケンスに変換し、逆にトークンのシーケンスを画像に戻すことができます。これは、Transformerが画像データを直接処理しないため、必要な機能です。[ 24 ]

Transformerモデルへの入力は、トークン化された画像キャプションとそれに続くトークン化された画像パッチのシーケンスである。画像キャプションは英語で、バイトペア符号化(語彙サイズ16384)によってトークン化されており、最大256トークンの長さを持つ。各画像は256×256のRGB画像で、4×4の32×32パッチに分割される。各パッチは離散変分オートエンコーダによってトークン(語彙サイズ8192)に変換される。[ 24 ]

DALL-Eは、CLIP(Contrastive Language-Image Pre-training)と連携して開発され、一般公開されました。[ 25 ] CLIPは対照学習に基づく別のモデルで、インターネットから収集された4億組の画像とテキストキャプションを用いて学習されました。その役割は、データセットからランダムに選択された32,768個のキャプションのリスト(そのうち1つが正解)の中から、どのキャプションが画像に最も適切かを予測することにより、DALL-Eの出力を「理解し、ランク付け」することです。[ 26 ]

訓練されたCLIPペアは、DALL-Eによって生成されたより大きな初期画像リストをフィルタリングし、テキストプロンプトに最も近い画像を選択するために使用されます。[ 24 ]

DALL-E 2

DALL-E 2は35億のパラメータを使用しており、これは前身のものより少ない数である。[ 24 ]自己回帰Transformerの代わりに、DALL-E 2はCLIP画像埋め込みを条件とする拡散モデルを使用する。この拡散モデルは推論中に、事前モデルによってCLIPテキスト埋め込みから生成される。[ 24 ]これは数ヶ月後にリリースされた Stable Diffusionと同じアーキテクチャである。

DALL-E 3

DALL-E 3の技術レポートは書かれていますが、モデルのトレーニングや実装の詳細は含まれていません。代わりに、DALL-E 3用に開発されたプロンプト追従機能の改善に焦点が当てられています。[ 27 ]

機能

DALL-Eは、フォトリアリスティックな画像、絵画絵文字など、さまざまなスタイルの画像を生成できます。[ 7 ]画像内のオブジェクトを「操作および並べ替える」ことができ、[ 7 ]明示的な指示なしに斬新な構図にデザイン要素を正しく配置できます。BoingBoingのライター、トム・ダンは、「例えば、鼻をかんでいる大根、ラテをすする大根、一輪車に乗っている大根を描くように指示された場合、DALL-Eハンカチ、手、足を妥当な場所に描くことがよくあります」と述べています。[ 28 ] DALL-Eは、具体的な指示がなくても「空欄を埋める」ことで適切な詳細を推測する能力を示しました。例えば、クリスマスに関連する一般的な指示にクリスマスのイメージを追加したり、[ 29 ]影について言及されていない画像に適切な影を付けたりしました。[ 30 ]さらに、DALL-Eは視覚およびデザインのトレンドを幅広く理解しています。

DALL-Eは、様々な視点から、多種多様な任意の説明に対して画像を生成することができ[ 31 ]、失敗はまれである[ 17 ] 。ジョージア工科大学インタラクティブコンピューティングスクールの准教授であるマーク・リードルは、DALL-Eが概念を融合できることを発見した(これは人間の創造性の重要な要素であると説明されている)。[ 32 ] [ 33 ]

その視覚的推論能力は、レイヴンのマトリックス(人間の知能を測定するためによく行われる視覚テスト)を解くのに十分である。[ 34 ] [ 35 ]

DALL-E 3 がテキストプロンプト「セラピストの椅子に座り、中心に種ほどの穴が開いたアボカドが『心が空っぽ』と言っているイラスト。セラピストはスプーンでメモを取っている」に基づいて正確に生成した画像。

DALL-E 3は、従来のものよりも正確かつ詳細に複雑なプロンプトに従い、より一貫性のある正確なテキストを生成することができます。[ 36 ] [ 14 ] DALL-E 3はChatGPT Plusに統合されています。[ 14 ]

画像の修正

DALL-E 2で生成された「真珠の耳飾りの少女」の2つの「バリエーション」

DALL-E 2とDALL-E 3は、既存の画像を入力すると、元の画像に基づいて画像の「バリエーション」を個別の出力として生成するだけでなく、画像を編集して修正または拡張することもできます。これらのモデルの「インペインティング」と「アウトペインティング」機能は、画像のコンテキストに基づき、指定されたプロンプトに従って、元の画像と一致する媒体を使用して、欠落している領域を補完します。

例えば、これを使って画像に新しい被写体を挿入したり、画像を元の境界を超えて拡張したりすることができます。[ 37 ] OpenAIによると、「アウトペインティングは、影、反射、テクスチャなど、画像の既存の視覚要素を考慮して、元の画像のコンテキストを維持します。」[ 38 ]

技術的な制限

DALL-E 2の言語理解には限界があります。「黄色い本と赤い花瓶」と「赤い本と黄色い花瓶」を区別できないことや、「パンダがラテアートを作っている」と「パンダのラテアート」を区別できないことがあります。[ 39 ]「宇宙飛行士に馬が乗っている」というプロンプトに対して、宇宙飛行士が馬に乗っている画像を生成します。[ 40 ]また、様々な状況で正しい画像を生成できません。4つ以上のオブジェクト、否定、数字、連続した文を要求されると、エラーが発生する可能性があり、オブジェクトの特徴が間違ったオブジェクトに表示されることがあります。 [ 31 ]追加の制限として、テキスト、アンビグラム、その他の形式のタイポグラフィの生成があり、これらはしばしば夢のような意味不明な文字列になります。また、天文学や医療画像などの科学情報への対応能力も限られています。[ 41 ]

「タヌキを指している人、『これはタヌキです!という吹き出し付き」というプロンプトを使用して日本語テキストを生成しようとすると、テキストが意味不明な漢字仮名で表示されます。

倫理的な懸念

DALL-E 2 は公開データセットに依存しているため、結果に影響を及ぼし、性別に言及しないリクエストに対して女性よりも男性の数を多く生成するなど、場合によってはアルゴリズムの偏りにつながる。 [ 41 ] DALL-E 2 のトレーニングデータは、暴力的または性的な画像を除去するためにフィルタリングされていたが、これにより、女性が生成される頻度が減少するなど、場合によっては偏りが増大することが判明した。[ 42 ] OpenAI は、トレーニングデータでは女性が性的に表現される可能性が高く、それがフィルターが結果に影響を与えるためではないかと仮説を立てている。[ 42 ] 2022年9月、OpenAI はThe Vergeに対し、DALL-E が結果の偏りに対処するためにユーザープロンプトに目に見えない形でフレーズを挿入していることを確認した。たとえば、「黒人男性」や「アジア人女性」は、性別や人種を指定しないプロンプトに挿入されている。[ 43 ] OpenAIは、DALL-E 3において、入力/出力フィルター、ブロックリスト、ChatGPTの拒否、モデルレベルの介入を通じて、ヌードや性的なコンテンツを含む潜在的な「際どいコンテンツ」への懸念に対処していると主張している。[ 44 ]しかし、DALL-E 3は依然として、白人、女性、若年層といった人物を不均衡に表現している。ユーザーは、画像生成時により具体的なプロンプトを表示することで、この問題をある程度改善することができる。

DALL-E 2や類似の画像生成モデルに関する懸念は、ディープフェイクやその他の誤情報の拡散に利用される可能性があることです。[ 45 ] [ 46 ]これを軽減するために、このソフトウェアは著名人に関するプロンプトや人間の顔を含むアップロードを拒否します。[ 47 ]不快なコンテンツを含む可能性のあるプロンプトはブロックされ、アップロードされた画像は分析されて不快なコンテンツが検出されます。[ 48 ]プロンプトベースのフィルタリングの欠点は、類似の出力をもたらす代替フレーズを使用することで簡単にバイパスできることです。例えば、「血」という単語はフィルタリングされますが、「ケチャップ」や「赤い液体」はフィルタリングされません。[ 49 ] [ 48 ]

DALL-E 2や類似モデルに関するもう一つの懸念は、その精度と人気の高さから、アーティスト、写真家、グラフィックデザイナーの技術的失業を引き起こす可能性があることである。 [ 50 ] [ 51 ] DALL-E 3は、ユーザーが現在生きているアーティストのスタイルでアートを生成することをブロックするように設計されています。[ 14 ] OpenAIは、これらのモデルを使用して生成された画像は、転載、販売、または商品化に許可を必要としないと述べていますが、[ 52 ]これらの画像の所有者に関する法的な懸念が提起されています。[ 53 ] [ 54 ]

2023年にマイクロソフトは米国国防総省にDALL-Eモデルを使用して戦場管理システムを訓練することを提案した。[ 55 ] 2024年1月にOpenAIは軍事および戦争での使用の全面禁止を利用ポリシーから削除した[ 56 ]

受付

DALL-E が「チュチュを着た赤ちゃん大根が犬を散歩しているイラスト」というプロンプトに基づいて生成した画像

DALL-Eに関する報道のほとんどは、「シュール」[ 25 ]または「風変わりな」[ 32 ]出力のごく一部に焦点を当てています。DALL-Eの出力である「チュチュを着た小さな大根が犬を散歩させているイラスト」は、Input[57]、NBC[58]、Nature[ 59 ]など 出版取り上げられ まし[ 7 ] [ 60 ] [ 61 ] アボカド形をしたアームチェア」の出力も広く取り上げられました。[ 25 ] [ 33 ]

ExtremeTechは、「DALL-Eに特定の期間の電話や掃除機の写真を要求すると、それらの物体がどのように変化したかを理解できる」と述べています。 [ 29 ] Engadgetも、DALL-Eの「電話やその他の物体が時間の経過とともにどのように変化するかを理解する」という並外れた能力に注目しました。 [ 30 ]

MITテクノロジーレビューによると、OpenAIの目的の一つは「言語モデルに、人間が物事を理解するために使用する日常的な概念をよりよく理解させること」であった。[ 25 ]

ウォール街の投資家はDALL-E 2を好意的に受け止めており、一部の企業はこれが将来の数兆ドル規模の産業の転換点となる可能性があると考えています。2019年半ばまでに、OpenAIはすでにMicrosoftとKhosla Venturesから10億ドル以上の資金を調達しており[ 62 ] [ 63 ] [ 64 ]、2023年1月にはDALL-E 2とChatGPTの立ち上げ後、Microsoftからさらに100億ドルの資金を調達しました[ 65 ] 。

日本のアニメコミュニティは、DALL-E 2や類似のモデルに対して否定的な反応を示している。[ 66 ] [ 67 ] [ 68 ]アーティストたちは、このソフトウェアに対して主に2つの主張を展開している。1つ目は、AIアートは人間が意図を持って作成したものではないため、アートではないというものだ。「AIが生成した画像を自身の作品と並置することは、作品の品位を下げ、制作に費やされた時間と技術を損なわせる。AI駆動型画像生成ツールは、ウェブから収集された人間が作成したアートで訓練されているため、アーティストから厳しく批判されている。」[ 9 ] 2つ目は、著作権法とテキスト画像変換モデルの訓練に使用されたデータに関する問題である。OpenAIは、DALL-E 2の訓練に使用されたデータセットに関する情報を公開していないため、アーティストの作品が許可なく訓練に使用されたのではないかと懸念する声もある。これらの問題に関する著作権法は、現時点では結論が出ていない。[ 10 ]

DALL-E 3をBing ChatとChatGPTに統合した後、MicrosoftとOpenAIは過剰なコンテンツフィルタリングを批判され、DALL-Eは「ロボトミー手術を受けた」と批判された。[ 69 ]「男が大型ハンマーでサーバーラックを壊す」といったプロンプトによって生成された画像がフラグ付けされたことがその証拠として挙げられた。リリース後数日間は、フィルタリングが強化され、Bingが提案するプロンプトによって生成された画像がブロックされるほどになったと報じられている。[ 69 ] [ 70 ] TechRadarは、慎重すぎるとDALL-Eのクリエイティブツールとしての価値が損なわれる可能性があると主張した。[ 70 ]

オープンソース実装

OpenAIは3つのモデルのいずれのソースコードも公開していないため、同様の機能を提供するオープンソースモデルを作成する試みがいくつか行われてきました。 [ 71 ] [ 72 ] 2022年にHugging FaceのSpacesプラットフォームでリリースされたCraiyon(2022年6月にOpenAIから名前の変更が要求されるまではDALL-E Miniと呼ばれていました)は、インターネットからのフィルタリングされていないデータでトレーニングされたオリジナルのDALL-Eに基づくAIモデルです。ユーモラスな画像を生成する能力により、リリース後の2022年半ばに大きなメディアの注目を集めました。[ 73 ] [ 74 ] [ 75 ]オープンソースのテキスト画像変換モデルのもう1つの例は、 Stability AIによるStable Diffusionです。[ 76 ]

参照

参考文献

  1. ^ David, Emilia (2023年9月20日). 「OpenAI、DALL-Eの第3バージョンをリリース」 The Verge . 2023年9月20日時点のオリジナルよりアーカイブ。 2023年9月21日閲覧
  2. ^ “OpenAI Platform” . platform.openai.com . 2023年3月20日時点のオリジナルよりアーカイブ2023年11月10日閲覧。
  3. ^ Niles, Raymond (2023年11月10日) [今週更新]. 「DALL-E 3 API」 . OpenAIヘルプセンター. 2023年11月10日時点のオリジナルよりアーカイブ。 2023年11月10日閲覧
  4. ^ Mehdi, Yusuf (2023年9月21日). 「Microsoft Copilot を発表、日々のAIコンパニオンとして活躍」 .公式Microsoftブログ. 2023年9月21日時点のオリジナルよりアーカイブ。 2023年9月21日閲覧
  5. ^ 「DALL-E 3によるAIアートの改善」 Microsoft 202410月1日閲覧
  6. ^ Zeff, Kyle; Wiggers, Maxwell (2025年3月25日). 「ChatGPTの画像生成機能がアップグレード」 . TechCrunch . 2025年5月12日閲覧
  7. ^ a b c d e f Johnson, Khari (2021年1月5日). 「OpenAI、テキストから画像を生成するDALL-Eを発表」 . VentureBeat. 2021年1月5日時点のオリジナルよりアーカイブ。 2021年1月5日閲覧
  8. ^ “DALL·E 2” . OpenAI . 2022年4月6日時点のオリジナルよりアーカイブ。 2022年7月6日閲覧
  9. ^ a b「DALL·Eがベータ版で利用可能に」 OpenAI 2022年7月20日. 2022年7月20日時点のオリジナルよりアーカイブ。 2022年7月20日閲覧
  10. ^ a b Allyn, Bobby (2022年7月20日). 「シュールか、それともリアルすぎる?息を呑むようなAIツールDALL-Eが画像をより大きな舞台へ」 NPR . 2022年7月20日時点のオリジナルよりアーカイブ。 2022年7月20日閲覧
  11. ^ “DALL·E Waitlist” . labs.openai.com . 2022年7月4日時点のオリジナルよりアーカイブ。 2022年7月6日閲覧
  12. ^ 「トランプ・ネヴァーマインド・ベイビーからディープフェイクまで:DALL-EとAIアートの倫理」ガーディアン紙2022年6月18日。2022年7月6日時点のオリジナルよりアーカイブ。 2022年7月6日閲覧
  13. ^ 「DALL·E Now Available Without Waitlist」OpenAI 2022年9月28日。2022年10月4日時点のオリジナルよりアーカイブ。 2022年10月5日閲覧
  14. ^ a b c d「DALL·E 3」。OpenAI 2023年9月20日時点のオリジナルよりアーカイブ2023年9月21日閲覧
  15. ^ 「DALL·E APIがパブリックベータ版で利用可能に」OpenAI 2022年11月3日。2022年11月19日時点のオリジナルよりアーカイブ2022年11月19日閲覧。
  16. ^ Wiggers, Kyle (2022年11月3日). 「DALL-E 2を使って画像を生成するアプリを誰でも作れるようになった」 TechCrunch . 2022年11月19日時点のオリジナルよりアーカイブ。 2022年11月19日閲覧
  17. ^ a b Coldewey, Devin (2021年1月5日). 「OpenAIのDALL-Eは、文字通り何でも要求通りに、もっともらしい画像を作成します」2021年1月6日時点のオリジナルよりアーカイブ2021年1月5日閲覧。
  18. ^ Growcoot, Matt (2024年2月8日). 「DALL-Eで生成されたAI画像にコンテンツの真正性タグが含まれるようになった」 . PetaPixel . 2024年4月4日閲覧
  19. ^ Radford, Alec; Narasimhan, Karthik; Salimans, Tim; Sutskever, Ilya (2018年6月11日). 「生成的事前学習による言語理解の向上」(PDF) . OpenAI . p. 12. 2021年1月26日時点のオリジナルよりアーカイブ(PDF) . 2021年1月23日閲覧
  20. ^ 「GPT-1からGPT-4まで:OpenAIのGPTモデルそれぞれの説明と比較」 2023年4月11日。2023年4月15日時点のオリジナルよりアーカイブ。 2023年4月29日閲覧
  21. ^ Radford, Alec; Wu, Jeffrey; Child, Rewon; et al. (2019年2月14日). 「言語モデルは教師なしマルチタスク学習者だ」(PDF) . cdn.openai.com . 1 (8). 2021年2月6日時点のオリジナルよりアーカイブ(PDF) . 2020年12月19日閲覧
  22. ^ Brown, Tom B.; Mann, Benjamin; Ryder, Nick; et al. (2020年7月22日). 「言語モデルは少数ショット学習器である」. arXiv : 2005.14165 [ cs.CL ].
  23. ^ Ramesh, Aditya; Pavlov, Mikhail; Goh, Gabriel; et al. (2021年2月24日). 「ゼロショットテキスト画像生成」. arXiv : 2102.12092 [ cs.LG ].
  24. ^ a b c d e f Ramesh, Aditya; Dhariwal, Prafulla; Nichol, Alex; Chu, Casey; Chen, Mark (2022年4月12日). 「CLIP Latentsを用いた階層的テキスト条件付き画像生成」. arXiv : 2204.06125 [ cs.CV ].
  25. ^ a b c d Heaven, Will Douglas (2021年1月5日). 「このアボカド色のアームチェアはAIの未来になるかもしれない」 . MIT Technology Review. 2021年1月5日時点のオリジナルよりアーカイブ。 2021年1月5日閲覧
  26. ^ Radford, Alec; Kim, Jong Wook; Hallacy, Chris; et al. (2021年7月1日).自然言語教師からの転移可能な視覚モデルの学習. 第38回国際機械学習会議論文集. PMLR. pp.  8748– 8763.
  27. ^シー、ザン;周、徐。邱、西鵬。朱暁丹(2020)。 「キャプションをより有効に使用して画像キャプションを改善する」。arXiv : 2006.11807 [ cs.CV ]。
  28. ^ Dunn, Thom (2021年2月10日). 「このAIニューラルネットワークは、テキストキャプションをクラゲのピカチュウのようなアートに変換します」 . BoingBoing . 2021年2月22日時点のオリジナルよりアーカイブ。 2021年3月2日閲覧
  29. ^ a b Whitwam, Ryan (2021年1月6日). 「OpenAIの『DALL-E』がテキスト記述から画像を生成」 ExtremeTech . 2021年1月28日時点のオリジナルよりアーカイブ。 2021年3月2日閲覧
  30. ^ a b Dent, Steve (2021年1月6日). 「OpenAIのDALL-Eアプリは、説明文だけで画像を生成」 Engadget . 2021年1月27日時点のオリジナルよりアーカイブ。 2021年3月2日閲覧
  31. ^ a bマーカス・ゲイリー、デイビス・アーネスト、アーロンソン・スコット(2022年5月2日)「DALL-E 2の非常に予備的な分析」arXiv : 2204.13807 [ cs.CV ]。
  32. ^ a b Shead, Sam (2021年1月8日). 「なぜ誰もがイーロン・マスクが支援するAIラボがリリースした画像ジェネレーターについて話しているのか」 CNBC . 2022年7月16日時点のオリジナルよりアーカイブ。 2021年3月2日閲覧
  33. ^ a bウェイクフィールド、ジェーン (2021年1月6日). 「AIがチュチュを着た犬の散歩をするベビーラディッシュを描く」英国放送協会. 2021年3月2日時点のオリジナルよりアーカイブ。 2021年3月3日閲覧
  34. ^ Markowitz, Dale (2021年1月10日). 「OpenAIの魔法のDALL-E画像ジェネレータの仕組みはこうだ」 TheNextWeb . 2021年2月23日時点のオリジナルよりアーカイブ。 2021年3月2日閲覧
  35. ^ 「DALL·E: テキストから画像を作成する」OpenAI . 2021年1月5日. 2021年3月27日時点のオリジナルよりアーカイブ。 2022年8月13日閲覧
  36. ^ Edwards, Benj (2023年9月20日). 「OpenAIの新しいAI画像ジェネレーターは、ディテールとプロンプトの忠実度の限界を押し広げる」 Ars Technica . 2023年9月21日時点のオリジナルよりアーカイブ。 2023年9月21日閲覧
  37. ^ Coldewey, Devin (2022年4月6日). 「OpenAIの新しいツールは、これまで以上に大きく、そしてより良く、あらゆるものを描画します」 . TechCrunch . 2023年5月6日時点のオリジナルよりアーカイブ。 2022年11月26日閲覧
  38. ^ 「DALL·E: アウトペインティングの紹介」OpenAI . 2022年8月31日. 2022年11月26日時点のオリジナルよりアーカイブ。 2022年11月26日閲覧
  39. ^ Saharia, Chitwan; Chan, William; Saxena, Saurabh; et al. (2022年5月23日). 「深層言語理解を備えたフォトリアリスティックなテキストから画像への拡散モデル」. arXiv : 2205.11487 [ cs.CV ].
  40. ^ Marcus, Gary (2022年5月28日). 「Horse rides astronaut」 . The Road to AI We Can Trust . 2022年6月19日時点のオリジナルよりアーカイブ。 2022年6月18日閲覧
  41. ^ a bストリックランド、エリザ(2022年7月14日)「DALL-E 2の失敗こそが、その最も興味深い点だ」 IEEE Spectrum2022年7月15日時点のオリジナルよりアーカイブ。 2022年8月16日閲覧
  42. ^ a b「DALL·E 2 事前トレーニング緩和策」OpenAI 2022年6月28日。2022年7月19日時点のオリジナルよりアーカイブ2022年7月18日閲覧。
  43. ^ James Vincent (2022年9月29日). 「OpenAIの画像ジェネレーターDALL-Eは誰でもすぐに利用可能」 The Verge . 2022年9月29日時点のオリジナルよりアーカイブ。 2022年9月29日閲覧
  44. ^ OpenAI (2023年10月3日). 「DALL-E 3 システムカード」(PDF) .{{cite journal}}:ジャーナルを引用するには|journal=ヘルプ)が必要です
  45. ^ Taylor, Josh (2022年6月18日). 「トランプ・ネヴァーマインド・ベイビーからディープフェイクまで:DALL-EとAIアートの倫理」 . The Guardian . 2022年7月6日時点のオリジナルよりアーカイブ。 2022年8月2日閲覧
  46. ^ウィル・ナイト(2022年7月13日)「AIがアートを作るとき、人間が創造的な火花を添える」 Wired2022年8月2日時点のオリジナルよりアーカイブ。 2022年8月2日閲覧
  47. ^ Rose, Janus (2022年6月24日). 「DALL-Eが偽の人物のリアルな顔を生成」 . Vice . 2022年7月30日時点のオリジナルよりアーカイブ2022年8月2日閲覧。
  48. ^ a b OpenAI (2022年6月19日). 「DALL·E 2 プレビュー – リスクと制限事項」 . GitHub . 2022年8月2日時点のオリジナルよりアーカイブ2022年8月2日閲覧。
  49. ^ Lane, Laura (2022年7月1日). 「DALL-E、もう1つピカソをください」 . The New Yorker . 2022年8月2日時点のオリジナルよりアーカイブ。 2022年8月2日閲覧
  50. ^ Goldman, Sharon (2022年7月26日). 「OpenAI: DALL-E 2はクリエイティブなキャリアを殺すのか?」 2022年8月15日時点のオリジナルよりアーカイブ。 2022年8月16日閲覧
  51. ^ Blain, Loz (2022年7月29日). 「DALL-E 2:夢のツールであり、ビジュアルアーティストにとっての実存的脅威」 . 2022年8月17日時点のオリジナルよりアーカイブ。 2022年8月16日閲覧
  52. ^ “DALL・E 3” . openai.com 2025 年4 月 10 日に取得
  53. ^ centerforartlaw (2022年11月21日). 「芸術的か人工的か? AI生成アートワークにおける所有権と著作権に関する懸念 - Center for Art Law」 . itsartlaw.org . 2025年4月10日閲覧
  54. ^ 「生成AIは知的財産上の問題がある」ハーバード・ビジネス・レビュー、2023年4月7日。ISSN 0017-8012 。 2025年4月10日閲覧 
  55. ^ Biddle, Sam (2024年4月10日). 「マイクロソフト、OpenAIのDALL-Eを米軍の戦場ツールとして提案」 The Intercept .
  56. ^ Biddle, Sam (2024年1月12日). 「OpenAIがChatGPTの「軍事および戦争」利用禁止をひっそりと解除」インターセプト。 」
  57. ^ Kasana, Mehreen (2021年1月7日). 「このAIはテキストをシュールな、提案主導のアートに変える」 Input. 2021年1月29日時点のオリジナルよりアーカイブ。 2021年3月2日閲覧
  58. ^ Ehrenkranz, Melanie (2021年1月27日). 「Here's DALL-E: An algorithm learned to draw everything you tell it」 . NBC News . 2021年2月20日時点のオリジナルよりアーカイブ。 2021年3月2日閲覧
  59. ^ Stove, Emma (2021年2月5日). 「クマムシのサーカスと生命の樹 — 1月のベスト科学画像」 . Nature . 2021年3月8日時点のオリジナルよりアーカイブ。 2021年3月2日閲覧
  60. ^ウィル・ナイト(2021年1月26日)「このAIは『アート』から自動運転車のステアリングまで実現できる可能性がある」 Wired誌。20212月21日時点のオリジナルよりアーカイブ。 2021年3月2日閲覧
  61. ^ Metz, Rachel (2021年2月2日). 「チュチュを着た大根が犬の散歩をしている?このAIはそれを本当に上手に描くことができる」 . CNN. 2022年7月16日時点のオリジナルよりアーカイブ。 2021年3月2日閲覧
  62. ^ Leswing, Kif (2022年10月8日). 「なぜシリコンバレーは人工知能によるぎこちない絵に興奮しているのか」 . CNBC . 2023年7月29日時点のオリジナルよりアーカイブ。 2022年12月1日閲覧
  63. ^ Etherington, Darrell (2019年7月22日). 「Microsoft、複数年にわたる新たなパートナーシップでOpenAIに10億ドルを投資」 TechCrunch . 2019年7月22日時点のオリジナルよりアーカイブ。 2023年9月21日閲覧
  64. ^ 「OpenAI初のVC支援者が生成AIに賛同」Fortune 2023年10月23日時点のオリジナルよりアーカイブ2023年9月21日閲覧
  65. ^ Metz, Cade; Weise, Karen (2023年1月23日). 「Microsoft、ChatGPTの開発元OpenAIに100億ドルを投資へ」 . The New York Times . ISSN 0362-4331 . 2023年9月21日時点のオリジナルよりアーカイブ。 2023年9月21日閲覧 
  66. ^ 「AI生成アートが日本のアニメ界から激しい反発を招く」。Rest of World。2022年10月27日。2022年12月31日時点のオリジナルよりアーカイブ2023年1月3日閲覧。
  67. ^ケビン・ルース(2022年9月2日)「AIが生成した写真が芸術賞を受賞。アーティストは満足していない」ニューヨーク・タイムズ紙。ISSN 0362-4331 2023年5月31日時点のオリジナルよりアーカイブ。 2023年1月3日閲覧 
  68. ^ Daws, Ryan (2022年12月15日). 「AIアート抗議への対応を受け、ArtStationの反発が拡大」 . AIニュース. 2023年1月3日時点のオリジナルよりアーカイブ。 2023年1月3日閲覧
  69. ^ a b Corden, Jez (2023年10月8日). 「Bing Dall-E 3 イメージ作成は数日間は素晴らしかったが、今やマイクロソフトは予想通りそれをロボトミー化した」 . Windows Central . 2023年10月10日時点のオリジナルよりアーカイブ。 2023年10月11日閲覧
  70. ^ a b Allan, Darren (2023年10月9日). 「MicrosoftがBing AIのImage Creatorを抑制 ― 結果は意味をなさない」 TechRadar . 2023年10月10日時点のオリジナルよりアーカイブ。 2023年10月11日閲覧
  71. ^ Sahar Mor, Stripe (2022年4月16日). 「DALL-E 2はコンピュータービジョンの主要な課題をどのように解決できるか」 . VentureBeat . 2022年5月24日時点のオリジナルよりアーカイブ。 2022年6月15日閲覧
  72. ^ “jina-ai/dalle-flow” . Jina AI. 2022年6月17日. 2022年6月17日時点のオリジナルよりアーカイブ。 2022年6月17日閲覧
  73. ^ Carson, Erin (2022年6月14日). 「Dall-E Miniについて知っておくべきことすべて、心を揺さぶるAIアートクリエイター」 . CNET . 2022年6月15日時点のオリジナルよりアーカイブ。 2022年6月15日閲覧
  74. ^ Schroeder, Audra (2022年6月9日). 「AIプログラムDALL-E mini、本当に呪われた画像を表示」 Daily Dot . 2022年6月10日時点のオリジナルよりアーカイブ。 2022年6月15日閲覧
  75. ^ Diaz, Ana (2022年6月15日). 「DALL-E miniを使って、パグピカチュウのようなミームの醜悪なものを作る人がいる」 . Polygon . 2022年6月15日時点のオリジナルよりアーカイブ。 2022年6月15日閲覧
  76. ^ Stability-AI/stablediffusion、Stability AI、2025年4月7日、 2025年4月8日閲覧。