DALL-E 、DALL-E 2 、およびDALL-E 3 (様式化されたDALL·E ) は、プロンプト と呼ばれる自然言語の 説明からデジタル画像を 生成するディープラーニング 手法を使用してOpenAI が開発したテキストから画像へのモデル です。
DALL-Eの最初のバージョンは2021年1月に発表されました。翌年には後継のDALL-E 2がリリースされました。DALL-E 3は、2023年10月にChatGPT PlusおよびChatGPT Enterpriseの顧客向けにChatGPTにネイティブにリリースされ、 [ 1 ] OpenAIのAPI [ 2 ] と「Labs」プラットフォーム経由で11月初旬に利用可能になりました。[ 3 ] MicrosoftはBingのImage Creatorツールにこのモデルを実装しており、Designerアプリにも実装する予定です。[ 4 ] BingのImage Creatorツールでは、Microsoft Copilotが DALL-E 3上で動作します。[ 5 ] 2025年3月、DALL-E-3はChatGPTでGPT Image のネイティブ画像生成機能に置き換えられました。[ 6 ]
歴史と背景 DALL-EはOpenAIが2021年1月5日のブログ投稿で公開したもので、画像生成用に改良された GPT-3 [ 7 ] のバージョンを使用しています。
2022年4月6日、OpenAIはDALL-E 2を発表しました。これは、より高解像度で「概念、属性、スタイルを組み合わせることができる」よりリアルな画像を生成するように設計された後継機です。[ 8 ] 2022年7月20日、DALL-E 2はベータフェーズに入り、100万人のウェイティングリストに登録された個人に招待状が送信されました。[ 9 ] ユーザーは毎月一定数の画像を無料で生成でき、さらに購入することもできます。[ 10 ] 倫理 と安全性への懸念から、以前は研究プレビューのために事前に選ばれたユーザーにアクセスが制限されていました。[ 11 ] [ 12 ] 2022年9月28日、DALL-E 2はすべての人に公開され、ウェイティングリストの要件は削除されました。[ 13 ] 2023年9月、OpenAIは最新の画像モデルであるDALL-E 3を発表しました。これは、以前のバージョンよりも「大幅に多くのニュアンスと詳細」を理解できます。[ 14 ] 2022年11月初旬、OpenAIはDALL-E 2をAPI としてリリースし、開発者がモデルを独自のアプリケーションに統合できるようにしました。Microsoftは、 Bing とMicrosoft Edge に含まれるDesignerアプリとImage CreatorツールにDALL-E 2を実装したことを発表しました。[ 15 ] APIは画像1枚あたりの料金で動作し、画像の解像度に応じて価格が異なります。OpenAIのエンタープライズチームと提携している企業には、ボリュームディスカウントが適用されます。[ 16 ]
このソフトウェアの名前は、ピクサーの ロボットアニメキャラクター「ウォーリー」 とスペインのシュルレアリスト芸術家サルバドール・ダリ の名前を組み合わせた造語 である。[ 17 ] [ 7 ]
2024年2月、OpenAIはDALL-Eで生成された画像に、コンテンツ真正性イニシアチブ が推進するC2PA(コンテンツの出所と真正性のための連合)標準のメタデータを含む透かしを追加し始めました。[ 18 ]
テクノロジー 最初の生成的事前学習済みトランスフォーマー (GPT)モデルは、2018年にOpenAIによって開発され、[ 19 ] Transformer アーキテクチャを採用していました。最初のイテレーションであるGPT-1 [ 20 ] は、 2019年にスケールアップされGPT-2が作成されました。 [ 21 ] 2020年にはさらにスケールアップされ、1750億のパラメータを持つGPT-3が作成されました。 [ 22 ] [ 7 ] [ 23 ]
DALL-E DALL-Eは3つのコンポーネントから構成されています。離散VAE 、GPT-3に似た自己回帰デコーダーのみのトランスフォーマー(120億パラメーター)、そして画像エンコーダーとテキストエンコーダーのCLIPペアです。[ 24 ]
離散VAEは、画像をトークンのシーケンスに変換し、逆にトークンのシーケンスを画像に戻すことができます。これは、Transformerが画像データを直接処理しないため、必要な機能です。[ 24 ]
Transformerモデルへの入力は、トークン化された画像キャプションとそれに続くトークン化された画像パッチのシーケンスである。画像キャプションは英語で、バイトペア符号化 (語彙サイズ16384)によってトークン化されており、最大256トークンの長さを持つ。各画像は256×256のRGB画像で、4×4の32×32パッチに分割される。各パッチは離散変分オートエンコーダ によってトークン(語彙サイズ8192)に変換される。[ 24 ]
DALL-Eは、CLIP(Contrastive Language-Image Pre-training) と連携して開発され、一般公開されました。[ 25 ] CLIPは対照学習 に基づく別のモデルで、インターネットから収集された 4億組の画像とテキストキャプションを用いて学習されました。その役割は、データセットからランダムに選択された32,768個のキャプションのリスト(そのうち1つが正解)の中から、どのキャプションが画像に最も適切かを予測することにより、DALL-Eの出力を「理解し、ランク付け」することです。[ 26 ]
訓練されたCLIPペアは、DALL-Eによって生成されたより大きな初期画像リストをフィルタリングし、テキストプロンプトに最も近い画像を選択するために使用されます。[ 24 ]
DALL-E 2 DALL-E 2は35億のパラメータを使用しており、これは前身のものより少ない数である。[ 24 ] 自己回帰Transformerの代わりに、DALL-E 2はCLIP画像埋め込みを条件とする拡散モデル を使用する。この拡散モデルは推論中に、事前モデルによってCLIPテキスト埋め込みから生成される。[ 24 ] これは数ヶ月後にリリースされた Stable Diffusion と同じアーキテクチャである。
DALL-E 3 DALL-E 3の技術レポートは書かれていますが、モデルのトレーニングや実装の詳細は含まれていません。代わりに、DALL-E 3用に開発されたプロンプト追従機能の改善に焦点が当てられています。[ 27 ]
機能 DALL-Eは、フォトリアリスティックな 画像、絵画 、絵文字 など、さまざまなスタイルの画像を生成できます。[ 7 ] 画像内のオブジェクトを「操作および並べ替える」ことができ、[ 7 ] 明示的な指示なしに斬新な構図にデザイン要素を正しく配置できます。BoingBoingのライター、トム・ダンは、「例えば、鼻をかんでいる大根、ラテをすする大根、一輪車に乗っている大根を描くように指示された場合、DALL-Eは ハンカチ、手、足を妥当な場所に描くことがよくあります」と述べています。[ 28 ] DALL-Eは、具体的な指示がなくても「空欄を埋める」ことで適切な詳細を推測する能力を示しました。例えば、クリスマスに関連する一般的な指示にクリスマスのイメージを追加したり、[ 29 ] 影について言及されていない画像に適切な影を付けたりしました。[ 30 ] さらに、DALL-Eは視覚およびデザインのトレンドを幅広く理解しています。
DALL-Eは、様々な視点から、多種多様な任意の説明に対して画像を生成することができ[ 31 ] 、失敗はまれである[ 17 ] 。ジョージア工科 大学インタラクティブコンピューティングスクールの准教授であるマーク・リードルは、DALL-Eが概念を融合できることを発見した(これは人間の創造性 の重要な要素であると説明されている)。[ 32 ] [ 33 ]
その視覚的推論能力は、レイヴンのマトリックス (人間の知能を測定するためによく行われる視覚テスト)を解くのに十分である。[ 34 ] [ 35 ]
DALL-E 3 がテキストプロンプト「セラピストの椅子に座り、中心に種ほどの穴が開いたアボカドが『心が空っぽ』と言っているイラスト。セラピストはスプーンでメモを取っている」に基づいて正確に生成した画像。 DALL-E 3は、従来のものよりも正確かつ詳細に複雑なプロンプトに従い、より一貫性のある正確なテキストを生成することができます。[ 36 ] [ 14 ] DALL-E 3はChatGPT Plusに統合されています。[ 14 ]
画像の修正 DALL-E 2とDALL-E 3は、既存の画像を入力すると、元の画像に基づいて画像の「バリエーション」を個別の出力として生成するだけでなく、画像を編集して修正または拡張することもできます。これらのモデルの「インペインティング」と「アウトペインティング」機能は、画像のコンテキストに基づき、指定されたプロンプトに従って、元の画像と一致する媒体 を使用して、欠落している領域を補完します。
例えば、これを使って画像に新しい被写体を挿入したり、画像を元の境界を超えて拡張したりすることができます。[ 37 ] OpenAIによると、「アウトペインティングは、影、反射、テクスチャなど、画像の既存の視覚要素を考慮して、元の画像のコンテキストを維持します。」[ 38 ]
技術的な制限 DALL-E 2の言語理解には限界があります。「黄色い本と赤い花瓶」と「赤い本と黄色い花瓶」を区別できないことや、「パンダがラテアートを作っている」と「パンダのラテアート」を区別できないことがあります。[ 39 ] 「宇宙飛行士に馬が乗っている」というプロンプトに対して、宇宙飛行士が馬に乗っている画像を生成します。[ 40 ] また、様々な状況で正しい画像を生成できません。4つ以上のオブジェクト、否定、数字、連続した文を要求されると、エラーが発生する可能性があり、オブジェクトの特徴が間違ったオブジェクトに表示されることがあります。 [ 31 ] 追加の制限として、テキスト、アンビグラム、その他の形式のタイポグラフィの生成があり、これらはしばしば夢のような意味不明な文字列になります。また、天文学や医療画像などの科学情報への対応能力も限られています。[ 41 ]
「タヌキ を指している人、『これはタヌキです! 』 という吹き出し付き」というプロンプトを使用して日本語 テキストを生成しようとすると、テキストが意味不明な漢字 と仮名で表示されます。
倫理的な懸念 DALL-E 2 は公開データセットに依存しているため、結果に影響を及ぼし、性別に言及しないリクエストに対して女性よりも男性の数を多く生成するなど、場合によってはアルゴリズムの偏りにつながる。 [ 41 ] DALL-E 2 のトレーニングデータは、暴力的または性的な画像を除去するためにフィルタリングされていたが、これにより、女性が生成される頻度が減少するなど、場合によっては偏りが増大することが判明した。[ 42 ] OpenAI は、トレーニングデータでは女性が性的に表現される可能性が高く、それがフィルターが結果に影響を与えるためではないかと仮説を立てている。[ 42 ] 2022年9月、OpenAI はThe Verge に対し、DALL-E が結果の偏りに対処するためにユーザープロンプトに目に見えない形でフレーズを挿入していることを確認した。たとえば、「黒人男性」や「アジア人女性」は、性別や人種を指定しないプロンプトに挿入されている。[ 43 ] OpenAIは、DALL-E 3において、入力/出力フィルター、ブロックリスト、ChatGPTの拒否、モデルレベルの介入を通じて、ヌードや性的なコンテンツを含む潜在的な「際どいコンテンツ」への懸念に対処していると主張している。[ 44 ] しかし、DALL-E 3は依然として、白人、女性、若年層といった人物を不均衡に表現している。ユーザーは、画像生成時により具体的なプロンプトを表示することで、この問題をある程度改善することができる。
DALL-E 2や類似の画像生成モデルに関する懸念は、ディープフェイク やその他の誤情報の拡散に利用される可能性があることです。[ 45 ] [ 46 ] これを軽減するために、このソフトウェアは著名人に関するプロンプトや人間の顔を含むアップロードを拒否します。[ 47 ] 不快なコンテンツを含む可能性のあるプロンプトはブロックされ、アップロードされた画像は分析されて不快なコンテンツが検出されます。[ 48 ] プロンプトベースのフィルタリングの欠点は、類似の出力をもたらす代替フレーズを使用することで簡単にバイパスできることです。例えば、「血」という単語はフィルタリングされますが、「ケチャップ」や「赤い液体」はフィルタリングされません。[ 49 ] [ 48 ]
DALL-E 2や類似モデルに関するもう一つの懸念は、その精度と人気の高さから、アーティスト、写真家、グラフィックデザイナーの技術的失業を引き起こす可能性があることである。 [ 50 ] [ 51 ] DALL-E 3は、ユーザーが現在生きているアーティストのスタイルでアートを生成することをブロックするように設計されています。[ 14 ] OpenAIは、これらのモデルを使用して生成された画像は、転載、販売、または商品化に許可を必要としないと述べていますが、[ 52 ] これらの画像の所有者に関する法的な懸念が提起されています。[ 53 ] [ 54 ]
2023年にマイクロソフトは米国国防総省 にDALL-Eモデルを使用して戦場管理システムを 訓練することを提案した。[ 55 ] 2024年1月にOpenAIは軍事および戦争での使用の全面禁止を利用ポリシーから削除した 。[ 56 ]
受付 DALL-E が「チュチュを着た赤ちゃん大根が犬を散歩しているイラスト」というプロンプトに基づいて生成した画像 DALL-Eに関する報道のほとんどは、「シュール」[ 25 ] または「風変わりな」[ 32 ] 出力のごく一部に焦点を当てています。DALL-Eの出力である「チュチュを着た小さな大根が犬を散歩させているイラスト」は、Input[57]、NBC[58]、Nature[ 59 ] などの 出版物 で 取り上げられ ました 。[ 7 ] [ 60 ] [ 61 ] 「 アボカド の 形をしたアームチェア」の出力も広く取り上げられました。[ 25 ] [ 33 ]
ExtremeTechは 、「DALL-Eに特定の期間の電話や掃除機の写真を要求すると、それらの物体がどのように変化したかを理解できる」と述べています。 [ 29 ] Engadget も、DALL-Eの「電話やその他の物体が時間の経過とともにどのように変化するかを理解する」という並外れた能力に注目しました。 [ 30 ]
MITテクノロジーレビュー によると、OpenAIの目的の一つは「言語モデルに、人間が物事を理解するために使用する日常的な概念をよりよく理解させること」であった。[ 25 ]
ウォール街の投資家はDALL-E 2を好意的に受け止めており、一部の企業はこれが将来の数兆ドル規模の産業の転換点となる可能性があると考えています。2019年半ばまでに、OpenAIはすでにMicrosoft とKhosla Venturesから10億ドル以上の資金を調達しており[ 62 ] [ 63 ] [ 64 ] 、2023年1月にはDALL-E 2とChatGPTの立ち上げ後、Microsoftからさらに100億ドルの資金を調達しました[ 65 ] 。
日本のアニメ コミュニティは、DALL-E 2や類似のモデルに対して否定的な反応を示している。[ 66 ] [ 67 ] [ 68 ] アーティストたちは、このソフトウェアに対して主に2つの主張を展開している。1つ目は、AIアートは人間が意図を持って作成したものではないため、アートではないというものだ。「AIが生成した画像を自身の作品と並置することは、作品の品位を下げ、制作に費やされた時間と技術を損なわせる。AI駆動型画像生成ツールは、ウェブから収集された人間が作成したアートで訓練されているため、アーティストから厳しく批判されている。」[ 9 ] 2つ目は、著作権法 とテキスト画像変換モデルの訓練に使用されたデータに関する問題である。OpenAIは、DALL-E 2の訓練に使用されたデータセットに関する情報を公開していないため、アーティストの作品が許可なく訓練に使用されたのではないかと懸念する声もある。これらの問題に関する著作権法は、現時点では結論が出ていない。[ 10 ]
DALL-E 3をBing ChatとChatGPTに統合した後、MicrosoftとOpenAIは過剰なコンテンツフィルタリングを批判され、DALL-Eは「ロボトミー手術を受けた」と批判された。[ 69 ] 「男が大型ハンマーでサーバーラックを壊す」といったプロンプトによって生成された画像がフラグ付けされたことがその証拠として挙げられた。リリース後数日間は、フィルタリングが強化され、Bingが提案するプロンプトによって生成された画像がブロックされるほどになったと報じられている。[ 69 ] [ 70 ] TechRadarは 、慎重すぎるとDALL-Eのクリエイティブツールとしての価値が損なわれる可能性があると主張した。[ 70 ]
オープンソース実装 OpenAIは3つのモデルのいずれのソースコード も公開していないため、同様の機能を提供するオープンソースモデルを作成する試みがいくつか行われてきました。 [ 71 ] [ 72 ] 2022年にHugging Face のSpacesプラットフォームでリリースされたCraiyon(2022年6月にOpenAIから名前の変更が要求されるまではDALL-E Miniと呼ばれていました)は、インターネットからのフィルタリングされていないデータでトレーニングされたオリジナルのDALL-Eに基づくAIモデルです。ユーモラスな画像を生成する能力により、リリース後の2022年半ばに大きなメディアの注目を集めました。[ 73 ] [ 74 ] [ 75 ] オープンソースのテキスト画像変換モデルのもう1つの例は、 Stability AIによるStable Diffusion です。[ 76 ]
参照
参考文献 ^ David, Emilia (2023年9月20日). 「OpenAI、DALL-Eの第3バージョンをリリース」 The Verge . 2023年9月20日時点のオリジナルよりアーカイブ。 2023年 9月21日 閲覧 。 ^ “OpenAI Platform” . platform.openai.com . 2023年3月20日時点のオリジナルより アーカイブ 。 2023年 11月10日 閲覧。 ^ Niles, Raymond (2023年11月10日) [今週更新]. 「DALL-E 3 API」 . OpenAIヘルプセンター . 2023年11月10日時点のオリジナルより アーカイブ。 2023年 11月10日 閲覧 。 ^ Mehdi, Yusuf (2023年9月21日). 「Microsoft Copilot を発表、日々のAIコンパニオンとして活躍」 . 公式Microsoftブログ . 2023年9月21日時点のオリジナルより アーカイブ。 2023年 9月21日 閲覧 。 ^ 「DALL-E 3によるAIアートの改善」 Microsoft 2024 年 10月1日 閲覧 。 ^ Zeff, Kyle; Wiggers, Maxwell (2025年3月25日). 「ChatGPTの画像生成機能がアップグレード」 . TechCrunch . 2025年 5月12日 閲覧 。 ^ a b c d e f Johnson, Khari (2021年1月5日). 「OpenAI、テキストから画像を生成するDALL-Eを発表」 . VentureBeat. 2021年1月5日時点のオリジナルより アーカイブ。 2021年 1月5日 閲覧 。 ^ “DALL·E 2” . OpenAI . 2022年4月6日時点のオリジナルより アーカイブ。 2022年 7月6日 閲覧 。 ^ a b 「DALL·Eがベータ版で利用可能に」 OpenAI 2022 年7月20日. 2022年7月20日時点のオリジナルより アーカイブ。 2022年 7月20日 閲覧 。 ^ a b Allyn, Bobby (2022年7月20日). 「シュールか、それともリアルすぎる?息を呑むようなAIツールDALL-Eが画像をより大きな舞台へ」 NPR . 2022 年7月20日時点のオリジナルより アーカイブ。 2022年 7月20日 閲覧 。 ^ “DALL·E Waitlist” . labs.openai.com . 2022年7月4日時点のオリジナルより アーカイブ。 2022年 7月6日 閲覧 。 ^ 「トランプ・ネヴァーマインド・ベイビーからディープフェイクまで:DALL-EとAIアートの倫理」 ガーディアン紙 、 2022年6月18日。 2022年7月6日時点のオリジナルより アーカイブ。 2022年 7月6日 閲覧 。 ^ 「DALL·E Now Available Without Waitlist」 OpenAI 2022年9月28日。 2022 年10月4日時点のオリジナルより アーカイブ。 2022年 10月5日 閲覧 。 ^ a b c d 「DALL·E 3」 。OpenAI 。 2023年9月20日時点のオリジナルより アーカイブ 。 2023年 9月21日 閲覧 。 ^ 「DALL·E APIがパブリックベータ版で利用可能に」 OpenAI 2022年11月3日。 2022 年11月19日時点のオリジナルより アーカイブ 。 2022年 11月19日 閲覧。 ^ Wiggers, Kyle (2022年11月3日). 「DALL-E 2を使って画像を生成するアプリを誰でも作れるようになった」 TechCrunch . 2022年11月19 日時点のオリジナルより アーカイブ。 2022年 11月19日 閲覧 。 ^ a b Coldewey, Devin (2021年1月5日). 「OpenAIのDALL-Eは、文字通り何でも要求通りに、もっともらしい画像を作成します」 。 2021年1月6日時点のオリジナルより アーカイブ 。 2021年 1月5日 閲覧。 ^ Growcoot, Matt (2024年2月8日). 「DALL-Eで生成されたAI画像にコンテンツの真正性タグが含まれるようになった」 . PetaPixel . 2024年 4月4日 閲覧 。 ^ Radford, Alec; Narasimhan, Karthik; Salimans, Tim; Sutskever, Ilya (2018年6月11日). 「生成的事前学習による言語理解の向上」 (PDF) . OpenAI . p. 12. 2021年1月26日時点のオリジナルより アーカイブ (PDF) . 2021年 1月23日 閲覧 。 ^ 「GPT-1からGPT-4まで:OpenAIのGPTモデルそれぞれの説明と比較」 2023年4月11日。 2023年4月15日時点のオリジナルより アーカイブ。 2023年 4月29日 閲覧 。 ^ Radford, Alec; Wu, Jeffrey; Child, Rewon; et al. (2019年2月14日). 「言語モデルは教師なしマルチタスク学習者だ」 (PDF) . cdn.openai.com . 1 (8). 2021年2月6日時点のオリジナルより アーカイブ (PDF) . 2020年 12月19日 閲覧 。 ^ Brown, Tom B.; Mann, Benjamin; Ryder, Nick; et al. (2020年7月22日). 「言語モデルは少数ショット学習器である」. arXiv : 2005.14165 [ cs.CL ]. ^ Ramesh, Aditya; Pavlov, Mikhail; Goh, Gabriel; et al. (2021年2月24日). 「ゼロショットテキスト画像生成」. arXiv : 2102.12092 [ cs.LG ]. ^ a b c d e f Ramesh, Aditya; Dhariwal, Prafulla; Nichol, Alex; Chu, Casey; Chen, Mark (2022年4月12日). 「CLIP Latentsを用いた階層的テキスト条件付き画像生成」. arXiv : 2204.06125 [ cs.CV ]. ^ a b c d Heaven, Will Douglas (2021年1月5日). 「このアボカド色のアームチェアはAIの未来になるかもしれない」 . MIT Technology Review. 2021年1月5日時点のオリジナルより アーカイブ。 2021年 1月5日 閲覧 。 ^ Radford, Alec; Kim, Jong Wook; Hallacy, Chris; et al. (2021年7月1日). 自然言語教師からの転移可能な視覚モデルの学習 . 第38回国際機械学習会議論文集. PMLR. pp. 8748– 8763. ^ シー、ザン;周、徐。邱、西鵬。朱暁丹(2020)。 「キャプションをより有効に使用して画像キャプションを改善する」。 arXiv : 2006.11807 [ cs.CV ]。 ^ Dunn, Thom (2021年2月10日). 「このAIニューラルネットワークは、テキストキャプションをクラゲのピカチュウのようなアートに変換します」 . BoingBoing . 2021年2月22日時点のオリジナルより アーカイブ。 2021年 3月2日 閲覧 。 ^ a b Whitwam, Ryan (2021年1月6日). 「OpenAIの『DALL-E』がテキスト記述から画像を生成」 ExtremeTech . 2021 年1月28日時点のオリジナルより アーカイブ。 2021年 3月2日 閲覧 。 ^ a b Dent, Steve (2021年1月6日). 「OpenAIのDALL-Eアプリは、説明文だけで画像を生成」 Engadget . 2021 年1月27日時点のオリジナルより アーカイブ。 2021年 3月2日 閲覧 。 ^ a b マーカス・ゲイリー、デイビス・アーネスト、アーロンソン・スコット(2022年5月2日)「DALL-E 2の非常に予備的な分析」 arXiv : 2204.13807 [ cs.CV ]。 ^ a b Shead, Sam (2021年1月8日). 「なぜ誰もがイーロン・マスクが支援するAIラボがリリースした画像ジェネレーターについて話しているのか」 CNBC . 2022 年7月16日時点のオリジナルより アーカイブ。 2021年 3月2日 閲覧 。 ^ a b ウェイクフィールド、ジェーン (2021年1月6日). 「AIがチュチュを着た犬の散歩をするベビーラディッシュを描く」 英国 放送協会 . 2021年3月2日時点のオリジナルより アーカイブ。 2021年 3月3日 閲覧 。 ^ Markowitz, Dale (2021年1月10日). 「OpenAIの魔法のDALL-E画像ジェネレータの仕組みはこうだ」 TheNextWeb . 2021 年2月23日時点のオリジナルより アーカイブ。 2021年 3月2日 閲覧 。 ^ 「DALL·E: テキストから画像を作成する」 OpenAI . 2021年1月5日. 2021年3月27日時点のオリジナルより アーカイブ。 2022年 8月13日 閲覧 。 ^ Edwards, Benj (2023年9月20日). 「OpenAIの新しいAI画像ジェネレーターは、ディテールとプロンプトの忠実度の限界を押し広げる」 Ars Technica . 2023年9月21日時点のオリジナルより アーカイブ。 2023年 9月21日 閲覧 。 ^ Coldewey, Devin (2022年4月6日). 「OpenAIの新しいツールは、これまで以上に大きく、そしてより良く、あらゆるものを描画します」 . TechCrunch . 2023年5月6日時点のオリジナルより アーカイブ。 2022年 11月26日 閲覧 。 ^ 「DALL·E: アウトペインティングの紹介」 OpenAI . 2022年8月31日. 2022年11月26日時点のオリジナルより アーカイブ。 2022年 11月26日 閲覧 。 ^ Saharia, Chitwan; Chan, William; Saxena, Saurabh; et al. (2022年5月23日). 「深層言語理解を備えたフォトリアリスティックなテキストから画像への拡散モデル」. arXiv : 2205.11487 [ cs.CV ]. ^ Marcus, Gary (2022年5月28日). 「Horse rides astronaut」 . The Road to AI We Can Trust . 2022年6月19日時点のオリジナルより アーカイブ。 2022年 6月18日 閲覧 。 ^ a b ストリックランド、エリザ(2022年7月14日) 「DALL-E 2の失敗こそが、その最も興味深い点だ」 IEEE Spectrum 。 2022年7月15日時点のオリジナルより アーカイブ。 2022年 8月16日 閲覧 。 ^ a b 「DALL·E 2 事前トレーニング緩和策」 OpenAI 2022年6月28日。 2022 年7月19日時点のオリジナルより アーカイブ 。 2022年 7月18日 閲覧。 ^ James Vincent (2022年9月29日). 「OpenAIの画像ジェネレーターDALL-Eは誰でもすぐに利用可能」 The Verge . 2022年9月29日時点のオリジナルより アーカイブ。 2022年 9月29日 閲覧 。 ^ OpenAI (2023年10月3日). 「DALL-E 3 システムカード」 (PDF) . ^ Taylor, Josh (2022年6月18日). 「トランプ・ネヴァーマインド・ベイビーからディープフェイクまで:DALL-EとAIアートの倫理」 . The Guardian . 2022年7月6日時点のオリジナルより アーカイブ。 2022年 8月2日 閲覧 。 ^ ウィル・ナイト(2022年7月13日) 「AIがアートを作るとき、人間が創造的な火花を添える」 Wired 誌 。 2022年8月2日時点のオリジナルより アーカイブ。 2022年 8月2日 閲覧 。 ^ Rose, Janus (2022年6月24日). 「DALL-Eが偽の人物のリアルな顔を生成」 . Vice . 2022年7月30日時点のオリジナルより アーカイブ 。 2022年 8月2日 閲覧。 ^ a b OpenAI (2022年6月19日). 「DALL·E 2 プレビュー – リスクと制限事項」 . GitHub . 2022年8月2日時点のオリジナルより アーカイブ 。 2022年 8月2日 閲覧。 ^ Lane, Laura (2022年7月1日). 「DALL-E、もう1つピカソをください」 . The New Yorker . 2022年8月2日時点のオリジナルより アーカイブ。 2022年 8月2日 閲覧 。 ^ Goldman, Sharon (2022年7月26日). 「OpenAI: DALL-E 2はクリエイティブなキャリアを殺すのか?」 2022 年8月15日時点のオリジナルより アーカイブ。 2022年 8月16日 閲覧 。 ^ Blain, Loz (2022年7月29日). 「DALL-E 2:夢のツールであり、ビジュアルアーティストにとっての実存的脅威」 . 2022年8月17日時点のオリジナルより アーカイブ。 2022年 8月16日 閲覧 。 ^ “DALL・E 3” . openai.com 。 2025 年 4 月 10 日 に取得 。 ^ centerforartlaw (2022年11月21日). 「芸術的か人工的か? AI生成アートワークにおける所有権と著作権に関する懸念 - Center for Art Law」 . itsartlaw.org . 2025年 4月10日 閲覧 。 ^ 「生成AI に は知的財産上の問題がある」 ハーバード ・ビジネス・レビュー 、2023年4月7日。ISSN 0017-8012 。 2025年 4月10日 閲覧 。 ^ Biddle, Sam (2024年4月10日). 「マイクロソフト、OpenAIのDALL-Eを米軍の戦場ツールとして提案」 The Intercept . ^ Biddle, Sam (2024年1月12日). 「OpenAIがChatGPTの「軍事および戦争」利用禁止をひっそりと解除」 「 。インターセプト 。 」^ Kasana, Mehreen (2021年1月7日). 「このAIはテキストをシュールな、提案主導のアートに変える」 Input. 2021年1月29日時点のオリジナルより アーカイブ。 2021年 3月2日 閲覧 。 ^ Ehrenkranz, Melanie (2021年1月27日). 「Here's DALL-E: An algorithm learned to draw everything you tell it」 . NBC News . 2021年2月20日時点のオリジナルより アーカイブ。 2021年 3月2日 閲覧 。 ^ Stove, Emma (2021年2月5日). 「クマムシのサーカスと生命の樹 — 1月のベスト科学画像」 . Nature . 2021年3月8日時点のオリジナルより アーカイブ。 2021年 3月2日 閲覧 。 ^ ウィル・ナイト(2021年1月26日) 「このAIは『アート』から自動運転車のステアリングまで実現できる可能性がある」 Wired誌。 2021 年 2月21日時点のオリジナルより アーカイブ。 2021年 3月2日 閲覧 。 ^ Metz, Rachel (2021年2月2日). 「チュチュを着た大根が犬の散歩をしている?このAIはそれを本当に上手に描くことができる」 . CNN. 2022年7月16日時点のオリジナルより アーカイブ。 2021年 3月2日 閲覧 。 ^ Leswing, Kif (2022年10月8日). 「なぜシリコンバレーは人工知能によるぎこちない絵に興奮しているのか」 . CNBC . 2023年7月29日時点のオリジナルより アーカイブ。 2022年 12月1日 閲覧 。 ^ Etherington, Darrell (2019年7月22日). 「Microsoft、複数年にわたる新たなパートナーシップでOpenAIに10億ドルを投資」 TechCrunch . 2019 年7月22日時点のオリジナルより アーカイブ。 2023年 9月21日 閲覧 。 ^ 「OpenAI初のVC支援者が生成AIに賛同」 Fortune 2023年10月23日時点のオリジナルより アーカイブ 。 2023年 9月21日 閲覧 。 ^ Metz, Cade; Weise, Karen (2023年1月23日). 「Microsoft、ChatGPTの開発元OpenAIに100億ドルを投資へ」 . The New York Times . ISSN 0362-4331 . 2023年9月21日時点のオリジナルより アーカイブ。 2023年 9月21日 閲覧 。 ^ 「AI生成アートが日本のアニメ界から激しい反発を招く」 。Rest of World 。2022年10月27日。 2022年12月31日時点のオリジナルより アーカイブ 。 2023年 1月3日 閲覧。 ^ ケビン・ルース(2022年9月2日) 「AIが生成した写真が芸術賞を受賞。アーティストは満足していない」 ニューヨーク ・タイムズ紙 。ISSN 0362-4331 。 2023 年5月31日時点のオリジナルより アーカイブ。 2023年 1月3日 閲覧 。 ^ Daws, Ryan (2022年12月15日). 「AIアート抗議への対応を受け、ArtStationの反発が拡大」 . AIニュース . 2023年1月3日時点のオリジナルより アーカイブ。 2023年 1月3日 閲覧 。 ^ a b Corden, Jez (2023年10月8日). 「Bing Dall-E 3 イメージ作成は数日間は素晴らしかったが、今やマイクロソフトは予想通りそれをロボトミー化した」 . Windows Central . 2023年10月10日時点のオリジナルより アーカイブ。 2023年 10月11日 閲覧 。 ^ a b Allan, Darren (2023年10月9日). 「MicrosoftがBing AIのImage Creatorを抑制 ― 結果は意味をなさない」 TechRadar . 2023 年10月10日時点のオリジナルより アーカイブ。 2023年 10月11日 閲覧 。 ^ Sahar Mor, Stripe (2022年4月16日). 「DALL-E 2はコンピュータービジョンの主要な課題をどのように解決できるか」 . VentureBeat . 2022年5月24日時点のオリジナルより アーカイブ。 2022年 6月15日 閲覧 。 ^ “jina-ai/dalle-flow” . Jina AI. 2022年6月17日. 2022年6月17日時点のオリジナルより アーカイブ。 2022年 6月17日 閲覧 。 ^ Carson, Erin (2022年6月14日). 「Dall-E Miniについて知っておくべきことすべて、心を揺さぶるAIアートクリエイター」 . CNET . 2022年6月15日時点のオリジナルより アーカイブ。 2022年 6月15日 閲覧 。 ^ Schroeder, Audra (2022年6月9日). 「AIプログラムDALL-E mini、本当に呪われた画像を表示」 Daily Dot . 2022年6月10日時点のオリジナルより アーカイブ。 2022年 6月15日 閲覧 。 ^ Diaz, Ana (2022年6月15日). 「DALL-E miniを使って、パグピカチュウのようなミームの醜悪なものを作る人がいる」 . Polygon . 2022年6月15日時点のオリジナルより アーカイブ。 2022年 6月15日 閲覧 。 ^ Stability-AI/stablediffusion 、Stability AI、2025年4月7日、 2025年 4月8日 閲覧。
外部リンク