生成型人工知能を用いて制作された受賞作品「 Théâtre D'opéra Spatial (スペースオペラシアター、2022年)」人工知能ビジュアルアート、またはAIアートは、人工知能(AI)プログラムの実装を通じて生成または強化された視覚的な芸術作品であり、最も一般的にはテキストから画像へのモデルが使用されます。自動化された芸術制作のプロセスは古代から存在しています。人工知能の分野は1950年代に確立され、アーティストは分野の確立直後から人工知能を使用して芸術を制作し始めました。これらの作品のいくつかは美術館で展示され、賞を受賞しています。[ 1 ] AIはその歴史を通じて、人間の心、人工存在、人間とAIのコラボレーションにおける芸術の本質に関連する多くの哲学的な問題を提起してきました。
2020年代のAIブームの間、 Midjourney、DALL-E、Stable Diffusionなどのテキストから画像へのモデルが一般に広く利用可能になり、ユーザーはほとんど労力をかけずに画像を素早く生成できるようになりました。[ 2 ] [ 3 ] 2020年代のAIアートに関する論評は、著作権、欺瞞、名誉毀損、そして技術的失業を含むより伝統的なアーティストへの影響に関する問題に焦点を当てることが多くなりました。
歴史
初期の歴史
絵を描くマイヤルデのオートマトン自動化された芸術は、少なくとも古代ギリシャ文明のオートマタにまで遡ります。当時、ダイダロスやアレクサンドリアのヘロンなどの発明家は、テキストを書いたり、音を生成したり、音楽を演奏したりできる機械を設計したと言われています。[ 4 ] [ 5 ]創造的なオートマトンが歴史を通じて栄えてきた例として、 1800年頃に作成され、複数の絵や詩を作成できるマイヤルデのオートマトンが挙げられます。[ 6 ]
19世紀には、エイダ・ラブレスが「計算操作」を使って音楽や詩を生成できる可能性があると書いています。[ 7 ] [ 8 ] 1950年、アラン・チューリングの論文「計算機械と知能」は、機械が人間の行動を説得力を持って模倣できるかどうかに焦点を当てていました。[ 9 ]その後まもなく、 1956年にダートマス大学の研究ワークショップで人工知能という学問分野が設立されました。[ 10 ]
AI研究者は創設以来、人間の心の本質や人間のような知能を持つ人工生物を創造することの結果についての哲学的な問題を探求してきました。これらの問題は古代から神話、フィクション、哲学によって探求されてきました。[ 11 ]
芸術史
カール・シムズのガラパゴスのインスタレーションでは、訪問者が 3D アニメーション形式を進化させることができました。1950年代にAIが誕生して以来、芸術家たちは人工知能を用いて芸術作品を創作してきました。これらの作品は、アルゴリズミック・アート[ 12 ] 、コンピュータ・アート、デジタル・アート、ニューメディア・アート[ 13 ]などと呼ばれることもあります。
最初の重要なAIアートシステムの一つは、 1960年代後半にカリフォルニア大学サンディエゴ校でハロルド・コーエンが開発したAARONである。 [ 14 ] AARONは、 GOFAIプログラミングの時代に記号ルールベースのアプローチを使用して技術的な画像を生成するもので、描画行為をコード化できることを目標にコーエンによって開発された。[ 15 ] AARONは1972年にロサンゼルス郡立美術館で展示された。[ 16 ] 1973年から1975年にかけて、コーエンはスタンフォード大学の人工知能研究所でのレジデンス中にAARONを改良した。[ 17 ] 2024年、ホイットニー美術館でコーエンのキャリア全体にわたるAIアートが展示され、初期のロボット描画マシンの再現バージョンも含まれていた。[ 17 ]
カール・シムズは1980年代から人工生命を使ったアートを発表している。 1987年にMITメディアラボでコンピュータグラフィックスの修士号を取得し、1990年から1996年までスーパーコンピュータメーカーで人工知能企業のThinking Machinesにアーティスト・イン・レジデンスとして在籍した。[ 18 ] [ 19 ] [ 20 ] 1991年と1992年には、人工進化を使ったビデオ作品でアルスエレクトロニカ国際大賞のゴールデンニカ賞を受賞した。 [ 21 ] [ 22 ] [ 23 ] 1997年には、東京のNTTインターコミュニケーション・センターのためにインタラクティブな人工進化インスタレーション「ガラパゴス」を制作した。 [ 24 ]シムズは2019年にエンジニアリング開発における優れた業績によりエミー賞を受賞した。[ 25 ]
スコット・ドレイブスによる電気羊の例1999年、スコット・ドレイブスと数人のエンジニアからなるチームは、フリーソフトウェアのスクリーンセーバーとしてElectric Sheepを開発し、リリースしました。[ 26 ] Electric Sheepは、フラクタルな炎をアニメーション化して進化させるボランティア・コンピューティング・プロジェクトです。この炎はネットワークに接続されたコンピュータに配信され、スクリーンセーバーとして表示されます。このスクリーンセーバーは、AIを用いて視聴者から学習することで、無限のアニメーションを生成します。2001年、ドレイブスはElectric SheepでFundacion Telefónica Life 4.0賞を受賞しました。[ 27 ]
2014年、ステファニー・ディンキンスは「Bina48との会話」の制作に着手した。[ 28 ]このシリーズでは、ディンキンスは中年の黒人女性に似たソーシャルロボットであるBINA48との会話を記録した。 [ 29 ] [ 30 ] 2019年、ディンキンスは「有色人種の興味と文化」に基づいた進化する人工知能の創造によりクリエイティブキャピタル賞を受賞した。 [ 31 ]
2015年、ソウウェン・チュンは、アーティストとロボットアームとの継続的なコラボレーションである「ミミクリー(ドローイングオペレーションユニット:ジェネレーション1)」を開始しました。 [ 32 ] 2019年、チュンはAIを使用してチュンと同様の方法で描画を試みるロボットアームとの継続的なパフォーマンスにより、ルーメン賞を受賞しました。[ 33 ]
エドモンド・ド・ベラミー、 2018年に生成的敵対ネットワークで作成2018年、ニューヨークのクリスティーズで人工知能アートのオークションが開催され、 AIアート作品「エドモンド・ド・ベラミー」が43万2500ドルで落札されました。これは、予想価格7000~1万ドルの約45倍に相当します。この作品は、パリを拠点とする集団Obviousによって制作されました。[ 34 ] [ 35 ] [ 36 ]
2024年には、日本映画『generAIdoscope』が公開されました。この映画は、安達寛孝、曽根健、山口ヒロキの3人が共同監督を務め、すべての映像、音声、音楽は人工知能によって制作されました。[ 37 ]
2025年には、日本のテレビアニメシリーズ『ツインズひなひな』が放映された。この作品は、写真を切り抜いてアニメイラストに変換する工程においてAIの支援を受けながら制作・アニメーション化され、その後、美術スタッフによってレタッチされた。キャラクターやロゴなど、残りの部分のほとんどは、様々なソフトウェアを用いて手描きされた。[ 38 ] [ 39 ]
技術履歴
人間の脳を模倣しようとする多層構造を特徴とするディープラーニングは、2010年代に登場し、AIアートの世界に大きな変化をもたらしました。 [ 40 ]ディープラーニングの時代には、主に自己回帰モデル、拡散モデル、GAN、正規化フローといったタイプの生成アートのデザインがあります。
2014年、モントリオール大学のイアン・グッドフェローと同僚たちは、生成的敵対的ネットワーク(GAN)を開発しました。これは、画像などの入力データの統計分布を模倣するように学習できるディープニューラルネットワークの一種です。GANは、「生成器」を用いて新しい画像を作成し、「識別器」を用いて作成された画像の中から成功画像と判断する手法を用いています。[ 41 ]従来のアルゴリズムアートは手作業でコーディングされたルールに従っていましたが、生成的敵対的ネットワークは、サンプル画像のデータセットを分析することで特定の美的感覚を学習することができます。[ 12 ]
2015年、 GoogleのチームがDeepDreamをリリースしました。これは、畳み込みニューラルネットワークを使用して、アルゴリズムによるパレイドリアを介して画像内のパターンを見つけて強化するプログラムです。[ 42 ] [ 43 ] [ 44 ]このプロセスでは、サイケデリック体験を彷彿とさせる夢のような外観を持つ、意図的に過剰処理された画像が作成されます。[ 45 ]その後、2017年に、条件付きGANは、視覚物体認識ソフトウェアの研究で使用するために設計された大規模な視覚データベースであるImageNetの1000の画像クラスを生成することを学習しました。[ 46 ] [ 47 ]このアプローチでは、ランダムノイズと特定のクラスラベルの両方でGANを条件付けることで、クラス条件付きモデルの画像合成の品質が向上しました。[ 48 ]
画像生成には自己回帰モデルが使用されており、例えばPixelRNN(2016)はリカレントニューラルネットワークで1ピクセルずつ自己回帰的に生成する。[ 49 ] TransformerアーキテクチャはAttention Is All You Need (2018)で提案された直後から、テキスト条件付けなしで画像の自己回帰生成に使用された。[ 50 ]
2018年に開設されたウェブサイトArtbreederは、 StyleGANとBigGAN [ 51 ] [ 52 ]モデルを使用して、ユーザーが顔、風景、絵画などの画像を生成および修正できるようにしています。[ 53 ]
2020年代には、プロンプトに基づいて画像を生成するテキスト画像変換モデルが広く使用されるようになり、AI生成アート作品の制作に新たな変化をもたらしました。[ 2 ]
VQGAN-CLIPで作成した画像の例(NightCafe Studio、2023年3月)
Flux 1.1 ProのRawモードで作成された画像の例(2024年11月)。このモードはフォトリアリスティックな画像を生成するように設計されています。
2021年、OpenAIはGPT-2とGPT-3で使用されている影響力のある大規模言語生成学習済みトランスフォーマーモデルを用いて、テキストから画像へのAIモデルDALL-E 1で作成された一連の画像を公開しました。[ 54 ]これはGPT-3と本質的に同じアーキテクチャを持つ自己回帰生成モデルです。これと並行して、EleutherAIは2021年後半にOpenAIのCLIPモデルをベースにしたオープンソースのVQGAN-CLIP [ 55 ]をリリースしました。[ 56 ]拡散モデル、つまり既存のデータに基づいて合成データを作成するために使用される生成モデルは、[ 57 ] 2015年に初めて提案されましたが、[ 58 ] 2021年初頭になって初めてGANよりも優れたものになりました。[ 59 ]潜在拡散モデルは2021年12月に公開され、Stability AI、ミュンヘンのルートヴィヒ・マクシミリアン大学のCompVisグループ、およびRunwayのコラボレーションを通じて開発された、後のStable Diffusion(2022年8月)の基礎となりました。[ 60 ]
2022年にはMidjourney [ 61 ]がリリースされ、その後、2022年5月に発表されたGoogle BrainのImagenとParti、 MicrosoftのNUWA-Infinity [ 62 ] [ 2 ]、そして2022年8月にソースが入手可能なStable Diffusion [ 63 ] [ 64 ] [ 65 ]がリリースされた。DALL -Eの後継であるDALL-E 2がベータテストされ、リリースされた(さらに後継のDALL-E 3は2023年にリリースされる予定)。Stability AIには、DreamStudioと呼ばれるStable Diffusionのウェブインターフェース、[ 66 ] Krita、Photoshop、Blender、GIMP用のプラグイン、[ 67 ] Automatic1111のウェブベースのオープンソースユーザーインターフェースがある。[ 68 ] [ 69 ] [ 70 ] Stable Diffusionの主な事前学習済みモデルはHugging Face Hubで共有されています。[ 71 ]
イデオグラムは2023年8月にリリースされ、読みやすいテキストを生成する能力で知られています。[ 72 ] [ 73 ]
2024年に、Fluxがリリースされました。このモデルはリアルな画像を生成でき、X(旧Twitter)で使用されていたチャットボットGrokや、Mistral AIのチャットボットLe Chatに統合されました。[ 3 ] [ 74 ] [ 75 ] [ 76 ] Fluxは、Stable Diffusionの研究者によって設立されたBlack Forest Labsによって開発されました。[ 77 ] Grokはその後、同年12月に独自のテキスト画像変換モデルAuroraに切り替えました。 [ 78 ]いくつかの企業も、自社製品とともに、画像編集サービスと統合されたAIモデルを開発しています。AdobeはAIモデルFireflyをリリースし、Premiere Pro、Photoshop、Illustratorに統合しました。[ 79 ] [ 80 ] MicrosoftもMicrosoft PaintのAI画像生成機能を発表しています。[ 81 ]これに加えて、2020年代半ばのテキスト動画変換モデルの例としては、 RunwayのGen-4、GoogleのVideoPoet 、 2024年12月にリリースされたOpenAIのSora 、2025年にリリースされたLTX-2などが挙げられます。[ 82 ] [ 83 ] [ 84 ]
2025年には、いくつかのモデルがリリースされました。 2025年3月にリリースされたOpenAIのGPT Image 1は、新しいテキストレンダリングとマルチモーダル機能を導入し、スケッチやテキストなどの多様な入力から画像を生成できるようになりました。[ 85 ] MidJourney v7は2025年4月にデビューし、テキストプロンプトの処理が改善されました。[ 86 ] 2025年5月には、Black Forest LabsのFlux.1 Kontextが高忠実度画像生成のための効率的なモデルとして登場し、[ 87 ] GoogleのImagen 4が改善されたフォトリアリズムがリリースされました。[ 88 ] Flux.2は、画像参照、タイポグラフィ、プロンプトの理解が改善され、2025年11月にデビューしました。[ 89 ]
アプローチ
アーティストがAIビジュアルアートを開発するために用いるアプローチは数多くある。テキストから画像への変換では、AIは拡散やトランスフォーマーベースのアーキテクチャなどのモデルを用いて、テキスト記述に基づいて画像を生成する。ユーザーがプロンプトを入力すると、AIはそれに応じたビジュアルを生成する。[ 90 ] [ 91 ]画像から画像への変換では、AIはプロンプトやスタイルの参照に基づいて入力画像を新しいスタイルや形式に変換する。例えば、スケッチをフォトリアリスティックな画像に変換したり、芸術的なスタイルを適用したりする。[ 92 ] [ 93 ]画像からビデオへの変換では、AIは単一の画像または一連の画像から短いビデオクリップやアニメーションを生成し、多くの場合、モーションやトランジションを追加する。これには、静止画のアニメーション化やダイナミックなシーンの作成が含まれる。[ 94 ] [ 95 ]テキストからビデオへの変換では、AIはテキストプロンプトから直接ビデオを作成し、アニメーション、リアルなシーン、抽象的なビジュアルを生成する。これはテキストから画像への変換の拡張版だが、時間的なシーケンスに焦点を当てている。[ 96 ]
イメージ
Stable Diffusion XLにおけるComfyUIの使用例。画像生成に必要な変数(CFG、シード、サンプラーなど)を調整できます。アーティストは拡散モデルを扱う際に、多くのツールを利用できます。肯定的および否定的なプロンプトを定義できるだけでなく、VAE、LoRA、ハイパーネットワーク、IPアダプタ、埋め込み/テキスト反転を使用する(または使用しない)という選択肢も与えられます。アーティストは、ガイダンススケール(創造性と精度のバランスをとる)、シード(ランダム性を制御する)、アップスケーラー(画像解像度を向上させる)などの設定を微調整できます。事前推論ではノイズ操作によって追加の影響を与えることができ、推論後には従来の後処理技術が頻繁に使用されます。また、独自のモデルを学習することも可能です。
さらに、数学的パターン、筆致やその他の絵画的効果をシミュレートするアルゴリズム、そして生成的敵対ネットワーク(GAN)やトランスフォーマーといった深層学習モデルを活用した、手続き型の「ルールベース」画像生成技術も開発されています。いくつかの企業は、ユーザーが他のパラメータを手動で設定する必要なく、肯定的なプロンプトのみに集中できるアプリケーションやウェブサイトをリリースしています。また、写真を有名な絵画様式の美学を模倣した様式化された画像に変換できるプログラムもあります。[ 97 ] [ 98 ]
シンプルな消費者向けモバイルアプリから、強力なGPUを必要とするJupyterノートブックやWeb UIまで、様々な選択肢があります。 [ 99 ]追加機能としては、「テキスト反転」があります。これは、ユーザーが提供した概念(オブジェクトやスタイルなど)を数枚の画像から学習し、それを利用できるようにするものです。学習した概念(多くの場合抽象的な概念)に関連付けられた単語(テキスト)から、斬新なアートを生成することができます。[ 100 ] [ 101 ]また、モデルの拡張や微調整( DreamBoothなど)も可能です。
影響と応用
AIは社会変革をもたらす可能性を秘めており、アマチュアによる非営利のニッチジャンル(ソーラーパンクのようなサイバーパンク派生作品など)の拡大、斬新なエンターテインメント、高速プロトタイピング、[ 102 ]アート制作のアクセシビリティの向上、[ 102 ]労力や費用、時間あたりの芸術的成果の向上[ 102 ](例えば、下書き、下書き定義、画像コンポーネント(インペインティング)の生成など)などが可能になる可能性がある。生成された画像は、スケッチ、[ 103 ]低コストの実験、[ 104 ]インスピレーション、概念実証段階のアイデアのイラストレーションなどとして使用されることもある。追加の機能や改良は、画像エディタによる後続の微調整など、生成後の手動編集(つまり、磨きをかけること)に関連することもある。[ 104 ]
迅速なエンジニアリングと共有
一部のテキスト画像変換モデルのプロンプトには、画像やキーワード、設定可能なパラメータ(例えば、芸術的スタイルなど)が含まれることもあります。芸術的スタイルは、プロンプト内で「[アーティスト名]のスタイルで」などのキーフレーズを使用することでよく使用されます[ 105 ]。また、幅広い美的/芸術的スタイルを選択することができます[ 106 ] [ 103 ]画像ジェネレーターから特定の画像を生成するためのプロンプトを共有、取引、検索、フォーク/改良、または共同作業するためのプラットフォームがあります[ 107 ] [ 108 ] [ 109 ] [ 110 ]プロンプトは、 Redditなどの画像共有ウェブサイトやAIアート専用ウェブサイトで画像と一緒に共有されることがよくあります。プロンプトは、画像の生成に必要な入力のすべてではありません。生成される画像を決定する追加の入力には、出力解像度、ランダムシード、ランダムサンプリングパラメータなどがあります[ 111 ]
AIアートを含む合成メディアは、2022年に、今後数年間のビジネスに影響を与える主要なテクノロジー主導のトレンドとして説明されました。[ 102 ]ハーバード・ケネディスクールの研究者は、Xプラットフォーム上でのAIアートの急増を研究した直後に、合成メディアが政治的な誤情報の媒介物として機能することへの懸念を表明しました。[ 112 ]シンソグラフィーは、AIを使用して写真に似た画像を生成する手法に対して提案された用語です。[ 113 ]
AIを用いた既存アートの分析
オリジナルアートの創作に加え、AIを活用したデジタルアートコレクションの定量分析研究手法も開発されてきました。これは、過去数十年にわたる美術作品の大規模なデジタル化によって可能になりました。CETINICとSHE(2022)によると、既存のアートコレクションをAIで分析することで、芸術様式の発展や芸術的影響の特定に関する新たな視点が得られる可能性があります。[ 114 ] [ 115 ]
デジタル化された芸術作品を分析するために用いられる典型的なアプローチには、精読と遠視という2つの計算手法がある。[ 116 ]精読は、1つの作品の特定の視覚的側面に焦点を当てる。精読手法において機械が実行するタスクには、計算によるアーティスト認証や筆遣いやテクスチャ特性の分析などがある。対照的に、遠視手法を用いると、特定の特徴に関するコレクション全体の類似性を統計的に視覚化することができる。この手法に関連する一般的なタスクには、自動分類、物体検出、マルチモーダルタスク、美術史における知識発見、計算美学などがある。[ 115 ]合成画像は、芸術作品の認証や贋作の検出のためのAIアルゴリズムのトレーニングにも使用できる。 [ 117 ]
研究者たちは、芸術作品に対する感情的な反応を予測するモデルも導入しています。そのようなモデルの一つが、機械学習モデルと組み合わせた大規模データセットであるArtEmisです。ArtEmisには、6,500人以上の参加者による感情的な注釈とテキストによる説明が含まれています。このデータセットから視覚的な入力と付随するテキストの説明の両方を分析することで、ArtEmisはニュアンスに富んだ感情予測を生成することを可能にします。[ 118 ] [ 119 ]
AIは視覚芸術以外の分野でも利用されてきました。生成AIは音楽の作成や、画像以外のビデオゲーム制作にも利用され、特にレベルデザイン(カスタムマップなど)や新しいコンテンツ(クエストやダイアログなど)の作成、ビデオゲームでのインタラクティブなストーリーの作成に利用されています。 [ 120 ] [ 121 ] AIは文学の分野でも利用されており、[ 122 ]ライターズブロック、インスピレーション、セグメントの書き直しなどの支援に利用されています。 [ 123 ] [ 124 ] [ 125 ] [ 126 ]料理の分野では、プロトタイプの調理ロボットの中に動的に味見できるものがあり、調理中にシェフが料理の内容や風味を分析するのを支援できます。[ 127 ]
「芸術」という用語の使用
AIソフトウェアによって生成された作品に「芸術」というラベルを付与することは、芸術家、哲学者、学者などの間で議論を巻き起こしてきました。機械で生成された画像を「芸術」と呼ぶことは、創造性、技能、意図といった人間の芸術性の伝統的な特徴を損なうと、多くの専門家が主張しています。真の芸術的創造の現代的定義は、人間レベルの意図、個人的な経験や感情、そして歴史的・芸術的文脈の要件を重視する傾向があります。[ 128 ]
国立医学図書館の研究によると、人間はAIによって生成されたと説明される芸術作品に対して本質的に偏見を示すことが示されています。研究に参加した被験者に、AIによって生成されたと説明された2つの類似画像を見せたところ、被験者はAIによって生成されたと説明された方の芸術的価値を低く評価する傾向がありました。これは、画像の他の視覚的特徴に関係なく、社会や文化的な態度が、ある画像が芸術とみなされるかどうかの判断に影響を与える可能性があることを示唆しています。[ 129 ]
サミュエル・ルーミスは、2023年にデジタルアートオブザーバーの年次大会に提出された報告書の中で、「AIアート」という用語は、伝統的な芸術に適用されるのと同じ批評的基準で評価すると、人間の指導と機械駆動型生成システムの産物としての二重性を認めていると書いている。[ 130 ]
参照
参考文献
- ^ Todorovic, Milos (2024). 「AIと遺産:デジタル世界における遺産の再考に関する議論」 .国際文化社会学ジャーナル. 10 (1): 1– 11. doi : 10.46442/intjcss.1397403 . 2024年7月4日閲覧。
- ^ a b c Vincent, James (2022年5月24日). 「これらの画像はすべて、Googleの最新のテキスト画像変換AIで生成された」 The Verge . Vox Media. 2023年2月15日時点のオリジナルよりアーカイブ。 2022年5月28日閲覧。
- ^ a b Edwards, Benj (2024年8月2日). 「FLUX: この新しいAI画像ジェネレーターは、人間の手を作成するのが驚くほど得意」 Ars Technica . 2024年11月17日閲覧。
- ^ Noel Sharkey (2007年7月4日)、「A programmable robot from 60 AD」、第2611巻、New Scientist、2018年1月13日時点のオリジナルよりアーカイブ、 2019年10月22日閲覧。
- ^ブレット、ジェラード(1954年7月)「ビザンチン帝国の『ソロモンの玉座』におけるオートマタ」",スペキュラム, 29 (3): 477– 487, doi : 10.2307/2846790 , ISSN 0038-7134 , JSTOR 2846790 , S2CID 163031682 .
- ^ kelinich (2014年3月8日). 「Maillardet's Automaton」 .フランクリン研究所. 2023年8月24日時点のオリジナルよりアーカイブ。 2023年8月24日閲覧。
- ^ Natale, S., & Henrickson, L. (2022). ラブレス効果:機械における創造性の認識. White Rose Research Online. 2024年9月24日閲覧, https://eprints.whiterose.ac.uk/182906/6/NMS-20-1531.R2_Proof_hi%20%282%29.pdf
- ^ Lovelace, A. (1843). 翻訳者注. Taylor's Scientific Memoirs, 3, 666-731.
- ^チューリング、アラン(1950年10月)「計算機械と知能」(PDF) . 2024年9月16日閲覧。
- ^クレヴィエ、ダニエル (1993). AI: 人工知能への激動の探求. ニューヨーク: ベーシックブックス. p. 109. ISBN 0-465-02997-3。
- ^ニュークイスト、HP (1994). 『脳を作る者たち:考える機械の探求における天才、自我、そして貪欲』ニューヨーク: マクミラン/SAMS. pp. 45– 53. ISBN 978-0-672-30412-5。
- ^ a bエルガマル、アハメド (2019). 「AIはアーティストの定義を曖昧にしている」.アメリカン・サイエンティスト. 107 (1): 18. doi : 10.1511/2019.107.1.18 . ISSN 0003-0996 . S2CID 125379532 .
- ^グリーンフィールド、ゲイリー(2015年4月3日). 「機械が芸術を作ったとき:コンピュータアートの苦悩の歴史、グラント・D・テイラー著」 .数学と芸術ジャーナル. 9 ( 1–2 ): 44– 47. doi : 10.1080/17513472.2015.1009865 . ISSN 1751-3472 . S2CID 118762731 .
- ^マコーダック、パメラ (1991). 『アーロンズのコード:メタアート、人工知能、そしてハロルド・コーエンの業績』 ニューヨーク:WHフリーマン・アンド・カンパニー. p. 210. ISBN 0-7167-2173-2。
- ^ポルトロニエリ、ファブリツィオ・アウグスト、ハンスカ、マックス(2019年10月23日)。「人工知能時代のテクニカルイメージと視覚芸術」。第9回国際デジタル・インタラクティブアート会議議事録。ブラガ(ポルトガル):ACM。pp. 1– 8。doi:10.1145 /3359852.3359865。ISBN 978-1-4503-7250-3. S2CID 208109113 . 2022年9月29日時点のオリジナルよりアーカイブ。2022年5月10日閲覧。
- ^ 「ハロルド・コーエン(1928–2016)」 .アートフォーラム. 2016年5月9日. 2023年9月19日閲覧。
- ^ a b Diehl, Travis (2024年2月15日). 「AIアートは単なるギミックではない? アーロンに会おう」 .ニューヨーク・タイムズ. ISSN 0362-4331 . 2024年6月1日閲覧。
- ^ 「Karl Sims - ACM SIGGRAPH HISTORY ARCHIVES」 . history.siggraph.org . 2017年8月20日. 2024年6月9日閲覧。
- ^ “Karl Sims | CSAIL Alliances” . cap.csail.mit.edu . 2024年6月9日時点のオリジナルよりアーカイブ。 2024年6月9日閲覧。
- ^ “Karl Sims” . www.macfound.org . 2024年6月9日時点のオリジナルよりアーカイブ。 2024年6月9日閲覧。
- ^ “Golden Nicas” . Ars Electronica Center . 2023年2月26日時点のオリジナルよりアーカイブ。 2023年2月26日閲覧。
- ^ “Panspermia by Karl Sims, 1990” . www.karlsims.com . 2023年11月26日時点のオリジナルよりアーカイブ。 2023年2月26日閲覧。
- ^ 「Liquid Selves by Karl Sims, 1992」www.karlsims.com . 2023年2月26日閲覧。
- ^ “ICC | "Galápagos" - Karl SIMS (1997)” . NTTインターコミュニケーションセンター [ICC] . 2024年6月14日時点のオリジナルよりアーカイブ。 2024年6月14日閲覧。
- ^ "- Winners" . Television Academy . 2020年7月1日時点のオリジナルよりアーカイブ。 2022年6月26日閲覧。
- ^ Draves, Scott (2005). 「電気羊スクリーンセーバー:美的進化のケーススタディ」 . Rothlauf, Franz; Branke, Jürgen; Cagnoni, Stefano; Corne, David Wolfe; Drechsler, Rolf; Jin, Yaochu; Machado, Penousal; Marchiori, Elena; Romero, Juan (編).進化コンピューティングの応用. コンピュータサイエンス講義ノート. 第3449巻. ベルリン、ハイデルベルク:Springer. pp. 458– 467. doi : 10.1007/978-3-540-32003-6_46 . ISBN 978-3-540-32003-6. S2CID 14256872 . 2024年10月7日時点のオリジナルよりアーカイブ。2024年7月17日閲覧。
- ^ “Entrevista Scott Draves - Primer Premio Ex-Aequo VIDA 4.0” .ユーチューブ。 2012 年 7 月 17 日。2023年 12 月 28 日のオリジナルからアーカイブ。2023 年2 月 26 日に取得。
- ^ 「ロボット、人種、そしてアルゴリズム:休会集会でのステファニー・ディンキンス」 Art21マガジン、2017年11月7日。 2020年2月25日閲覧。
- ^ Small, Zachary (2017年4月7日). 「Future Perfect: Flux Factoryのテクノロジーへのインターセクショナルアプローチ」 . ARTnews.com . 2024年9月12日時点のオリジナルよりアーカイブ。2020年5月4日閲覧。
- ^ Dunn, Anna (2018年7月11日). "Multiply, Identify, Her" . The Brooklyn Rail . 2023年3月19日時点のオリジナルよりアーカイブ。 2025年2月25日閲覧。
- ^ 「Not the Only One」 . Creative Capital . 2020年2月16日時点のオリジナルよりアーカイブ。 2023年2月26日閲覧。
- ^ “Drawing Operations (2015) – Sougwen Chung (愫君)” . 2025年2月25日閲覧。
- ^ 「Sougwen Chung」 . The Lumen Prize . 2023年2月26日閲覧。
- ^ 「人工知能は芸術の次の媒体になるのか?」クリスティーズ。2018年12月12日。2023年2月5日時点のオリジナルよりアーカイブ。 2019年5月21日閲覧。
- ^ Cohn, Gabe (2018年10月25日). 「AIアート、クリスティーズで43万2500ドルで落札」 .ニューヨーク・タイムズ. ISSN 0362-4331 . 2019年5月5日時点のオリジナルよりアーカイブ。 2024年5月26日閲覧。
- ^ Turnbull, Amanda (2020年1月6日). 「AIアートの値段:バブルは崩壊したのか?」 The Conversation . 2024年5月26日時点のオリジナルよりアーカイブ。 2024年5月26日閲覧。
- ^ Cayanan, Joanna (2024年7月13日). 「小説家・乙一がジェネレーティブAIで完全制作されたオムニバス映画『generAIdoscope』の共同監督を務める」 Anime News Network . 2025年3月4日時点のオリジナルよりアーカイブ。 2025年3月4日閲覧。
- ^ Hodgkins, Crystalyn (2025年2月28日). 「Frontier WorksとKaKa Creationの双子キャラクター、ひなひまAIアニメが3月29日にテレビデビュー」 . Anime News Network . 2025年2月28日時点のオリジナルよりアーカイブ。 2025年3月4日閲覧。
- ^ “サポーティブAIとは - アニメ「ツインズひなひま」公式サイト”【サポーティブAIとは? ~双子のひなひまアニメ公式サイト~】。アニメひなひま.com (日本語) 。2025 年3 月 4 日に取得。
- ^ 「ディープラーニングとは? | IBM」 www.ibm.com 2024年6月17日2024年11月13日閲覧。
- ^ Goodfellow, Ian; Pouget-Abadie, Jean; Mirza, Mehdi; Xu, Bing; Warde-Farley, David; Ozair, Sherjil; Courville, Aaron; Bengio, Yoshua (2014). Generative Adversarial Nets (PDF) . Proceedings of the International Conference on Neural Information Processing Systems (NIPS 2014). pp. 2672– 2680. 2019年11月22日時点のオリジナルよりアーカイブ(PDF) 。 2022年1月26日閲覧。
- ^ Mordvintsev, Alexander; Olah, Christopher; Tyka, Mike (2015). 「DeepDream - ニューラルネットワークを視覚化するためのコード例」 . Google Research. 2015年7月8日時点のオリジナルよりアーカイブ。
- ^ Mordvintsev, Alexander; Olah, Christopher; Tyka, Mike (2015). 「インセプション主義:ニューラルネットワークの深掘り」 . Google Research. 2015年7月3日時点のオリジナルよりアーカイブ。
- ^ Szegedy, Christian; Liu, Wei; Jia, Yangqing; Sermanet, Pierre; Reed, Scott E.; Anguelov, Dragomir; Erhan, Dumitru; Vanhoucke, Vincent; Rabinovich, Andrew (2015). 「畳み込みによる深化」. IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2015, ボストン, MA, USA, 2015年6月7日~12日. IEEE Computer Society. pp. 1~ 9. arXiv : 1409.4842 . doi : 10.1109/CVPR.2015.7298594 . ISBN 978-1-4673-6964-0。
- ^ Mordvintsev, Alexander; Olah, Christopher; Tyka, Mike (2015). 「DeepDream - ニューラルネットワークを視覚化するためのコード例」 . Google Research. 2015年7月8日時点のオリジナルよりアーカイブ。
- ^ Reynolds, Matt (2017年4月7日). 「新たなコンピュータービジョンの課題:ロボットに3Dで見ることを教える」 . New Scientist . 2018年10月30日時点のオリジナルよりアーカイブ。 2024年11月15日閲覧。
- ^ジョン・マークオフ(2012年11月19日)「ウェブ画像を見つけるためのより良い方法を探る」ニューヨーク・タイムズ。
- ^ Odena, Augustus; Olah, Christopher; Shlens, Jonathon (2017年7月17日). 「補助分類器GANによる条件付き画像合成」 .国際機械学習会議. PMLR: 2642– 2651. arXiv : 1610.09585 . 2024年9月16日時点のオリジナルよりアーカイブ。 2024年9月16日閲覧。
- ^ Oord, Aäron van den; Kalchbrenner, Nal; Kavukcuoglu, Koray (2016年6月11日). 「ピクセルリカレントニューラルネットワーク」 . Proceedings of the 33rd International Conference on Machine Learning . PMLR: 1747–1756 . 2024年8月9日時点のオリジナルよりアーカイブ。 2024年9月16日閲覧。
- ^ Parmar, Niki; Vaswani, Ashish; Uszkoreit, Jakob; Kaiser, Lukasz; Shazeer, Noam; Ku, Alexander; Tran, Dustin (2018年7月3日). 「Image Transformer」 .第35回国際機械学習会議論文集. PMLR: 4055–4064 .
- ^ Simon, Joel. 「About」 . 2021年3月2日時点のオリジナルよりアーカイブ。2021年3月3日閲覧。
- ^ジョージ・ビント、カーマイケル・ゲイル (2021). マタイ・スーザン (編). 『人工知能のシンプル化:基本概念の理解 ― 第2版』 CSTrends LLP. pp. 7– 25. ISBN 978-1-944708-04-7。
- ^ Lee, Giacomo (2020年7月21日). 「この不気味なAIプラットフォームはアーティストの仕事を奪うのか?」 Digital Arts Online . 2020年12月22日時点のオリジナルよりアーカイブ。 2021年3月3日閲覧。
- ^ Ramesh, Aditya; Pavlov, Mikhail; Goh, Gabriel; Gray, Scott; Voss, Chelsea; Radford, Alec; Chen, Mark; Sutskever, Ilya (2021年2月24日). 「ゼロショットテキスト画像生成」. arXiv : 2102.12092 [ cs.LG ].
- ^ Burgess, Phillip. 「VQGAN+CLIPによるAI「アート」の生成」 Adafruit. 2022年9月28日時点のオリジナルよりアーカイブ。 2022年7月20日閲覧。
- ^ Radford, Alec; Kim, Jong Wook; Hallacy, Chris; Ramesh, Aditya; Goh, Gabriel; Agarwal, Sandhini; Sastry, Girish; Askell, Amanda; Mishkin, Pamela; Clark, Jack; Krueger, Gretchen; Sutskever, Ilya (2021). 「自然言語教師からの転送可能な視覚モデルの学習」. arXiv : 2103.00020 [ cs.CV ].
- ^ “What Are Diffusion Models?” Coursera 2024年4月4日. 2024年11月27日時点のオリジナルよりアーカイブ。 2024年11月13日閲覧。
- ^ Sohl-Dickstein, Jascha; Weiss, Eric; Maheswaranathan, Niru; Ganguli, Surya (2015年6月1日). 「非平衡熱力学を用いた深層教師なし学習」(PDF) . Proceedings of the 32nd International Conference on Machine Learning . 37. PMLR: 2256– 2265. arXiv : 1503.03585 . 2024年9月21日時点のオリジナルよりアーカイブ(PDF) . 2024年9月16日閲覧.
- ^ Dhariwal, Prafulla; Nichol, Alexander (2021). 「拡散モデルが画像合成においてGANに勝る」 . Advances in Neural Information Processing Systems . 34. Curran Associates, Inc.: 8780–8794 . arXiv : 2105.05233 . 2024年9月16日時点のオリジナルよりアーカイブ。 2024年9月16日閲覧。
- ^ロンバック、ロビン;ブラットマン、アンドレアス。ローレンツ、ドミニク。エッサー、パトリック。 Ommer、Björn (2021 年 12 月 20 日)、潜在拡散モデルによる高解像度画像合成、arXiv : 2112.10752
- ^ Rose, Janus (2022年7月18日). 「Midjourneyの内側:DALL-Eに匹敵するジェネレーティブアートAI」Vice .
- ^ “NUWA-Infinity” . nuwa-infinity.microsoft.com . 2022年12月6日時点のオリジナルよりアーカイブ。 2022年8月10日閲覧。
- ^ “Diffuse The Rest - a Hugging Face Space by huggingface” . huggingface.co . 2022年9月5日時点のオリジナルよりアーカイブ。 2022年9月5日閲覧。
- ^ Heikkilä, Melissa (2022年9月16日). 「このアーティストはAI生成アートを席巻している。そして彼はそれについて満足していない」 MITテクノロジーレビュー. 2023年1月14日時点のオリジナルよりアーカイブ。 2022年10月2日閲覧。
- ^ “Stable Diffusion” . CompVis - Machine Vision and Learning LMU Munich. 2022年9月15日. 2023年1月18日時点のオリジナルよりアーカイブ。 2022年9月15日閲覧。
- ^ 「Stable Diffusionの開発者Stability AIがオープンソースAIを加速、1億100万ドルを調達」 VentureBeat 2022年10月18日。2023年1月12日時点のオリジナルよりアーカイブ。 2022年11月10日閲覧。
- ^ Choudhary, Lokesh (2022年9月23日). 「これらの新しいイノベーションは、安定した拡散の上に構築されています」 . Analytics India Magazine . 2022年11月9日時点のオリジナルよりアーカイブ。 2022年11月9日閲覧。
- ^ Dave James (2022年10月27日). 「RTX 4090を8時間連続でStable Diffusionのトレーニングに使い、ヘルマンおじさんのような絵を描けるようにした」 . PC Gamer . 2022年11月9日時点のオリジナルよりアーカイブ。 2022年11月9日閲覧。
- ^ Lewis, Nick (2022年9月16日). 「WindowsでGUIを使用してStable Diffusionをローカルで実行する方法」 How -To Geek . 2023年1月23日時点のオリジナルよりアーカイブ。 2022年11月9日閲覧。
- ^ Edwards, Benj (2022年10月4日). 「ポリゴンよ去れ: 1993年のバーチャファイターはAIによって滑らかに」 Ars Technica . 2023年2月1日時点のオリジナルよりアーカイブ。 2022年11月9日閲覧。
- ^ Mehta, Sourabh (2022年9月17日). 「Pythonで安定拡散法を使ってテキストから画像を生成する方法」 . Analytics India Magazine . 2022年11月16日時点のオリジナルよりアーカイブ。 2022年11月16日閲覧。
- ^ “Announcing Ideogram AI” . Ideogram . 2024年6月10日時点のオリジナルよりアーカイブ。 2024年6月13日閲覧。
- ^メッツ、レイチェル(2023年10月3日)「イデオグラムがAI画像に実際に読めるテキストを生成する」ブルームバーグニュース。2024年11月18日閲覧。
- ^ “Flux.1 – ein deutscher KI-Bildgenerator dreht mit Grok frei” .ハンデルスブラット(ドイツ語)。2024 年 8 月 30 日のオリジナルからアーカイブ。2024 年11 月 17 日に取得。
- ^ Zeff, Maxwell (2024年8月14日). 「イーロン・マスクのAI画像ジェネレーターを支えるスタートアップ、Black Forest Labs」 TechCrunch . 2024年11月17日時点のオリジナルよりアーカイブ。 2024年11月17日閲覧。
- ^ Franzen, Carl (2024年11月18日). 「MistralがPixtral Largeをリリースし、Le ChatをChatGPTの完全競合アプリにアップグレード」 . VentureBeat . 2024年12月11日閲覧。
- ^ Growcoot, Matt (2024年8月5日). 「安定拡散発明家が開発したAI画像ジェネレーターは、MidjourneyやDALL-Eと同等」 . PetaPixel . 2024年11月17日閲覧。
- ^ Davis, Wes (2024年12月7日). 「XはGrokに新しいフォトリアリスティックなAI画像ジェネレーターを提供」 The Verge . 2024年12月12日時点のオリジナルよりアーカイブ。 2024年12月10日閲覧。
- ^ Clark, Pam (2024年10月14日). 「Photoshopは画像編集、アイデア創出、3Dデザインなどに強力なイノベーションをもたらします」 . Adobe Blog . 2025年1月30日時点のオリジナルよりアーカイブ。 2025年2月8日閲覧。
- ^ Chedraoui, Katelyn (2024年10月19日). 「AdobeがPhotoshop、Premiere Proなどで発表したすべての新機能」 . CNET . 2025年2月5日時点のオリジナルよりアーカイブ。2025年2月8日閲覧。
- ^ Fajar, Aditya (2023年8月28日). 「Microsoft PaintはWindows Update 11でAIを活用する」 . gizmologi.id . 2025年2月8日閲覧。
- ^ 「OpenAI、テキストから動画を生成する新AIモデル『Sora』を予告」 NBCニュース、2024年2月15日。2024年2月15日時点のオリジナルよりアーカイブ。 2024年10月28日閲覧。
- ^ “Sora” . Sora . 2024年12月27日時点のオリジナルよりアーカイブ。 2024年12月27日閲覧。
- ^ Shahaf, Tal; Shahaf, Tal (2025年10月23日). 「Lightricks、OpenAIとGoogleに挑戦する強力なAIビデオモデルを発表」 Ynetglobal . 2025年12月22日閲覧。
- ^ Mehta, Ivan (2025年4月1日). 「OpenAIの新しい画像ジェネレーターがすべてのユーザーに利用可能に」 TechCrunch . 2025年6月10日時点のオリジナルよりアーカイブ。 2025年6月12日閲覧。
- ^ 「Midjourney、テキストプロンプトをより適切に処理できる新しいV7 AI画像モデルを発表」 Engadget 、 2025年4月4日。 2025年6月12日閲覧。
- ^ 「FLUX.1 KontextとBFL Playgroundの紹介」 Black Forest Labs、2025年5月29日。 2025年6月12日閲覧。
- ^ Wiggers, Kyle (2025年5月20日). 「Imagen 4はGoogleの最新AI画像ジェネレーター」 TechCrunch . 2025年5月20日時点のオリジナルよりアーカイブ。 2025年6月12日閲覧。
- ^ Franzen, Carl (2025年11月26日). 「Black Forest Labs、Nano Banana ProとMidjourneyに対抗するFlux.2 AI画像モデルを発表」 . VentureBeat . 2025年11月26日閲覧。
- ^ Wu, Yue (2025年2月6日). 「拡散モデルの仕組みを視覚的に解説するガイド」 . Towards Data Science . 2025年3月13日時点のオリジナルよりアーカイブ。 2025年6月12日閲覧。
- ^ 「テキストから画像へ:潜在拡散モデル」nicd.org.uk . 2024年4月30日. 2025年6月12日閲覧。
- ^ 「画像から画像への翻訳」 . dataforest.ai . 2025年5月19日時点のオリジナルよりアーカイブ。2025年6月12日閲覧。
- ^ 「画像から画像への変換とは?」 Search Enterprise AI . 2025年6月12日閲覧。
- ^ 「AIのロック解除:画像から動画への技術の進化」 JMComms 、 2025年5月26日。 2025年6月13日閲覧。
- ^ Digital、Hans India(2025年6月3日)「中小企業の優位性:画像から動画へのAI活用による大きなインパクト」 www.thehansindia.com 。2025年6月13日閲覧。
- ^ 「AIビデオ生成:それは何であり、どのように機能するのか?」 www.colossyan.com 。 2025年4月18日時点のオリジナルよりアーカイブ。 2025年6月12日閲覧。
- ^ 「AI写真フィルターはニューラルネットワークを使用して写真をピカソ風に見せる」 Digital Trends、2019年11月18日。2022年11月9日時点のオリジナルよりアーカイブ。 2022年11月9日閲覧。
- ^ Biersdorfer, JD (2019年12月4日). 「カメラロールからキャンバスへ:写真からアートを作ろう」 .ニューヨーク・タイムズ. 2024年3月5日時点のオリジナルよりアーカイブ。 2022年11月9日閲覧。
- ^ Psychotic, Pharma. 「AIアートのためのツールとリソース」 。 2022年6月4日時点のオリジナルよりアーカイブ。 2022年6月26日閲覧。
- ^ Gal, Rinon; Alaluf, Yuval; Atzmon, Yuval; Patashnik, Or; Bermano, Amit H.; Chechik, Gal; Cohen-Or, Daniel (2022年8月2日). 「画像は一言で表せる:テキスト反転を用いたテキストから画像への生成のパーソナライズ」. arXiv : 2208.01618 [ cs.CV ].
- ^ “Textual Inversion · AUTOMATIC1111/stable-diffusion-webui Wiki” . GitHub . 2023年2月7日時点のオリジナルよりアーカイブ。2022年11月9日閲覧。
- ^ a b c d Elgan, Mike (2022年11月1日). 「『合成メディア』がビジネスを永遠に変革する方法」 Computerworld . 2023年2月10日時点のオリジナルよりアーカイブ。 2022年11月9日閲覧。
- ^ a bケビン・ルース(2022年10月21日)「AI生成アートはすでにクリエイティブワークを変革している」ニューヨーク・タイムズ。2023年2月15日時点のオリジナルよりアーカイブ。 2022年11月16日閲覧。
- ^ a b Leswing, Kif. 「なぜシリコンバレーは人工知能によるぎこちない絵に興奮しているのか」 CNBC . 2023年2月8日時点のオリジナルよりアーカイブ。 2022年11月16日閲覧。
- ^ Robertson, Adi (2022年11月15日). 「DeviantArtはAIアートの地雷原をどのように乗り越えているか」 The Verge . 2023年1月4日時点のオリジナルよりアーカイブ。 2022年11月16日閲覧。
- ^ Proulx, Natalie (2022年9月). 「AI生成画像は芸術か?」 . The New York Times . 2023年2月6日時点のオリジナルよりアーカイブ。 2022年11月16日閲覧。
- ^ Vincent, James (2022年9月15日). 「このAIアートジェネレーターは誰でも使える ― それがリスクだ」 The Verge . 2023年1月21日時点のオリジナルよりアーカイブ。 2022年11月9日閲覧。
- ^ Davenport, Corbin. 「このAIアートギャラリーはジェネレーターを使うよりもさらに優れている」 How -To Geek . 2022年12月27日時点のオリジナルよりアーカイブ。 2022年11月9日閲覧。
- ^ Robertson, Adi (2022年9月2日). 「プロのAIウィスパラーがDALL-Eプロンプトのマーケットプレイスを立ち上げ」 . The Verge . 2023年2月15日時点のオリジナルよりアーカイブ。 2022年11月9日閲覧。
- ^ "本文-zu-Bild-Revolution: 安定した拡散に関する KI-Bildgenerieren für alle" . heise オンライン(ドイツ語)。2023年1月29日のオリジナルからアーカイブ。2022 年11 月 9 日に取得。
- ^ Mohamad Diab、Julian Herrera、Musical Sleep、Bob Chernow、Coco Mao (2022年10月28日). “Stable Diffusion Prompt Book” (PDF) . 2023年3月30日時点のオリジナルよりアーカイブ(PDF) 。 2023年8月7日閲覧。
{{cite web}}: CS1 maint: 複数の名前: 著者リスト (リンク) - ^ Corsi, Giulio; Marino, Bill; Wong, Willow (2024年6月3日). 「Xにおける合成メディアの拡散」ハーバード・ケネディスクール誤情報レビュー. doi : 10.37016/mr-2020-140 .
- ^ Reinhuber, Elke (2021年12月2日). 「シンソグラフィー:急速に変化するデジタル画像作成ツールキットを写真を超えた新しいジャンルとして再考するための招待」 . Google Scholar. 2023年2月10日時点のオリジナルよりアーカイブ。 2022年12月20日閲覧。
- ^ Cetinic, Eva; She, James (2022年5月31日). 「AIによるアートの理解と創造:レビューと展望」 . ACM Transactions on Multimedia Computing, Communications, and Applications . 18 (2): 1– 22. arXiv : 2102.09109 . doi : 10.1145/3475799 . ISSN 1551-6857 . S2CID 231951381. 2023年6月22日時点のオリジナルよりアーカイブ。2023年4月8日閲覧。
- ^ a b Cetinic, Eva; She, James (2022年2月16日). 「AIによるアートの理解と創造:レビューと展望」. ACM Transactions on Multimedia Computing, Communications, and Applications . 18 (2): 66:1–66Kate Vass2. arXiv : 2102.09109 . doi : 10.1145/3475799 . ISSN 1551-6857 . S2CID 231951381 .
- ^ Lang, Sabine; Ommer, Bjorn (2018). 「コンピュータビジョンによる芸術作品の処理と分析の考察:補足資料」 .欧州コンピュータビジョン会議(ECCV)ワークショップ議事録. 2024年4月16日時点のオリジナルよりアーカイブ。 2023年1月8日閲覧– Computer Vision Foundation経由。
- ^ Ostmeyer, Johann; Schaerf, Ludovica; Buividovich, Pavel; Charles, Tessa; Postma, Eric; Popovici, Carina (2024年2月14日). 「合成画像は人工美術品の贋作の認識を助ける」 . PLOS ONE . 19 (2) e0295967. 米国. arXiv : 2312.14998 . Bibcode : 2024PLoSO..1995967O . doi : 10.1371 / journal.pone.0295967 . ISSN 1932-6203 . PMC 10866502. PMID 38354162 .
- ^アクリオプタス・パノス、オブジャニコフ・マックス、ヘイダロフ・キリチベク、エルホセイニー・モハメド、ギバス・レオニダス(2021年1月18日)「ArtEmis:視覚芸術のための感情言語」arXiv : 2101.07396 [ cs.CV ]。
- ^マイヤーズ、アンドリュー(2021年3月22日)「アーティストの意図:AIが視覚芸術における感情を認識する」hai.stanford.edu。2024年10月15日時点のオリジナルよりアーカイブ。 2024年11月24日閲覧。
- ^ Yannakakis、Geogios N. (2012 年 5 月 15 日)。 「ゲームAIの再考」。コンピューティングフロンティアに関する第 9 回会議の議事録。 pp. 285–292。土井:10.1145/2212908.2212954。ISBN 978-1-4503-1215-8. S2CID 4335529 .
- ^ 「AIがDoomとSuper Marioのゲームに新しいレベルを作成」 BBCニュース、2018年5月8日。2022年12月12日時点のオリジナルよりアーカイブ。 2022年11月9日閲覧。
- ^ Katsnelson, Alla (2022年8月29日). 「英語力が低い? 新たなAIが研究者の論文執筆力向上を支援」 . Nature . 609 (7925): 208– 209. Bibcode : 2022Natur.609..208K . doi : 10.1038/d41586-022-02767-9 . PMID 36038730. S2CID 251931306 .
- ^ “KoboldAI/KoboldAI-Client” . GitHub . 2022年11月9日. 2023年2月4日時点のオリジナルよりアーカイブ。 2022年11月9日閲覧。
- ^ Dzieza, Josh (2022年7月20日). 「AIは良い小説を書けるか?」 The Verge . 2023年2月10日時点のオリジナルよりアーカイブ。 2022年11月16日閲覧。
- ^ 「AIライティングアシスタント:ライターズブロックの治療法か、それとも現代のクリッピーか?」 PCMAG . 2023年1月23日時点のオリジナルよりアーカイブ。 2022年11月16日閲覧。
- ^ Song, Victoria (2022年11月2日). 「Googleの新しいプロトタイプAIツールがあなたに代わって文章を書いてくれる」 The Verge . 2023年2月7日時点のオリジナルよりアーカイブ。 2022年11月16日閲覧。
- ^ Sochacki, Grzegorz; Abdulali, Arsen; Iida, Fumiya (2022). 「ロボット調理における咀嚼強化型味覚ベース多食材料理分類」 . Frontiers in Robotics and AI . 9 886074. doi : 10.3389/frobt.2022.886074 . ISSN 2296-9144 . PMC 9114309. PMID 35603082 .
- ^ Coeckelbergh, Mark (2017年9月1日). 「機械は芸術を創造できるか?」 . Philosophy & Technology . 30 (3): 285–303 . doi : 10.1007/s13347-016-0231-5 . hdl : 2086/12670 . ISSN 2210-5441 .
- ^ Horton, C. Blaine; White, Michael W.; Iyengar, Sheena S. (2023年11月3日). 「AIアートに対する偏見は、人間の創造性に対する認識を高める可能性がある」 . Scientific Reports . 13 (1): 19001. doi : 10.1038/s41598-023-45202-3 . ISSN 2045-2322 . PMC 10624838. PMID 37923764 .
- ^ジョナサン・ドウ:「現代のデジタルメディアトレンドの要約と分析」、 Die Zeitung誌(2024年2月)