デジタルクローン

デジタルクローニングは、ディープラーニングアルゴリズムを伴う新興技術であり、これにより、超現実的な既存の音声写真ビデオを操作することができます。 [ 1 ]このような技術の影響の1つは、超現実的なビデオと写真により、人間の目が本物と偽物を見分けることが困難になることです。[ 2 ]さらに、様々な企業がこのような技術を一般に公開しているため、さまざまな利点がある一方で、潜在的な法的および倫理的懸念ももたらされる可能性があります。

デジタルクローニングは、オーディオビジュアル(AV)、記憶、人格、消費者行動のクローニングに分類できます。[ 3 ] AVクローニングでは、デジタルまたは非デジタルのオリジナルからクローン化されたデジタル版を作成することで、例えば、偽の画像、アバター、偽のビデオや音声などを作成し、それが表現するとされる実在の人物と容易に区別できないようにすることができます。マインドクローンのような記憶や人格のクローンは、本質的には人の心のデジタルコピーです。消費者行動のクローンは、人口統計に基づいた顧客のプロファイルまたはクラスターです。

トゥルービーとブラウンは、デジタルクローンがより高度なパーソナライズされたデジタルクローンへと進化したことを指して「デジタル思考クローン」という用語を作り出した。これは「特定の生きている人物に関するすべての既知のデータと行動の複製であり、その人物の選択、好み、行動傾向、意思決定プロセスをリアルタイムで記録する」ものである。[ 3 ]

デジタルクローンは、エンターテインメント業界で初めて普及しました。デジタルクローンのアイデアは、映画会社が亡くなった俳優の仮想俳優を作成したことに端を発しています。映画制作中に俳優が亡くなった場合、過去の映像、写真、音声録音を用いて、その俳優のデジタルクローンを合成し、実在の人物を模倣することで映画制作を継続することができます。[ 4 ]

現代の人工知能は、ディープフェイクの作成を可能にしました。これは、動画に映っている人物が、本人が同意していない発言や行動をするように動画を操作するものです。[ 5 ] 2018年4月、BuzzFeedはジョーダン・ピールのディープフェイク動画を公開しました。この動画は、バラク・オバマ前大統領がこれまで公の場で述べていなかった発言をしているように操作されており、ディープフェイクの潜在的な危険性について国民に警告を発しています。[ 6 ]

ディープフェイクに加えて、Intellitarなどの企業は、一連の画像と音声録音を入力することで、自分自身のデジタルクローンを簡単に作成することを可能にしています。これは本質的にデジタル不滅性を生み出し、愛する人が亡くなった人の複製と対話することを可能にします。[ 7 ]デジタルクローンは、愛する人をデジタル的に追悼するだけでなく、歴史上の人物の複製を作成したり、教育現場で使用したりするためにも使用できます。

上述のように、様々な技術の発展に伴い、個人情報の盗難データ漏洩、その他の倫理的問題など、多くの懸念が生じています。デジタルクローニングにおける問題の一つは、潜在的な被害者をこれらの問題から保護するための法律がほとんど、あるいは全く存在しないことです。[ 8 ]

テクノロジー

インテリジェントアバタープラットフォーム(IAP)

インテリジェントアバタープラットフォーム(IAP)は、人工知能を搭載したオンラインプラットフォームであり、ユーザーが自身のクローンを作成できるものと定義できます。 [ 7 ]ユーザーは、自身のクローンが自分と同じように行動し、話すように、アルゴリズムに多数の音声録音や動画を入力させる必要があります。[ 9 ]本質的に、これらのプラットフォームは、同じプラットフォーム上の他のアバターと交流できるため、「永遠に生きる」場所として宣伝されています。IAPは、デジタル不滅を達成するためのプラットフォームであり、家系図や遺産を後世に残すためのプラットフォームになりつつあります。[ 7 ]

IAPの例としては、IntellitarやEterni.meなどが挙げられます。これらの企業のほとんどはまだ開発段階にありますが、いずれもユーザーが自分自身の完全な複製を作成し、心の中のあらゆる記憶をサイバースペースに保存できるようにするという同じ目標の達成を目指しています。[ 7 ]無料版を提供している企業もあり、ユーザーは指定された画像と音声のセットからアバターを選択することしかできません。しかし、プレミアム版では、ユーザーは写真、動画、音声録音をアップロードして、自分自身のリアルなバージョンを作成するように求められます。[ 10 ]さらに、クローンが元の人物にできるだけ近くなるように、企業はクローンとチャットしたり、質問に答えたりすることで交流することを奨励しています。これにより、アルゴリズムは元の人物の認知を学習し、それをクローンに適用することができます。Intellitarは、使用していた技術をめぐる知的財産権争いのため、2012年に閉鎖されました。[ 11 ]

IAPに関する潜在的な懸念としては、データ漏洩の可能性や故人の同意が得られないことなどが挙げられます。IAPは、音声録音、写真、メッセージなどを含む故人の個人情報を保護するために、データ漏洩やハッキングに対する強固な基盤と責任を持たなければなりません。 [ 9 ]個人のプライバシーが侵害されるリスクに加えて、故人のプライバシーを侵害するリスクもあります。人は肉体が死ぬ前に自分のデジタルクローンを作成することに同意することはできますが、そのデジタルクローンが行う行動に同意することはできません。

ディープフェイク

前述のように、ディープフェイクは動画操作の一種で、特定の人物の様々な画像を流し込むことで、そこにいる人物を入れ替えることができる。さらに、新しい人物の約1~2分間の音声録音を投稿するだけで、動画内の人物の声や言葉を変えることもできる。2018年にはFakeAppという新しいアプリがリリースされ、一般の人が簡単にこの技術を使って動画を作成できるようになった。このアプリは、バラク・オバマ前大統領のBuzzFeed動画の作成にも使用された。[ 6 ] [ 12 ]ディープフェイクを使えば、個人の同意を得た一連の写真と音声録音を収集するだけで、低コストで効率的に動画や映画を制作できるため、業界は映画や広告の俳優やモデルを雇うコストを削減できる。[ 13 ]

ディープフェイクに関する潜在的な懸念は、同じサービスを提供する様々なアプリをダウンロードすれば、事実上誰でもアクセスできることです。誰でもこのツールにアクセスできるということは、悪意を持ってアプリを利用し、公務員が現実では決して言わないような発言をするリベンジポルノや操作動画を作成する可能性があります。これは、動画に映っている個人のプライバシーを侵害するだけでなく、様々な倫理的問題も引き起こします。[ 14 ]

音声クローン

音声クローニングは、人工知能を用いて人の声のクローンを生成する音声ディープフェイク手法の一つです。音声クローニングには、個人の音声録音を取り込み、トーンや類似性において非常に正確な人間の声を忠実に再現できる音声合成を可能にするディープラーニングアルゴリズムが用いられます。 [ 15 ]

音声のクローン作成には高性能なコンピュータが必要です。通常、計算はグラフィックス・プロセッシング・ユニット(GPU)を用いて行われますが、膨大な計算量が必要となるため、 クラウドコンピューティングが利用されることも少なくありません。

学習用の音声データは、人工知能モデルに入力する必要があります。多くの場合、これらは対象者の音声のサンプルとなるオリジナルの録音です。人工知能はこのデータを用いて、入力された音声(テキスト読み上げ)や話された音声(音声読み上げ)を再現できる本物の音声を生成します。

この技術は、政治的言説から法の支配に至るまで、様々な問題に影響を与えるため、多くの人々を不安にさせています。その兆候として、電話詐欺[ 16 ] [ 17 ]や、ソーシャルメディア上で実際にしていない行為を偽装した動画[ 18 ]といった形で既に現れています。

これらの脅威に対する防御策は、主に2つの方法で実装できます。1つ目は、ビデオの真正性を分析または検出する方法を開発することです。進化し続ける生成器がこれらの検出器を破るため、このアプローチは必然的にプラスの影響を与えるでしょう。2つ目の方法は、作成情報と変更情報をソフトウェアまたはハードウェアに埋め込むことです。[ 19 ] [ 20 ]これはデータが編集不可能な場合にのみ機能しますが、真実の源として機能する、聞き取れない透かしを作成するというアイデアです。[ 21 ]つまり、ビデオがどこで撮影され、制作され、編集されたかなどを確認することで、ビデオが本物かどうかを知ることができます。[ 15 ]

15.aiは、技術を用いた声優や吹き替えの民主化概念実証として始まった非営利のフリーウェアウェブアプリケーションで、このような技術を一般に公開しています。 [ 22 ]無償で非営利であること(使用時にはプロジェクトのクレジットを適切に表示することのみ条件[ 23 ])、使いやすさ、現在の音声合成実装の大幅な改善がユーザーから高く評価されています。[ 24 ] [ 25 ] [ 26 ]しかし、一部の批評家や声優は、このような技術を公開して容易にアクセスできるようにする合法性と倫理性に疑問を呈しています。[ 22 ] [ 27 ] [ 28 ] [ 29 ]

このアプリケーションはまだ開発段階ですが、GoogleAmazonなどの大手テクノロジー企業が開発に巨額の資金を投資しているため、急速に発展しています。[ 30 ]

音声クローンの有益な用途としては、人間の手を煩わせることなく何百万ものオーディオブックを合成できることが挙げられます。[ 31 ]また、音声クローンは、ポッドキャスターの声を使ってポッドキャストのコンテンツをさまざまな言語に翻訳するためにも使用されています。[ 32 ]また、声を失った可能性のある人は、声を失う前の自分の話し方を録音して入力することで自分の声のクローンを作成し、個性を取り戻すことができます。[ 33 ]

一方、音声クローンは悪用される危険性も孕んでいます。例えば、著名人や公務員の声がクローン化され、本人とは全く関係のない発言が、対立を煽るような発言として利用される可能性があります。[ 34 ]

音声クローンがプライバシー、礼儀正しさ、民主的なプロセスに及ぼす脅威を認識し、連邦取引委員会米国司法省国防高等研究計画局(DARPA)、イタリア教育大学研究省(MIUR)などの機関は、さまざまなオーディオディープフェイクの使用事例と、それらに対抗するために使用できる可能性のある方法について意見を述べています。[ 35 ] [ 36 ] [ 37 ]

建設的な用途

教育

デジタルクローンは、教育現場で学生により没入感のある体験を提供するために役立ちます。学生によっては、よりインタラクティブな体験を通してより良く学べる場合があり、ディープフェイクを作成することで学生の学習能力を高めることができます。その一例としては、エイブラハム・リンカーンなどの歴史上の人物のデジタルクローンを作成し、彼が人生でどのような問題に直面し、どのようにそれを克服したかを示すことが挙げられます。教育現場でデジタルクローンを使用するもう1つの例としては、講演者に自身のデジタルクローンを作成させることが挙げられます。さまざまな支援団体は、年間を通じてさまざまな学校を巡回するため、スケジュールに問題が生じる可能性があります。しかし、自身のデジタルクローンを作成することで、グループが物理的に来ることができなかった場所でクローンがトピックを発表することができます。これらの教育的利点は、学生に新しい学習方法をもたらすだけでなく、環境条件のために以前はリソースにアクセスできなかった人々にもアクセスを提供することが可能です。[ 13 ]

芸術

デジタルクローンはエンターテインメントや芸術の業界ではすでにしばらく使われていますが、人工知能は業界でのこれらの技術の用途を大幅に拡大することができます。映画業界は、亡くなった俳優や女優をさらにハイパーリアルに作り出すことができます。また、映画業界は、エキストラが必要な映画のシーンでデジタルクローンを作成することもできます。これにより、制作費を大幅に削減できます。ただし、デジタルクローンなどの技術は、非営利目的でも役立ちます。たとえば、アーティストは、ビデオ制作の一部としてアバターを合成する場合、表現力を高めることができます。また、デジタルアバターを作成して作品の下書きをしたり、最終作品の作業に移る前にアイデアをまとめたりすることもできます。[ 13 ] 俳優のヴァル・キルマーは、 2014年に咽頭がんによる気管切開手術を受け、声を失いました。しかし、彼は以前の録音に基づいて合成音声を作成したAI企業と提携しました。この声のおかげで、キルマーは2022年の続編映画『トップガン マーヴェリック』で1986年のトップガンで演じた「アイスマン」役を再び演じることができた。[ 38 ]

デジタル不滅

故人のソーシャルメディアアカウントがサイバースペースに残り続けることから、デジタル不滅性は以前から存在していたが、不滅のバーチャルクローンを作成することは新たな意味を持つようになった。デジタルクローンを作成することで、自身の視覚的な存在だけでなく、性格や認知を含む癖までも捉えることができる。デジタル不滅性によって、愛する人が亡くなった後も、そのクローンと交流を続けることができる。さらに、家族は複数世代のクローンと繋がり、いわば家系図を形成し、家族の遺産を未来の世代に伝えることで、歴史を継承する手段を提供する。[ 7 ]

懸念事項

フェイクニュース

ディープフェイクに対する規制が不十分であることから、いくつかの懸念が生じています。ディープフェイク動画がもたらす潜在的な危害に関する懸念としては、政治家が不適切な行動をとる様子、警察官が非武装の黒人男性を射殺する様子、兵士が無実の民間人を殺害する様子などが挙げられます。これらは、現実には起こっていないにもかかわらず、登場し始める可能性があります。[ 39 ]このような超現実的な動画がインターネット上に公開されると、人々は誤った情報に惑わされやすくなり、それが行動に繋がり、不必要な危害をもたらす悪循環に陥る可能性があります。さらに、近年のニュースにおけるフェイクニュースの増加に伴い、ディープフェイクとフェイクニュースが組み合わさる可能性も高まっています。これにより、本物と偽物の区別がさらに困難になるでしょう。視覚情報は人間の目に非常に説得力を持つため、ディープフェイクとフェイクニュースの組み合わせは社会に悪影響を及ぼす可能性があります。[ 13 ]ソーシャルメディア企業やその他のニュースプラットフォームは、厳格な規制を制定する必要があります。[ 40 ]

個人使用

ディープフェイクが悪意を持って使用されるもう一つの理由は、個人的なレベルで他人を妨害するためである。ディープフェイクを作成する技術へのアクセスが容易になったことで、恐喝者や窃盗犯は、被害者の愛する人が助けを求める動画を作成し、金銭的利益などの目的で個人情報を簡単に抜き取ることができるようになった。[ 13 ]さらに、音声複製は犯罪者が被害者に偽の電話をかけるために悪用される可能性がある。電話は個人とまったく同じ声や仕草になるため、被害者は知らないうちに犯罪者に個人情報を渡してしまう可能性がある。 [ 41 ]また、悪意のある人物が、例えば、動画に人物のディープフェイクを重ね合わせて、恐喝金を強要したり、リベンジポルノを行うこともできる。

個人使用を目的としたディープフェイクや音声クローンの作成は、商業的な損害がないため、法的には非常に困難です。むしろ、心理的・感情的な損害という形で現れることが多く、裁判所が救済措置を講じることが困難になっています。[ 5 ]

倫理的な意味合い

このような技術の発展に伴って数多くの法的問題が生じる一方で、現行法では保護されない倫理的問題も存在する。ディープフェイクや音声クローンの使用に伴う最大の問題の一つは、個人情報窃盗の可能性である。しかし、ディープフェイクに関する個人情報窃盗は、現在ディープフェイクに特化した法律がないため、訴追が困難である。さらに、ディープフェイクの悪意ある使用がもたらす損害は、金銭的なものというよりも、心理的・感情的なものが多く、救済策を提供することがより困難となっている。アレンは、個人のプライバシーの扱い方は、カントの定言命法に似ていると主張している。[ 5 ]

もう一つの倫理的な問題は、この技術を使うために個人情報やプライベートな情報を提供しなければならないという点です。デジタルクローニング、ディープフェイク、音声クローニングはすべてディープラーニングアルゴリズムを使用しているため、アルゴリズムが受け取る情報が多いほど、より良い結果が得られます。[ 42 ]しかし、どのプラットフォームにもデータ漏洩のリスクがあり、ユーザーが同意していないグループが極めて個人的な情報にアクセスする可能性があります。さらに、愛する人の家族が、どれだけの情報を提供する意思があるか許可なく、故人のデジタルクローンを作成するために可能な限り多くの情報を収集しようとする場合、死後のプライバシーが問題となります。[ 43 ]

米国の既存の法律

アメリカ合衆国では、著作権法において著作者の個性を保護するため、ある程度の独創性と創造性が求められています。しかし、デジタルクローンの作成は、写真や音声録音などの個人データを取得し、実在の人物に限りなく近い仮想の人物を作成することを意味します。最高裁判所のFeist Publications Inc.対Rural Television Services Company, Inc.判決において、オコナー判事は独創性とある程度の創造性の重要性を強調しました。しかし、独創性と創造性の範囲は明確に定義されておらず、著作権法のグレーゾーンとなっています。[ 44 ]デジタルクローンの作成には、人物のデータだけでなく、デジタルクローンがどのように行動するか、どのように動くかについての作成者の入力も必要です。Meshwerks対Toyotaの訴訟において、この問題が提起され、裁判所は写真に対して制定されたのと同じ著作権法をデジタルクローンにも適用すべきであると述べました。[ 44 ]

パブリシティ権

デジタルクローニングの悪意ある使用から個人を保護する法律が現在存在しないため、パブリシティ権が法的に個人を保護する最善の方法であると考えられる。[ 4 ]パブリシティ権は人格権とも呼ばれ、商業的な環境において、自分の声、外見など、本質的に人格を構成する他の側面を制御することに関して、個人に自律性を与える。[ 45 ]本人の同意なし、本人の人格から外れた行動や発言をしているディープフェイク動画やデジタルクローンが作成された場合には、本人はパブリシティ権の侵害だと主張して法的措置をとることができる。 パブリシティ権は、何らかの利益を必要とする商業的な環境において個人のイメージを保護することを意図していると明記されているが、法律を改正すれば事実上誰のイメージや人格も保護できるとする意見もある。[ 46 ]もう1つの重要な点は、パブリシティ権は特定の州でのみ施行されているため、州によっては他の州とは異なる解釈をする場合があるということである。

予防策

規制

デジタルクローンおよびデジタル思考クローンは、データプライバシー、インフォームドコンセント、差別禁止、著作権、パブリシティ権に関する法的問題を提起しています。より多くの法域において、データの不正かつ有害な利用、およびデジタル思考クローンの不正な開発・利用から人々を守るために、欧州の一般データ保護規則に類似した法律を早急に制定する必要があります。[ 3 ]

テクノロジー

上記の技術の被害に遭わないための一つの方法は、これらのアルゴリズムに対抗できる人工知能を開発することです。既にいくつかの企業が、各ピクセルのパターンを見ることで操作された画像を検出できる人工知能を開発しています。[ 47 ]同様のロジックを適用することで、彼らは、与えられたビデオの各フレームをピクセルごとに分析し、元のビデオのパターンを見つけて操作されているかどうかを判断するソフトウェアの開発を試みています。[ 48 ]

動画操作を検出できる新技術の開発に加え、多くの研究者が、民間企業が個人のプライバシーを保護するためのより厳格なガイドラインを作成することの重要性を指摘している。[ 30 ]人工知能の発展に伴い、医療教育政治経済など、社会のほぼすべての側面に人工知能が登場し始めているため、これが今日の社会にどのような影響を与えるかを問う必要がある。さらに、人工知能は社会のさまざまな側面に登場し始めるため、技術が支配するにつれて人権を保護する法律を整備することが重要になる。民間部門が公共に対してより多くのデジタルパワーを獲得するにつれて、民間企業による個人データの悪意のある使用を防ぐための厳格な規制と法律を制定することが重要になる。さらに、さまざまなデータ侵害やプライバシーポリシー違反の過去の歴史は、個人情報が個人の同意なしにアクセスされ、使用される可能性があることに対する警告でもある。[ 8 ]

デジタルリテラシー

これらの技術による被害を防ぐもう一つの方法は、デジタルクローニングの長所と短所について人々に教育することです。そうすることで、各個人が自身の状況に基づいて合理的な判断を下せるようになります。[ 49 ]さらに、インターネット上に公開する情報をどのように保護するかについても教育することが重要です。人々のデジタルリテラシーを高めることで、人々はオンラインで見つけた情報に対してより疑念を抱くようになり、特定の動画が操作されているかどうかを判断できる可能性が高まります。[ 30 ]

参照

参考文献

  1. ^フロリディ、ルチアーノ (2018). 「人工知能、ディープフェイク、そしてエクタイプの未来」 .哲学とテクノロジー. 31 (3): 317– 321. doi : 10.1007/s13347-018-0325-3 .
  2. ^ボレル、ブルック (2018). 「クリック音、嘘、そしてビデオテープ」. Scientific American . 319 (4): 38– 43. Bibcode : 2018SciAm.319d..38B . doi : 10.1038/scientificamerican1018-38 . PMID 30273328. S2CID 52902634 .  
  3. ^ a b c Truby, Jon; Brown, Rafael (2021). 「人間のデジタル思考クローン:ビッグデータのための人工知能の聖杯」 .情報通信技術法. 30 (2): 140– 168. doi : 10.1080/13600834.2020.1850174 . hdl : 10576/17266 . S2CID 229442428 .  テキストはこのソースからコピーされたもので、Creative Commons Attribution 4.0 International Licenseに基づいて利用可能です。
  4. ^ a bビアード、ジョセフ (2001). 「クローン、ボーンズ、トワイライトゾーン:生者、死者、そして想像上の人物のデジタルペルソナの保護」. バークレー・テクノロジー・ロー・ジャーナル. 16 ( 3): 1165– 1271. JSTOR 24116971 . 
  5. ^ a b cアレン、アニタ(2016年)「ビッグデータ経済におけるプライバシーの保護」ハーバードロー・レビュー130(2):71-86
  6. ^ a bシルバーマン、クレイグ(2018年4月) 「バラク・オバマとジョーダン・ピールのビデオのようなディープフェイク見分ける方法」BuzzFeed
  7. ^ a b c d e Meese, James (2015). 「死後の人格とデジタルメディアのアフォーダンス」. Mortality . 20 (4): 408– 420. doi : 10.1080/13576275.2015.1083724 . hdl : 10453/69288 . S2CID 147550696 . 
  8. ^ a b Nemitz, Paul Friedrich (2018). 「人工知能時代の憲法民主主義とテクノロジー」 . Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences . 59 (9) 20180089. Bibcode : 2018RSPTA.37680089N . doi : 10.1098/rsta.2018.0089 . PMID 30323003 . 
  9. ^ a bミシャリク、リンゼイ (2013)。 」「『幽霊のような断片』:デジタル・モーニングとインターメディア・パフォーマンス」。シアターアニュアル。66 (1):41-64。ProQuest 1501743129 。 
  10. ^ウルサッシュ、マリウス。「永遠」
  11. ^ 「このスタートアップは1万人に永遠のデジタルライフを約束したが、その後消滅した | Fusion」 。 2016年12月30日時点のオリジナルよりアーカイブ。 2020年5月24日閲覧
  12. ^ S. Agarwal、H. Farid、Y. Gu、M. He、K. Nagano、H. Li、「ディープフェイクから世界のリーダーを保護する」、IEEE コンピュータービジョンおよびパターン認識会議 (CVPR) ワークショップ、2019 年 6 月。
  13. ^ a b c d eチェスニー、ロバート (2018). 「ディープフェイク:プライバシー、民主主義、国家安全保障への差し迫った課題」(PDF) . SSRN電子ジャーナル. 26 (1): 1– 58.
  14. ^ Suwajanakorn, Supasorn (2017). 「オバマの合成」(PDF) . ACM Transactions on Graphics . 36 (4): 1– 13. doi : 10.1145/3072959.3073640 . S2CID 207586187 . 
  15. ^ a b「ディープフェイクボイスについて知っておくべきことすべて」Veritone . 2021年10月1日. 2022年6月30日閲覧
  16. ^デビッド・ドミニク「評議会の投稿:ディープフェイク音声技術の台頭を分析」フォーブス2022年6月30日閲覧
  17. ^ブリュースター、トーマス。「3500万ドルの銀行強盗で、詐欺師が取締役の声を複製、警察が発見」フォーブス2022年6月29日閲覧
  18. ^オルトゥテイ、マット・オブライエン、バーバラ。「ドキュメンタリー『ロードランナー』におけるアンソニー・ボーデインの声のクローンが人々を怖がらせる理由」 USAトゥデイ。 2022年6月30日閲覧
  19. ^ Rashid, Md Mamunur; Lee, Suk-Hwan; Kwon, Ki-Ryong (2021). 「ディープフェイク対策と動画・画像の完全性保護のためのブロックチェーン技術」韓国マルチメディア学会誌24 (8): 1044– 1058. doi : 10.9717 /kmms.2021.24.8.1044 . ISSN 1229-7771 . 
  20. ^ Fraga-Lamas, Paula; Fernández-Caramés, Tiago M. (2019年10月20日). 「フェイクニュース、偽情報、ディープフェイク:分散型台帳技術とブロックチェーンを活用したデジタル欺瞞と偽造現実への対抗」. IT Professional . 22 (2): 53– 59. arXiv : 1904.05386 . doi : 10.1109/MITP.2020.2977589 .
  21. ^ Ki Chan, Christopher Chun; Kumar, Vimal; Delaney, Steven; Gochoo, Munkhjargal (2020年9月). 「ディープフェイクへの対抗:デジタルメディアの真正性証明としてのマルチLSTMとブロックチェーン」. 2020 IEEE / ITU 国際人工知能会議 (AI4G) . pp.  55– 62. doi : 10.1109/AI4G50087.2020.9311067 . ISBN 978-1-7281-7031-2. S2CID  231618774 .
  22. ^ a b Ng, Andrew (2020年4月1日). 「Voice Cloning for the Masses」 . The Batch . 2020年8月7日時点のオリジナルよりアーカイブ2020年4月5日閲覧。
  23. ^ “15.ai - FAQ” . 15.ai. 2021年1月18日. 2020年3月3日時点のオリジナルよりアーカイブ2021年1月18日閲覧。
  24. ^ Ruppert, Liana (2021年1月18日). 「このアプリでPortalのGLaDOSをはじめとする人気キャラクターに奇妙なセリフを言わせよう」 Game Informer . 2021年1月18日時点のオリジナルよりアーカイブ。 2021年1月18日閲覧
  25. ^ Zwiezen, Zack (2021年1月18日). 「ウェブサイトでGLaDOSに好きなことを言わせる」 Kotaku . 2021年1月17日時点のオリジナルよりアーカイブ。 2021年1月18日閲覧
  26. ^ Clayton, Natalie (2021年1月19日). 「AI音声合成ツールでTF2のキャストに昔のミームを朗読させよう」 . PC Gamer . 2021年1月19日時点のオリジナルよりアーカイブ。 2021年1月19日閲覧
  27. ^ Ng, Andrew (2021年3月7日). “Weekly Newsletter Issue 83” . The Batch . 2022年2月26日時点のオリジナルよりアーカイブ2021年3月7日閲覧。
  28. ^ Lopez, Ule (2022年1月16日). 「トロイ・ベイカー氏が支援するNFT企業、他のサービスから無断で取得した音声回線の使用を認める」 . Wccftech . 2022年1月16日時点のオリジナルよりアーカイブ。 2022年6月7日閲覧
  29. ^ Henry, Joseph (2022年1月18日). 「Troy BakerのパートナーNFT企業Voiceverseが15.aiの音声ラインを盗んだと報じられる」 . Tech Times . 2022年1月26日時点のオリジナルよりアーカイブ。 2022年2月14日閲覧
  30. ^ a b cブレイン、サラ(2018年)ビジュアルデータと法律」と社会探究誌43 4)1149-1163 . doi10.1111/lsi.12373 . PMC 10857868. PMID 38343725. S2CID 150076575 .   
  31. ^ Chadha, Anupama; Kumar, Vaibhav; Kashyap, Sonu; Gupta, Mayank (2021), Singh, Pradeep Kumar; Wierzchoń, Sławomir T.; Tanwar, Sudeep; Ganzha, Maria (eds.) 「ディープフェイク:概要」第2回国際コンピューティング・通信・サイバーセキュリティ会議の議事録、ネットワークとシステムの講義ノート、第203巻、シンガポール:Springer Singapore、pp.  557– 566、doi10.1007/978-981-16-0733-2_39ISBN 978-981-16-0732-5S2CID  236666289 、 2022年6月29日閲覧{{citation}}: CS1 maint: ISBNによる作業パラメータ(リンク
  32. ^バレッタ、ブライアン (2021年10月12日). 「スペイン語だと儲かりそうですね!」adtech.podnews.net 2022 年6 月 30 日に取得
  33. ^エティエンヌ、ヴァネッサ (2021年8月19日). 「ヴァル・キルマー、AI技術で喉頭がんとの闘病後、声を取り戻す:結果を聞く」 . PEOPLE.com . 2022年6月30日閲覧
  34. ^フレッチャー、ジョン (2018). 「ディープフェイク、人工知能、そしてある種のディストピア:オンライン事後パフォーマンスの新たな側面」.シアタージャーナル. 70 (4): 455–71 . doi : 10.1353/tj.2018.0097 . S2CID 191988083 . 
  35. ^ 「音声クローンの専門家が犯罪、有効な使用例、そして安全策について解説」 2020年1月29日。
  36. ^ 「PREMIER - プロジェクト」 . sites.google.com . 2022年6月29日閲覧
  37. ^ 「DARPA、セマンティックフォレンジックプログラムに選出された研究チームを発表」 www.darpa.mil 20227月1日閲覧
  38. ^ Taylor, Chloe (2022年5月27日). 「AIがヴァル・キルマーの『アイスマン』を『トップガン マーヴェリック』に復活させた経緯」 Fortune . 2022年7月5日閲覧
  39. ^チェスニー、ロバート (2019). 「ディープフェイクと新たな偽情報戦争:ポスト真実の地政学の到来」 . 『フォーリン・アフェアーズ98 (1): 147–55 . 2019年4月23日時点のオリジナルよりアーカイブ。 2019年4月25日閲覧
  40. ^ホール、キャスリーン (2018). 「ディープフェイク動画:百聞は一見に如かず」カトリック大学法学技術ジャーナル27 ( 1): 51– 75.
  41. ^ Poudel, Sawrpool (2016). 「モノのインターネット:基盤技術、相互運用性、そしてプライバシーとセキュリティへの脅威」 . Berkeley Technology Law Review . 31 (2): 997–1021 . 2017年4月30日時点のオリジナルよりアーカイブ。 2019年4月25日閲覧
  42. ^ Dang, L. Ming (2018). 「畳み込みニューラルネットワーク用いたディープラーニングベースのコンピューター生成顔認証」応用科学. 8 (12): 2610. doi : 10.3390/app8122610 .
  43. ^ Savin-Baden, Maggi (2018). 「デジタル不死とバーチャルヒューマン」(PDF) .ポストデジタル科学教育. 1 (1): 87– 103. doi : 10.1007/s42438-018-0007-6 .
  44. ^ a bニューウェル、ブライス・クレイトン (2010). 「模倣された現実の時代における独立した創造と独創性:実在の人物のデジタルモデルに対する著作権とデータベース保護の比較分析」ブリガムヤング大学国際法・経営学6 ( 2): 93– 126.
  45. ^ケビン・ゴーリング(2018年)「ニューヨーク州のパブリシティ権:デジタル時代におけるプライバシーと憲法修正第一条の再考 - AELJ春季シンポジウム2」 SSRN電子ジャーナル36 ( 3): 601-635
  46. ^ハリス、ダグラス (2019). 「ディープフェイク:偽ポルノの蔓延、法はあなたを守れない」デューク大学ロー・アンド・テクノロジー・レビュー17 : 99–127 .
  47. ^バス、ハーヴェイ(1998年)「デジタル時代における写真証拠の真正性確認のパラダイム」トーマス・ジェファーソン法学評論20 ( 2): 303-322
  48. ^ Wen, Jie (2012). 「悪意ある行動分析に基づくサイバーインテリジェンスの誕生」. Journal of Intelligent Manufacturing . 25 (1): 147– 55. doi : 10.1007/s10845-012-0681-2 . S2CID 26225937. ProQuest 1490889853 .  
  49. ^ Maras, Marie-Helen (2018). 「人工知能時代とディープフェイク動画の台頭におけるビデオ証拠の真正性の判断」. The International Journal of Evidence & Proof . 23 (1): 255– 262. doi : 10.1177/1365712718807226 . S2CID 150336977 . 
「 https://en.wikipedia.org/w/index.php?title=デジタルクローニング&oldid=1321116527#音声クローニング」より取得