ディープフェイクという言葉を目にしたことがある人は多いのではないでしょうか。ディープフェイクとは、生成AIによって動画・画像・音声などを合成し、現実とは異なるコンテンツを作成すること、または作成されたコンテンツそのものを指します。エンタメ業界やビジネス業界で有意義に活用される一方で、ディープフェイクを悪用した犯罪も問題視されてきました。
「ディープフェイクって何?」「ディープフェイクは良いもの?悪いもの?」など、疑問をお持ちの方もいらっしゃることでしょう。
そこで今回は、ディープフェイクとはどのようなものなのか、詐欺・悪用事例やその対策、ポジティブな事例、関連する法律について解説します。
目次
ディープフェイクとは
ディープフェイクとは何なのか、その概要や脅威について解説します。
ディープラーニング+フェイク
ディープフェイクとは、AI技術を用いて音声や動画を合成・加工して生み出された、現実には存在しない映像などを作成すること、または作成されたコンテンツのことを指します。ディープフェイクという名前は、「ディープラーニング(深層学習)」と「フェイク(偽物)」が組み合わさった造語です。近年、AI技術の進化にともなって、誰でも簡単にディープフェイクを作成できるようになったことで、急速に注目が集まっています。
ディープフェイクでは、GAN(Generative Adversarial Network(敵対的生成ネットワーク))と呼ばれる生成モデル技術が使われています。GANは生成器であるジェネレーターが画像や映像を生成し、識別器であるディスクリミネーターが生成物が本物か偽物かを判断するプロセスを繰り返す技術です。ジェネレーターとディスクリミネーターは人工的に脳神経細胞の仕組みをコンピューターで再現し、人間のような深い思考を機械が行うことを実現したディープラーニングの学習方法の1種であるディープニューラルネットワーク(DNN)で構成されています。この2つのディープニューラルネットワークに競争させることで、最終的に限りなく本物に近いフェイク映像・画像の生成が可能となるのです。このようにして、ディープフェイクは作られています。
関連記事
・シンギュラリティとは!意味といつどう起こりえるものなのかを解説
・生成AI出現以降のB2Bマーケティング手法はどう変わる?B2Bマーケの第一人者が解説
・マーケティング成功へのカギ:AIは上級パートナーとして使い倒せ
ディープフェイクの脅威
ディープフェイクで作成された映像は、現実に存在するものを映し出しているわけではありません。そうした映像を作成すること自体は、決して不正であるとはいえません。しかしディープフェイクは、作成された存在しない映像を利用して「実在する人の評判を落とす」「見た人を騙す」「社会に悪影響を与える」「犯罪行為をはたらく」といった悪意ある使い方もできてしまう点が脅威とされています。
ディープフェイクで作成された映像は、目元や口元の動き、顔の表情などの細部をじっくり見てみると、違和感を覚えることがほとんどです。そのため、疑いの目を持っていれば本物か偽物かを判別することは難しくないでしょう。しかし、スマートフォンなどの小さな画面で短時間の映像を視聴する場合、違和感に気づくことができない可能性もあります。さらに、その映像が悪意を持って作成されたものであれば、視聴した人が何らかの被害を受けたり、社会的な混乱を招いたりする可能性もあるのです。詳しくは後述しますが、実際にディープフェイク映像によって、法人に数十億円もの詐欺被害が出た事例もあります。
このようなことから、ディープフェイクを「偽物だとすぐわかる」と軽視するのではなく、大きなトラブルにつながる脅威を持つものと認識し、騙されない心構えや姿勢を持つことが大切です。
ディープフェイク詐欺の例
2024年5月、イギリスのエンジニアリング大手多国籍企業のアラップは、ディープフェイクを用いた詐欺被害に遭いました。詐欺グループはディープフェイクによって最高財務責任者(CFO)になりすまして社内会議を行い、香港オフィスの経理担当を騙して2億香港ドル(約40億円)を自身の口座に振り込ませたというものです。
最初にCFOを装ったフィッシング・メッセージが経理担当者に送られました。同社員はそのメッセージを受け取り、ディープフェイクによって作られた偽りのCFOや他の代表者とのビデオ会議に参加。そして送金指示に従って約40億円もの大金を送金したとのことです。
この詐欺事件で特徴的なのが、企業のシステムはウイルスなどによって侵害されていない点です。たった一通のフィッシング・メッセージを入口とし、精巧なディープフェイク映像によって、一人の社員を騙して信じ込ませたうえで大量送金を行わせています。経理担当はもちろん、その他の社員も被害が発覚するまで一切疑うことがない、そんな状況を簡単に生み出せてしまうディープフェイクを利用した手口は、新たな詐欺手法として今後も頻度が増える恐れがあります。
ディープフェイクの悪用事例
インターネット上に流れるデマは、社会に悪影響を与える可能性があります。偽物の情報と本物との見分けがつかないほどに作り込まれているケースもありますから、注意が必要です。近年、生成AIが急速に進化し、ディープフェイクによる精巧な嘘の映像を比較的簡単に作成できるようになりました。結果として、ディープフェイクを悪用し、不正や犯罪を行うケースが増えているのです。
ここでは、ディープフェイクの具体的な悪用事例をいくつか紹介します。
フェイク動画(なりすまし)
フェイク動画(なりすまし)は、ディープフェイクの悪用事例として多くの人がイメージしやすいものではないでしょうか。
国際的に有名な政治家が、危険かつ偏った思想のメッセージを発信しているフェイク動画が作成・拡散されれば、国際社会に重大な影響を与える可能性があります。たとえば、ある国家元首が隣国を侮辱する発言をしたフェイク動画が拡散され、多くの人がそれを信用してしまったとします。もしそのようなことがあれば、国家間の関係が著しく悪化するかもしれませんし、人やものの行き来が減り、社会的・経済的なダメージを受けてしまうかもしれません。
現実に存在しないフェイク動画であっても、人々を信じ込ませるような精巧な作りであれば、国という単位で大きな被害が生じてしまう可能性があるわけです。
フェイクポルノ
フェイクポルノ動画も近年問題視されているディープフェイク映像の一つです。フェイクポルノとは、ポルノ作品の出演者の顔を差し替えて、あたかも差し替えられた人物がポルノ作品に出演しているかのように見せる映像のことです。
ディープフェイクでは、作品に出演している人物の顔を別人の顔に差し替え、一つの動画にすることができます。実際に、アダルトビデオに出演している女優の顔を女性アイドルや芸能人の顔に差し替えてディープフェイク映像を作成し、「流出」といった形でSNSにて拡散されていることがあります。こうしたフェイクポルノを作成する理由は、女優の社会的地位を失わせる、興味本位・面白半分などさまざまです。いずれにせよ、フェイクポルノ作成・拡散によって名誉毀損や著作権法違反の疑いで逮捕されているケースもあり、危惧しなければならない悪用事例といえるでしょう。
フェイクニュースとしての拡散
ディープフェイクにて作成した動画や画像を用いてフェイクニュースを拡散させ、社会に混乱を与える可能性も高まっています。
ディープフェイクでは、人物の映像だけでなく、架空の災害映像や架空の衛星写真なども容易に作成可能です。たとえば、悪意ある人物が災害時にディープフェイクで災害映像を作成し、「甚大な台風被害が発生」「大地震により死者◯◯万人」といった文言を添えて拡散した場合などが該当します。このような悪質なデマを信じ込む人が多ければ、無用な混乱を招くリスクがあるでしょう。
関連記事
・リテラシーとは?ITリテラシーの意味も含め解説します
・ネットリテラシーとは!意味を分かりやすく解説!
・SNSとは?種類や特徴、使い方と注意点を簡単にまとめ
ソーシャルエンジニアリング
ディープフェイクを用いた、ソーシャルエンジニアリング被害も懸念されています。
ソーシャルエンジニアリングとは、マルウェアなど悪質なソフトウェアを用いることなく、システムやネットワークにログインするために必要なIDやパスワードを盗む手法のことです。たとえば、カスタマーサポートになりすます、端末の操作を見るなどといった方法で重要な情報を盗み出します。近年は、本物そっくりに作り込まれたフィッシング・メッセージやフィッシング・サイトを用いて、IDやパスワードを盗むといったケースも少なくありません。
ソーシャルエンジニアリングは、ウイルス対策ソフトなどでは防ぎようがありません。なぜなら、人の心理の隙や行動のミスを狙ったアナログな攻撃手法であるためです。前述の詐欺の例でも、フィッシング・メッセージとディープフェイクを組み合わせています。本物そっくりの最新映像を生み出す最新AI技術とアナログ手法の組み合わせは、鋭く人の心の隙をつき、大手企業の社員すらも騙してしまう、大きな脅威といえるでしょう。
関連記事:スパムとは?意味や種類、迷惑メールの見分け方や対処法
詐欺広告
ディープフェイクは詐欺広告に使われることも少なくありません。
WebサイトやSNSではさまざまな広告が掲載されています。それらのCM動画やチラシに芸能人や有名人が起用されることは決して珍しくありません。実はそうした著名人が出演する広告でも、悪意を持ってディープフェイクを活用しているケースがあるのです。たとえば、ある商品を有名な芸能人が褒めて、おすすめするといった動画があったとします。よくあるCMのように思えても、ディープフェイクによって、出演者の顔や声から芸能人のものに入れ替えて生成している可能性があるのです。そして、フィッシング・サイトや詐欺サイトに誘導し、利用者から金銭を騙し取るといったことが行われているのです。
ディープフェイクによる映像は、疑って見れば違和感があるため、詐欺広告であることを見抜くことも可能です。しかし、小さい画面で見ていると違和感に気づきにくく、騙されてしまう可能性もあります。また、その有名人のファンの場合、「本人が紹介しているなら間違いない」と盲目的になってしまい、詐欺広告に騙されてしまうこともありえます。
関連記事:日本アドバタイザーズ協会緊急提言の意味する事 なりすまし広告問題について【デジタル広告の現状と課題 長澤秀行 連載第1回】
不正認証
不正認証もディープフェイクで懸念されているものです。
近年の技術の進歩によって、さまざまなツールで顔認証や声紋認証などが当たり前に搭載されています。こうした生体認証を利用したセキュリティシステムは、IDやパスワードよりも信頼性が高いとされています。
しかし、ディープフェイクを用いることで、生体認証の強固なセキュリティをいとも簡単に破ってしまう可能性があります。悪意ある人間が、ディープフェイクによって顔を入れ替えて、他人になりすまし生体認証をパスするーーそんな信じられないようなことも可能なのです。
顔認証はスマートフォンのロック解除にも使われる身近な生体認証です。もしディープフェイクによってたやすくログインできるようになれば、情報漏洩リスクは今より格段に高まってしまうことでしょう。
ディープフェイクと生成AI
近年、数多くのディープフェイクが作成され拡散されています。一昔前と比べて多くのディープフェイク映像・画像が出回るようになったのは、生成AIの進化が大きく関係しています。
「生成AI」によりディープフェイクの作成が簡単に
ディープフェイクとは前述の通り、元からある動画や画像を加工・合成することで生み出された、本物ではないコンテンツのことです。動画・画像の加工・合成は人間が手作業で行うのではなく、生成AIによって行われます。
生成AIは、AI技術の進化によって生まれた新たなAIの活用法です。単純なコード作成や定型的な文書作成の自動化はもちろん、AIを活用してクリエイティブなコンテンツを生み出すこともできます。
こうしたコンテンツ生成機能を持つ生成AIが登場したことで、ディープフェイクの作成はとても簡単になりました。従来であれば、動画や画像の加工・合成にはかなりのスキルが求められましたが、生成AIにより専門的なスキルがなくても簡単にディープフェイクを作成が可能となったためです。生成AIを活用して誰でも簡単・気軽に利用できる「顔交換アプリ」も登場するなど、ディープフェイク作成は一般化してきています。
関連記事:画像生成AIとは?イラストが生成される仕組みとおすすめサービス7選
「生成AI」について日本に規制する法律はない
生成AIそのものは、これまで人間が行ってきた作業を自動化・効率化できるものであり、社会に利益をもたらす多くの可能性を秘めた技術といえます。しかし、SNSでは、生成AIを用いて作成したディープフェイクが拡散され、無用な混乱を招くケースが少なくありません。
また、無許可で顔や声を生成AIに学習させてディープフェイクを作成すれば、法律に抵触する恐れがあります。たとえば、フェイクポルノを作成・拡散すれば、名誉毀損や著作権侵害に問われる可能性があるのです。
もちろん、生成AIそのものを規制してしまえば、表現の自由の侵害やAI技術の発展を妨げることにつながるかもしれません。そのため、行き過ぎた規制にならないように慎重にならなくてはいけない事情もあります。
多くの国では、ディープフェイクの作成・拡散に関する法案が検討または導入されています。日本においては、現段階では生成AIを規制する法律はありません。しかし、前述の通り犯罪に利用されるケースの増加が懸念されますので、何らかの規制を考える必要性があるでしょう。
ディープフェイクの主な技術
ディープフェイクで作成されるコンテンツには、「声」と「顔」を生成する技術が用いられています。以下で、ディープフェイクで用いられる主な技術について解説します。
「声」:リップシンク、ボイスクローンなど
声の生成で用いられる技術には「リップシンク」「ボイスクローン」などがあります。
リップシンクとは、音声に同期させて口の動きを自然にする技術のことです。音声信号から適切な口の動きを推定して、顔に合成させることで、自然に会話しているような見た目を生み出せます。
ボイスクローンは、人の声をデジタル複製する技術です。ある人の話し方のパターン、イントネーション、アクセントなどを分析して声を複製します。話者の声質はもちろん、微妙なニュアンスも再現することで、自然な音声を作成することも可能です。
こうした技術を組み合わせると、たとえば、日本語吹き替えのハリウッド映画で、役者本来の声で日本語を話し、なおかつ口の動きを言葉に合わせてスムーズにできるようになる可能性もあります。その一方で、政治家が本来語るはずのない偏った思想の演説をしているかのような、悪意あるコンテンツ作成もできてしまうのです。
「顔」:フェイススワップ、パペットテクニックなど
ディープフェイクの顔に関する技術には「フェイススワップ」や「パペットテクニック」などがあります。
フェイススワップとは、映像や画像に映る人物の顔を別の人物の顔に置き換える技術のことです。高度なAIアルゴリズムによって大量の顔画像から特徴を学習し、自然な形で顔を置き換えられます。
パペットテクニックとは、ある人物の顔の表情や身体の動きを、別の人物に転写する技術のことです。表情の特徴やモーションキャプチャデータの解析によって、まるで人が入れ替わるかのように転写を行います。
これらの技術を用いれば、デジタルアバターの製作やアクションスタントの代役などに活用可能です。その一方で、本物のようなフェイクポルノ映像など、悪意あるコンテンツが作成される危険性もあります。
悪質なものを見破るには
生成AI技術の進化により、ディープフェイクによって作成された映像・画像を見破るのは難しくなってきています。自分自身が攻撃対象でなかったとしても、油断はできません。SNSでディープフェイクコンテンツを見て、それを拡散してしまえば、犯罪に加担することにもなりかねないためです。
ここでは、悪質なディープフェイクを見破るために覚えておきたいポイントを解説します。
不自然な動きのチェック
まずは、そのコンテンツに不自然な点や動きがないか確認しましょう。
たとえば、個人レベルで簡単に作成できるチープフェイクコンテンツであれば、顔がぶれたり口の動きが乱れたりなど不自然な点が数多く見られます。精巧に作られたディープフェイクでも、指の数が違う、表情が硬い、背景と顔・身体に明らかな境界線があるなどの、不自然な箇所が見られることがあります。
不確かな情報に騙されないためにも、注目されている動画・画像であればあるほど疑いの目を持ち、不自然な点がないかをチェックすることをおすすめします。
情報源の確認
真実かどうか疑わしいコンテンツを発見したときは、それを鵜呑みにするのではなく、情報源を必ずチェックしましょう。
ディープフェイクによる偽りの情報・コンテンツがSNSなどで拡散されている場合、公式サイトやSNS、メディアなどで注意喚起の情報が出されていることがあります。この場合、情報源を確認することで偽りの情報であることがわかります。
SNSの公式アカウントが、ディープフェイクコンテンツと思しき情報を拡散している場合もあります。このような場合は、アカウントの乗っ取りという別の被害が発生しているかもしれません。また、公式に似せた偽アカウントが情報を発信している可能性もあります。必要があれば、公式サイトに問い合わせをすることも検討してください。
いずれにせよ、情報・コンテンツに違和感がある場合は、情報源を確認する癖をつけましょう。
ディープフェイク検出ツールの活用
ディープフェイクに騙されないために、検出ツールを活用するのも1つの方法です。
生成AIが進化して精巧なディープフェイクコンテンツが作成されるようになってきましたが、それとともにフェイクを見破る技術も発展してきています。ディープフェイク検出ツールでは、AIによってディープフェイクの特徴を分析し、そのコンテンツが本物か偽物かを特定します。悪意ある偽動画・画像・音声を見破ることができますので、企業のセキュリティ対策の一環として有効です。
ディープフェイクの活用事例
ディープフェイクは、「偽動画や画像で人々に混乱をもたらすもの」とイメージする人が多いかもしれません。しかしディープフェイクそのものに善悪はなく、むしろ上手に活用すれば豊かな暮らしを実現できるものです。ここでは、ディープフェイクをポジティブに活用している事例をご紹介します。
エンタメ業界
ディープフェイクはエンタメ業界ですでにポジティブに活用されています。
たとえば映像制作では、役者の体調や年齢、または不祥事によって出演・撮影が困難になることがあります。しかし、ディープフェイクを活用すれば、代役で撮影して後から顔や声を入れ替えて、作品制作をスムーズに進めることが可能です。また、吹き替えられる言語によって唇の動きを合わせることで、自然に会話しているように表現することもできます。さらに、ディープフェイクで作成した理想的かつ著作権・肖像権フリーのモデルを活用し、作品を制作するといった活用もできるのです。
ビジネス業界
ビジネス業界でもディープフェイクのポジティブな活用が期待されています。
たとえば、ディープフェイクによってアバターを作成し、プレゼンや研修ビデオに出演させるといった活用をしている企業もあります。イギリスのある企業では、日本のクライアント向けに日本人のような顔立ちのアバターを用意し、翻訳機能によって日本語でプレゼンを行うことで、顧客理解を今まで以上に深められた事例もあるそうです。
また、ビジネスに相応しい服装・髪型を整えなければいけないケースでも、ディープフェイクは役立つ可能性があります。たとえば、証明写真の撮影時、寝起きだったり金髪を染め直す時間がなかったりしても、ディープフェイク技術により身だしなみを整えた状態で撮影することが可能です。
まとめ
今回はディープフェイクについて解説しました。
ディープフェイクとは、生成AIを活用して音声や動画を合成・加工し、現実には存在しない動画や画像を生み出すこと、またはコンテンツのことです。近年、生成AIは目まぐるしい進歩を遂げており、「顔交換アプリ」などを用いて、簡単なディープフェイクであれば誰でも作成できるようになっています。
その一方で、悪意を持ってディープフェイクを作成し、面白半分にSNSでコンテンツを拡散する事例も増えています。なりすまし動画やフェイクニュースなどは、社会的混乱を招くものとして問題視されているのです。また、精巧なディープフェイクを作成し、詐欺などの犯罪が行われるケースも増えつつあります。
このように、ネガティブな面が注目されやすいディープフェイクですが、ポジティブな面もあります。たとえばエンタメ業界やビジネス業界では、ディープフェイクを正しく活用して成功を収めているケースは数多くあることを理解しておくことも大切です。
ディープフェイク=悪いものと決めつけてしまうのは、技術の進化や社会の発展を妨げる恐れがあるものです。本記事を参考にディープフェイクについて理解を深め、今後の動向を見守っていきましょう。