ディープフェイクとは?偽情報による危険性や今後の展望についてを解説
ディープフェイクとは、AIにおけるディープラーニングを利用したフェイク動画や画像などのことを指します。日本では2020年に起きた、合成動画の事件で名前が知られるようになりました。
もともとは映画などの映像に関するAI合成技術でしたが、簡単に作成できることからSNSなどで悪用されるようになってしまいました。なりすましによる被害が多発しており、危険性があるフェイク動画と認識されてしまっています。
そんなディープフェイクの危険性や見分け方についてを解説していきます。ビジネスに有効活用できる例も紹介しているので、興味本位にでも本記事を読んでいただけると幸いです。
目次
ディープフェイクとは?
ディープフェイクとは、「ディープラーニング(深層学習)」と、偽物の意味を表す「フェイク」を組み合わせた造語です。AIを利用して、人物と音声を合成した動画をディープフェイクと呼ぶケースが多いです。
もとは「人物画像合成技術」だった
ディープフェイクは、もともとはディープラーニングによって2つ以上の動画や画像の一部を交換する「人物画像合成技術」でした。ディズニー映画「アバター」で用いられている技術が、まさにディープフェイクです。
ですが、いつしかディープフェイクは合成技術を利用した偽情報を拡散する動画を指すようになってしまいました。
ディープフェイク規制のために法律が見直されている
ディープフェイクを使ったなりすましによる詐欺やプロパガンダが多発しており、世界中で規制のための法律を作る必要があるとして動いています。
その先駆けとして、アメリカでは2019年に選挙期間60日間における、ディープフェイクの配布を禁止しています。また、欧州議会が2024年3月に「AI法」を可決しました。生成AIで作成したコンテンツにAIであることをわかるように明示義務を課したものです。
ちなみに日本では、ディープフェイクによる犯罪は、名誉毀損罪・著作権法違反・わいせつ物配布等罪が適応されます。現に2020年にディープフェイクでポルノ動画を使った男性2人が逮捕されています。
ディープフェイクが問題になった背景と危険性
ディープフェイクは、なりすましによる詐欺やプロパガンダが多発したことが問題になっていると説明しましたが、問題になった背景についてもう少し詳しく解説していきます。
2017年の「ポルノ動画事件」がディープフェイクの最初
ディープフェイクという言葉が流行ったきっかけは、2017年にアメリアで起きた「ポルノ動画事件」が最初と言われています。ポルノ動画に有名女優の顔が当てはめられたと、日本でも騒動になったやつです。本人と見分けがつかないフェイク動画だったからこそ、AI技術を用いているとして「ディープフェイク」と呼ぶようになりました。
大統領や首相へのなりすましによるプロパガンダ
2018年には、アメリカの映画監督が作成した「バラク・オバマ元大統領のフェイク動画」が話題になりました。
上記の動画のように、実際には発言していない内容を発言しているように見せた動画は、「ディープフェイクの問題点を訴える」という目的のとおり、見た人にインパクトを与えています。
このようにAIを使えば、本人と同じ顔・声の動画が作成できることから、大統領や首相・組織リーダーの偽の音声声明が作れてしまいます。プロパガンダに用いられるリスクがあります。
有名人のなりすましによる詐欺が多発
また、同様に問題視されるのが、有名人のなりすましによる詐欺動画です。本人そっくりな動画のせいで、視聴者が信用してしまい詐欺の被害に合ってしまうケースがあるんです。
有名人でなくとも、企業の社長などの偽物によるビジネスメール詐欺などにも利用される懸念があるほどです。現に、2019年に海外のエネルギー企業で、部下がCEOの声をマネした電話に騙されて約2,600万円(22万ユーロ)を詐欺られる被害が起きています。これはAIによる音声技術を利用したディープフェイクの音声版が原因です。
フェイクポルノ・リベンジポルノに利用される
ディープフェイクのきっかけでもあるポルノ動画。こちらは、女優やグラビアなどの有名人だけでなく、一般人の顔も利用されやすいので危険です。
特にSNS上に顔写真を上げている人だと、被害に合う可能性が高くなります。1度利用されると、デジタルタトゥーとしても残るので削除の手間が酷いのもリスクです。
偽情報の拡散
そのほかのディープフェイクの危険性は、偽情報の拡散です。詐欺やプロパガンダが目的ではないにしろ、偽情報が拡散されることで情報が混乱してしまいます。
企業にとっては対応に追われていい迷惑になりますし、人命救助の場合は助かる命も助かりません。
このことから、ディープフェイクは危険性が伴うと認識されてしまっています。
ディープフェイクの主な見分け方
ディープフェイクは、高性能なAIによる合成動画です。一目ではなかなか見抜けません。そのため、騙されないように3つの見分け方を解説していきます。
ニュースソースを確認
動画の中身になっているニュースソースを確認しましょう。公式サイトやテレビ・新聞などで放送されていたり、情報元のリンクが明記されているなら本物の可能性が高いです。
ソースを調べても同じ人しか出てこない、動画以外の情報がない場合は高確率でフェイクニュースを疑ったほうが良いです。
人物の目や口元を注視する
動画の中の主要人物の目や口元を注視してみてください。瞬きの回数が少ない、瞬きや口元の動作が不視線、動いた瞬間に粒子が荒くなるなどの場合は、ディープフェイクと思ってください。ほかにAIでよくあるのは、指の本数がおかしい、爪がないなどです。どれも一目ではわからない部分なので、何度か見直してみましょう。
ディープフェイク検出ツールを使う
ディープフェイク検出ツールを使って検証するのも手です。有名なものだと、Microsoft社の「Microsoft Video Authenticator」や、日本ラッド社の「SeekFakeβ」です。
ただし、これらは企業向けのツールとなります。個人向けだとDeepbrain AI社の「ディープフェイク検出器」がおすすめです。アカウント登録すれば無料で利用できます。
世界中で取り組んでいるディープフェイクの対策
ディープフェイクを利用した事件が増加している中、どこで被害に合うかわかりません。そこで、ディープフェイク対策に取り組んでいる研究機関とその例を紹介します。
DeepFake Detection Challenge
「DeepFake Detection Challenge」とは、2019年9月にFacebook社をはじめとした大手企業や研究機関が立ち上げた「ディープフェイク動画の検知技術」を競うコンテストです。検知率が高いものこそ、優秀として賞金100万ドル用意され、2,000チーム以上からの応募がありました。
結果として、コンテスト用に公開していたディープフェイク動画の検知率は80%を超えたものの、その技術を識別を困難にする加工をした別のディープフェイクに応用したところ65%ほどに留まってしまいました。
このコンテストの検証のおかげで、未知のデータに関しては検知難易度が上がる証明になりました。結果としては検知技術の敗北ではありますが、問題点が浮き彫りになったからこそ次の研究に活かせているようです。
参照:Deepfake Detection Challenge | Kaggle
Spot the Deepfake
「Spot the Deepfake」は、Microsoftをはじめとした3つの機関によって制作された、ディープフェイクについて学習できるツールです。
10問形式のクイズになっており、どうやってディープフェイクを見分けるかを学べます。内容は初心者向けになっているので、一般の人でも気軽に利用できます。
Microsoft Video Authenticator
「Microsoft Video Authenticator」は、Microsoftが2020年9月に公開した「虚偽情報対策に向けた新たな取り組みについて」において発表された、ディープフェイク検知ツールです。
画像や動画に、微妙な色あせやグレースケールといった違和感がないかどうか分析し、ディープフェイク動画の確率や信頼度スコアをリアルタイムで表示してくれるという仕組みです。
参照:虚偽情報対策に向けた新たな取り組みについて|News Center Japan
インフォデミックを克服するソーシャル情報基盤技術
インフォデミックを克服するソーシャル情報基盤技術は、ディープフェイクに対抗するための技術を研究している日本団体です。
この研究は、「AIにより生成されたFM(フェイクメディア)がもたらす潜在的な脅威に適切に対処すると同時に、多様なコミュニケーションと意思決定を支援するソーシャル情報基盤技術を確立すること」が目的です。
Security(SEC)領域(国立情報学研究所 越前グループ)、Multimedia(MM)領域(大阪大学 馬場口グループ)、Computational Social Science(CSS)領域(東京工業大学 笹原グループ)という3領域の専門知識を結集させ、悪意あるディープフェイク対策の研究に取り組んでいます。
参照:研究概要 | インフォデミックを克服するソーシャル情報基盤技術
ディープフェイクでも有効的に使われるケースがある
マイナスのイメージが強いディープフェイクですが、実は有効的に使われるケースもあります。現代で、実際にビジネスなどで用いられている例を紹介します。
架空の人物のフリー素材になる
ディープフェイクで架空の人物を作り上げれば、著作権や肖像権フリーの素材が作成できます。実際にGenerated Media社が「Generated Photos」という、AIで作成した人物画像をダウンロードできるサービスを配信しています。
このように、リアルな人間の素材を作れるのはディープフェイクの魅力の1つです。
映画やCMに起用できる
先にも紹介したように、ディズニー映画「アバター」で利用されている技術はディープフェイクです。実際の人物に、別の素材を重ねて合成しています。
また、化粧品などのCMでもディープフェイクは活躍します。素の顔からメイク後の顔まで、思うがままに作成できるからです。このように、CG制作の負担を減らせることから、ディープフェイクは映像系のビジネスに活かせます。
他言語への翻訳による違和感がなくなる
ディープフェイクは人の顔を合成できるので、多言語の放送をしてもまるでその言語を喋っているように口パクを合わせられます。
イギリスのテレビ局「BBC(British Broadcasting Corporation)」が行っている技術です。実際は英語しか話せないニュースキャスターが、英語、スペイン語、北京語、ヒンディー語の4ヶ国語を話しているフェイク映像を公開しています。
参考:BBC newsreader ‘speaks’ languages he can’t
娯楽として利用できる
スマートフォンのアプリで、他の人の顔と自分の顔を交換できるものがあります。あれがまさにディープフェイクです。個人的な娯楽として活用する分には、全く問題がないので好きに楽しめます。
危険性と正しい使い方を認識できればエンタメ業界で有効な手法となる
ディープフェイクは犯罪に使用された事例の多さから、とりわけ危険性を孕んだ技術であるという面に焦点が当てられています。無論、「ディープフェイク が危険である」ということついて、異論を唱えることは難しいでしょう。
一方で、実際に活用している企業があるように、ビジネス利用の可能性を秘めた技術であることも忘れてはいけません。むしろエンタメ業界ではディープフェイクの技術を最大限に活かせるんです。
ディープフェイク自体は、「Online Deepfake Maker」や「FakeApp」といったサイトやソフト、「Xpression」や「Reface」といったアプリを用いれば簡単に作成できます。
危険性と正しい使い方を認識し、ビジネスに上手く活かしてみてはいかがでしょうか。きっとハイクオリティな動画が作成できるはずです。
RANKING ランキング
- WEEKLY
- MONTHLY
UPDATE 更新情報
- ALL
- ARTICLE
- MOVIE
- FEATURE
- DOCUMENT