ディープフェイクは最近の技術トレンドで最も恐ろしい現象の1つだ。
ディープラーニングにより合成されたポルノムービー(フェイクポルノ)は、女性を貶めたり金銭的損失に至らせるなど、多くの迷惑をかけている。

オランダに拠点を置くサイバーセキュリティ企業Deeptraceが公開した新しいレポートは、オンラインで出回っているディープフェイク動画の96%がポルノであり、1億3400万回以上閲覧されたと述べている。
重要な点は、すべてのポルノムービーに女性が登場するということである。
ボストン大学法学部教授で、Hate Crimes in Cyberspace(『サイバー空間における憎悪犯罪』)の著者でもあるDanielle Citron(ダニエル・シトロン)氏は、ディープフェークが女性への武器として使われていると同社に語っている。
ディープフェイクの技術は、女性の顔をポルノに合成することで実質的に攻撃している。それは、恐ろしく、恥ずかしいもので、屈辱的であり、沈黙することとなる。ディープフェイクのポルノビデオでは、自分の体は他人のものなので、ブラウジングが恐怖になり、仕事を得たり維持することは難しく、安全だと感じることができなくなる。
Danielle Citron
レポートの概要など
レポートによると、2018年12月以来、同社がオンラインで発見したビデオは14,678本を超え、昨年の7,964本から100%増加したという。また、これらビデオの96%がポルノであることも指摘している。
Deeptraceによると、昨年2月以来、ディープフェイクのポルノサイトが多数開設されており、上位四つのサイトは1億3400万回以上閲覧されているとのこと。
昨年、Redditは「r/Deepfakes」と呼ばれるディープフェイクの主要なsubreddit
を禁止とした。Deeptraceによると、Deepfakeのアダルトサイト、Reddit、4chan、8chanには20のクリエイターコミュニティがあり、全体で10万人近いメンバーがいるという。
ディープフェークの開発は、GitHub上で公開されている人気のフェイススワップアルゴリズムや、機械学習技術におけるGenerative Adversarial Network(GAN)の急速な台頭によっても後押しされている。

そのおかげか、服を着た写真からヌードを生成するウェブサイトが急速に人気を得始めた(DeepNude)。このサービスはすぐに閉鎖されたものの、クローンサイトが数多くインターネット上に出現している。

Deeptraceによると、今では数分でディープフェイクを作れるアプリやオンラインマーケットプレイス、サービスがあるという。つまり、誰でもハイスキルな技術を持っていなくても、2〜3ドルを払えばすぐにフェイクビデオを手に入れることができるのだ。
ディープフェイクが複数の論争を引き起こした例もある。Deeptraceは大きな脅威とみなし、サイバー犯罪者に対するソーシャルエンジニアリングと詐欺を強化する高度な新機能を提供するそうだ。
参照:thenextweb