1922-400x225
1: 名無しさん@涙目です。(dion軍) [US] 2018/03/01(木) 06:36:09.88 ID:PhTyUD9S0● BE:842343564-2BP(2000)
sssp://img.5ch.net/ico/nida.gif
ポルノ動画の顔部分を有名人と取り替える「フェイクポルノ」――リベンジポルノにも利用される恐れ
https://news.yahoo.co.jp/byline/tsukagoshikenji/20180301-00082117/

最近、ポルノ動画の顔部分だけを有名人のものと取り替える、「フェイクポルノ」と呼ばれる動画がネットに拡散され、問題となっています。
一昔前にはヌード写真の顔だけを有名人のものと取り替えるアイコラ(アイドルコラージュ)と呼ばれものも流行りましたが、その大半はすぐに嘘が分かる程度のものでした。
しかし近年は人工知能技術を利用することで、本物と見分けがつかないレベルのものが多く作成されています。

 フェイクポルノ拡散は、被害者を傷つけるだけでなく、閲覧者にフェイクポルノが本物であるとの誤った知識を植え付けることにもなります。
そして恐ろしいことに、この技術はリベンジポルノにも利用される恐れがあります。
フェイクポルノは今後社会問題化することも懸念されますので、以下詳しく問題についてみていきたいと思います。

一般人でもフェイクポルノが作成可能に

 問題はテクノロジー系ニュースサイト「マザーボード」などが2017年12月の段階で報じています。
それによれば、アメリカの巨大掲示板サイト「レディット」に、「ディープフェイクス(deepfakes)」と名乗るユーザーがフェイクポルノ動画を投稿して話題となっていました(レディットは日本における5ちゃんねる(旧2ちゃんねる)のようなものだと思ってください)。

 フェイクポルノ作成には技術が必要ですが、近年はGoogleなどが誰でも使えるオープンソースという形で、人工知能のソフトウェア(機械学習ソフト)などを公開しています。
知識があれば、こうしたソフトを利用してフェイクポルノを作成することができます。

 ディープフェイクスを名乗るユーザーは、このGoogleがオープンソースで公開しているテンソルフロー(TensorFlow)とよばれるソフトウェアを利用していましたが、別のユーザーがディープフェイクスの動画を参考にして、レディットに誰でもフェイクポルノを作成できるアプリを投稿しました(アプリ名は伏せますが、リンク先の記事に掲載されています)。

 レディットにこのアプリが投稿されると、アプリを使ってフェイクポルノを作成する一般ユーザーが増え、一気にフェイクポルノ動画がネット上に拡散しました。
特に世界的に有名なアダルトサイト「ポルノハブ(Pornhub)」等に投稿されると、多いものでは数百万アクセスを記録するものもあったとのことです。