AIを用いて有名女優のポルノ映像を作成するという「フェイクポルノ」が2017年末から2018年にかけて大流行しましたが、これと同じようにAIやニューラルネットワークを用いることで、女性の写真から服だけを削除して裸にしてしまうという凶悪なアプリケーション「DeepNude」が登場しています。
DeepNudeは服を着た女性の写真から、服部分だけを削除し、胸や外陰部がはだけた裸の写真に変換してしまうというもの。
女性の写真のみ変換可能で、実際にDeepNudeを使用したというIT系ニュースサイト・マザーボードは、「服を着た状態の女性でも成功するものの、肌の露出が多い写真の方がより効果的にヌード写真に変換できた」と記しています。
フェイクポルノはAIを使ってムービー内の人物の顔を違和感なく別の人物に入れ替えることができる技術「DeepFake」を用いて作成されました。
しかし、今回作られたDeepNudeは「DeepFakeよりも使いやすく、作成も速い」とのことで、より凶悪なフェイクポルノが生まれる可能性があります。
DeepNudeはダウンロード版のアプリと、オンライン上で試し使いできるデモ版があります。
記事作成時点ではダウンロード版アプリは「メンテナンス中なので12時間後にもう一度チェックして」と表示されダウンロードできません。というわけで、オンラインのデモ版を使用してみます。
サンプルとして水着の女性画像が2枚表示されるので、どちらか好きな方を選択。続いて赤枠部分にある顔アイコンに写真の女性の顔部分が合うように調整して、「Transform」をクリック。
すると女性の写真から水着がきれいに消えました。
リベンジポルノ活動団体であるBadassのカテリン・ボーデンCEOは、「これはとても恐ろしいことです。裸の写真を撮ったことがなくても、誰でもリベンジポルノの犠牲者になる可能性があります。このような技術は一般向けに公開されるべきではありません」と語っています。
メリーランド大学のロースクールに勤めるダニエレ・シトロン教授は、「(DeepFakeやDeepNudeのような技術は)性的プライバシーの侵害です」と語っています。
加えて、「本物の陰部が写っているわけではありません。しかし、他の人たちは(DeepNudeが作った裸の写真を見て)あなたが裸になったのだと思うでしょう。
DeepFakeの被害者たちは私に『何千人もの人々が自分の裸を見て、自分の体はもはや自分のものではないかのように感じた』と語りました」と述べています。
DeepFakeが公開されたのは2019年6月23日で、無料でダウンロードできるアプリ版には大きなウォーターマークが埋め込まれるようです。
しかし、50ドル(約5400円)の有料版ではこのウォーターマークが消え、代わりに画像の左上に「FAKE(偽)」という文字が追加されるのみとなります。
この「FAKE」マークは画像の左上に表示されるだけなので簡単に切り取り可能であり、Photoshopで削除することも容易とのこと。
マザーボードはテストとして10人以上の男女の有名人を裸に変換しており、結果は写真により異なるものの、カメラの方を向いたビキニ姿の女性の写真は特にうまく裸に変換できたとしています。
マザーボードによれば、DeepNudeのアルゴリズムは「衣服の下にある胸の角度から、乳首の位置や影を正確に補完します」とのこと。
なお、マザーボードはうまく裸に変換できた事例として、テイラー・スウィフトやタイラ・バンクス、ナタリー・ポートマン、ガル・ガドット、キム・カーダシアンなどの写真を公開しています。
ただし、低解像度の写真や漫画のキャラクターなどではうまくいかなかったようです。
マザーボードはDeepNudeの開発者である「アルベルト」を名乗る男性と連絡を取ることに成功。
アルベルトさんは2年前の2017年にGANs(敵対的生成ネットワーク)などの技術を知り勉強を始め、カリフォルニア大学バークレー校が2017年に開発したpix2pixをベースにDeepNudeを開発したとのこと。
DeepNudeのアルゴリズムをトレーニングするために、1万枚以上の女性のヌード写真を用いたとも語っています。
アルベルトさんはDeepNudeの男性版も開発予定としながら、男性の場合はインターネット上でヌード写真を見つけづらいのが難点だとしています。
アルベルトさんは「ネットワークは多角的なものであり、それぞれが異なるタスクを持っています。ひとつは服を認識し、ひとつは服を消し、ひとつは服をはがした際の乳首などの位置を推測し、ひとつは裸をレンダリングする」と語っており、この複合的な処理により変換に時間がかかるようになっているものの、いずれは処理を高速化していく予定とのこと。
なお、マザーボードによればDeepFakeを用いたポルノ映像の場合は映像の変換に数日かかる模様。
しかし、熟練した画像編集者であっても、Photoshopを使って裸のコラージュ写真を作るには数分必要とのことで、DeepNudeの手軽さは凄まじいものがあるとマザーボードは指摘しています。
カリフォルニア大学バークレー校でコンピュータサイエンス学部の教授を務めるハニー・ファリド氏は、「我々はDeepFakeのようなものをより早く発見できる必要があるだろう。
そして、技術の進歩をより安全に保護し、意図しない有害な方法で使われないようにするための方法を、学者や研究者はより批判的に考えていく必要がある」と語っています。
[追記]
DeepNudeの開発者であるアルベルトさんは「世界はまだDeepNudeへの準備ができていなかったようだ」とツイートして、ブラウザから利用できたデモ版がアクセス不可能となりました。
[via:GigaZiNE ]
https://gigazine.net/news/20190627-deepnude-ai-undresses-photo/
話題になったDeepFakeでの某女優映像
ネットの反応
・やっぱりテクノロジーはエロから発達するよなw
・AIはみんなを幸せにする
・素っ裸なんてエロすのカケラもない、半脱ぎエロこそが至高
・十数年前にアイコラブームあったなぁ
・男ができないとか欠陥品。
・ワンクリックで体操着姿に変換してくれるほうが助かる
・今の科学なら昔怪しげな通販で売ってたモザイク除去装置も完成してるのかな
・AIにアイコラさせんな
・こういうアプリは規制したところでどうしようもないだろう いくらでも作られる
・Googleのメガネに組み込んで通販で売れ下さい
・これが普及すれば人々は情報を信じなくなるからリベンジポルノの被害が事実上消滅するのにね
・将来的には写真や映像から顔や身体の造形を自動算出して3Dモデリングするようなのができるんだろうな
・乳房の形や大きさと乳首の形や大きさの遺伝子は別なので、例えAIであっても完全推定は不可能
・リアルな黒乳首やグロマンよりそっちのが需要は高くなると思うわ
・よしおかりほなんて動画まで作られたからな
・経理の智子さんの写真で頼む
>使い道はコレだよな。芸能人のコラよりも身近なコの方が興奮するわ。
・記事内でこういうソフトに対して否定的な見解を語ってる人も、これが「裸体映像を着衣映像に変換するソフト」ならたぶん反対しないと思われるところが偽善だわ
・珍しいから騒ぎになるんで、当たり前になっちゃえば「ガキの遊び」程度の扱いになっちゃうのに。
・まぁハリウッドセレブを裸体化して訴えられられてシャレにならん賠償払わせられるだろうけど
・むしろこういうのが有った方が本物流出した時に言い逃れ出来そうな気がしないでもないw
・アイドル「言い訳ができた!」
・アプリに頼る奴は素人 わしくらい鍛錬を積むと裸眼でも可能になる
これはもうレイプと言って過言ではない。俺は認めんぞ
逆にマジモンのリベンジポルノでも「アプリで加工されただけやー!」って言えば済むようになりそうじゃね
偽物に何の価値も無い。