1. まとめトップ

AIの悪用が遂に起こってしまったか…女性を裸にする「DeepNude」が怖すぎる!!

AIは様々な分野で発展させていきますが、なんと危惧されていた悪用が起きたと話題になっています。話題のアプリDeepNudeは、女性の服をAIが脱がすというもので、場合によってはリベンジポルノなどの被害が出そうだと話題になっています。今後の対策が待ち望まれます。

更新日: 2019年07月03日

1 お気に入り 2529 view
お気に入り追加

この記事は私がまとめました

AI進化は目まぐるしい…

現在自動車の自動運転の技術がかなり開発されてきており、10年以内には広く実用化されるのではないかと言われています。

2045年問題はさまざまな捉え方があるものの、確実なのはAIが成長目まぐるしいビジネス市場であることだ。

30年後の未来を軽率に語ることはできないが、我々のビジネススタイルが大きく変化するのは確実だ。

なんと、女性を裸にするAIが大問題になっている

女性の写真を裸のものに変えられる、とするアプリ「DeepNude」が出現し、海外メディアを中心に物議をかもす騒動があった。

女性の写真を1クリックするだけで、ヌードに変換できるという「DeepNude」というアプリが6月23日に公開され大きな話題になった。

このアプリは、エストニアに拠点を置くDeepInstructionという企業が公開したWindowsおよびLinux向けのアプリ。

同社のWebサイト(既に削除されている)のキャッシュによると、同社はAIによる画像処理サービスを手ごろな価格で提供することを目指しているとある。

DeepNudeの前に、モノクロの写真を1クリックでカラーにする「DeepOld」というサービスを提供していた。

幸いサイトは閉鎖されたが、今後こういったトラブルが心配だ

Motherboardは、変換結果はそれほど精度の高いものではないが、どんな写真にも使えるため、リベンジポルノや嫌がらせに悪用される可能性があると指摘していた。

アプリの問題点を伝えた、オンラインメディア「Motherboard」によると、アプリは偽動画などを生み出す「ディープフェイク」の技術を使っていた。

作者側のツイッターアカウントが2019年6月28日3時10分ごろ(日本時間)、ツイートを更新し、「DeepNudeの終了」を宣言した。

だが、たとえアプリの提供を終了しても、既にダウンロードされたアプリのコピーは出回る可能性が残る。

今後同様のトラブルが起きそうですよね。

様々な声が

今だって既にアイコラやったり人の裸体絵を描いたり流出胸チラ画像をバラまいたりは普通に起きているんだぞ。いっそのこと「deepnudeで生成された裸体の可能性が否めない」社会の方が人の尊厳が守れるのでは?

DeepNude、アホな男が知人女性の画像突っ込んで本人は冗談のつもりでグループチャットに投げて…みたいな地獄絵図が絶対ある

DeepNudeで知り合いの女の子脱がしたろと思ったけど、俺知り合いの女の子の写真とか持ってなかったわ。

1 2