これから私たちは、ますます世の中の真実から遠ざけられていくのかもしれない・・・
皆さんは最近話題の「ディープフェイク」というものをご存知でしょうか?・・
知らない方もいると思うので調べてみました。
Wikipediaより
ディープフェイク(deepfake)は「深層学習(deep learning)」と「偽物(fake)」を組み合わせた混成語(かばん語)で、人工知能にもとづく人物画像合成の技術を指す。
「敵対的生成ネットワーク(GANs)」と呼ばれる機械学習技術を使用して、既存の画像と映像を、元となる画像または映像に重ね合わせて(スーパーインポーズ)、結合することで生成される。
既存と元の映像を結合することにより、実際には起こっていない出来事で行動している1人あるいは複数人の偽の映像が生み出されることとなる。
そのような偽の映像で例えば、実際にはしていない性行為をしているように見せかけたり、実際とは異なる言葉やジェスチャーに変更するといった政治的な利用が可能となる。
これらの機能により、有名人のポルノビデオまたはリベンジポルノの偽造作成のため、ディープフェイクが使用される可能性がある。
さらに、ディープフェイクは、虚偽報道や悪意のあるでっち上げを作成するためにも使用され得る。
もうこの説明を読んだだけでもなにか嫌な予感の漂う技術ですけど・・
このディープフェイクは元は2017年にインターネット上で、特にRedditというサイトでディープフェイクのポルノが初めて現れたのが発端らしいのですが、いまではこのサイトでは禁止になっているようです。
このディープフェイクは偽の映像を作ることだけではなく、既に亡くなったスターを本物と全く変わらない映像としてスクリーンに蘇らせることも出来ると言われています。
でも近年このAI技術が進み深刻な問題にもなっているようです。
このディープフェイクは専用アプリやソフトを使えば誰でも簡単に顔を入替えた動画を作成し共有できてしまうのも問題な感じもしますが、
こんなツイートも・・・
NHKbsで #ディープフェイク についてやっていた。顔や話している内容を、AIを使って違う動画に作り替えることができ、本人が話した内容と全く違う #フェイクニュース を流すことができる。なくすのは難しいという結論だったけど、作った本人を探しだし2度と出来ないように罰を作ればできる。
— 愛国の民 (@hirayamakazu) July 1, 2019
う~ん・・
やはり、女性を侮辱するような悪用なアプリまで登場してしまったらしいです。
現在この「DeepNude」というアプリは削除されたらしいです。
しかし、こんなのは多分氷山の一角だと思われ・・・
こんな技術が進化しているんですから、芸能人だけでなく私たちの身のまわりの人たちがターゲットにされてしまう日も来るのではないか??と思ってしまいます。
最近では動画の分析技術も進みディープフェイクの真偽が調べられるようになってきているとのことですが、なによりもまずこのような技術が悪用されないようにする対策をしていくことが期待されますね。
しかし、
これからは今まで以上に身の回りの情報を簡単に鵜呑みにせずに、きちんと自分の目で調べて判断することが大切になってきます。
下手なニュースや波動の低いニュースを直感を使って察知してしまいましょう。笑
でも、あと数年のうちに人間の目では見破ることができなくなるかもしれない?とも思いました。
数年後の進化した技術のフェイクニュースを私たちは果たして見破れるでしょうか・・
皆さんもフェイクニュースにご用心!
では、どうもありがとうございました。