Исследование провела компания Deeptrace, которая специализируется на кибербезопасности. Она обнаружила в интернете 14 698 поддельных видеороликов по сравнению с 7 964 в декабре 2018 года.

В компании отметили, что 96% роликов были порно, часто там использовались лица знаменитостей. В остальных случаях материалы имели отношение к юмору или политике.

Хотя во многих deepfake-видео манипулировали лицами американских и британских актеров, исследователи обнаружили, что южнокорейские певцы также часто становились героями поддельных видео. Исследователи уверены, что deepfake становится глобальным явлением.

В докладе подчеркивается потенциал использования этих технологий в политических кампаниях. Но в настоящее время реальная опасность заключается в использовании технологии для мести и шантажа.

Руководитель аналитического отдела Deeptrace Генри Айдер отмечает, что уровень этих видео пока очень низкий. «Дискуссии о deepfake сводятся к политике или мошенничеству, но никто не говорит, что поддельные порновидео — это уже реальное и актуальное явление, причиняющее вред многим людям».

Источник


Понравилось? Поделись с друзьями в соц-сетях!

B-MAG

Редакция Бизнес-журнала - B-MAG.ru Мы публикуем материалы о бизнесе и деловой жизни, предпринимательстве и стартапах, инвестициях, бизнес идеях, технологиях и инновациях. /Business life today – деловая жизнь сегодня/

Новые комментарии:

Ваш адрес email не будет опубликован. Обязательные поля помечены *

два × 3 =

Choose A Format
Story
Formatted Text with Embeds and Visuals