США всерьёз озабочены «угрозами для демократии» со стороны технологий «deep fake»

Это начало своеобразной гонки вооружений  между технологиями
8 сентября 2019  12:00 Отправить по email
Печать

В преддверии президентских выборов в США 2020 года американские власти всерьёз озабочены «угрозами для демократии» со стороны технологий «deep fake», которые все качественнее подделывают аудио и видеоматериалы, сообщает ТГ-канал "Минправды".

Мы уже неоднократно писали о таких технологиях. Обычно они представляют собой обученные на громадных базах данных нейросети, которые могут легко подделать, например, речь президента, скомпилировав отрывки его реального голоса и обработав надлежащим образом речевую мимику. Другие нейросети могут выступать в роли райтеров и самостоятельно писать новости. Есть и такие, что способны поменять лицо человека на видео, причем сделать это настолько качественно, что невооруженным глазом подделку отличить просто невозможно.

Естественно, что перед лицом таких угроз государствам, которые хотят защититься от политической нестабильности, особенно в периоды политической поляризации, как, например, во время выборов, просто жизненно необходимы технологии, которые будут моментально распознавать фейки. Ведь иногда счет идет буквально на минуты, прежде чем фейковая новость получит широкое распространение в социальных сетях и повлияет на политическое поведение или политические предпочтения граждан.

В связи с этим эксперты предсказывают начало своеобразной гонки вооружений между технологиями «deep fake» и технологиями распознавания подделок. Эта гонка будет во многом определять избирательные кампании и вообще информационное пространство ближайших лет.

БУДЬТЕ В КУРСЕ

Подписывайтесь на наш канал в Telegram или в Дзен.
Будьте всегда в курсе главных событий дня.

Комментарии читателей (0):

К этому материалу нет комментариев. Оставьте комментарий первым!
Чувствуете ли Вы усталость от СВО?
Харрис или Трамп: если бы Вы приняли участие в выборах президента США, за кого бы Вы проголосовали?
66.3% За Владимира Путина
Подписывайтесь на ИА REX
Войти в учетную запись
Войти через соцсеть