Изображения разбомбленных домов и разрушенных улиц Газы с окровавленными, брошенными детьми облетели весь мир, часть их – дипфейки. Об этом пишет Associated Press.
«Эти изображения, получившие миллионы просмотров с начала войны, представляют собой дипфейки, созданные с помощью искусственного интеллекта. Если присмотреться, то можно увидеть подсказки: пальцы, которые странно сгибаются, или глаза, мерцающие неестественным светом — все это явные признаки цифрового обмана», — отмечает агентство.
Однако возмущение людей, которое вызвали эти изображения, вполне реально.
Фотографии войны Израиля и ХАМАС ярко и болезненно иллюстрируют потенциал искусственного интеллекта (ИИ) как инструмента пропаганды, используемого для создания реалистичных изображений кровавой бойни. С тех пор, как началась война, измененные в цифровом виде сообщения, распространенные в социальных сетях, использовались для ложных заявлений об ответственности за жертвы или для введения людей в заблуждение относительно злодеяний, которых никогда не было.
«Прежде чем станет лучше, будет еще хуже, намного хуже», — сказал Жан-Клод Гольденштейн, генеральный директор CREOpoint, технологической компании, которая использует искусственный интеллект для оценки видео и фото контента. Компания создала базу данных самых вирусных дипфейков, появившихся в Газе. - Изображения, видео и аудио: с генеративным искусственным интеллектом это будет эскалация, которой вы еще не видели».
В некоторых случаях фотографии других конфликтов или катастроф модернизировались и выдавались за новые. В других случаях ИИ использовался для создания изображений с нуля, например, одного ребенка, плачущего среди обломков после бомбардировки, который стал вирусным в первые дни конфликта.
Другие примеры изображений, созданных ИИ, включают видеоролики, показывающие предполагаемые израильские ракетные удары, или танки, катящиеся по разрушенным кварталам, или семьи, прочесывающие завалы в поисках выживших.
БУДЬТЕ В КУРСЕ
- 11.01.24 Хинштейн предлагает закрепить «дипфейки» в законодательстве
- 09.12.23 ЕС достиг соглашения о первом в мире комплексном регулировании искусственного интеллекта
- 29.11.23 Нет законов для борьбы с порно-дипфейками: опыт США
- 24.06.23 Депутаты Госдумы готовятся бороться с мошенническими дипфейками: технологии и сроки
Во многих случаях создается впечатление, что подделки созданы для того, чтобы вызвать сильную эмоциональную реакцию. В кровавые первые дни войны сторонники Израиля и ХАМАС обвиняли друг друга в убийствах детей, дипфейковые изображения плачущих младенцев представляли собой фотографическое «доказательство», которое быстро представлялось в качестве доказательства.
Пропагандисты, создающие такие образы, умеют воздействовать на самые глубокие импульсы и тревоги людей, говорит Имран Ахмед, генеральный директор Центра по противодействию цифровой ненависти, некоммерческой организации, которая отслеживает дезинформацию, связанную с войной. Будь то дипфейковый ребенок или реальное изображение младенца из другого конфликта, эмоциональное воздействие на зрителя одинаково.
Чем отвратительнее изображение, тем больше вероятность, что пользователь запомнит его и поделится им, невольно распространяя дезинформацию дальше.
«Следующей волной ИИ будет: как мы можем проверить существующий контент. Как обнаружить дезинформацию, как проанализировать текст, чтобы определить, заслуживает ли он доверия?» - сказала Мария Амели, соучредитель Factiverse, компании, которая создала программу искусственного интеллекта, которая может сканировать контент на предмет неточностей или предвзятости, внесенных другими программами искусственного интеллекта.
Такие программы будут представлять непосредственный интерес для преподавателей, журналистов, финансовых аналитиков и других лиц, заинтересованных в искоренении лжи, плагиата или мошенничества. Подобные программы разрабатываются для обнаружения поддельных фотографий или видео.
Как сообщал REX, в России отсутствует законодательство, касающееся дипфейков. Отсутствуют также нормы о маркировке таких изображений. Хотя в комитете Госдумы по информполитике допускали появление к концу 2023 года механизма маркировки дипфейков.
Комментарии читателей (0):