back to top

ЮНИСЕФ: все больше детей становятся жертвами дипфейков сексуального характера

Примерно каждый 25-й ребенок становится жертвой преступников, создающих сексуализированные дипфейки. К такому выводу пришли сотрудники Детского фонда ООН (ЮНИСЕФ), международной организации ECPAT и Интерпола. Они провели совместное исследование в 11 странах.

По меньшей мере 1,2 миллиона детей сказали, что их изображения были обработаны и превращены в сексуально откровенные дипфейки. Чтобы подчеркнуть масштабы проблемы, в ЮНИСЕФ приводят сравнение: это как если бы в каждом классе среди школьников был ребенок, ставший жертвой подобного преступления.

Дипфейки – фотографии, видеоролики или аудиофайлы, созданные или обработанные с помощью искусственного интеллекта (ИИ) и выглядящие или звучащие как настоящие, – все чаще используются для создания сексуализированного контента с участием детей.

Сами дети прекрасно осведомлены об этом риске. В некоторых странах, участвовавших в исследовании, около двух третей детей заявили, что они обеспокоены тем, что ИИ может быть использован для создания поддельных сексуальных изображений или видео.

Создание дипфеков с сексуальным контентом равносильно насилию над детьми, подчеркивают в ЮНИСЕФ. Поддельные видеоролики и фотографии подобного характера нормализуют сексуальную эксплуатацию детей и подпитывают спрос на контент, содержащий насилие.

«ЮНИСЕФ приветствует усилия тех разработчиков ИИ, которые внедряют подходы, основанные на безопасности по умолчанию, и надежные меры защиты для предотвращения неправомерного использования своих систем», – заявили в фонде.

Однако многие модели ИИ разрабатываются без надлежащих механизмов безопасности. Риски могут усугубляться, когда генеративные инструменты ИИ встраиваются непосредственно в платформы социальных сетей, где обработанные изображения быстро распространяются.

ЮНИСЕФ призывает все страны криминализировать создание, приобретение, хранение и распространение контента, сгенерированного с помощью ИИ и содержащего сексуализированные изображения детей.

Разработчики ИИ должны внедрять подходы, обеспечивающие безопасность на этапе проектирования. Все цифровые компании должны предотвращать распространение материалов с изображениями сексуального насилия над детьми, созданных с помощью ИИ, а не просто удалять их после того, как злоупотребление уже произошло, подчеркивают в ЮНИСЕФ.

Новые статьи

В ВКО в рамках акции «Мұз» привлекли к ответственности 44 нарушителей

В зимний период сотрудники Департамента по ЧС г.Астаны продолжают профилактическое патрулирование водоёмов в рамках акции «Мұз», направленной на обеспечение безопасности граждан на льду. Для...

Өскеменде жаңа айналма жолды іске қосу үшін дайындық жұмыстары жүргізіліп жатыр

Өскеменде үнемі ұзын-сонар кептеліс болатын Ертіс көпірінен түсетін жолайрығында айналмалы қозғалысты іске қосу жоспарланып отыр. Бұл екі деңгейлі жолайрығын салу жобасының алғашқы кезеңі. Құрылыс жұмыстарын...

В регионах страны открываются новые профильные отделения для сокращения очередей и качества медпомощи

Министерство здравоохранения реализует масштабную программу реновации и расширения профильной медицинской помощи в регионах. Для доступности специализированной медицинской помощи на местах в период с 2026 по...

Более 2,7 млрд тенге страховых выплат получили казахстанцы в 2025 году

По данным АО «Компания по страхованию жизни «Государственная аннуитетная компания» (далее – ГАК), в 2025 году объем страховых выплат более 35 тыс. казахстанцам превысил...