back to top

ЮНИСЕФ: все больше детей становятся жертвами дипфейков сексуального характера

Примерно каждый 25-й ребенок становится жертвой преступников, создающих сексуализированные дипфейки. К такому выводу пришли сотрудники Детского фонда ООН (ЮНИСЕФ), международной организации ECPAT и Интерпола. Они провели совместное исследование в 11 странах.

По меньшей мере 1,2 миллиона детей сказали, что их изображения были обработаны и превращены в сексуально откровенные дипфейки. Чтобы подчеркнуть масштабы проблемы, в ЮНИСЕФ приводят сравнение: это как если бы в каждом классе среди школьников был ребенок, ставший жертвой подобного преступления.

Дипфейки – фотографии, видеоролики или аудиофайлы, созданные или обработанные с помощью искусственного интеллекта (ИИ) и выглядящие или звучащие как настоящие, – все чаще используются для создания сексуализированного контента с участием детей.

Сами дети прекрасно осведомлены об этом риске. В некоторых странах, участвовавших в исследовании, около двух третей детей заявили, что они обеспокоены тем, что ИИ может быть использован для создания поддельных сексуальных изображений или видео.

Создание дипфеков с сексуальным контентом равносильно насилию над детьми, подчеркивают в ЮНИСЕФ. Поддельные видеоролики и фотографии подобного характера нормализуют сексуальную эксплуатацию детей и подпитывают спрос на контент, содержащий насилие.

«ЮНИСЕФ приветствует усилия тех разработчиков ИИ, которые внедряют подходы, основанные на безопасности по умолчанию, и надежные меры защиты для предотвращения неправомерного использования своих систем», – заявили в фонде.

Однако многие модели ИИ разрабатываются без надлежащих механизмов безопасности. Риски могут усугубляться, когда генеративные инструменты ИИ встраиваются непосредственно в платформы социальных сетей, где обработанные изображения быстро распространяются.

ЮНИСЕФ призывает все страны криминализировать создание, приобретение, хранение и распространение контента, сгенерированного с помощью ИИ и содержащего сексуализированные изображения детей.

Разработчики ИИ должны внедрять подходы, обеспечивающие безопасность на этапе проектирования. Все цифровые компании должны предотвращать распространение материалов с изображениями сексуального насилия над детьми, созданных с помощью ИИ, а не просто удалять их после того, как злоупотребление уже произошло, подчеркивают в ЮНИСЕФ.

Новые статьи

В Казахстане обсудили новые подходы к планированию социальных и грантовых проектов

В Павлодарской области обсудили новые подходы к планированию социальных и грантовых проектов. Семинар для представителей региональных государственных органов организовало Министерство культуры и информации Республики...

Уровень кредитования бизнеса достиг исторического максимума в Казахстане

В Казахстане зафиксирован самый высокий за почти два десятилетия рост кредитования бизнеса. По итогам 2025 года объем займов, выданных предпринимателям, увеличился на 18% и...

Шығыс Қазақстанда 22 ауыл тұрғындары ішімдіктен бас тартты

Зайсан ауданы Біржан ауылдық округіне қарасты Қуаныш ауылының тұрғындары «Ішімдіксіз ауыл» республикалық бастамасына қосылу туралы шешім қабылдады. Аталған шешім елді мекен тұрғындарының жалпы жиналысында...

В рамках AI-Sana запущен ИИ-агент для профориентации школьников

В Костанайском региональном университете имени Ахмет Байтұрсынұлы был представлен ИИ-агент «AI-профориентолог». Данное инновационное цифровое решение направлено на оказание помощи школьникам в осознанном выборе будущей...