ШІ дедалі більше використовують для створення дитячого порно: правозахисники б'ють на сполох

Олена Барсукова — 22 липня, 13:55
ШІ дедалі більше використовують для створення дитячого порно: правозахисники б'ють на сполох
Фото: Bill Hinton/GettyImages

Британська правозахисна організація Internet Watch Foundation заявила про збільшення кількості відео сексуального насильства над дітьми, згенерованих штучним інтелектом.

Про це йдеться у звіті IWF про CSAM (самостійно створені матеріали про сексуальне насильство над дітьми) за липень 2024 року.

Фахівці IWF виявили, що педофіли дедалі більше використовують ШІ для генерування контенту зі справжніми дітьми, зокрема з реальними постраждалими від злочинів. Такі зображення потрапляють не лише у даркнет, а й у відкриту мережу.

"Зображення сексуального насильства над дітьми, створені за допомогою штучного інтелекту, прогресують настільки швидко, що IWF вже бачить перші реалістичні приклади відеороликів із зображенням сексуального насильства над дітьми, створені за допомогою штучного інтелекту.

Ці неймовірно реалістичні глибоко підроблені або частково синтетичні відео зі зґвалтуванням і тортурами дітей створені злочинцями за допомогою інструментів ШІ, які підробляють обличчя або подобу реальної людини", – йдеться у звіті IWF.

РЕКЛАМА:

Результати нового звіту

Перший звіт IWF опублікувала у жовтні 2023 року. Тоді фахівці виявили понад 20 тисяч ШІ-згенерованих зображень на одному з інтернет-форумів у даркнеті за один місяць. Понад 3 тисячі з них зображували сексуальне насильство над дітьми. Відтоді ця проблема загострилася, заявили експерти IWF.

Новий звіт показує, що з жовтня 2023 року на той самий сайт у даркнеті завантажили ще понад 3,5 тисячі нових зображень сексуального насильства над дітьми, створених за допомогою штучного інтелекту.

Правозахисники також помітили, що у даркнеті поширюються більш жорстокі зображення, згенеровані ШІ.

"Серед згенерованих штучним інтелектом зображень сексуального насильства над дітьми на форумі більше зображень найжорстокішого насильства категорії А, що свідчить про те, що зловмисники мають більше можливостей для створення "хардкор"-сценаріїв", – йдеться у звіті.

Для створення підробленого відеоконтенту із сексуальним насильством над неповнолітніми активно застосовуються технології заміни обличчя. При цьому педофіли використовують фотографії реальних відомих дітей та потерпілих від сексуальних злочинів.

Також "помітно зросла" кількість ШІ-згенерованих зображень сексуального насильства над дітьми у відкритому доступі, зокрема на комерційних сайтах, а не лише в даркнеті.

Організація IWF попереджає, що розвиток ШІ може призвести до збільшення такого контенту й надалі. Однією з причин є те, що технології ШІ стають більш доступними широкому колу користувачів.

"Організація Internet Watch Foundation (IWF) виявила значну і дедалі сильнішу загрозу, пов'язану з використанням технології штучного інтелекту для створення матеріалів із зображеннями сексуального насильства над дітьми (CSAM)", – підсумували аналітики.

Нагадаємо, фахівці й раніше були занепокоєні тим, як ШІ реагує на запити щодо генерування сцен насильства, зокрема над дітьми. Стенфордська інтернет-обсерваторія заявила, що генератори зображень на основі штучного інтелекту "навчаються" на дитячому порно.

Користувачі також виявили, що ChatGPT самовільно додає сцени сексуального насильства над дітьми у тексти.

Реклама:

Головне сьогодні