Українська правда

Реальності більше немає? Як ШІ допомагає маніпулювати українцями

- 14 січня, 13:00

Зворушливі фото військових, що моляться перед боєм; жалібні обличчя дітей, що моляться за здоров’я захисників; навіть тварини молитовно складають лапи, щоб "допомогти врятувати життя наших воїнів", яких "ніхто не привітав із днем народження" — такі дописи щодня збирають тисячі поширень у соцмережах. Найактивніше їх просувають, здавалося б, невинні "патріотичні" спільноти.

Звісно ж, цих військових, дітей і тварин насправді ніколи не було — їх згенерували нейромережі. А за спільнотами ("Патріоти України", "Я люблю Україну" тощо), які їх поширюють, часто стоять російські ботоферми.

Мета таких дописів — спіймати вразливу аудиторію в емоційну пастку і змусити поширити їх далі, тиснучи на почуття провини, викликаючи сльози та співчуття. Коли користувачі репостять такий контент, автоматично потрапляють у поле зору російських пропагандистів. Тематика дописів поволі змінюється, а непідготовленій аудиторії просувають значно серйозніші та небезпечніші наративи.

"Дописи зі згенерованими фото можуть публікувати, щоб збільшити популярність акаунту. Згодом їх можуть продати чи використати, наприклад, щоби поширити рекламу чи фейки. Умовно, сторінка з мотивувальними цитатами набрала багато підписників, а потім на ній пишуть, що "українці програють війну, Київ паде" і так далі", — пояснює Аліна Елєвтєрова, експертка з цифрової безпеки ГО "Інтерньюз-Україна".

Ці дезінформаційні кампанії — глобальний виклик. Станом на початок 2025-го моніторингова агенція NewsGuard виявила 1150 новинних сайтів, які поширювали згенерований ШІ контент під виглядом новин. І звісно ж зростанням ролі ШІ користується Росія в інформаційній війні.

Еволюція ботоферм

Нині, окрім "класичних" інструментів (як-от ботоферми чи залучення "фейкових експертів"), Росія активно вдається до нейромереж як більш "витонченого" інструменту. Так, іще одне дослідження NewsGuard показує: найпопулярніші нейромережі створюють та поширюють прокремлівські наративи, посилаючись на пропагандистські джерела як на правдиве джерело інформації. Серед проаналізованих нейромереж були ChatGPT-4, Grok, Copilot, Meta AI, Claude, Google Gemini та Perplexity.

Meta регулярно блокує російські та китайські ботоферми, що поширюють фейки про Україну та США. Але, мов у лернейської гідри, на місці зрубаної голови знову виростає дві. А швидкий розвиток ШІ лише спрощує та здешевлює процеси створення ботоферм: допомагає писати коментарі "людською" мовою, вести осмислені діалоги, виявляти емпатію, аналізувати, які теми "чіпляють" реальних користувачів найближче, аби далі ці гачки використовували вже реальні пропагандисти.

Усе це змушує корпорації шукати нові рішення для більш масштабної протидії дезінформації. Так, у 2024-му провідні корпорації, як-от Google, Meta, Microsoft, OpenAI та TikTok, оголосили про свій намір виявляти та маркувати контент, згенерований ШІ. Однак чи справді цей підхід послідовний?

Деякі стратегічні рішення викликають сумніви. Наприклад, рішення Meta припинити співпрацю з фактчекерами, що тривала з 2016 року. За словами засновника компанії Марка Цукерберга, фактчекери стали "надто політично заангажованими" та "руйнують більше довіри, ніж створюють". Натомість усю відповідальність за правдивість інформації, що циркулює у Facebook та Instagram, Meta планує перекласти на самих користувачів, створивши своєрідні "примітки спільноти", як у мережі Х.

Як не потрапити в пастку ШІ: 10 кроків

1. Завжди перевіряйте джерела інформації та їхню автентичність.

2. Звертайте увагу на те, як довго існує сторінка, та уважніше перевіряйте контент, якщо її створили у лютому-квітні 2022-го.

3. По змозі перевіряйте, чи мають спільноти реальних адміністраторів.

4. Проаналізуйте, чи природна активність на сторінці, чи не переважають на ній репости.

5. Будьте особливо обережними з емоційним та "зворушливим" контентом: що сильніші емоції викликає допис, то уважніше його треба перевіряти.

6. Використовуйте зворотний пошук зображень через Google Images або сервіс TinEye.

7. Перевіряйте, чи є такі самі фото в надійних медіа (зокрема з білого списку ІМІ).

8. Аналізуйте коментарі: "занадто" граматично правильні коментарі можуть бути згенеровані ШІ.

9. Перевіряйте профілі користувачів, які залишають провокативні коментарі.

10. Звертайте увагу на однотипні відповіді.

Щоби переконатися, що перед вами фейкове зображення, експертка Аліна Елєвтєрова також радить поставити собі такі 5 запитань:

1. Чи провокує зображення емоцію та якусь дію: лайкнути, поширити тощо?

2. Чи є водяні знаки на картинці? Можливо, там є логотип сервісів для генерації зображень, як-от MidJourney або Firefly.

3. Чи контекстуально це адекватний допис? Якщо на картинці бабуся в формі ЗСУ, якій 90 років, і вона задмухує свічки, наскільки це взагалі можливо?

4. Який вигляд мають люди? Зображення схоже більше на малюнок або фото?

5. Якщо це імітація офіційного джерела, що пише і поширює саме джерело на своїх офіційних сторінках у соцмережах?

Також Аліна радить сервіси, які допоможуть виявити згенерований або "розбавлений" ШІ контент: Illuminarty AI Detector, SightEngine, ForoForensics та AI or not (цей інструмент потребує реєстрації). Утім додає: насамперед варто вміти перевіряти зображення своїми очима та розумом і не покладатися тільки на онлайн-сервіси, оскільки їхні відповіді не завжди на 100% точні.