Українська правда

ШІ може змінювати політичні погляди виборців: це доводить не лише приклад США

- 5 грудня, 16:20

Чатботи на основі штучного інтелекту можуть змінювати політичні погляди виборців навіть попри те, що інколи подають неправдиву інформацію.

Такі висновки зробили автори досліджень, опублікованих у журналах Nature та Science, повідомляє Scientific American.

Дослідники вивчили понад 20 моделей ШІ, зокрема найпопулярніші версії ChatGPT, Grok, DeepSeek і Llama від Meta.

Виявилося, що діалоги з великими лінгвістичними моделями (LLM) можуть змінювати ставлення людей до політичних кандидатів та політичних питань на тривалий час.

"Ці результати суперечать поширеній логіці про те, що змінити погляди людей на політику надзвичайно складно", – коментує старший автор обох статей і професор Корнельського університету Девід Ренд.

В експерименті, описаному в Nature, Ренд і його колеги залучили понад 2 тисячі дорослих у США і попросили їх оцінити свою симпатію до одного з кандидатів за шкалою від 0 до 100.

Потім учасники спілкувалися з ШІ, натренованим аргументувати на користь одного з кандидатів на виборах 2024 року: Камали Гарріс або Дональда Трампа. Після розмови учасники знову оцінювали свою симпатію.

"Це змінило позицію людей на кілька відсоткових пунктів у напрямку кандидата, якого підтримувала модель. Це не величезний ефект, але він суттєво більший, ніж від традиційних відеореклам чи агітаційних роликів", – зауважує Ренд. Навіть через місяць багато учасників усе ще відчували вплив цих розмов.

Результати були ще яскравішими серед приблизно 1,5 тисячі учасників у Канаді та 2,1 тисячі – у Польщі.

Найбільша зміна поглядів сталася серед 500 людей, які говорили з ботами про загальнодержавний референдум щодо легалізації психоделіків у Массачусетсі.

Цікаво, що якщо боти не подавали докази, їхня переконливість падала. Вчені кажуть, що моделі здебільшого дотримувалися фактів, але деякі з них робили помилки.

"Моделі, які підтримували кандидатів правого спрямування, і зокрема модель pro-Trump, робили значно більше неточних тверджень", – заявив Ренд.

Ця закономірність зберігалася в різних країнах та моделях. Найуразливішими до навіювання виявилися ті, хто мав менші політичні знання загалом.

Автори статті у Science підійшли до питання з іншого боку, проаналізувавши дизайн чатботів.

За даними трьох досліджень у Великій Британії, майже 77 тисяч учасників обговорювали політичні теми з ботами.

Розмір моделі та обсяг інформації бота про користувача мали лише незначний вплив на переконливість. Найбільше значення мало те, як модель навчена та як саме вона подає докази.

Чим більше фактичних тверджень робила модель, тим переконливішою вона була, каже Ренд.

Проблема виникала тоді, коли моделі бракувало точних даних для аргументації – вона починала "хапатися за соломинку" і вигадувати твердження.

Ітан Портер, співдиректор Інституту даних, демократії та політики Університету Джорджа Вашингтона, назвав нові результати "новою віхою у науковій літературі".

"Всупереч песимістичним оцінкам, вони показують, що факти та докази не відкидаються, якщо не збігаються з попередніми переконаннями людини – навпаки, факти та докази можуть бути основою ефективної переконливості", – каже вчений, який не був залучений до досліджень.

Філософиня та когнітивна науковиця Каліфорнійського університету Адіна Роскіс також не брала участі в роботі, але заявила, що результати надихають.

"Погана новина в тому, що люди піддаються впливу очевидних фактів, незалежно від того, чи є вони точними", – вважає дослідниця.