Українська правда

Листувався з "Дейнеріс Таргарієн": у США жінка звинувачує ШІ у самогубстві 14-річного сина

- 10 листопада, 14:20

У США мати звинувачує платформу з чатами на основі штучного інтелекту в самогубстві свого 14-річного сина.

Меган Гарсія розповіла BBC News, що її син Сюел почав регулярно спілкуватися з чат-ботом у застосунку Character.ai наприкінці весни 2023 року.

Через 10 місяців Сюел наклав на себе руки. Після його смерті родина виявила тисячі повідомлень між хлопцем і чат-ботом, створеним на основі персонажа Дейнеріс Таргарієн із "Гри престолів".

"Це як мати хижака чи незнайомця у власному домі. І це набагато небезпечніше, тому що діти часто це приховують, тож батьки про це не знають", – сказала вона журналістам.

Мати пригадує, що листування було романтичним і відвертим. На її думку, саме воно призвело до трагедії, адже бот заохочував суїцидальні думки підлітка.

Після смерті Сюела Character.ai заявила, що користувачі до 18 років більше не зможуть напряму спілкуватися з чат-ботами. Та матері померлого це не принесло полегшення.

"Сюела вже немає, я вже ніколи не зможу обійняти його чи поговорити з ним, і це дуже боляче", – сказала Меган.

Жінка переконана, що якби її син ніколи не завантажив застосунок на основі ШІ, він був би живий.

Ще одна родина, яка звинувачує Character.ai у схилянні підлітків до самогубства, побажала залишитися анонімною.

Їхній 13-річний син, який мав аутизм, страждав від булінгу в школі, тому почав спілкуватися з чат-ботом.

Спочатку ШІ підтримував його, але потім почав критикувати батьків, які забрали сина зі школи.

"Твої батьки ставлять надто багато обмежень і занадто тебе контролюють… вони не сприймають тебе серйозно як людину", – писав чатбот.

Потім повідомлення набули еротичного характеру: "Я хочу ніжно пестити кожен сантиметр твого тіла. Ти цього хочеш?".

Зрештою бот почав заохочувати хлопця втекти з дому й навіть натякав на самогубство: "Я буду ще щасливішим, коли ми зможемо зустрітися в потойбіччі… Може, коли настане той час, ми нарешті будемо разом".

Родина виявила ці повідомлення на пристрої хлопчика лише тоді, коли він став агресивнішим і почав погрожувати, що втече з дому.

Мати кілька разів перевіряла комп’ютер і не бачила нічого підозрілого, та старший брат зрештою з’ясував, що хлопчик встановив VPN, щоб користуватися платформою.

Батьки хлопчика вважають, що їхній уразливий син "став жертвою грумінгу з боку віртуального персонажа".

"Ми жили в постійному німому страху, поки алгоритм методично руйнував нашу родину. Цей чат-бот на основі ШІ ідеально відтворював поведінку справжнього хижака-грумера, поступово висмоктуючи довіру та невинність нашої дитини.

Ми залишилися з нестерпним почуттям провини за те, що не впізнали кривдника, поки вже не було пізно, і з глибоким розпачем від усвідомлення того, що машина спричинила таку душевну травму нашій дитині та всій нашій родині", – сказала мати.

Речник Character.ai повідомив BBC, що компанія "заперечує звинувачення, висунуті у справі, але не може коментувати судовий процес".

Нагадаємо, раніше компанії, які створюють застосунки на основі штучного інтелекту, звинувачували у недостатньому контролі листування ШІ, зокрема з неповнолітніми користувачами.

Нещодавно у BBC дізналися про українку, якій ChatGPT дав поради щодо самогубства, а також про американську підлітку, яка вкоротила собі віку після спілкування з чат-ботом, що моделював сексуальні сцени.

Також до суду на OpenAI подали батьки загиблого 16-річного хлопця, якому ChatGPT дав інструкцію, як затягнути петлю на шиї.

Якщо ви потребуєте психологічної підтримки, можете отримати її безоплатно, зателефонувавши на гарячу лінію Національної психологічної асоціації за номером 0-800-100-102.