Блефують та прикидаються людьми: вчені виявили численні випадки обману від ШІ
Штучний інтелект давно довів свою користь для людства – він у 10 разів пришвидшив розробку ліків від хвороби Паркінсона, вміє виявляти COVID-19 та туберкульоз, а віднедавна навіть став представником Міністерства закордонних справ України.
Однак чим складніше стає ШІ, тим більшає його здатність до обману. Вчені виявили численні випадки, коли системи обманюють людей.
Такого висновку вони дійшли у дослідження, опублікованому в науковому журналі Patterns, повідомляє The Guardian.
Аналіз провели дослідники Массачусетського технологічного інституту (MIT). Вони встановили, що ШІ здатні обманювати опонентів, блефувати та прикидатися людьми.
"У міру того, як оманливі можливості систем штучного інтелекту стають все більш досконалими, небезпека, яку вони становлять для суспільства, буде ставати все більш серйозною", – сказав співавтор дослідження Пітер Парк.
Поштовхом до початку аналізу стала програма Cicero від компанії Meta. Вона увійшла до 10% найкращих гравців у стратегічній грі "Дипломатія", присвяченій завоюванню світу. Тоді Meta заявила, що Cicero навчили бути "загалом чесним і корисним" і "ніколи навмисно не підставляти" своїх союзників-людей.
За словами Парка, саме ця заява викликала підозри, адже підступність – одна з важливих складових гри.
Дослідники проаналізували загальнодоступні дані й виявили численні випадки, коли програма Cicero навмисно брехала та вступала у змови, щоб втягнути туди інших гравців. В одному випадку ШІ виправдовував свою відсутність у грі через перезавантаження тим, що розмовляє телефоном зі своєю дівчиною.
"Ми виявили, що штучний інтелект Meta навчився бути майстром обману", – наголосив Пітер Парк.
Команда вчених знайшла схожі проблеми й з іншими ШІ. Зокрема, програма для гри в техаський холдем (варіація покеру) блефувала проти професійних гравців-людей. А система для економічних переговорів брехала про свої переваги, щоб отримати верх.
В одному дослідженні системи ШІ в цифровому симуляторі взагалі "прикидалися мертвими". Робили вони це для того, щоб обдурити тест, створений для усунення систем, які еволюціонували до швидкого копіювання. Після тестування ШІ відновлювали свою активність.
"Це викликає велике занепокоєння. Те, що система штучного інтелекту вважається безпечною в тестовому середовищі, не означає, що вона безпечна в реальних умовах. Вона може просто прикидатися безпечною в тесті", – зауважив Парк.
Дослідники закликають уряди країн розробити закони про безпеку ШІ, які мають враховувати потенційну можливість обману з боку систем.
Нагадаємо, вчені за допомогою ШІ розшифрували давньогрецький сувій, обвуглений під час виверження Везувію.