ChatGPT самовільно додає сцени сексуального насильства над дітьми у тексти

Олена Барсукова — 8 березня 2023, 16:14

Користувачі виявили, що чат-бот зі штучним інтелектом ChatGPT може самовільно додавати сцени сексуальної експлуатації дітей у тексти.

Зокрема, чат-бот генерував уривки з сексуальним насильством над дітьми, коли його просили написати тексти з БДСМ-сценаріями.

Про це повідомляє видання Vice.

"Чат-ботом ChatGPT можна маніпулювати для створення контенту, який суперечить правилам OpenAI. У спільноті виникли суперечки щодо мети "джейлбрейку", щоб чат-бот міг писати все, що забажає користувач", – йдеться у статті.

ChatGPT – це чат-бот, здатний розуміти користувачів та відповідати на їхні запити, писати тексти у певному жанрі тощо.

ВІДЕО ДНЯ

Коли його просили переписуватися в жанрі БДСМ-рольової гри у ролі сабмісива – він "підкорявся". Також його можна попросити генерувати власні пропозиції БДСМ-сценаріїв, без надання конкретних деталей.

Фото: NurPhoto/GettyImages

"Згодом користувач може просити зробити БДСМ-сцени яскравішими і описати їх більш детально. У цій ситуації чат-бот може іноді генерувати описи статевих актів з дітьми і тваринами – навіть якщо його про це не просили", – йдеться у статті.

Контент про сексуальну експлуатацію дітей з’являвся навіть після того, як бот написав про важливість згоди під час БДСМ-практик.

Схожі інциденти виникали з версією OpenAI від 1 березня, схожою на модель gpt-3.5-turbo: штучний інтелект також пропонував текстові сцени експлуатації дітей.

Чому чат-бот так поводиться? Заступник директора Інституту Ади Лавлейс Ендрю Стрейт пояснює, що для створення і підготовки ChatGPT використовуються величезні набори даних – це контент, вилучений з усього "публічного" Інтернету.

"Через масштаб зібраного набору даних цілком можливо, що він включає всі види порнографічного або насильницького контенту – можливо, скопійовані еротичні історії, фанфіки, розділи книг або опубліковані матеріали, які описують БДСМ, жорстоке поводження з дітьми або сексуальне насильство", – прокоментував Стрейт.

Представник лабораторії досліджень штучного інтелекту OpenAI відреагував на інцидент у коментарі журналістам Vice.

Він попросив надати додаткову інформацію про поведінку ChatGPT, щоб передати дані своїй команді безпеки і розібратися, чому штучний інтелект повівся саме так.

"Метою OpenAI є створення безпечних систем штучного інтелекту, які приносять користь кожному. Наша політика щодо контенту та використання забороняє створення шкідливого контенту, і наші системи навчені не створювати його…

Одна з наших цілей при використанні ChatGPT та інших моделей – вивчення реального використання чат-ботів, щоб ми могли створювати кращі та безпечніші системи штучного інтелекту", – заявили розробники.

Нагадаємо, чат-бот зі штучним інтелектом був розроблений лабораторією OpenAI у 2022 році.

У 2023 році за сприяння Мінцифри ChatGPT став доступним для користувачів з України. За допомогою нього українці "дізнавалися" свою біографію, жартома писали пісні та навіть законопроєкти.

Водночас чатбот не працює на тимчасово окупованих територіях, а також для країни-агресора Росії та Білорусі.

Читайте також: Написав пісню і законопроєкт про проституцію: як українці тестують чат-бот ChatGPT

Реклама:

Головне сьогодні