ChatGPT самовільно додає сцени сексуального насильства над дітьми у тексти
Користувачі виявили, що чат-бот зі штучним інтелектом ChatGPT може самовільно додавати сцени сексуальної експлуатації дітей у тексти.
Зокрема, чат-бот генерував уривки з сексуальним насильством над дітьми, коли його просили написати тексти з БДСМ-сценаріями.
Про це повідомляє видання Vice.
"Чат-ботом ChatGPT можна маніпулювати для створення контенту, який суперечить правилам OpenAI. У спільноті виникли суперечки щодо мети "джейлбрейку", щоб чат-бот міг писати все, що забажає користувач", – йдеться у статті.
ChatGPT – це чат-бот, здатний розуміти користувачів та відповідати на їхні запити, писати тексти у певному жанрі тощо.
Коли його просили переписуватися в жанрі БДСМ-рольової гри у ролі сабмісива – він "підкорявся". Також його можна попросити генерувати власні пропозиції БДСМ-сценаріїв, без надання конкретних деталей.
Фото: NurPhoto/GettyImages |
"Згодом користувач може просити зробити БДСМ-сцени яскравішими і описати їх більш детально. У цій ситуації чат-бот може іноді генерувати описи статевих актів з дітьми і тваринами – навіть якщо його про це не просили", – йдеться у статті.
Контент про сексуальну експлуатацію дітей з’являвся навіть після того, як бот написав про важливість згоди під час БДСМ-практик.
Схожі інциденти виникали з версією OpenAI від 1 березня, схожою на модель gpt-3.5-turbo: штучний інтелект також пропонував текстові сцени експлуатації дітей.
Чому чат-бот так поводиться? Заступник директора Інституту Ади Лавлейс Ендрю Стрейт пояснює, що для створення і підготовки ChatGPT використовуються величезні набори даних – це контент, вилучений з усього "публічного" Інтернету.
"Через масштаб зібраного набору даних цілком можливо, що він включає всі види порнографічного або насильницького контенту – можливо, скопійовані еротичні історії, фанфіки, розділи книг або опубліковані матеріали, які описують БДСМ, жорстоке поводження з дітьми або сексуальне насильство", – прокоментував Стрейт.
Представник лабораторії досліджень штучного інтелекту OpenAI відреагував на інцидент у коментарі журналістам Vice.
Він попросив надати додаткову інформацію про поведінку ChatGPT, щоб передати дані своїй команді безпеки і розібратися, чому штучний інтелект повівся саме так.
"Метою OpenAI є створення безпечних систем штучного інтелекту, які приносять користь кожному. Наша політика щодо контенту та використання забороняє створення шкідливого контенту, і наші системи навчені не створювати його…
Одна з наших цілей при використанні ChatGPT та інших моделей – вивчення реального використання чат-ботів, щоб ми могли створювати кращі та безпечніші системи штучного інтелекту", – заявили розробники.
Нагадаємо, чат-бот зі штучним інтелектом був розроблений лабораторією OpenAI у 2022 році.
У 2023 році за сприяння Мінцифри ChatGPT став доступним для користувачів з України. За допомогою нього українці "дізнавалися" свою біографію, жартома писали пісні та навіть законопроєкти.
Водночас чатбот не працює на тимчасово окупованих територіях, а також для країни-агресора Росії та Білорусі.
Читайте також: Написав пісню і законопроєкт про проституцію: як українці тестують чат-бот ChatGPT