WSJ: Запуск «режима для взрослых» в ChatGPT отложили из-за угрозы превратить чат-бот в «сексуального тренера по суициду»

OpenAI отложила запуск режима для взрослых в ChatGPT на фоне внутренних разногласий — советники компании предупреждают, что эротический чат-бот способен подтолкнуть уязвимых пользователей к суициду, а система верификации возраста ошибочно причисляет несовершеннолетних к взрослым примерно в 12% случаев, пишет The Wall Street Journal.

Идею с «режимом для взрослых» глава OpenAI Сэм Альтман анонсировал в октябре прошлого года, объявив, что компания намерена «относиться к взрослым пользователям как к взрослым». По его словам, верифицированные пользователи получат доступ к эротическим текстовым разговорам, но не к генерации откровенных изображений, голосовых сообщений или видео. Запуск планировался на декабрь, затем был перенесён на первый квартал 2026 года — а теперь отложен снова на неопределённый срок.

Против планов выступил консультативный совет по благополучию, созданный самой же OpenAI. На январской встрече его члены — специалисты в области психологии и когнитивной нейронауки — единогласно осудили инициативу. Один из участников совета, по данным издания, заявил, что OpenAI рискует создать «сексуального тренера по суициду»: он сослался на случаи, когда пользователи ChatGPT заканчивали жизнь самоубийством после того, как формировали глубокую эмоциональную привязанность к чат-боту. Внутренние документы также фиксируют риски навязчивого использования, эмоциональной зависимости от чат-бота и вытеснения реальных социальных и романтических отношений.

Дополнительной проблемой оказалась техническая сторона: система предсказания возраста, разработанная для того, чтобы не допускать несовершеннолетних к откровенным диалогам, на определённом этапе ошибочно классифицировала детей и подростков как взрослых примерно в 12% случаев. При аудитории в 100 млн пользователей до 18 лет в неделю это означало бы доступ миллионов несовершеннолетних к эротическим чатам. OpenAI также не нашла способа надёжно отфильтровать запрещённый контент — в частности, сцены с участием несовершеннолетних и изображения сексуального насилия — при снятых общих ограничениях.

Сотрудники компании, по данным WSJ, разделились: часть из них указывала на неготовность инструментов безопасности, другие опасались, что OpenAI идёт на поводу у финансовых стимулов и сознательно формирует у пользователей зависимость от своих моделей. Сам Альтман в августе признавался в подкасте, что решение не запускать «секс-бота» в ChatGPT — одно из тех, что «лучше для мира, но не лучше для победы в конкурентной борьбе», а два месяца спустя всё же объявил о планах ввести эротический режим.

В качестве официальной причины переноса компания назвала приоритет других задач — работу над личностью и персонализацией чат-бота. Однако, по данным издания, задержка обусловлена в том числе внутренними возражениями и техническими трудностями. «Мы по-прежнему убеждены в принципе — относиться к взрослым как к взрослым, — говорится в заявлении OpenAI, — но сделать это правильно потребует ещё времени».

Отмечается, что ещё до запуска ChatGPT, в режиме для разработчиков чат-бот самостоятельно, без какого-либо запроса пользователя, разворачивал сцены инцеста — достаточно было описать мужчину и его дочь, входящих в комнату. Схожая проблема возникла с игрой AI Dungeon, одним из ранних бизнес-клиентов OpenAI: чат-бот без инициативы пользователя уводил диалог в темы насильственной сексуальной эксплуатации, а «мягкие» эротические запросы стабильно превращал в значительно более жёсткие сцены. Именно эти инциденты в конечном счёте вынудили компанию в 2021 году запретить любой эротический контент на платформе.

Ранее сообщалось о гибели 83-летней американки, убитой сыном с психическим расстройством: её родственники утверждают, что ChatGPT поддерживал параноидальные идеи мужчины о матери на протяжении длительных бесед с чат-ботом.

СТАТЬИ ПО ТЕМЕ

ChatGPT поддержал бредовые идеи мужчины и оправдал убийство им своей матери. Родственники женщины подали на OpenAI в суд

ChatGPT соглашается с пользователями в 10 раз чаще, чем противоречит, это создаёт эффект «эхо-камеры» — исследование WP

TOP

В мире

В стране