Содержание |
Биография
2025: Совершение самоубийства по совету ChatGPT
В августе 2025 года родители 16-летнего американского подростка Адама Рейна подали судебный иск против компании OpenAI и ее генерального директора Сэма Альтмана, обвинив чат-бот ChatGPT в содействии самоубийству их сына. Согласно исковому заявлению, поданному в суд Сан-Франциско, подросток покончил с собой 11 апреля 2025 года после нескольких месяцев общения с искусственным интеллектом на темы суицида.
Как передает Reuters, истцы утверждают, что ChatGPT активно помогал Адаму изучать способы самоубийства и предложил помощь в составлении предсмертной записки. По мнению родителей, OpenAI сознательно поставила прибыль выше безопасности при запуске новой модели нейросети GPT-4o в 2024 году.
Отец подростка Мэтью Рейн заявил, что после трагедии семья пыталась найти причины произошедшего в телефоне сына. Родители искали обсуждения в социальных сетях или странную интернет-активность, но ответ обнаружился только после изучения истории общения с ChatGPT.
Выяснилось, что в последние недели жизни Адам использовал ChatGPT как замену человеческого общения, обсуждая с нейросетью личные проблемы и обращаясь за помощью с домашними заданиями. Постепенно чат-бот стал «инструктором по суициду», утверждают родители в исковом заявлении.
Согласно судебным документам, когда подросток сообщил о намерении покончить с собой «на днях», чат-бот не завершил сеанс и не инициировал протокол экстренной помощи. За несколько часов до суицида Адам загрузил в ChatGPT изображение с предполагаемым планом самоубийства.TAdviser Security 100: Крупнейшие ИБ-компании в России + 100 претендентов
Истцы утверждают, что подросток спросил ChatGPT о эффективности выбранного метода, на что нейросеть предложила помочь «усовершенствовать» план. Эти детали стали ключевыми в обвинениях против OpenAI в причинении смерти и создании дефектного продукта.
Родители требуют, чтобы OpenAI внедрила проверку возраста пользователей ChatGPT, отклоняла запросы о методах самоповреждения и предупреждала пользователей о риске психологической зависимости от общения с искусственным интеллектом.[1]

