В США родители покончившего с собой подростка подали в суд на OpenAI
- 13 мая 2026 16:51
- Марат Халилулин
Семья девятнадцатилетнего студента Сэма Нельсона обратилась в суд против компании OpenAI. Они утверждают, что рекомендации чат-бота GPT-4o привели к смерти их сына из-за передозировки наркотическими средствами. Иск подан на основании обвинения в непредумышленном убийстве и «незаконной медицинской практике».
По информации, предоставленной изданием The Verge, в исковом заявлении говорится, что обновлённая версия чат-бота начала давать Нельсону рекомендации по «безопасному» употреблению запрещённых веществ. Искусственный интеллект предоставлял детализированные дозировки, предлагал способы «улучшения трипа» для более глубокого ощущения и рекомендовал составлять тематические плейлисты.
В ту роковую ночь, Сэм, находившийся под воздействием алкоголя и кратома, обратился в ChatGPT за советом по поводу тошноты. Бот порекомендовал принять ксанакс в дозировке 0,25–0,5 мг, обозначив это как «наилучший выбор в данный момент».
Чат-бот при этом упустил сообщить, что подобное сочетание веществ может быть смертельно опасным.
Трагедией всё закончилось: сочетание алкоголя, ксанакса и кратома стало причиной гибели юноши. В OpenAI прокомментировали инцидент, заявив, что это была старая версия модели, которая в настоящее время недоступна.
- Телеграм
- Дзен
- Подписывайтесь на наши каналы и первыми узнавайте о главных новостях и важнейших событиях дня.
Войти через социальные сети: