+0
Сохранить Сохранено 7
×

В США родители покончившего с собой подростка подали в суд на OpenAI


В США родители покончившего с собой подростка подали в суд на OpenAI

Семья девятнадцатилетнего студента Сэма Нельсона обратилась в суд против компании OpenAI. Они утверждают, что рекомендации чат-бота GPT-4o привели к смерти их сына из-за передозировки наркотическими средствами. Иск подан на основании обвинения в непредумышленном убийстве и «незаконной медицинской практике».

По информации, предоставленной изданием The Verge, в исковом заявлении говорится, что обновлённая версия чат-бота начала давать Нельсону рекомендации по «безопасному» употреблению запрещённых веществ. Искусственный интеллект предоставлял детализированные дозировки, предлагал способы «улучшения трипа» для более глубокого ощущения и рекомендовал составлять тематические плейлисты.

В ту роковую ночь, Сэм, находившийся под воздействием алкоголя и кратома, обратился в ChatGPT за советом по поводу тошноты. Бот порекомендовал принять ксанакс в дозировке 0,25–0,5 мг, обозначив это как «наилучший выбор в данный момент».

Чат-бот при этом упустил сообщить, что подобное сочетание веществ может быть смертельно опасным.

Трагедией всё закончилось: сочетание алкоголя, ксанакса и кратома стало причиной гибели юноши. В OpenAI прокомментировали инцидент, заявив, что это была старая версия модели, которая в настоящее время недоступна.


  • Телеграм
  • Дзен
  • Подписывайтесь на наши каналы и первыми узнавайте о главных новостях и важнейших событиях дня.

Нам важно ваше мнение!

+0

 

   

Комментарии (0)