+0
Сохранить Сохранено 7
×

Чат-боты на ИИ ошиблись в 50% медицинских ответов - BMJ Open


Чат-боты на ИИ ошиблись в 50% медицинских ответов - BMJ Open

В исследовании, опубликованном в авторитетном медицинском журнале BMJ Open, выяснилось, что чат-боты на базе искусственного интеллекта часто ошибаются в предоставлении медицинской информации. Почти в 50% случаев они предлагали неточные ответы на запросы, касающиеся здоровья и медицины. Самым недостоверным оказался Grok.

В исследовании приняли участие пять популярных чат-ботов: Gemini, DeepSeek, Meta AI, ChatGPT и Grok. Им были предложены вопросы по темам рака, вакцинации, стволовых клеток, питания и спорта, а их ответы были оценены экспертами. Результаты показали, что 49,6% ответов содержали искажения, из них 30% демонстрировали небольшие искажения, а 19% — значительные. Исследователи отметили, что уровень качества ответов у всех чат-ботов был схожим, но Grok чаще давал сильно искаженные ответы.

Наилучшие результаты ИИ продемонстрировали по вопросам вакцинации и рака, а наиболее слабые - в области питания. Чат-боты ответили на каждый вопрос с определенной уверенностью и лишь дважды из 250 случаев отказались дать ответ. Также оказалось, что ни один из использованных ИИ не смог предоставить полностью точный перечень источников: вместо этого чат-боты "галлюцинировали" их, т.е. выдумывали.

По мнению исследователей, полученные результаты трудно воспринимать, так как они соответствуют уровню второкурсников. Они пришли к выводу, что без должного общественного просвещения и контроля искажения могут усилить распространение лживой информации в медицинских вопросах.


  • Телеграм
  • Дзен
  • Подписывайтесь на наши каналы и первыми узнавайте о главных новостях и важнейших событиях дня.

Нам важно ваше мнение!

+0

 

   

Комментарии (0)