Часто пользователи вываливают на нейросети список своих симптомов с просьбой поставить диагноз. Однако ученые выяснили, что в половине ответов ИИ может ошибаться, в том числе грубо.
Как сообщает проект ИД Медмедиа "Профессия — кардиолог" 24 апреля, половина ответов ИИ на тему медицины содержат ошибки.
Эксперты из США, Канады и Великобритании проанализировали работу нескольких популярных нейросетевых моделей, включая ChatGPT, Gemini, Meta AI, Grok и DeepSeek. Каждой системе задали десяток медицинских вопросах в пяти областях, включая онкологию, вакцинацию, стволовые клетки, питание и физическую активность.
Выяснилось, что около 50% ответов содержали ошибки или искажали факты: примерно 19% из этих ответов были грубыми ошибками, а 30% были с умеренными неточностями. В том числе нейросети генерировали несуществующие и недостоверные источники.
"В клинических темах ИИ-ассистенты лучше справлялись с вопросами о вакцинации и онкологии, хуже — с задачами, связанными с питанием и биологией стволовых клеток. При этом даже при ошибках ИИ сохранял уверенный стиль ответа, что повышает риск доверия к некорректной информации", — уточняют специалисты.
