Исследователи нашли критические ошибки в медицинских ответах ИИ-чат-ботов

15 апреля 2026, 05:47

Специалисты выявили, что популярные чат-боты на основе искусственного интеллекта предоставляют неточную информацию почти в половине случаев при обработке запросов на медицинскую тематику. Согласно данным исследования, опубликованного в журнале BMJ Open, эксперты протестировали пять известных систем, включая ChatGPT, DeepSeek и Grok. Ботам предлагалось ответить на вопросы о лечении рака, вакцинации, питании и спорте.

Результаты проверки показали, что 49,6% ответов содержали фактические искажения. При этом 30% ответов имели незначительные погрешности, а 19% — серьезные ошибки. Наибольшее количество неточностей зафиксировано у нейросети Grok. Лучше всего алгоритмы справились с темами онкологии и вакцин, тогда как вопросы питания вызвали наибольшие затруднения. Примечательно, что ИИ практически во всех случаях выдумывал источники информации, не сумев предоставить реальные ссылки.

Авторы работы отмечают, что сложность текстов нейросетей соответствует уровню студента второго курса. Эксперты предупреждают о рисках усиления дезинформации в сфере здравоохранения и подчеркивают недопустимость использования советов ИИ без консультации с квалифицированным врачом.

По материалам: mk.ru