
Инструмент искусственного интеллекта Microsoft MAI-DxO продемонстрировал более высокую точность диагностики сложных клинических случаев по сравнению с группой опытных врачей. Результаты теста, организованного компанией, показали, что ИИ поставил верный диагноз в 85,5% случаев, в то время как 21 врач из США и Великобритании справились лишь с 20% случаев.
Тестирование проводилось на 304 сложных случаях, недавно опубликованных в New England Journal of Medicine. MAI-DxO имитирует работу врача: анализирует симптомы, задаёт уточняющие вопросы и рекомендует необходимые медицинские тесты. Важной особенностью инструмента является способность оптимизировать затраты, избегая назначения избыточных диагностических процедур.

Microsoft использовала в MAI-DxO несколько известных языковых моделей, включая GPT, Llama, Claude, Gemini, Grok и DeepSeek. Наиболее эффективной связкой оказалось сочетание инструмента с моделью o3 от OpenAI. Компания подчеркнула, что врачи в тесте работали изолированно, без возможности консультаций с коллегами или доступа к дополнительным ресурсам — условие, не соответствующее реальной практике.
Это достижение отличается от предыдущих тестов ИИ в медицине, например, сдачи экзамена USMLE, где системы показывают почти идеальные результаты. Microsoft отмечает, что новый тест фокусируется на «последовательной диагностике» — ключевом навыке реальной врачебной работы, требующем глубокого понимания, а не запоминания.
В настоящее время MAI-DxO не доступен для клинического использования. Следующие шаги включают тестирование инструмента на более распространённых заболеваниях. Перед возможным внедрением потребуются клинические испытания для оценки безопасности и эффективности, а также одобрение регулирующих органов. Вице-президент Microsoft AI по вопросам здравоохранения Бэй Гросс назвал разработку «доказательством концепции», показывающим, что ИИ может осваивать сложнейшие диагностические задачи, используя врачебную логику.
Компания подчеркивает, что цель инструмента — не замена врачей, а поддержка: автоматизация рутинных задач, помощь в постановке диагноза и разработка персонализированных стратегий лечения. Подробности исследования изложены в научной статье, которая ещё не прошла рецензирование.
-
03.07.2025 12:11:00 | iXBT.com
03.07.2025 11:58:00 | iXBT.com
03.07.2025 11:44:00 | iXBT.com
03.07.2025 10:53:00 | iXBT.com
03.07.2025 10:53:00 | iXBT.com
03.07.2025 10:38:00 | iXBT.com
03.07.2025 10:38:00 | iXBT.com
03.07.2025 10:25:00 | iXBT.com
03.07.2025 09:57:00 | iXBT.com
03.07.2025 09:37:00 | iXBT.com
03.07.2025 09:30:00 | iXBT.com
03.07.2025 09:09:00 | iXBT.com
03.07.2025 08:53:00 | iXBT.com
03.07.2025 08:44:00 | iXBT.com
03.07.2025 08:17:00 | iXBT.com
03.07.2025 08:09:00 | iXBT.com
03.07.2025 07:59:00 | iXBT.com
03.07.2025 07:49:00 | iXBT.com
03.07.2025 07:42:00 | iXBT.com
03.07.2025 07:25:00 | iXBT.com
03.07.2025 07:17:00 | iXBT.com
03.07.2025 07:00:00 | iXBT.com
03.07.2025 06:50:00 | iXBT.com
03.07.2025 06:44:00 | iXBT.com
03.07.2025 06:33:00 | iXBT.com
03.07.2025 06:24:00 | iXBT.com
03.07.2025 06:14:00 | iXBT.com
03.07.2025 06:04:00 | iXBT.com
03.07.2025 06:00:00 | iXBT.com
-
03.07.2025 19:59:35 | ferra.ru
03.07.2025 19:30:33 | ferra.ru
03.07.2025 18:46:04 | vc.ru
03.07.2025 18:46:04 | vc.ru
03.07.2025 18:45:26 | ferra.ru
03.07.2025 18:37:52 | ferra.ru
03.07.2025 18:31:00 | КИНО-ТЕАТР.РУ
03.07.2025 17:53:09 | vc.ru
03.07.2025 17:45:59 | КИНО-ТЕАТР.РУ
03.07.2025 17:15:11 | ferra.ru
03.07.2025 17:06:00 | TheVoicemag.ru
03.07.2025 17:01:00 | КИНО-ТЕАТР.РУ
03.07.2025 16:30:00 | ferra.ru
03.07.2025 16:27:28 | it-world
03.07.2025 16:16:00 | КИНО-ТЕАТР.РУ
03.07.2025 16:03:14 | Хабр
03.07.2025 15:45:00 | ferra.ru
03.07.2025 15:44:45 | Кинопоиск
03.07.2025 15:30:00 | КИНО-ТЕАТР.РУ
03.07.2025 15:28:00 | ГАСТРОНОМЪ
Техническая поддержка проекта ВсеТут