Провалы искусственного интеллекта в медицине происходят потому, что это вовсе не интеллект, а схожий с системой распознавания лиц алгоритм, сказал газете ВЗГЛЯД руководитель экспертного совета ЭИСИ (Экспертный институт социальных исследований) Глеб Кузнецов, комментируя приостановку Росздравнадзором медицинской интеллектуальной системы Botkin.AI.
Отмечается, что данное решение принято в связи с «угрозой причинения вреда жизни и здоровью».
«Botkin.AI – очень расхваленная, распиаренная история. Так что для меня неудивительно, что приостановлено его использование. У нас это первый, но далеко не последний случай, когда проект в области медицинского ИИ провалится. В мире уже приостановлено использование огромного количества так называемых алгоритмов. Списаны миллиарды долларов инвесторов, которые вкладывались в эти самые алгоритмы, но пока ИИ в здравоохранении толком не взлетает нигде», – говорит Кузнецов.
«Современный медицинский искусственный интеллект – это «искусственный», но не интеллект вовсе. Эти алгоритмы напоминают скорее систему распознавания лиц. Соответственно, они не «думают», не анализируют, а лишь сопоставляют данные пациентов с загруженной в них базой. И на основе этого сопоставления делают выводы».
Например, если на снимке пациента есть какие-то отклонения от нормы, погрешности (которые, например, появляются из-за использования разного оборудования или индивидуальных особенностей пациента – врожденных или приобретенных), то точность сопоставления начинает падать. Подобная проблема встречается и при определении алгоритмами онкологических болезней, инсульта, инфаркта и других диагнозов.
«Точности алгоритмов недостаточно, потому что никакие уникальные случаи они в расчет не принимают просто по принципам их функционирования на настоящем этапе развития технологии. Возможно, следующие поколения алгоритмов будут избавлены от этих проблем, но пока надежды на медицинский ИИ, как диагностический философский камень – очевидный самообман», – заключил Кузнецов.
2023/11/21
https://vz.ru/news/2023/11/21/1240761.html