Медицина и интеллект (искусственный)
Не так давно промелькнул пост о сравнении кожаного интеллекта в медицине и искусственного (мол, второй шибко баще первого, таки дела).
Работаю детским онкологом в регионе(терапевтический профиль, по сути), и позволю себе вставить свои пять копеек.
ДА, ЛУЧШЕ. Но с большим количеством оговорок. Постараюсь объяснить свою позицию подробнее.
Даже на современном уровне развития доступных нейросетей, они - прекрасный инструмент для врача, особенно на этапе диагностики (правильный диагноз = 90% успеха). Пока идет внедрение клинических рекомендаций (а они есть далеко не для каждой болезни), простецкое вбивание в запрос для ИИ правильно собранных симптомов и данных обследования позволяет сразу составить или скорректировать план диагностического поиска в затруднительной ситуации. Я говорю про госпитальный этап - в амбулатории, как правило, проблемы несколько проще, хотя данное утверждение, несомненно, спорно.
ИИ непредвзят, четок, не устал, не держит в голове "красивый" диагноз, не зависит от мнения заведующего или родственников пациента. Он формирует мнение, опираясь лишь на огромное количество актуальных баз медицинских данных.
И вот тут - первая оговорка: жалобы на здоровье рассказывает пациент. симптомы проверяет и интепретирует врач. Анамнез собирает тоже врач. Динамику показателей анализов/данных визуализации анализирует врач, запрос для ИИ формирует врач (пока иначе никак). Проблема? Может - да, может - нет, а может...
А если пациент врет? Аггравирует или, наоборот, умалчивает? А если допущены ошибки при заборе крови на анализ, например? А если неточно проведено физикальное обследование (пальпация, аускультация и тд)? А если... и тут можно продолжать долго, ведь и оценка симптомов, и интерпретация данных обследования (КТ/МРТ/УЗИ/анализов) имеет колоссальное количество нюансов: физикальное обследование - субъективно, какой аппарат выполнял исследование, правильно ли выполнена подготовка пациента, какие реактивы, правильно ли выполнено само исследование. А ведь именно на эти данные мы обопрем решение ИИ. Проблема? Пока что, да.
Вторая оговорка - юридическая. Допустим, специальная нейросеть внедрена в процесс оказания помощи. Базы данных ИИ должны быть утверждены, согласованы, заверены, подтверждены миллиардом мнений/авторитетных исследований/ведущих специалистов и еще хрен пойми чем. По идее, ИИ должен подписываться под своим заключением (ахах), реально ли это - не знаю.
Но что будет, если мнение консилиума спецов в конкретном случае будет отличаться от мнения ИИ? Как фомулировать обоснование окончательного решения пациенту? "Согласно мнению Скайнет, выбрана тактика..."? Или: "несмотря на мнение Скайнет, выбрана тактика...". Проблемка, да. Кто понесет ответственность, если план действий, созданный на снове мнения ИИ, привел к ошибке? Или наоборот, состояние пациента ухудшилось, а из колонок оповещения при пожаре в отделении вдруг заиграл трек "громыка" - "говорил я вам"? Ведь озвученные в исходной статье данные говорят лишь о большей правильности решений ИИ, никто не говорит о 100% точности.
А если план цифрового мешка хорош, но кожаные мешки реализовали его криво, с погрешностями? А если запрос был сформулирован с ошибками и неточностями, и из-за этого цифровой налажал? А как этого всего избежать? Пахнет клиническими рекомендациями по использованию ИИ)
И да, на каком этапе обращаться к ИИ? Если пациент требует неотложнейшего спасения - что отражать в документах? "Критическое состояние, попытки реанимации безуспешны, к ИИ не обращались" - так? Выглядит не очень, согласитесь)
Фронт работы огромный. И тем не менее, это перспектива. схема взаимодействия "консилиум + мнение ИИ" - самый вероятный сценарий развития на данный момент, как мне кажется.
И да, лично я в работе довольно часто обращаюсь к нейросетке при затруднениях. Как минимум, в ответ приходит неплохой список моментов для дополнительного размышления, которые неочевидны при первичном рассмотрении проблемы.
Так что вот. Буду рад обсудить любые вопросы, это одна из актуальнейших тем сейчас, как мне кажется. Спасибо, что дочитали.





