Искусственный интеллект превзошел человека в точности при анализе УЗИ сердца.
Исследователи из университета Сан- Францисско доказали, что одна из ветвей исскуственного интеллекта, известная как продвинутое машинное обучение, может классифицировать необходимые УЗИ снимки быстрее, и с большей точностью, чем сертифицированные специалисты.
В исследовании, опубликованном онлайн 21 Марта 2018 в журнале npj Dijital Medecinе, анализировалось 180 000 реальных эхокардиограмм. После чего была обученная модель. Дававшая точность определении заболеваний в 91,7-97,8% против 70,2-83,5% человека- эксперта.
Эта модель может помочь врачам увеличить их эффективность и точность в выставлении диагноза.
Снимки это важная часть медицинской диагностики, но интерпретирование снимков, таких как эхокардиограмма, сопряжено с рядом трудностей. Временно затратные диагностические процедуры требуют интенсивной подготовки специалиста. Процесс измерения эхо требует около десятка снимков под разными углами. И некоторые из них могут содержать мало заметные детали, но существенно влияющие на точность интерпретацию снимка.
Способность замечать едва уловимые детали ограничивает человеческую интерпретацию, тем самым снижая возможность использовать эхо в высокоточной медицине.
Глубокое обучение(Deep learning)- мощный инструмент, представляющий многоуровневую модель продвинутого машинного обучения. Уже применяемую для диагностики в радиологии, патологий, дерматологии и других областях медицины. Тем не менее, этот метод еще не так широко используется при анализе кардиограмм, из- за сложности многоуровневых изображений.
В npj Digital Medicine , Анаот и его коллеги использовали 223,787 изображений 267 UCSF , пациенты были в возрасте от 20 до 96 лет, проходившие обследования с 2000-2017. Случайно отобранные достоверные эхокардиограммы полученные от различных кардиографов, и покрывающих множество вариаций заболеваний, технической оснащенности, так же разнообразие пациентов, включающий изменение в весе и гендерных отличиях.
Исследователи построили многоуровневую нейросеть, обученную с подкреплением. Они случайно выбрали 80% изображений 180 294 для обучения, и зарезервировали 20%(43,493) выборки для контроля качества.
Для сравнения сертифицированным кардиографам были предложены 1500 изображений для классификации, 100 из которых взяты из набора обучения модели.
Дальнейший анализ показал, что обученная модель способна предсказывать с 97,8 % точности за 12 просмотров видео. В отличии от точности специалистов, составившей до 83,5% . Метод позволил находить статически значимые для диагностики закономерности на фото и видео. Исследователи продолжают работу по дальнейшему улучшению модели.
Оригинал статьи
https://www.ucsf.edu/news/2018/03/410071/ai-quicker-more-eff...