Ответ на пост «А ведь родственник мог умереть»3
Я не знаю, почему ещё никто не написал, о том, что ставить диагноз и лечить по gpt чату очень глупо, учитывая, что нейросети иногда тупо фантазировать, когда не знают правильного ответа .
Вот тут подробнее статья (вернее её часть, полную можно прочитать по ссылке) на эту тему:
"... Стартап Glass Health предлагает докторам ИИ-помощника, который даёт рекомендации по лечению на основе диагноза, а стартап K Health разработал чат-бот, к которому можно обратиться за советами по поводу здоровья.
Всё бы хорошо, но опасность ИИ-систем для применения в медицине заключается в том, что в ответ на запрос они дают не достоверный, но идеально правдоподобный ответ, так как их работа основана не на мыслительном процессе и не работе со смыслами, а на взвешивании вероятностей при составлении предложений из слов и более крупных кусков текста из предложений.
Из этого следует целый ворох проблем. Сегодня известен феномен галлюцинирующих ИИ-систем, которые на очевидные вопросы выдают очевидно неправильные ответы. Например, что туристический рюкзак и рюкзак с парашютом равнозначны для того, кто прыгает из самолёта.
В медицине галлюцинирующий ИИ заявил, что у людей с тёмной кожей выше болевой порог. ChatGPT посоветовал лечить мастит (воспаление женских молочных желез) горячими компрессами, массажем и учащённым кормлением, тогда как в официальной рекомендации содержалась противоположная рекомендация: холодные компрессы, покой и снижение частоты кормлений.
Как отмечает "Вашингтон пост", ИИ-секретари, которые должны вести протокол беседы с пациентом, с лёгкостью вписывают в текст то, чего никто не говорил или начинают подыгрывать врачу, вольно развивая одну из мыслей, проскользнувших у него в разговоре с пациентом.
При этом с развитием технологий всё больше врачей будут слепо полагаться на выводы и рекомендации, предложенные ИИ, а впоследствии, как и положено в экономически эффективной системе, неумелых посредников выкинут на помойку, как испорченный телефон.