Искусственный интеллект полезен при условии, что человек обладает какой-то компетенцией и способен оценить факты и выводы, которые он ему выдает ИА Красная Весна
Искусственный интеллект (ИИ), его возможности и перспективы всё чаще становятся темой споров как специалистов, так и людей, далеких от IT-сферы. В нем находят как полезные для человека возможности, так и негативные, а иногда просто опасные. Но несмотря на неоднозначность этой технологии, наше государство сделало большую ставку на развитие искусственного интеллекта. Он активно внедряется во все сферы деятельности, даже в те, которые, казалось бы, более всего требуют присутствия человека, — образование и медицину.
Чего нам ждать от нового витка развития технологий, теперь цифровых? Заменит ли ИИ человека, и если да, то где и в чем? Как скоро это произойдет? Наконец, готовиться ли нам к «восстанию машин», или опасения по этому поводу сильно преувеличены? Об этом мы побеседовали с инженером-исследователем в области ИИ Андреем Жониным.
Корр.: Андрей, расскажите, чем вы занимаетесь.
Андрей Жонин: Я инженер-исследователь в области речевых технологий. Это одна из областей искусственного интеллекта. Корректнее называть это машинным обучением. Мы занимаемся распознаванием речи, синтезом речи, обработкой естественного языка, в том числе тех самых больших языковых моделей, вокруг которых сейчас поднялся большой ажиотаж.
Корр.: Сам термин «искусственный интеллект» вызывает большие споры, он имеет множество определений, иногда противоречащих друг другу.
Андрей Жонин: Этот термин используется с 1960-х годов. Сейчас большинство специалистов считают, что ИИ — это просто нечто, повторяющее интеллектуальные возможности человека. Зрение, слух, логическое мышление, умение понимать текст, что-то сочинять, что-то творить и так далее. То есть можно предположить, что, если машина обретет свободу воли, она станет в каком-то смысле эквивалентна человеку. Есть такое представление в определенных кругах. Можно даже сказать, что существует такая идеологическая установка. Но, конечно, сейчас этого нет, сейчас машины свободой воли и сознанием не обладают.
Корр.: То есть мы можем относиться к искусственному интеллекту всё еще как к инструменту, а не как к какой-то субличности?
Андрей Жонин: Сейчас — как к инструменту. Но вообще, это порождает очень много вопросов о будущем человечества, потому что этот инструмент будет развиваться и рано или поздно его интеллектуальные возможности будут превосходить интеллектуальные возможности человека. То есть мы будем обладать инструментом, с которым человек не соразмерен. И вот в связи с этим нам необходимо думать о развитии человека и его месте в этом мире.
Корр.: В каких отраслях искусственный интеллект способен заменить человека, а в каких нет? Какие профессии станут вскоре неактуальны для человека?
Андрей Жонин: Сначала, видимо, будут заменяться профессии, которые являются в каком-то смысле рутинными и легко автоматизируемыми. Например, продавцы и водители. И мы уже видим, как появляются супермаркеты без кассиров. Всегда нужен человек, который присутствовал бы в магазине и мог бы какие-то сложные вопросы решать, но число продавцов вполне можно уменьшить. То же самое с водителями. Можно себе представить такую ситуацию, когда один человек управляет не одной машиной, а несколькими, тем самым сокращая потребность в работниках. Это наверняка будет происходить. Возможно, со временем заменят сотрудников техподдержки, менеджеров по продажам на массовом рынке. Наверное, стоит ожидать именно этого.
Корр.: Наши власти сейчас активно продвигают технологии ИИ в медицину и образование. ИИ сможет заменить такие профессии, как врач и учитель?
Андрей Жонин: Глубоко сомневаюсь. Прошлой осенью была новость о создании программы искусственной интеллектуальной системы для расшифровки результатов томографии, но позднее Минздрав решил прекратить ее использование. Оказалось, что система начинает работать с большими ошибками, если ситуация относительно сложная, или оборудование немного другое, или же ситуация просто выходит за рамки того, что было в обучающей выборке этой системы.
Человек же в любом случае, даже если это незнакомая ситуация, начинает думать логически, он хотя бы понимает, что это другая ситуация. Машина пока так не может. Даже для таких узких задач в медицинской области, как анализ томографии, например, требуется очень существенная доводка. Медики говорят о так называемых нозологиях, то есть, условно, о болезнях. У них в нозологии десятки тысяч случаев. Чтобы искусственный интеллектуальный терапевт был полезен, нужно, чтобы он умел распознавать эти десятки тысяч случаев. А есть еще сочетания симптомов болезней, какие-то особые случаи, и вообще обычно всё с каждым пациентом индивидуально.
На конференции AI Journey 2024, которая проходила осенью, была представлена, если не ошибаюсь, система Сбербанка, которая распознавала, как они говорят, 400 случаев в нозологии. Сравните: 400 и десятки тысяч. Вряд ли возможно, чтобы искусственный интеллектуальный терапевт мог бы заменить врача.
Корр.: А как искусственный интеллект может помочь медикам?
Андрей Жонин: Наша печальная реальность заключается в том, что у нас сокращаются ставки, особенно в малонаселенных районах, в деревнях, в районных центрах и так далее. Насколько мне известно, поликлиники централизуют, и может возникнуть соблазн заменить некоторых медиков искусственной интеллектуальной системой, которая будет ставить диагнозы, потому что «если всё равно медиков нет, то пусть хотя бы так». Но дело в том, что реально заменить человека сегодня можно только для анализа какой-то технической информации. Например, та же томография, 3D-томография или искусственно-интеллектуальная МРТ. Она сделана по примерно таким же технологиям.
Кроме того, конечно, медикам важно иметь возможность быстро находить какие-то прецеденты, похожие случаи назначений и так далее. Им нужна поисковая система, чтобы истории болезней своих пациентов представлять в формализованном виде. Это может быть какая-то база данных, в которой можно было бы найти сходные случаи и получить рекомендации. Кроме того, в США, где труд врачей стоит очень дорого, а запись результатов анализов или же результатов обследования отнимает много времени, этот процесс автоматизировали: врач просто надиктовывает, а система на слух распознает речь и заполняет карточку пациента и исследования. Это действительно экономит время, это полезно, у нас этим тоже занимаются.
Корр.: Конечно, как инструмент, помогающий врачам, искусственный интеллект нужен, без всякого сомнения. Но вот сейчас пытаются внедрить искусственный интеллект в школьном образовании, для проверки домашних заданий. И предлагается, чтобы искусственный интеллект выбирал индивидуальную траекторию обучения ребенка, формировал базу данных для этого.
Андрей Жонин: У меня такой подход вызывает сомнения, поскольку нужно понимать специфику обучения искусственного интеллекта. Она заключается в том, что для принятия искусственным интеллектом верных решений ему нужна обучающая выборка. А конкретно в этом случае мы не знаем, какие промежуточные шаги были правильными, мы знаем лишь конечный результат: например, «успешный профессионал, любящий свое дело». И мы должны каким-то образом понять, исходя из конечного результата, какие промежуточные шаги были верными. И специфика таких систем заключается в том, что для правильного обучения такого рода систем нам нужны миллионы, а в некотором случае миллиарды примеров.
Я не представляю, насколько это реалистично. Тем более что у нас меняется историческая ситуация, меняются потребности общества, меняется психологическое состояние детей, населения и так далее. Каким образом меняется тот домен (область применимости), о котором мы всё время рассуждаем? А искусственная интеллектуальная система требует, чтобы он был неизменным, иначе модели перестают работать точно. Как в этом случае надежно обучить систему? Она в любом случае будет хуже, чем самый плохой учитель. Чуть лучше, чем случайный выбор.
А что касается проверки домашних заданий, мне непонятно, откуда возникла такая потребность. Получается, что учитель настолько загружен, что ему некогда это делать, или же домашнее задание так устроено, что не нужен человек, чтобы его проверить. Если они устроены так, что там можно формально проверить ответ, то это похоже на тесты. И непонятно, зачем тут искусственный интеллект, потому что в тесте выбрал несколько вариантов или написал ответ в клеточках. Для этого системы уже есть, они нормально работают, их не нужно называть искусственным интеллектом.
А если мы говорим о проверке сочинений, как раз осенью прошлого года «Яндекс» сообщал, что они сделали систему, позволяющую писать сочинения, которые проходят ЕГЭ. Я посмотрел, как она это делает, и у меня возникли серьезные вопросы к тому, какие требования предъявляются к сочинениям. Естественно, если нужно выполнить какие-то формальные требования, суть которых в том, что у вас в тексте должны содержаться чуть ли не ключевые слова и фразы, может быть, видоизмененные, то непонятно вообще, какова цель таких сочинений. Тут не наблюдается приведение ИИ к уровню учителя, тут наблюдается, скорее, приведение учеников к уровню, который позволяет проверить их с помощью ИИ. Это негативное явление, на мой взгляд.
Корр.: То есть соблазн заключается в том, чтобы уровень образования учеников понизить специально для того, чтобы ИИ справлялся с работой?
Андрей Жонин: Если посмотреть на то, как устроены сочинения, то формальные требования к ним вовсе не так уж плохи. Формальные требования существуют и при написании диссертации. Но диссертация, которая только выполняет формальные требования и ничего кроме этого, — не нужна. То же самое должно быть и с сочинениями, но почему-то этого не происходит, почему-то считается, что формальных требований достаточно. Естественно, это деградация. Мне кажется, что натаскивание человека, который, вообще говоря, должен быть творческой личностью, на что-то, что проверяет заведомо не творческая система — это дело плохое.
Корр.: Это означает, что задача развития в ребенке творческой личности и искусственный интеллект несовместимы? Потому что искусственный интеллект в принципе не может осознать, понять, что такое творчество.
Андрей Жонин: Да. Нельзя сказать, что искусственный интеллект может оценивать результат творчества. Возможно, он может выступать обучающим инструментом. Но и тут есть сложности. Мы можем ожидать, что искусственный интеллект будет галлюцинировать, то есть выдавать заведомо неверную информацию. А это для обучения истории, например, просто недопустимо. Из практики видно, что, когда школьник обращается к искусственному интеллекту, у него нет гарантии, что это будет достоверная информация. Да это в принципе невозможно. Искусственный интеллект до сих пор не может заменить классические бумажные учебники.
Корр.: Может, просто человечество пока не готово создать какую-то универсальную или достаточно мощную систему ИИ? Может, в будущем технологии изменятся, и это станет возможным?
Андрей Жонин: Технологии изменятся, разумеется. Что касается текущих больших языковых моделей, которые обычно сейчас называют искусственным интеллектом, они неизбежно галлюцинируют, и с этим ничего поделать нельзя.
Корр.: А что значит «галлюцинируют»?
Андрей Жонин: Они придумывают факты. Придумывают факты или взаимосвязи между ними. Говорят такое, чего вообще не существует. Могут придумывать выдуманные ссылки. С этим, конечно, пытаются бороться, может, процент таких ошибок уменьшается, но дело в том, что полностью избежать этого невозможно. Объясню, почему. На текущем уровне технологий мы все эти системы обучаем на человеческих текстах, то есть буквально доходит дело до того, что мы все тексты со всего интернета собираем (а сейчас уже и видео, то есть тексты собираются с YouTube, со всех возможных источников видеозаписей) и на этом обучаем систему.
Но проблема в том, что те, кто это делает, даже если это очень крупная компания (OpenAI, Microsoft, Google, Facebook (организация, деятельность которой запрещена в РФ), «Яндекс», Meta (организация, деятельность которой запрещена в РФ)), они не могут проверить эти тексты. Они даже их прочитать не могут. В принципе, это невозможно. Они не могут даже прочитать, полностью проверить обучающие выборки, которыми эта модель донастраивается. И в этом смысле мы обучаем эти модели на продукте своей умственной деятельности, который не всегда хорош.
Конечно, эти языковые модели достигают определенной осведомленности в некоторых областях, но это немного не то. Кроме того, есть еще такая проблема, что чем больше проходит времени с момента открытия этих языковых моделей, тем больше появляется текстов, ими сгенерированных, и они попадают в обучение этих самых языковых моделей, что негативно сказывается на их производительности.
Теперь насчет будущего. Тут, конечно, можно только выдвигать предположения. Во-первых, давайте подумаем, а что, вообще говоря, такое человек? Чем он отличается от машины? Если мы говорим, что человек — это создание, способное к творчеству, то он, в отличие от машины, способен порождать принципиально новую информацию.
Понятно, что все нейросети и все информационные алгоритмы обработки устроены таким образом, что они не могут порождать новую информацию, они лишь комбинируют ту, которая им известна. Мы можем считать картинку, нарисованную по запросу нейросетью типа Кандинского, чем-то новым и не существовавшим ранее. Но, на самом деле, это очень тонкая комбинация из известного этой модели, из того, что уже было. А человек в принципе способен создавать совершенно новые вещи.
Посмотрим на историю человечества: в каменном веке вообще ничего не было, а сейчас у нас большая, очень интересная цивилизация, в которой много чего есть из того, что вообще в природе не встречается. Это значит, что человек придумал что-то новое. Поэтому мы, я полагаю, не должны ожидать, что машина когда-нибудь сравняется в этом смысле с человеком, но, возможно, она станет чем-то другим для него. Возможно, она станет каким-то интеллектуальным усилителем или даже в каком-то смысле партнером. Существует много очень интересных, в основном, конечно, фантастических идей на этот счет. Но они относятся уже к будущему, а не к текущему состоянию.
Корр.: Как можно использовать искусственный интеллект в оборонной отрасли, когда уже буквально от его работы зависят жизни людей?
Андрей Жонин: Давайте сначала вспомним недавнее событие, связанное с системой Lavender, которую применяет Израиль, чтобы вычислять членов ХАМАС. Они применяли эту систему для того, чтобы выяснить, куда наносить удары в секторе Газа. Эти данные приведены на сайте РСМД. Результат работы системы — гибель более 30 тысяч мирных жителей, среди которых множество женщин и детей. Люди были убиты потому, что израильские военные использовали искусственную интеллектуальную систему. Конечно, это ошибка человека, прежде всего. Понятно, что система была на чем-то обучена.
Она давала надежность 0,9, то есть 90% правильного определения принадлежности человека к ХАМАС. Но они же начали использовать ее расширительно и уже в других условиях. Хамасовцы, естественно, не задерживаются долго на одном месте. Член группировки прибыл в какой-то дом, что-то сделал и ушел. Через два часа туда наносится удар, а там живут другие люди. Израильтяне думают: какая разница, сколько будет сопутствующих жертв, нас всё равно это устраивает, если есть какой-то шанс убить члена ХАМАС. Это военная логика. Но это человеконенавистническая логика, я бы сказал.
Вообще, мы вошли в новую эпоху, когда воевать между собой уже начинают роботы. Мы уже имеем дело с войной дронов. Наверное, можно ожидать, что победа достанется тому, кто все-таки сможет сделать самые развитые системы, в том числе автономные, основанные на использовании искусственного интеллекта. В США еще осенью прошлого года была принята программа «Репликатор», суть которой заключается в массовом использовании беспилотных и безэкипажных систем. Они наконец признали, что дорогущие пилотируемые платформы типа F-35 их не устраивают, потому что потери таких систем очень чувствительны. Американцы всерьез вкладываются в так называемые attrition warfare, если переводить буквально — к «истираемым» вооружениям, которые будут представлять собой некие дроны, производимые модульно и массово.
В США считают, что они смогут модулями набирать нужный функционал. Создается и автономная управляемая система: человек только ставит дронам задачи, а они летают, ездят или плавают, выполняя то, что от них требуется. Их потерять не жалко, поскольку они сто́ят на порядок дешевле, чем, допустим, тот же F-35. А F-35 где-нибудь вдалеке летает и управляет этим всем. Вот так это всё, видимо, будет устроено.
Конечно, сейчас есть очень много групп, которые занимаются автономным управлением дронами и автономной борьбой с дронами. Поскольку дроны летают очень быстро, и человек не успевает реагировать на них, нужна, естественно, какая-то система, умеющая делать это быстрее человека. Безусловно, она будет автономная, искусственно-интеллектуальная. То есть можно представить какую-то турель, которая следит за пространством, она должна быть маленькой, она должна быстро реагировать, распознавать эти дроны, отличать наших от ненаших и сбивать всё вражеское. Дальше будут создаваться роевые структуры. Пока этого сделать не получается, и приблизительно понятно, почему — там есть проблемы с вычислениями, энергетикой.
Военные эксперты утверждают, что эти искусственно-интеллектуальные технологии представляют собой опасность в том смысле, что, в отличие от ядерных и ракетных технологий, их очень легко реализовать какому-нибудь даже очень небольшому субъекту — политическому или военному. Условно говоря, скачать с интернета, использовать, применить. Иначе говоря, рано или поздно эти технологии попадут к противнику и вообще ко всем, и все будут ими владеть. И в каком мире мы будем жить тогда?
По сути, уже будет неясно, кто и что делает, поскольку какие-то анонимные дроны будут, например, устраивать какие-то теракты и непонятно будет, кто это всё устроил, зачем и что с этим делать. Пока это не так. Пока, несмотря на множество громких заявлений о том, как эти системы замечательны, они работают из рук вон плохо. В некоторых узких областях существующие сегодня проблемы будут постепенно мучительно преодолеваться. Однако рабочие варианты рано или поздно появятся.
Корр.: Искусственный интеллект становится серьезным универсальным инструментом, который можно использовать как во благо человека, так и во вред?
Андрей Жонин: Да, безусловно, но самое пугающее, на мой взгляд, — это возможность с помощью искусственного интеллекта собирать белки, молекулы и — не исключено, в дальнейшем — собирать живые организмы, обладающие некими заданными свойствами.
Например, можно предположить, что будут собираться какие-то вирусы. На мой взгляд, это тоже будет трудно сделать, поскольку наше представление о том, как устроена жизнь, мягко говоря, очень приблизительное. История с вакцинами это показала. Это сложно и, скорее всего, у нас не хватит реальных знаний на то, чтобы соорудить нечто апокалиптически плохое, но какие-то проблемы, конечно же, возникнут. Да и вообще, для того чтобы создать вирус, уже не нужно владеть специальными институтами или же целой отраслью промышленности крупного государства. Для этого нужна лаборатория средних размеров, в которую можно поместить специальные биотехнологические машины (такие уже существуют). По сути, любой среднебогатый актор может соорудить нечто подобное. Естественно, найдутся желающие этим заниматься в тех или иных целях.
Корр.: А ведь цели могут быть и очень опасными. На фоне развития искусственного интеллекта всё больше возникает вопросов о развитии человека и его роли в этом новом мире.
Андрей Жонин: Да, безусловно. Военные эксперты обсуждают еще один сценарий, связанный с тем, что решения этими системами искусственного интеллекта принимаются очень быстро. Вполне может оказаться так, что мировая война начнется непреднамеренно, потому что какой-нибудь дрон атакует другой, а тот атакует в ответ, и таким образом будет запущен процесс эскалации. Может сложиться такая ситуация, при которой о мировой ядерной войне мы узнаем буквально за минуту до ее начала.
Искусственный интеллект требует надзора человека. А с нашей системой образования становится страшно за наше будущее. Кто будет надзирать за этой системой искусственного интеллекта, если образование у нас сводится к обслуживанию искусственного интеллекта, то есть подгоняется под возможности искусственного интеллекта?
Да, ИИ, объективно говоря, полезен. Он полезен при условии, что человек обладает какой-то компетенцией и способен оценить факты и выводы, которые выдает ему искусственный интеллект.
Корр.: Спасибо, Андрей, за очень интересную беседу.