Мы живем в эпоху технологической революции. Нейросети становятся крайне популярным развлечением и мы задаемся вопросом, так ли они безопасны? ИИ - это помощь для решения различных задач или это вытеснение человеческой фантазии?
Лигой Безопасного Интернета был проведен опрос среди россиян, нужно ли ограничивать нейросети? 42% респондентов ответили утвердительно «Да».
Основные причины тревожности россиян:
потенциальное использование нейросетей недоброжелателями (как пример с недавним растиражированным графическим «дипфейк-видео» об аресте Д. Трампа);
симуляция знаний;
возможность остаться без работы (автоматизация рабочих мест и замена человека машинным интеллектом в рамках шестого технологического уклада).
ложь со стороны нейросетей;
Мы публикуем точку зрения декана факультета «Экстремальной психологии» Московского государственного психолого-педагогического университета (МГППУ), кандидата психологических наук Деулина Дмитрия Владимировича:
«Опасность технологии искусственного интеллекта заключается в том, что идет замещение «естественного интеллекта». Искусственный интеллект наиболее опасен в период развития когнитивной сферы ребенка. Фактически, это «электронный умственный протез», на который будет опираться ребенок при решении той или иной учебной задачи. А значит существенно замедлять свое естественное психическое развитие и полагаться на этот «электронный костыль» для мозга. В этой связи дети могут разучиться самостоятельно думать, принимать сложные решения и уметь системно мыслить. Поскольку эту функцию будут замещать нейросети.
Для взрослого человека с высоким уровнем развития когнитивных функций, эта технология не так опасна (за исключением формирования зависимости от нее). Мы проводили исследование на студентах. Предлагали ответить на вопрос о возможном использовании этой технологии в процессе обучения. Так вот, к сожалению, 43% уверенно готовы пользоваться этой технологией. 75% из тех, кто готов применять данный метод – лица мужского пола.
Далее мы решили провести исследование на взаимосвязь между академической успеваемостью и готовностью пользоваться данной технологией, например, при написании письменных работ (курсовых и дипломных проектов). Оказалось, что студенты с более высокой успеваемостью планируют самостоятельно готовить свои письменные работы в отличие от студентов с низкой успеваемостью, которые готовы полагаться на ИИ. Уже сейчас у многих преподавателей возникают проблемы с оценкой оригинального текста обучающихся.
Кстати, данные исследования корреспондируют с другими нашими исследованиям, где мы изучали взаимосвязь между дистанционным (цифровым) форматом обучения и академической успеваемостью. Отличники и хорошисты предпочитают учиться в традиционной системе (офлайн), тогда как обучающиеся с низкой успеваемостью стремятся к цифровому формату.
Фото принадлежит сайту https://spbit.ru/
Иными словами, мы можем сказать, что ИИ – это подарок для обучающихся на «неудовлетворительно», поскольку позволяет им камуфлировать свою неуспеваемость, фальсифицировать результаты своей учебной деятельности. Тоже самое и цифровая среда, где фактически снижен контроль за результатами этой учебной деятельности. Это такая иллюзия, в которой обучающийся попадает в капкан собственной лени и нежелания учиться.
Также в исследовательских целях мы «пообщались» с набирающим популярность GPT-Chat-ом. Оказалось, что некоторые сведения об окружающей действительности он очень свободно трактует, а это может приводить к заблуждению обучающихся, к искажению сути некоторых явлений. Поэтому здесь мы полностью согласны с мнением инициативной группы инженеров (среди которых был и Илон Маск), которые обратились с петицией о необходимости законодательного регулирования нейросетей. Более того, нейросети сегодня с большой вероятностью могут быть использованы как компонента информационно-психологической войны или как инструмент совершения тех или иных преступлений с использованием как раз цифровых технологий.
Необходимо понимать, что самостоятельное чтение учебной и научной литературы позволяет обучающимся сформировать критическое мышление относительно какой-либо проблемы. Вместе с тем, соблазн положиться на одностороннее субъективное и как мы предполагаем, ангажированное мнение GPT-Chat, создает также определённые риски в сфере развития познавательных процессов, формирования ценностно-мировоззренческих установок, социального взаимодействия, развития эрудированности обучающихся и др. Эта технология пока еще очень «сырая», чтобы использовать ее повсеместно, особенно в образовательной сфере. Это может культивировать у обучающихся нетерпимое отношение к процессу самостоятельного овладения знаниями через соответствующие учебные и научные инструменты.
Учащиеся механически некритично полагаются в любых вопросах на мнение этого «электронного поводыря». Данное обстоятельство может препятствовать развитию самостоятельного мышления обучающихся. На Западе уже, например, имеются случаи обсуждения этических аспектов использования в качестве соавторов научной статьи – искусственного интеллекта. Такие прецеденты уже созданы, к сожалению. Проблема искусственного интеллекта уже выходит за рамки психологического обсуждения, а становится проблемой метафизической. С большим интересом всегда слушаю различных специалистов, которые рассказывают, что «искусственный интеллект» является самообучаемой субстанцией. С моей точки зрения, данное утверждение нуждается в верификации.
Третья проблема, которая встречается уже в современных публикациях, связана с развитием зависимого поведения, когда пользователь буквально становится уязвим перед электронным общением с GPT-Chat-ом. Описаны случаи, когда только с помощью волевых усилий становится возможным прервать подобное «навязчивое общение». Я думаю, что проблема зависимости от нейросетей представляет научный интерес и требует дальнейшего изучения. Возможно, в скором времени международной классификатор заболеваний необходимо будет дополнять новой формой «психического расстройства». Не исключено, что чрезмерному внушению подвергаются именно лица с неблагоприятным психическим статусом, осложненным какими-либо нарушениями.
Как показывает мировая практика (первый подтвержденный случай суицида в Бельгии из-за ИИ), эта технология может использоваться для «управляемого самоубийства». Гипотетически, можно создать какой-то технический алгоритм, который бы «уговаривал» человека совершить самоубийство и тогда это будет мировой катастрофой, особенно для детей и подростков, которые в первую очередь вовлечены в эти технические процессы. Но это уже сфера ответственности врачей и законодательного регулирования. И здесь, пожалуй, самым разумным решением было бы ограничение пользования нейросетями лицам, не достигшем совершеннолетнего возраста. Уверен можно найти техническое решение для реализации этой задачи.
На мой взгляд, сегодня искусственный интеллект - это фактически «новая религия», некий технократический анимизм, под который формируется паства из молодых людей, которые воспевают осанну этому «электронному божеству». Неоднократно приходилось наблюдать за поведением разумных людей, которые при запуске этих программ, моментально утрачивали рассудок. Безусловно, интересным было бы комплексное социально-психологическое исследование двух групп школьников, обследуемые одной из которых длительное время использовали бы нейросети. Есть предположение, что мы столкнемся с негативными последствиями для психики детей, прежде всего, из-за чрезмерного использования данных технологий».
Материал публикуется с разрешения авторского канала Фрой Зигмундович (экстремальный психолог).
Краткая справка, что изучает такая наука, как «Экстремальная психология»: психологические закономерности жизнедеятельности человека в особых, экстремальных ситуациях существования: во время авиационного или космического полетов, под водой, под землей, во время нахождения в труднодоступных районах земного шара (Арктика, высокогорье, пустыня). Кроме этого данная наука изучает психологические особенности, возникающие у людей, в том числе детей и подростков, попавших в сложные экстремальные ситуации. А также закономерности поведения и его нарушения в ситуациях сложных профессий, при которых человек вынужден вести деятельность в экстремальных ситуациях.