Уже некоторое время на Пикабу всплывают посты возмущения тем, что нейросеть (главным образом Яндексовская) не хочет общаться на такие темы, как, например День Победы (и еще многие чувствительные темы). Что в основном воспринимается как жутко непатриотичное поведение.
Я хотел бы немного прокомментировать эту ситуацию. Начну, пожалуй, с того, что к Яндексу я не имею никакого отношения, никогда там не работал, и отношусь к этой компании настороженно и подозрительно, хоть и пользуюсь некоторыми сервисами.
Теперь к нейросетям. Здесь они стали заложниками маркетинга. Ну или не верного толкования сути явления. Потому что – что мы слышим с вами сейчас из каждого утюга? Правильно: «искусственный интеллект». А что же на самом деле?
Кого реально интересует, как это работает – рекомендую почитать статью Игоря Котенкова и Павла Комаровского на Хабре (https://habr.com/ru/companies/ods/articles/716918/).
Кто не любит долго читать – резюмирую. Нейросеть – это не «искуственный интеллект», это, как пишут авторы статьи «Т9 на бычьих стероидах», то есть программа (языковая модель), которая, на заданную тему, угадывает какие слова могут выстроится в последовательность, которую люди называют текстом. Она не думает. Не знает «что такое хорошо и что такое плохо». Она выстраивает слова в определенной последовательности, и угадывает, какое должно идти следующим. На основе тех текстов, на которых её «учили».
Для обучения модели ей «скармливают» тексты. Разумеется, чем больше – тем лучше (всё, что можно найти в интернете). Разумеется, заниматься модерацией этих текстов в подобных объемах не реально. Плюс всегда остается простор для различных интерпретаций и т.п.
Итог: что может ответить нейросеть на тот или иной вопрос предугадать невозможно.
Говорят, хорошо всё примерять на себя.
Учитывая устройство нейросетей, заставить их всегда отвечать «как надо» - нетривиальная задача. Контролировать ответы - только если с помощью модераторов людей. Что, учитывая широту использования практически нереально. По крайне мере, мне кажется так.
Если бы я сделал свою нейросеть и открыл бы ее для использования всеми желающими… Пожалуй, я запретил бы ей отвечать на определенные вопросы. Чтобы избежать проблем. Ну и просто, лично мне было бы неприятно, если бы нейросеть вдруг что-то «взболтнула» о том, что мне кажется дорогим и важным.
Так что «Алиса» - она не «непатриотичная». Она программа. Нет там никакого искусственного интеллекта. И сознания. Как и самосознания, в том числе национального - тоже нет.
А Яндекс… Ну, Яндекс прикрывает свою пятую точку, запрещая ей отвечать на очень широкий спектр вопросов. Как к этому относиться уже каждый сам для себя решает. Но в целом – это довольно очевидное решение. Да, так делают не все разработчики нейросетей. Но это уже немножко другая история…