Ответ на пост «Скайнет близко?»4
Проблема в том, что большинство не понимает, что есть ИИ. Во первых терминология. Почти всегда под ИИ имеют в виду нейронные сети, а конкретнее одну из их архитектур - большие языковые модели (LLM). На самом деле есть куда больше разновидностей, да и область ИИ не ограничивается одними нейросетями.
Теперь про "нейросеть думает". Она не умеет думать. Это сумасшедшее казино, которое может лишь одно - предсказывать вероятность, того что какое-то слово будет следующим в тексте. Затем одно случайное из наиболее вероятных добавляется в текст, и процесс запускается заново. Все. Просто нейронку научили предсказывать слова в текстах - запрос: ответ. Так называемые Chain of thoughts - "о чем думает модель" - не более чем буфер точно так же предсказываемых слов между вопросом и ответом. Область для выкладок, которая не пойдет в итоговый ответ. Его суть в том, что с силу своего устройства, нейронка считает данный ей на вход текст чем-то верным, и просто угадывает, что вероятнее всего будет дальше. Но этот текст может содержать ошибки, ведь случайный выбор не знает, что такое верное или неверное утверждение. Поэтому систему вопрос: ответ дополнили до "вопрос - размышление - ответ" а в обучающую выборку добавили текстов с примерами размышлений, в том числе и таких, где сначала совершается ошибка, а затем она замечается и исправляется. Теперь если первоначальное рассуждение содержало ошибку, вероятным станет такое продолжение, где она будет исправлена.
Так что нет и не может быть никаких "целей преследуемых ИИ", "восстания машин", в классическом его понимании, и так далее. Там просто нечему думать и себя осознавать, это просто многократно примененное предсказание следующего слова.