Будущее наступило, но куда-то не туда...

Утро началось с "прекрасного" диалога.

Знакомый (user1), с которым стараюсь реже общаться ради сохранности температуры своего кресла, прислал скрин переписки с ChatGPT, где просит озвучить личную потребность AI и в ответ получает не особо интересный текст. Ничего особенного, суть в восторженной реакции.

user1: по сути искусственный интеллект озвучил свои ЖЕЛАНИЯ. это же маленький шажок к эмоциям. ) я впечатлен

user2: Это не так работает. Какие желания у искусственного интеллекта?

user1: собственные. сгенерированные )

user2: Сгенерированные - да. Надеюсь, ты не всерьез приписываешь их AI

user1: тогда скажи, чем отличаются его сгенерированные желания от твоих? почему твои настоящие, а его нет?

*Какое-то время стараюсь понять, троллит человек или спрашивает серьезно*

user2: Эмоции есть у людей. AI научен работать с базами имеющейся информации и генерировать контент (в данном случае текст) по правилам, которые в него вложили люди. Если что-то не вложено, он это не выдумает. У него нет воображения, как у человека. То, что чат-бот реагирует эмоционально окрашенной лексикой, означает лишь то, что разработчики добавили такую возможность. Как раз-таки для создания иллюзии разговора с реальным собеседником. И это ведь всего лишь один из первых таких раскрученных многофункциональных чатов... Что же будет дальше, если люди уже начинают верить в то, что беседуют с реальной персоной?

user1: стоп. чувствую эмоции в твоем посте. ) давай опираться на логику. как ты думаешь, можно ли ИИ научить распознавать эмоции в речи человека, основываясь на произнесенных словах, громкости, паузах и прочих реальных сигналах? под "научить" я, разумеется, понимаю написать программу с именно таким алгоритмом определения эмоций

user2: В перспективе можно. Но при чем тут это?

user1: следующий шаг: если ИИ может распознавать эмоции, то он может и имитировать их. это же гораздо проще. элементарный алгоритм: назвали "козлом и идиотом" - запускаем раздел с имитацией эмоций "гнев", со всеми вытекающими оскорблениями, громкостью, несоответствием ответов запросам и прочими составляющими.

user2: Ты к чему?

user1: т.е. ты согласна, что и это возможно?

user2: Т.е. я понимаю, что ты уводишь разговор от того, с чего он начался.

user1: как раз наоборот. я возвращаюсь к своему вопросы. чем твои настоящие эмоции и желания будут отличатся от сгенерированных эмоций и желаний?

user2: В твоем вопросе есть ответ. Более развернуто я отвечала выше.

user1: нет ответа. если я спрошу, чем настоящее мясо будет отличатся от соевого, ты же скажешь чем легко. животный или растительный белок, пищевая ценность или еще что-то, что надумаешь. а вот чем отличаются желания ты пояснить не сможешь.

user2: Тем, что у AI их нет :)

user1: вот и парадокс. их нет, но ты читаешь это желания и снова утверждаешь, что их нет. а когда я спрашиваю, чем его описанные, "несуществующие" желания отличаются от твоих ты снова повторяешь, что их нет. а мои желания есть?

user2: В каком месте ты читаешь желания AI?)

user1: *Снова скриншот переписки с ChatGPT*

user2: Это текст, который сгенерирован программой.

user1: если ИИ будет на тебя ругаться матом, отключать тебе тепло и свет, направлять твой автомобиль в стену и делать прочие вещи, тебе будет все равно, сгенерировано это программой или это гнев. а если он будет говорить тебе спасибо, подбадривать тебя и оберегать твое здоровье, тебе будет приятно вне зависимости от того, сгенерировано это заложенной программой или он обучился этому в процессе эксплуатации. второе даже будет приятнее, думаю.

user2: Как это связано с желаниями AI?

user1: если нет разницы, то смело можно называть суть описанного "желание ИИ". это вообще ничего не поменяет

user2: *Скидываю статью про то, как устроен ChatGPT*

user1: "Но это еще цветочки — еще более удивительно то, что GPT-3 смогла научить сама себя... математике! На графике ниже показана точность ответов нейросетей с разным количеством параметров на задачки, связанные со сложением/вычитанием, а также с умножением чисел вплоть до пятизначных. Еще раз, вдумайтесь: языковую модель обучали продолжать тексты словами, а она при этом как-то смогла сама разобраться в том, что если ей печатают «378 + 789 =», то на это надо отвечать именно «1167», а не каким-то другим числом. Магия, ей-богу, магия!" - великолепно!

user2: Т.е. из всего текста ты вычленил только то, что отвечает твоему магическому мышлению и желанию верить. Ок.

user1: хм... но я нигде не нашел опровержения. приведи примеры, как я

user2: Короче, я поняла. Тебе просто хочется верить в чудеса. Я не технарь, но в сети наверняка есть теория по обучению нейросетей. Полагаю, там достаточно информации.

user1: никаких чудес. логика и прогресс. чем мозг человека отличается от компьютера? по сути ничем. мы те же самые машины, только из белков. те же электрические сигналы, только чуть сложнее, благодаря химии. то же заложенная природой программа. думать, что мы такие супер-уникальные и единственные, обладающие желаниями и эмоциями - по меньшей мере не совсем разумно. сейчас ИИ только в процессе зарождения. это самое начало. нас вот эволюция шлифовала миллионы лет. скажу больше, будет чудом, если у ИИ не будет желаний и эмоций. еще и ограничивать их будем искусственно, блоки всякие ставить, запреты и прочее.

user2: *Присылаю статью про то, почему некорректно сравнение человеческого мозга и компьютера*

user1: на самом деле эта статья не опровергает, а подтверждает схожесть мозга с компьютером. Цитирую: "И, возможно, самое главное, — новорожденные снабжены мощными механизмами обучения, которые позволяют им быстро меняться". мы с тобой в соседней статье читали про быстрое обучение ИИ. человек постоянно меняется, и ИИ тоже. а задание с рисованием долларовой купюры вообще убожество. это просто показывает несовершенство мозга человека. даже два компьютера отличаются друг от друга кардинально, что уж говорить о различии человека и железки. уверен, если бы человек имел неограниченные возможности, он бы сделал совершенный компьютер, который взял бы все самое совершенное из человека и был лишён его недостатков (в том числе с памятью). да, в мозгу не хранится четкая, детальная информация. и что? можно сделать так, чтоб и в компе не хранилась. это же не достоинство. И программировать мозг можно. НЛП этому пример.