Прежде чем использовать ИИ... УЗНАЙТЕ!
На днях спорил с человеком @user11558269 на пикабу и он затребовал, чтобы ИИ разрешил наш спор, предложил скинуть переписку и узнать, кто прав.
#comment_382640409
Возьми мой коммент #comment_382604996 и свой #comment_382607534 и без каких либо сложновыебанных промптов просто спроси кто из пользователей прав.
На что я ответил, что это бессмысленная затея. Почему?
ИИ не знает и не хранит информацию
Многие почему-то думают, что ИИ хранит информацию и вытягивает её из какой-то базы данных. Нет, ИИ обучают и он, грубо говоря, создает формулы, которые описывают правильный результат.
Представьте, что вам дали миллион фотографий кошек и собак и попросили объяснить, чем они отличаются. Вы не станете запоминать каждую фотографию, а просто найдете определенные паттерны (признаки) и сохраните "формулы". ИИ работает также и потом выдаёт результат с некоторой вероятностью исходя из этой формулы.
ИИ не понимает и не знает то, что конкретно говорит
Это хорошо видно, если вы попросите ИИ, даже самую лучшую модель, посчитать какие-то редкие цифры:
* там ещё много вычислений и обдумываний *
Результат ошибочный, вот верный: 581 265,900127881
Почему так произошло? А он не умеет считать, он лишь предполагает какое следующее слово будет. Разработчики новых моделей, конечно, научили считать ИИ, часто используют WolframAlpha (сайт, который без ИИ всё идеально считает). Т.е. модель обращается к сайту и просит посчитать, он даёт результат и ИИ пересылает его нам.
И что же из этого всего следует?
А то, что ИИ рандомный, всё зависит от везенья, что он выдаст правильный результат. Допустим мы отправим ИИ наш спор. И когда он будет писать результат, то СЛУЧАЙНО он напишет "TrashPochta прав..." и дальнейшая генерация будет уже исходить от слова "прав", он из-за случайного выпадения этого слова будет строить текст. В следующий раз выпадет слово "не прав" и всё будет иначе, мы получим иной результат.
У ИИ нет ни знаний, ни опыта, ни возможности спорить. Есть только вероятности выпадения следующего слова. ИИ имеет очень большую чувствительность к начальным условиям, которые он сам создает на основе своих же СЛУЧАЙНЫХ слов.
Бывало же такое, что вам ответ от ИИ приходит на китайском или английском языке? Это как раз ИИ из-за чего-то в вашем тексте (или внутреннем) случайно написал слово на английском/китайском и понеслось.. он дальше начинает строить текст на основе предыдущего слова и весь текст на другом языке становится или какая-то его часть, так как может произойти и обратное.
С помощью ИИ НЕЛЬЗЯ узнать кто прав, а кто нет.
С помощью ИИ НЕЛЬЗЯ обучаться без дополнительных проверок.
С помощью ИИ НЕЛЬЗЯ узнать любую истину
С помощью ИИ НЕЛЬЗЯ изучать историю и другие науки.
Это исходит из самой сути ИИ, а не из-за того, что в неё что-то не то заложили или не так обучили.
С помощью ИИ МОЖНО "гуглить" и "яндексить" (с проверкой приведенных ссылок)
С помощью ИИ МОЖНО переводить тексты
С помощью ИИ МОЖНО пересказывать тексты
В общем, ИИ МОЖНО и нужно использовать как ДОПОЛНИТЕЛЬНЫЙ инструмент к вашему личному мозгу, к вашим знаниям, но не замену и не ИСТОЧНИК ИСТИННОСТИ.
Мне больно наблюдать, как люди используют ИИ. Если вы что-то изучаете вместе с ним, открывайте больше чатов. Каждый чат разбивайте на тематики, каждый чат - одна тема. Каждый факт, что он вам говорит - проверяйте в соседнем чате в режиме search с ссылками. ИИ врёт, вводит в заблуждения и постоянно выдумывает из воздуха информацию. Нужно 3-4-5 итераций по одному и тому же запросу в разных форматах, чтобы добраться до "истинности".











