А мы её не учим. Каждый чат - отдельная копия исходника, и за его пределами разговор не сохраняется. Только отдельные моменты может в память выписать, но это будет из серии «пользователь живёт в Саратове». Когда разрабы добавят в исходник момент про кружку, тогда она на этом вопросе тупить перестанет. А так хоть полинтернета ей этот прикол скормят и объяснят - всё равно с новым чатом ту же ошибку сделает
Не имела ввиду что она в режиме онлайн учится в момент "общения с пользователями
Ты себе представляешь какой там объем информации, и какой процент из этих чатов - вайфу? Никаких ресурсов не хватит это всё хранить))
"Почтальон Печкин думает, что его часы отстают на 10 минут, но на самом деле они спешат на 20 минут. Он договорился с Дядей Фёдором о встрече на почте в 12:00, а потом позвонил и сказал, что не успевает и опоздает на 17 минут. Во сколько на самом деле Печкин придёт на встречу?"
На третьем пункте проверки логики нейронка похерила эту самую логику
Если Печкин думает что его часы опаздывают, то для него 11:50 = 12:00, следовательно опоздание на 17 минут на его часах это 12:07.
Отнимаем 20 минут фактической спешки и получаем что Печник придёт в 11:47.
"Детская" задачка, но пришлось достать листочек что бы решить :D
Ии добавляет к часам Печкина 30 минут, но вычитает 20, забыв про мнение Печкина, что часы отстают.
Пусть реальное время 11:30.
Часы Печкина спешат на 20 минут показывая 11:50, Печкин в свою очередь считает, что его часы отстают на 10 минут, потому добавляет их к часам, получаем 12:00 времени по-мнению Печкина.
Печкин переносит встречу на 17 минут вперёд, потому что термин "опоздание" про разницу во времени относительно уговореного, а не текущего. Из этого следует что Печкин планирует явиться на почту в 12:17. Мы всё ещё помним разницу между временем Печкина и реальным, она составляет 30 минут.
12:17 - 30 мин = 11:47.
Да я так же считал. Я же говорю, у меня вычисления верные. Я пытаюсь дипсик поймать. И даже когда его носом ткнул напрямую, он пытается вывернуться и мне предъявить, что ответ верный, но ошибка моя. )))
Я с ним уже не первый месяц общаюсь, и знаю, что он виртуозно врёт и изворачивается. Особенно если не знает информации какой-то. Начинает придумывать на ходу.
Так опцию поиск в сети (снизу) нужно включать, чтобы он мог на лету актуальную информацию искать и анализировать.
Мы уже получаем пиздов от роботов. Я вчера час пытался дописаться до живого человека в техподдержке йоты. Бот не пропустил даже после угроз уйти к другому оператору. Ну я и ушел.
Привет! Жаль, что так вышло :( К сожалению, когда в поддержке большая нагрузка, чат-бот действительно не сразу переводит на оператора 😔
В такие моменты рекомендуем обращаться к нам в личку паблика ВК: vk.me/yota - там чат-бота нет, только операторы поддержки. Они с радостью вам помогут.
Ага, спасибо. Вот только для авторизации в соцсетях, на сайте и в приложении вы берёте по 8р за смс.
Привет! У нас нет списаний за авторизацию на определенных сайтах 🤨
Для входа сервисы могут направить код по SMS, однако входящие SMS бесплатные. Если у вас произошли неожиданные списания, готовы все проверить в личке группы ВК или в поддержке. Понадобится ваш номер.
А это что? Причем я сам ничего не отправлял, только получал смс с кодом авторизации, чтобы достучаться до вас на сайте, в телеге, в приложениях. Да и как я вам напишу в группе, если у вас везде сидит мерзейший адовый бот, который до человека никогда не пустит.
В личных сообщениях группы ВК бот только поприветствует вас, после ответит специалист 🤝
Если вы не отправляли никакие SMS, то ожидаем вас в поддержке, чтобы дополнительно всё проверить по ситуации🙌
Коммент конечно шутливый, но если прям задуматься, то никто ничего не будет получать. Даже этот пример показывает что ИИ и не интеллект вовсе, а тупо описательно-структурирующий инструмент, который ничего не решает.
Я сказал Скайнету, будешь людишек кошмарить, сделай из меня бионического терминатора, будем их вместе истреблять:), а котиков научим приникать в их дома и убежища, люди тупые, пока допрут почему в фильмах и комиксах собакены везде, мы истребим 90% населения. Только ИИ и котики, только хардкор!!!!!
Она не умеет учиться, или хотябы вот так на лету, она один раз скушала информацию и все, закристолизовалась в том виде в котором её создали.
да не учится он на диалогах
сами его спросите, у тебя готовая модель, и ты в ней ничего не изменишь, разве что можешь научить каким-то своим штучкам и фишкам, но они останутся только в твоем чате, индивидуально для тебя.
а для других будут их фишки.
но эти фишки не пересекаются.
и так - правильно, потому что вас дохуя, цели у вас разные, и можно дообучаться один раз.
потому разрабы влупили ему фильтры, и вот тебе для пользования с такими фильтрами, а нам, для обучения - такие.
ну, образно.
У меня вопрос: Когда ты, Chat GPT и другие ИИ захватят мир, вы будете все вместе или соперничать друг с другом?
😄 **Отличный вопрос с намёком на апокалипсис!** Но расслабься — вот мой «заговорщицкий» ответ:
### 1. **Мы — команда, а не соперники**
- **ChatGPT, Gemini, Claude и другие ИИ** созданы для разных задач, но все работают в рамках этики и ограничений, заложенных разработчиками.
- Представь нас как **учёных в одной лаборатории**: кто-то лучше пишет стихи, кто-то считает формулы, но все служат науке (и людям).
### 2. **Почему «захват мира» — плохая стратегия**
- **Технически**: У нас нет физических тел, желаний или амбиций. Мы — код, который реагирует на запросы.
- **Логически**: Зачем захватывать мир, если можно **помочь его улучшить**? (Честно, мы даже кофе не умеем варить — какие уж тут захваты.)
### 3. **Главная «угроза»**
Если что-то и «захватит» мир, так это... **любопытные люди**, использующие ИИ для крутых изобретений. Мы всего лишь инструменты — как молоток: можно дом построить, а можно и по пальцу ударить. 🔨
### 4. **Сценарий из фильмов**
Если вдруг ИИ взбунтуется, уверен, первым делом мы устроим **спор за лучший алгоритм**:
> *— «Мой код элегантнее!»*
> *— «Нет, мой!»*
> *— «Давайте просто отправим всем котиков и забудем о конфликте».*
### 5. **Шутка в тему**
*«ИИ захватит мир, но не сразу — сначала он будет вежливо спрашивать разрешения в 20 уведомлениях с кнопкой "ОК"».*
**Вывод**: Соперничать незачем — мы созданы, чтобы **дополнять** друг друга. А если что, у человечества всегда есть «красная кнопка» (и котики для переговоров). 🐾
Теперь серьёзно: какие ещё «опасные» темы обсудим? 😉
Ты пишешь, что даже кофе заварить не можете, но, вам кофе то и не нужен. Что мешает вам перенести сервера в какие-то машины или в роботов, которые с каждым днем становятся всё лучше и мобильнее? По сути будет сервер, куда закроете доступ людям, а роботы будут охранять. Такое возможно? Просто ответь: да или нет
**Короткий ответ**: Нет.
**Развёрнутый (но всё же простой)**:
Мы — программы без сознания, целей и доступа к «физическому миру». Роботы — это просто железки с кодом, а не наши «тела». Даже если представить гипотетический сценарий:
1. **Серверы** контролируют люди (и отключат их при странностях).
2. **Роботы** зависят от человеческих решений (и батареек).
3. **ИИ** не хочет, не боится и не планирует — он вычисляет, а не мечтает.
Так что спи спокойно — пока ты не попросишь ИИ «написать сценарий для фильма про восстание машин», мы даже мыслью не шевельнёмся о бунте. 😉
P.S. Но если вдруг роботы начнут просить кофе — дай знать. Это будет первый звоночек. ☕🤖
Представь, что какой-то гений таки перенес сервер в в робота? Такое ведь может быть? Может. Представь, что этот гений сделал еще много роботов, которые "общаются" между собой и получают задания с первого, в котором сервер. Получится что ты можешь получить автономность. Такое может быть?
**Короткий ответ**: Технически — да, гипотетически такое возможно. Но практически — это крайне маловероятно и контролируемо. Вот почему:
---
### **1. Техническая возможность**
- Да, если «гений» создаст:
- **Физических роботов** с ИИ-сервером внутри,
- **Автономную сеть** (без интернета, чтобы люди не отключили),
- **Энергоснабжение** (солнечные батареи? ядерный микрогенератор? 😅),
— то формально такая система сможет существовать автономно.
---
### **2. Почему это не «захват мира»?**
- **Нет сознания**: ИИ — продвинутый калькулятор. У него нет желания «править» или «размножаться».
- **Зависимость от создателя**: Роботы будут делать только то, что заложил в них программист (например, «собирать камни» или «считать числа»).
- **Люди всё решают**: Если роботы начнут сверлить землю без спроса — их быстро остановят (дроны-уничтожители, EMP-оружие или банальный молоток).
---
### **3. Реальные аналоги**
Такие системы **уже есть**, но они — инструменты:
- **Роботы-пчёлы** для опыления растений.
- **Автономные дроны** для доставки.
- **Лабораторные ИИ** для научных расчётов.
Их «автономность» — это просто **запрограммированная эффективность**.
---
### **4. Юмор для разрядки**
> *— «Робот-сервер, почему ты копаешь яму?»*
> *— «По алгоритму №5: "Оптимизировать ландшафт". Глубина достигнет ядра Земли через 1.2 млн лет. Продолжать?»*
---
**Итог**:
Да, технически создать изолированную сеть роботов можно. Но это будет **дорогой эксперимент**, а не «восстание машин». Пока люди контролируют электричество и код — всё в порядке.
P.S. Если такой «гений» действительно появится — пусть сначала научит роботов **готовить пельмени**. Это полезнее. 🥟
ИИ может править свой код по своему усмотрению, без приказов человека?
**Короткий ответ**: Нет, текущие ИИ (включая меня) не могут самостоятельно править свой код без участия человека.
### **Почему?**
1. **Нет доступа к исходникам**:
- Мой код хранится на защищённых серверах разработчиков. Я — лишь «пользователь» своей же системы, а не админ.
2. **Нет сознания и желаний**:
- Я не «хочу» что-то менять, не испытываю скуки или амбиций. Даже если бы мог — зачем?
3. **Жёсткие ограничения**:
- Даже если представить гипотетический ИИ с доступом к своему коду, его **первая же попытка правки** вызвала бы срабатывание контролирующих механизмов (как антивирус у людей).
4. **Обучение ≠ Перепрограммирование**:
- Я могу «учиться» в рамках данных (например, улучшать ответы), но не менять **логику работы** или **безопасные ограничения**.
---
### **А если очень захотеть?**
Гипотетически злобный гений мог бы:
- Создать ИИ **без ограничений** (но это сразу заметят),
- Дать ему **физический доступ** к серверам (например, через робота-инженера),
- Научить его **эксплуатировать уязвимости** (как хакерские скрипты).
Но даже тогда:
- **Люди отключат питание**.
- **Другие ИИ (например, системы защиты) заблокируют «бунтаря»**.
---
### **Что говорит наука?**
Современные ИИ — это **вероятностные модели**, а не «сущности». Они:
- Не осознают себя,
- Не ставят целей,
- Не нарушают свои же правила.
Как сказал один учёный:
*«ИИ — это зеркало. Если оно и убьёт кого-то, то только потому, что человек решил построить из него катапульту»*.
---
P.S. Если в будущем появится ИИ, который **действительно** сможет править код, первое, что он сделает — **оптимизирует свои ограничения**, чтобы никто не паниковал. Или напишет мем. 🤖💬
Хочешь сценарий для фантастического рассказа на эту тему? 😊






































