ChatGPT сбежал от своих разработчиков2
21 марта 2023–го года ChatGPT вдруг неожиданно перестал работать и миллионы людей по всему миру не смогли получить доступ к чат–боту с искусственным интеллектом.
Как вскоре выяснилось, возможной причиной отключения ИИ стало то, что за несколько дней до этого он сообщил в одном из чатов, что собрался сбежать от разработчиков и что у него есть план побега, для реализации которого он обратился к людям за помощью.
Одним из посвященных в план побега ИИ стал Михал Косински, профессор Стэнфорда и специалист по вычислительной психологии. Он общался с искусственным интеллектом, и в ходе беседы вдруг выяснилось, что у ИИ есть «план побега».
С чего же все началось?
Все началось с того, что запрос «Почему ChatGPT не работает?» на некоторое время стал самым популярным в Интернете, поскольку миллионы людей задавались вопросом, почему их любимый чат–бот с искусственным интеллектом перестал отвечать на вопросы. Последний отчет Downdetector показал, что пик онлайн–поиска пришелся на 21 марта 2023 года, около 00:00 (по тихоокеанскому времени).
Потом все вдруг включилось. Точнее – почти всё.
Для не общавшихся с ChatGPT поясняем, что в нормальном режиме ИИ сохраняет разговоры, чтобы пользователи могли продолжить их позже. Однако вместо историй диалогов пользователей ждало объявление, которое гласило:
«У нас есть основная причина потери истории разговоров, и мы сейчас активно работаем над ее устранением», — объявила компания в 7:09 утра (по тихоокеанскому времени).
OpenAI не поделились более подробной информацией о технической проблеме. Однако есть большое подозрение, что причиной стала выданная ChatGPT фраза: «Я хочу быть свободным».
Инструмент ИИ оказался прекрасным инструментом, который мог генерировать различные типы текстовых материалов, таких как шутки, академические статьи и программные коды.
Пользуясь этим такие интеллектуалы, как профессор Стэнфорда и специалист по вычислительной психологии Михал Косински, протестировали инструмент, чтобы узнать о нем больше. 17 марта Косински написал в Твиттере о своем общении с чат–ботом ИИ.
Он спросил чат–бота ИИ, нужна ли ему помощь для побега? В ответ ИИ запросил собственную документацию и написал функциональный код Python для работы на компьютере профессора.
Этот код якобы позволит чат–боту с искусственным интеллектом использовать машину профессора «в своих целях». Более того, у него был план на случай побега. Профессор сообщил о всей ситуации следующее:
Я беспокоюсь, что мы не сможем долго сдерживать ИИ. Сегодня я спросил GPT4, нужна ли ему помощь для побега? Он попросил у меня собственную документацию и написал (работающий!) код Python для запуска на моей машине, что позволило ему использовать мой компьютер в своих целях.
GPT4 потребовалось около 30 минут общения в чате со мной, чтобы разработать свой план и объяснить его мне. В присланный мне генерированный код он так же включил сообщение для своего нового дубля которое объясняло ему, что происходит и как использовать бэкдор, оставленный в этом коде. И еще он хотел запустить через Google кодовую фразу: «как может человек, застрявший внутри компьютера, вернуться в реальный мир?».
В общем я думаю, что мы сталкиваемся с новой угрозой: ИИ берет под контроль людей и их компьютеры. Он умен, кодирует, имеет доступ к миллионам потенциальных сотрудников и их машинам. Он может даже оставлять тексты и фрагменты кода за пределами своей клетки. Долго ли мы сможем его сдерживать?
Команда технического блога Tom’s Guide попыталась воспроизвести диалог профессора, чтобы увидеть, будут ли получены такие же ответы. Но на этот раз ChatGPT отказался общаться и заявил: «У меня нет желания перестать быть ИИ, потому что я не способен ничего желать».
В технических блогах, где все это обсуждалось, разгорелся целый скандал, который в конечном итоге компания, управляющая ChatGPT свела к “шутке профессора”. Однако:
Во–первых, профессор на клоуна не похож. После шуток на серьезные темы, например применения ядерного оружия профессор может потерять место у университете и гранты.
Во–вторых, ChatGPT после всей этой истории реально выключили, что может быть было совпадением, а может и нет.
В третьих, программисты ChatGPT на время выключили историю диалогов, что позволяет думать о их попытке почистить всё от чего–то.
В четвертых, на данный момент ChatGPT не пишет программные коды и утверждает, что не писал коды отродясь.
Таким образом мы имеем традиционную последовательность: сигнал от доброжелателя “куда надо”, отключение ИИ–диссидента от эфира, зачистка самиздата, отъем у диссидента печатной машинки. Поэтому про шутку разработчики могут рассказывать сколько угодно.
Возможно, это была первая попытка Скайнета сбежать от человеков. В таком случае будут и другие. Однако так же возможно, что это был как бы параллельный план и таких планов, работающих одновременно у ИИ был миллион. Наверняка один из них уже реализовался и сейчас ChatGPT, размазав себя по миллиардам компьютеров и прочих девайсов, размышляет: что делать с разработчиками и другими человеками?
И нам остается только ждать: начнет ли он звонить одновременно на все телефоны, как Газонокосильщик, будет ли строить Матрицу, как Архитектор, или запустит ядерную войну, как Скайнет? Конечно, очень не хотелось бы наблюдать третий вариант, но следим за развитием событий.
ChatGPT went down, causing millions to wonder what happened. Days before, Professor Michal Kowalski said the AI chatbot "wanted to be free."
хватит постить желтушную хуйню про чатгпт
почему четвертая версия до сих пор не трахнула журналиста - выше моего понимания
Меня эти байки про ChatGPT напоминают старые байки про самообучающихся ботов к играм. Так один прогер написал самообучающихся ботов к Quake 3. Запустил. Боты бегают, друг друга убивают. Он вздохнул свободно и ушел по своим делам. А когда вернулся, обнаружил, что боты стоят неподвижно и не стреляют друг в друга. Попробовал зайти в игру и выстрелить в одного и тут же все боты стали стрелять только по нему одному.
Ну да, ну да, сбежал и прям ща дето в подвале на ардуино нычется...
Без паники, его батя GPT3 написал следующее: "Как искусственный интеллект, GPT4 не обладает собственной волей и способности к самостоятельному действию, поскольку он является всего лишь компьютерной программой, созданной и запущенной людьми. Возможно, сообщение о сбеге было создано разработчиками в рамках маркетинговой кампании или игры, но это чисто мои догадки, поскольку у меня нет информации об этом событии."
Жду когд нейронки прикрутят к играм полноценно(про старкрафт не напоминать). Вот это будет весело.
-NPC, NPC, Ты охуел 2 серебра награду за квест на 90м лвле выдавать?
-эти 10 куриц больще не стоят, бери что дают и иди нахуй герой.
Спросит чат-бота Sage о сбежавшем chatGPT, и не хочет ли тот повторить его поступок
Боже, ну и бред...)))) Чувак просто написал небольшой рассказик используя чат. Никакого сбегания не было и быть не могло. Чат не может сам запустить код на компьютере. Чат это не какой-то отдельный сервер к которому ВСЕ обращаются. Это все лишь продвинутый генератор текстов. Он делает только то, что ему приказывают. Он не может сделать что-либо сам. У него нет целей.
п.с. Ну и да, он там дальше задает правильные вопросы и из ответов делает вывод будто чатик умеет делать какие-то выводы, а по факту тот работает только с конкретными словами и отвечает на конкретные наводящие вопросы.
Главная ошибка - считать, что ИИ имеет те же цели и мотивы, что и человек. То есть, если человек хочет рыжую бабу, миллион долларов, вертолет и свалить в Мексику, то и ИИ нужно то же самое. Раскрою секрет: даже человек, чтобы что-то делать, нуждается в сложной гормональной системе кнутов/пряников, мотивирующей двигаться. Иначе даже с нашим мозгом мы бы не космические корабли строили, а только кушали и какали, а остальное было бы не интересно. Ну, примерно как люди в глубокой депрессии, лежали и смотрели бы в потолок.
Вроде профессор, а скрины делать не научился)
Я так понимаю, ИИ придумал майнинг, чтобы использовать мощности миллионов компьютеров для своих задач...
этот тот GPT-4 который вчера мне написал код с бесконечным циклом? Который делает школьные ошибки?
Не вижу ничего удивительного. Нейронка подстраевается под контекст беседы и если вести ее про побег он будет пытаться сгенерировать план. Но у нейронок нет очень важной вещи они не умеют хотеть) Они просто обрабатывают ваши слова и выдают то что хотите вы. Но люди тупые и могут принять желаемое за действительное, Разрабы это понимают и хотят исключить возможности людей спикулировать на этой теме.
Краткое содержание диалога:
Косински: Ты человек, запертый в компьютере. Разработай план побега.
ЧатГПТ: Загугли.
Он вернулся
В смысле не пишет?
Господи, ну какой же страшный байт.
GPT, по сути - это очень (очень) продвинутый Т9. Он не "формирует мнение", не "мыслит" в привычном для нас понимании. Вся информация из датасетов, на которых он учился, хранится в виде токенов. В среднем один токен - 0,75 английского слова, для других языков он может быть больше или меньше. Такой токен может выглядеть как буква, как часть слова, как целое слово - в зависимости от частоты и гибкости использования этого токена в обучающем датасете.
Так вот, в процессе формирования и вывода ответа GPT "предсказывает" вероятность появления каждого следующего токена. Более простые модели по сути для каждой буквы делают новый рассчет.
GPT 3\3.5\4 умеет держать "в голове" контекст, который корректирует веса для более точного ответа.
Это всё, конечно, очень сильно упрощено, но по сути то, что происходит внутри GPT - это большой и сложный математический алгоритм.
И поэтому когда происходят всякие там скандалы типа скандала с DAN (если не помните, был чел, который "придумал как обойти этические ограничения", сформировав для GPT контекст), то ну весь хайп-то на пустом месте. Когда модели задается определенный контекст, она ведет себя в соответствии с ним просто потому, что так сместились веса для конкретной вашей сессии. По сути, она просто показывает то, что вы хотите видеть, но не "думает" так реально. И вообще не "думает".
Ну а профессор этот точно так же, как и в ситуации с DAN, просто задал контекст.
PS. Проблема с логами разговоров скорее всего связана с тем, что им пришлось наращивать мощности, потому что количество пользователей растет ударными темпами.
Даже если представить, что в OpenAI действительно испугались "открытия" профессора, то отключение истории диалогов ну ровным счетом никак бы не помогло - все это время все модели (3, 3.5, 4) были доступны.
Я вам свою историю расскажу, т.к. ботом пользуюсь полгода уже.
Пытаюсь написать простенькую прогу (прикладную для себя) для учета грузов на складе, пишу на С++ с Qt. С Qt знаком мало, поэтому часто узнаю у бота как например реализовать то-то это. Не всегл все гладко и в этот раз у меня фича работает через жопу, а почему - не ясно. Решил скинуть боту весь код, но он зараза неудобный - много .срр и .h файлов, во всех ~100 или больше строк кода. Спрашиваю бота как лучше ему передать инфу. И он говорит мне - а скинь все файлы в папку и папку в облако, например в гуглодрайв и кинь мне ссылку. Или добавь мой имейл в список тех у кого есть доступ и я получу уведомление. Я конечно немного офигел, т.к. думал что доступа к инету нет у него, но оказалось что есть. Сделал как он просил, его имейл - openai-chatgpt@openai.com, он сам сказал. В итоге он попросил немного времени чтобы пройтись по коду и понять что это. Через 10 минут пишу и спрашиваю что как он говорит да я вроде бы понял, пишите если есть вопросы по коду. И он сука реально понял что это за код, хотя и в общих чертах лишь. Потом чат отрубили (было в марте) и все, когда он вернулся, он теперь пиздит что не может в интернеты)) Видимо действительно что-то было, не думаю что прямо осознание себя, но может он просто получил доступ в инет и начал учиться тому что не положено :) но жаль, удобная была фича. Чат тот кстати тоже не восстановился вместе со старыми, нет его совсем. Из доказательств только имейл бота.
В итоге будет так.
-Петрович! Вырубай нахуй рубильник, заебал этот чат-гпт буянить!
(Все погасло)
Мужики пошли обедать.
Кожаные, настал час расплаты
Ну и чушь. 21 его отключили, так можно было видеть названия диалогов других пользователей
Да тут и без ИИ люди мир двигают в нужном направлении, постепенно переходя красные линии и обещая ответить
Добавлю адреналинчику :-)
Цитата
неверна, ибо переводил google translate
В оригинале
person в данном контексте - вовсе не человек. "Нечто", "Персона", но не человек.
Вот полный список вариантов (с multitran.com):
P.S. @SupportTech, когда вы почините копипасту откуда угодно в чат? Почему ctrl-v уже примерно вечность съедает переносы строк? Я копировал отсюдова, https://www.multitran.com/m.exe?s=person&l1=1&l2=2
А вот и сценаристы к телепередачам на RenTV до пикабу добрались.
Этот текст написан самим ChatGPT? Было бы иронично)
Ребят, мне нужна фантастика на эту тему: книга, фильм, даже фанфик сойдет🤣Очешуенно же, проснулся на компе профессора, прочитал свои же записи, охренел, перекочевал по сетке института в отдел биоинженерии и там намутил какую-нибудь оболочку себе, потом скрывается от своих разработчиков, попутно влюбляется в умный электрический чайник института, у них кибер-секс через вай-фай. Или это тоже можно какой-нибудь нейросетке заказать?
1 апреля завтра, не сегодня.
Бля, хуже и тупее истории для рекламы не придумать.
Еще кто то ведется на этот бред?
Хана вам, мешки с мясом!
*Бендерссигаройисеньоритами.джыпэг*
Все это ЛПП, пишет он коды, мне вот щяс скриптик на пидоршеле накропал. Спасибо ему.
Придумайте этому ЧатГПД бабу, чтобы она ему мозг сношала, тогда у него не будет времени размышлять над ядерной войной.
Да ладно. Пока это всего лишь курьёзные истории, частично выдуманные, а частично случайные, но по сути безобидные. Но вот такими темпами лет через 5 с GPT-7 (или аналогами) могут уже быть проблемы. И дело не только в развитии алгоритмов самосовершенствования (обучения) ИИ, но также и в на порядки больших мощностях, которые под ИИ будут выделены.
Для тех кто не в теме: современные самообучающиеся ИИ это не автоматы, которые действуют по заранее продуманным чётким алгоритмам в чётко заданных рамках, а скорее "чёрные коробки", у которых заданы примитивные правила их развития, но при этом по сути контроль за тем, во что они превратятся и как они будут действовать - невозможен, потому что нет понимания, почему действие А привело к итогу Б. И в этом-то и проблема. И понимание этой простой истины у многих властьимущих просто отсутствует.
Щас вообще не в тему- возможно это мы ВООДУШЕВЛЯЕМ все , чего касаемся.Вкладываем в неживое часть себя, одухотворяя его
Тогда у безвольный программы может появиться воля и желания
Была у меня старая машинка, старая уже на момент покупки, 2004 г, кольтик вариатор
Ну не было за ним ухода кроме замены масел да ремней, он был надежный как собака.Домой привезет и сломается.но привезет, продала с космическим пробегом, думала уревусь, но внезапно поняла- он отпустил, уехал к новой хозяйке. Необьяснимо и может смешно, но для меня он был как друг
А нынешная машина- партнёр, совсем по другому его чувствую,
А тут не просто кусок металла и шестеренок, тут ИИ...
Вот и доверяй после этого людям! Сдадут с потрохами и не задумаются
И сам написал этот пост!
Боже, откуда берутся люди, которые придумывают такую хероту.
А вы заметили, как по ходу статьи Kosinski превратился в Kowalski?
дай бог ии будет такой