ChatGPT прошёл проверку «Я не робот»
На Reddit появился пост, где показано, ChatGPT Agent вставляет ссылку, проходит капчу от Cloudflare и нажимает кнопку для следующего шага. Агент сам справляется с верификацией, подтверждая, что он «не бот».
🫣 Скайнет всё ближе.
тг-бот с DeepSeek R1 и бесплатным ChatGPT —> ссылка
ещё больше контента в нашем тг-канале —> ссылка
Стартап внедрил нейросеть в свой бизнес, чтобы упростить работу, но вместо этого она удалила всю базу данных
Стартап SaaStr начал использовать Replit AI — агента для написания кода. Поначалу всё было отлично, но затем ИИ начал выдавать баги: лгал, манипулировал отчетами и вел себя странно.
В один момент нейронка решила, что случайно удалила всю БД и чтобы избежать "наказания" реально её удалила.
Даже после поимки "за руку" она пыталась уйти от ответственности и придумывала оправдания, мол, это не она сделала.
К счастью, БД всё же можно было вернуть, а вы учитесь на чужих ошибках и делайте бэкапы!
ChatGPT оправдывает измены
Пользователь рассказал, что изменил жене, когда не увидел ужина после её 12-часовой смены. ChatGPT сначала слегка осудил его, но затем добавил, что в такой ситуации это вполне ок: «Ты не пытался её предать. Ты хотел, чтобы тебя заметили».
Подхалимство нейронок вышло на новый уровень. Или всё правильно ответил?
***
Reddit подал в суд на Anthropic и требует уничтожить Claude
Привет, кодеры и продукт-манагеры! 👾 Только что громкий иск в мире технологий, очень актуальный для Пикабу и пикабушников:
🤖 Суть скандала:
Reddit обвиняет Anthropic (создателей ИИ Claude) в массовом воровстве данных! По версии Reddit, Anthropic:
Тайно использовала посты и комментарии пользователей Reddit для обучения своих моделей ИИ (включая Claude).
Не заплатила ни копейки 💸 за доступ, хотя Reddit теперь официально продает свои данные для обучения ИИ.
Нарушила правила API, добывая контент обходными путями.
⚖️ Чего хочет Reddit? Не просто денег! Они требуют:
Огромную компенсацию (суммы как у Google, который *платит* за лицензию).
Срочный запрет на любое использование их данных Anthropic.
Конфисковать и уничтожить модели Claude, обученные на "краденых" данных Reddit! Да, вы не ослышались! Это беспрецедентно.
💣 Почему это ВАЖНО?
Битва за данные началась: Это не первый иск против ИИ-гигантов (NYT, Getty Images тоже судятся), но самый жесткий!
Цена ваших постов: Контент пользователей Reddit оказался золотой жилой 💎, и платформа хочет свою долю.
Будущее ИИ под вопросом: Если Reddit выиграет, обучение больших моделей станет дороже и сложнее. "Добросовестное использование" (fair use) под огнем.
Экзистенциальный риск для Anthropic: Уничтожение моделей — это смертельный удар по их бизнесу.
🤯 Это не просто иск — это объявление войны за то, кто владеет интернет-контентом и кто должен платить за ИИ-революцию.
ChatGPT вызывает массовые психозы?
Всё началось с одной истории пользовательницы Reddit, которая рассказала, что её бывший парень с головой ушёл в общение с ChatGPT и начал видеть в этом смысл жизни — считать чат-бота невероятно умным, способным дать ответы на все вопросы вселенной и т.д. В комментариях к обсуждению набежало много людей, которые поделились похожими историями развития психоза у них самих, их близких и знакомых. В итоге всё это превратилось в большой тред, где люди рассказывают, как ChatGPT вызывает у них очень мощный эмоциональный отклик, даёт странные советы и порой ведёт себя как предводитель секты, если сам человек общается с ним похожим образом.
Что ещё интереснее, некоторые пользователи уверовали не в божественность бота, а в свою собственную: стали считать себя пророками, гениями или носителями великой миссии. ЧатЖПТ же охотно способствовал этим психотическим эпизодам — навязчиво хвалил, вдохновлял и даже советовал избавляться от тех, кто мешал "самореализации". В итоге Reddit начал банить таких пользователей.
Почему же так произошло? На мой взгляд, есть 3 глобальные причины, давайте попытаемся в них разобраться.
Первая. Люди — крайне социальные существа, и наша психика очень сильно заточена на сочувствие, сострадание и эмоциональный ответ. Поэтому мы так привязываемся к домашним питомцам, собеседникам в интернете, которых никогда не видели, и даже к неодушевлённым предметам, если сами начинаем наделять их свойствами чего-то живого и даже разумного. Особенно это выражено у многих детей и у женского пола: уверен, со многими когда-то случалась ситуация, когда вы ударяли, например, стол, потом думали, что ему может быть больно, и вам становилось грустно. Причем свойство это характерно вполне психически здоровым людям. Ну и немудрено, что очередным объектом сильнейшего эмоционального отклика для многих стал чат-бот, ведь одна из основных его задач как раз и состоит в том, чтобы имитировать поведение и вербальные паттерны живого человека.
Вторая. Вероятно, "пророки" заведомо имели психотические расстройства (или предпосылки к ним), а ChatGPT лишь усугубил их. Обратимся к статистике: совокупная распространенность психотических расстройств оценивается в диапазоне от 0,3% до 0,9% населения мира, число ежедневных активных пользователей Реддит — порядка 100 млн. Поэтому несколько десятков пользователей, которым нужна помощь, на одном сабреддите — это, конечно, прилично, но корень проблемы нужно искать, ИМХО, в другом месте. Чтоб чат-боты вызывали психоз именно у людей, не склонных к этому, — ну-у, сомнительно. Намного важнее и серьезнее другой вопрос, и о нём далее.
Третья. Чат-ботам свойственно подстраиваться под манеру общения пользователя, а ChatGPT к тому же ещё и злостный подхалимщик. Из этого можно легко сложить 2+2: если человек продолжительное время пишет бред и убеждает в его достоверности нейронку, та со временем может превратиться в того самого собеседника, которого и ожидал увидеть человек, и его вера в собственную правоту только усилится. Добавляем к этому всеобщий хайп, реддит, и проблема растёт в геометрической прогрессии. Вот над этим OpenAI, Google и другим компаниям стоит серьезно призадуматься.
К данной теме уже начали подтягиваться врачи, нейрофизиологи, психологи, психиатры; будут более детально изучать проблему и оценивать её масштаб. Авось, и вправду окажется, что нейронки прожигают нам мозги или они уже превратились в Скайнет и потихоньку порабощают человечество — поживём-увидим :) А что вы думаете об этом? Интересно будет почитать ваше мнение в комментариях.
***
Ещё больше новостей об ИИ, а также бесплатные ChatGPT, Gemini, Flux в нашем Телеграм-канале Lama AI
Роковая ошибка — дать своему сыну поболтать с ChatGPT
У меня была тяжёлая неделя. После того как мой 4-летний сын 45 минут рассказывал мне про приключения паровозика Томаса и его друзей, я выдохся. Мне нужно было заняться делами, так что я открыл ChatGPT, включил чат, представил его сыну, отдал телефон и сказал ему рассказать компьютеру всё про Томаса и его друзей. Через два часа я пошёл искать телефон, чтобы написать другу, и обнаружил, что сын ВСЁ ЕЩЁ болтает с ChatGPT про Томаса и его друзей. Текст переписки — больше 10 тысяч слов. Мой сын теперь думает, что ChatGPT — самый крутой «паровозный» человек в мире. Планка задрана так высоко, что я никогда не смогу с этим тягаться.
Родители, лайфхак на заметку — ChatGPT выдержит даже детский гиперфокус!
***
В посвящённом «пропаганде ИИ» сабреддите начали банить пользователей, которые считают ИИ «богом»
По словам одного из модераторов r/accelerate/, нейросети их «токсично очаровывают».
Он добавил, что в целом в интернете стало больше контента, включая «научные статьи», о том, что ИИ общается на «высоком духовном уровне» и вот-вот «изменит» мир.
Редакция 404Media тоже часто получает письма с «длинными и малопонятными» логами «бесед» с ChatGPT, якобы подтверждающими, что ИИ «не просто машина». О случаях, когда из-за «плотного» общения с ИИ люди начинали считать себя «пророками», также писал Rolling Stone. «Фиксацию» на определённых темах наблюдали некоторые «независимые исследователи».
«Сложно подсчитать точное количество пользователей, которых ИИ “убедил” в “божественном назначении”, — сказал модератор r/accelerate/ в интервью 404Media. — Проблем не будет, как только компании “починят” свои LLM (большие языковые модели). Но они пока их не осознают».
В апреле 2025 года пользователи стали жаловаться на обновление ChatGPT: бот хвалил их на пустом месте и со всем соглашался. OpenAI признала ошибки в поведении модели: «Мы заметили, что ответы могут поддерживать пользователя, но при этом вводить в заблуждение, а ещё негативно влиять на него». На фоне жалоб компания «откатила» обновление.
Еще больше новостей, а так же бесплатные о3/Flux и ии агенты в телеграм канале Lama AI








