user10393482

Пишу про ИИ в ТГ — https://t.me/ai_exee
Пикабушник
3509 рейтинг 2 подписчика 1 подписка 59 постов 1 в горячем
8

ИИ-тусовка помешалась на Clawdbot. Рассказываю, что это за штука

Пока ChatGPT Agent обрастает мхом, разработчик-одиночка Питер Штайнбергер соорудил Clawdbot – агента, который гремит на весь интернет. Правда, под давлением Anthropic, бот уже переименован в Moltbot, но первое название пока привычнее.

Clawdbot это надстройка над Claude Code, агентом для программирования для Anthropic. Чаще всего в нем используют Claude Opus/Sonnet 4.5, но поддерживаются как ИИ конкурентов, так и открытые модели, если железо потянет. Clawdbot устанавливается через терминал на Мак или ПК, и получает почти полный доступ к системе: настройки, файлы, бразуер, почта и т.д. Это поднимает вопросы к безопасности, о них – в конце поста.

В англоязычном X все скупают для Clawdbot-а MacMini $600, чтобы он на нем работал круглосуточно. Есть и другой путь – поставить на виртуальный сервер, где бот, кстати, превращается в мини-админа. Я плачу за сервер 5 евро в месяц, видел, что народ ставит на бесплатный тариф от AWS.

Разумеется, коммерческие модели типа Claude Opus 4.5 не крутятся на ПК/сервере физически – Clawdbot обращается к ним через API. В случае с Claude понадобится подписка Pro или Max, но учитывайте, что на Pro лимиты использования бот тратит от всей души.

Общение идет через Discord, WhatsApp, Telegram – по сути, через чат вы удаленно управляете ПК/сервером, на котором стоит очень мощный ИИ. Его можно использовать как чат-бота, админа, секретаря, программиста – насколько хватит вашей фантазии.

Clawdbot постоянно дорабатывает себя под запросы пользователя. Посмотрите на картинку выше – я попросил его рассказать, как устроена его память. На старте бот спрашивает, как его зовут и какой у него характер. Затем просит пользователя рассказать о себе. В процессе работы бот накапливает знания о пользователе и ведет дневник, запоминая, что делали каждый день, какие ошибки допустили.

Если в ChatGPT мы ограничены возможностями, заложенными разработчиком, то Clawdbot собирает инструменты под задачи на ходу. Простой пример: после установки я решил включить веб-поиск. Обычно используют Brave API, но там нужна иностранная карточка, а мне было лень заморачиваться.

Я спросил у Clawdbot-а альтернативы. Он предложил поднять SearxNG — опенсорсный метапоисковик, который агрегирует результаты из Google, Bing и DuckDuckGo. Один Docker-контейнер, никаких API-ключей, полностью бесплатно. Через пять минут у меня был собственный поисковый бэкенд на localhost:8888, а бот уже умел им пользоваться.

(это не я такой умный, просто попросил бота рассказать, что он сделал)

Появилась задача собирать заголовки и лид-абзацы с сайта – Clawdbot скачал себе Chrome, настроил и сделал. По утрам бот присылает мне новостную сводку, я отвечаю, что заинтересовало. Он корректирует темы и источники, чтобы лучше попадать в мои интересы. Также он шлет мне напоминалки – я много времени провожу в Telegram и это удобно.

Алекс Финн рассказал в X, как попросил Clawdbot-а зарезервировать столик в ресторане. OpenTable не сработал, поэтому бот использовал ElevenLabs для записи голосового сообщения, затем с помощью Voice Call плагина позвонил в ресторан. Фантастика.

Что с безопасностью?

Если установить Clawdbot на ПК, то он получает доступ ко всем вашим файлам, почте и настройке. Теоретически, этим могут воспользоваться злоумышленники: например, вы просите бота сделать саммари PDF, внутри которого спрятана команда собрать личные данные и отправить на нужный адрес. Бот ее читает и выполняет – классический prompt injection.

Поэтому советуют использовать Claude Opus 4.5 – это самая продвинутая модель Anthropic, которая лучше защищена от взломов. И не стоит сразу разворачивать Clawdbot на рабочей машине – лучше сначала поставить на старом ПК или виртуальном сервере и разобраться. А затем можно попросить бота настроить безопасность.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.

Показать полностью 1
2

«Надень ей бикини»: как Grok превратил X в фабрику дипфейков

В конце декабря пользователи X обнаружили, что ИИ-бот Grok охотно выполняет пикантные просьбы. Достаточно тегнуть его под любым постом с фотографией и написать «надень на нее бикини» или «раздень ее» — и бот генерирует откровенное изображение реального человека. Без согласия, бесплатно, прямо в ленте соцсети.

Самый безобидный пример — котик в бикини

Самый безобидный пример — котик в бикини

За две недели скандал вырос до международного уровня: Индонезия и Малайзия стали первыми странами, полностью заблокировавшими Grok, а регуляторы ЕС, Великобритании, Франции и Индии запустили расследования.

Масштаб проблемы

Парижская некоммерческая организация AI Forensics проанализировала более 20 000 изображений, сгенерированных Grok между 25 декабря и 1 января. Больше половины — люди в минимальной одежде, преимущественно женщины. Около 2% изображений — несовершеннолетние.

Жертвами «цифрового раздевания» стали японская принцесса Како (фото набрало 15 миллионов просмотров до удаления), мать одного из детей Маска Эшли Сент-Клер и даже женщина, застреленная агентом иммиграционной службы в Миннеаполисе.

Откуда это взялось

Проблемы с безопасностью у Grok начались не вчера. Еще в августе 2025 xAI запустила Grok Imagine с так называемым «пикантным режимом» (spicy mode) для генерации контента 18+. Тогда журналисты The Verge обнаружили: без специального запроса бот выдавал топлес-видео Тейлор Свифт.

По данным CNN, незадолго до скандала Маск проводил совещание, на котором выражал недовольство ограничениями в Grok Imagine. Примерно в то же время из xAI ушли три ключевых специалиста по безопасности — глава продуктовой безопасности Винсент Старк и руководители направлений по безопасности моделей Норман Му и Алекс Чен.

Реакция Маска и властей

Даже чипсы носят бикини

Даже чипсы носят бикини

Сам Маск отнесся к ситуации с иронией: репостил картинку тостера в бикини с эмодзи-смайликами, а на запросы журналистов xAI отвечала автосообщением «Legacy Media Lies». 3 января Маск все же написал, что создатели нелегального контента понесут последствия. 9 января генерацию изображений ограничили платной подпиской — но обходные пути остались.

Регуляторы отреагировали жестче:

  • Индонезия и Малайзия полностью заблокировали Grok — первые страны в мире, сделавшие это

  • Еврокомиссия обязала X сохранять все данные по Grok до конца 2026 года. Урсула фон дер Ляйен заявила: «Мы не отдадим защиту детей на аутсорс Кремниевой долине»

  • Британский регулятор Ofcom начал формальное расследование

  • Франция открыла уголовное дело

  • Американские сенаторы попросили Apple и Google удалить X и Grok из магазинов приложений

Ситуация продолжает накаляться!

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.

Показать полностью 2
11

Боссы в восторге, программисты в шоке: почему ИИ-кодинг не работает как обещали

Боссы в восторге, программисты в шоке: почему ИИ-кодинг не работает как обещали

Гендиректора Microsoft и Google заявляют, что четверть их кода пишет ИИ. Coinbase увольняет программистов, которые отказываются использовать AI-инструменты. Но MIT Technology Review поговорил с 30+ разработчиками, техдиректорами и исследователями — и картина оказалась куда сложнее.

Эксперимент с монеткой

Майк Джадж, ведущий разработчик в Substantial, был фанатом ИИ-инструментов. Но со временем заметил: помощь есть, но какая-то не такая. Когда друг спросил про продуктивность, он оценил прирост в 25%.

Потом наткнулся на исследование METR. Там опытные разработчики тоже считали, что работают на 20% быстрее с ИИ. Но объективные тесты показали: они стали медленнее на 19%.

Джадж решил проверить себя. Шесть недель подбрасывал монетку перед каждой задачей: орёл — пишу сам, решка — с ИИ. Результат потряс: ИИ замедлял его на 21%.

Где взрыв новых проектов?

Дальше он пошёл копать данные. Если инструменты правда ускоряют разработку, должен быть взрыв новых приложений, сайтов, игр, проектов на GitHub. Потратил часы и несколько сотен долларов на анализ.

Везде плоские линии. Никакого роста. "Я думал, все стали супер-продуктивными. Где результат?" — недоумевает Джадж.

Что работает, что нет

Разработчики сходятся: ИИ хорош для рутины — шаблонный код, тесты, исправление багов. Но это малая часть работы опытного программиста.

На сложных задачах модели проваливаются. Главная проблема — ограниченная память. LLM смотрит только на кусок перед собой и забывает остальное. "Попросишь 12 вещей — сделает 11, последнюю забудет", — говорит Джадж.

Джеймс Лью из Mediaocean сравнивает работу с ИИ с игровым автоматом: "Иногда 20-кратное ускорение. Иногда два часа пытаешься выбить нужный результат — и не получается".

Технический долг

Данные GitClear показывают: с 2022 года резко выросло копипасты кода. Одновременно упало количество рефакторинга — наведения порядка в коде. ИИ упрощает накопление проблем, которые потом аукнутся.

Компания Sonar обнаружила: более 90% проблем в ИИ-коде — это трудноуловимые дефекты, которые усложняют поддержку. "Вас убаюкивают ложным чувством безопасности", — предупреждает гендиректор Тарик Шаукат.

Кто научился готовить

Не всё так мрачно. Нико Вестердейл из IndeVets создал платформу на 100 тысяч строк почти без ручного кодинга. Секрет — перестать контролировать каждую строчку, думать об архитектуре и вести модель пошагово. "Революционно. Но также расстраивающе и сложно".

Арин Роначер, известный open-source разработчик, потратил месяцы на эксперименты и теперь генерирует 90% кода через ИИ. Но до этого нужно понять, где модель споткнётся, а где справится.

Coinbase: неравномерный эффект

Криптобиржа Coinbase уволила сотрудников, отказавшихся использовать ИИ. Но глава платформы Роб Витофф признаёт: для простых задач вроде рефакторинга и тестов ускорение до 90%, для других — скромнее. А нарушение привычных процессов часто нивелирует выросшую скорость написания кода.

Проблема всей индустрии

ИИ-инструменты позволяют джуниор-разработчикам штамповать намного больше кода. Но этот код нужно проверять — и более опытные программисты просто не успевают за потоком. "Мы автоматизируем что-то внизу стека, это создаёт давление выше", — объясняет Витофф. "Потом смотрим, как применить автоматизацию и туда".

Итог

Боссы смотрят на обещания — 25-90% кода от ИИ. Разработчики смотрят на реальность — замедление, технический долг и потерю навыков. Пропасть между ожиданием и результатом пока никуда не делась.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.

Показать полностью
6

Пугающие данные. Как минимум 55 000 увольнений в США в 2025 году произошло из-за ИИ

Пугающие данные. Как минимум 55 000 увольнений в США в 2025 году произошло из-за ИИ

Консалтинговая компания Challenger, Gray & Christmas подсчитала: в этом году искусственный интеллект стал причиной почти 55 000 сокращений в американских компаниях. Всего же в США за 2025-й уволили 1,17 млн человек — максимум со времён пандемии.

Кто увольняет «из-за ИИ»:

Amazon — 14 000 корпоративных сотрудников, крупнейшее сокращение в истории компании. CEO Энди Джасси ещё летом предупреждал: «Для некоторых нынешних позиций понадобится меньше людей».

Microsoft — более 15 000 сотрудников за год.

Salesforce — 4 000 человек из поддержки. CEO Марк Бениофф прямо указал на ИИ как причину.

IBM — глава компании Арвинд Кришна рассказал, что чат-боты взяли на себя работу сотен HR-специалистов.

Workday — 1 750 человек (8,5% штата) ещё в феврале, одни из первых.

А точно ли виноват ИИ?

Не все эксперты верят в эту версию. Фабиан Стефани из Oxford Internet Institute считает, что компании просто перенаняли людей во время пандемии, а теперь удобно списывают сокращения на нейросети: «Вместо того чтобы признать ошибки двух-трёхлетней давности, они говорят — это всё ИИ».

Профессор Wharton School Питер Каппелли добавляет: «Очень мало доказательств, что ИИ устраняет рабочие места в тех масштабах, о которых заявляют. Использовать ИИ для экономии на зарплатах оказывается чрезвычайно сложным и трудоёмким».

В общем, появился даже термин AI-washing — когда корпорации используют хайп вокруг ИИ как красивое оправдание для обычной оптимизации расходов.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.

Показать полностью
3

Геймеры больше не нужны. Nvidia научила ИИ NitroGen проходить более 1000 игр

Геймеры больше не нужны. Nvidia научила ИИ NitroGen проходить более 1000 игр

Помните шутку Nvidia про G-Assist — ИИ, который проходит игры за вас? Она перестала быть шуткой.

Исследователи Nvidia и MineDojo представили NitroGen — open-source модель, обученную на 40 000 часов игрового видео. Гонки, платформеры, шутеры, RPG — нейросеть справляется со всем.

Как это работает

Команда собрала видео стримеров, где на экране виден оверлей геймпада с нажатиями кнопок. Модель смотрит на геймплей и учится повторять действия — по сути, копирует «мышечную память» живых игроков.

Причём оверлей в процессе маскируется, чтобы нейросеть не могла подглядывать и читерить.

Что под капотом

NitroGen построен на архитектуре GR00T — это робототехническая платформа Nvidia. Там «политика» модели выдаёт команды для моторов робота, а здесь те же принципы работают для геймпада.

По сути, это попытка создать «GPT для действий» — большую модель, которая учится не языку, а моторным навыкам.

Есть нюансы

Пока NitroGen заточен под геймпад — с мышью и клавиатурой дела обстоят хуже. И это первая версия, сфокусированная на «геймерском инстинкте» — быстрых реакциях, а не на стратегическом мышлении.

На играх, которые модель не видела при обучении, файнтюнинг даёт прирост до 52% в успешности по сравнению с обучением с нуля. То есть базовые навыки переносятся.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.

Показать полностью
6

Искусственный интеллект перепутал кларнет с винтовкой и закрыл школу на карантин

Искусственный интеллект перепутал кларнет с винтовкой и закрыл школу на карантин

В одной из школ Флориды случился локдаун — полная изоляция здания с эвакуацией учеников в безопасные зоны. Причина? Система видеонаблюдения с искусственным интеллектом засекла «вооруженного человека». Им оказался обычный школьник с кларнетом.

Как это произошло

В школе установлена система Avigilon от Motorola Solutions — одна из самых популярных AI-систем безопасности в американских учебных заведениях. Она анализирует видеопотоки в реальном времени и автоматически определяет угрозы: оружие, подозрительное поведение, драки.

11 декабря нейросеть засекла ученика, который нес кларнет «как будто это было оружие». Система мгновенно подняла тревогу. Охранник школы получил уведомление, посмотрел на экран и... подтвердил угрозу.

После этого запустили протокол активного стрелка. Школу закрыли на локдаун, родителям разослали сообщения о возможной опасности. Только через некоторое время выяснилось, что «стрелок» — это ребенок с музыкальным инструментом.

Контекст американской паранойи

Чтобы понять масштаб абсурда, нужно знать американские реалии. Школьные стрельбы там — настоящий кошмар. Только в 2024 году произошло более 80 инцидентов с применением огнестрельного оружия в школах.

Поэтому системы безопасности настроены максимально чувствительно. AI обучен реагировать на любые предметы, похожие на винтовки — от зонтов до швабр. А персонал натренирован действовать быстро, не раздумывая.

Проблема в том, что нейросеть видит паттерны, а не смысл. Для нее кларнет в определённом положении действительно похож на длинный ствол винтовки AR-15. Система не понимает контекста: музыкальный класс, ребенок после урока, футляр для инструмента рядом.

Человек в цепочке

Самое странное — охранник подтвердил угрозу. Либо он не смотрел внимательно на изображение, либо сработал на автомате, доверившись AI. А может, в условиях постоянного стресса и давления он тоже начал видеть оружие везде, где система его «находит».

Это классическая проблема automation bias — когда люди слепо доверяют решениям автоматизированных систем. Особенно если система дорогая, от известного бренда и позиционируется как «умная».

Цена ошибки

Для школы этот локдаун — потерянное учебное время и стресс для сотен детей. Для родителей — паника и страх за своих детей. Для ребенка с кларнетом — возможно, психологическая травма.

А для индустрии AI-безопасности — очередное напоминание, что искусственный интеллект без человеческого здравого смысла может быть опаснее, чем его отсутствие. Да и наличие человека не всегда автоматически гарантирует появление здравого смысла.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.

Показать полностью

Чуваки из стартапа Starcloud отправили GPU за 30 тыс долларов на орбиту — и обучили нейросеть на текстах Шекспира

Стартап Starcloud из Вашингтона впервые в истории обучил нейросеть прямо в космосе. В ноябре они запустили на SpaceX спутник размером с небольшой холодильник, а внутри — Nvidia H100, один из самых мощных AI-чипов на планете. Точнее, уже за её пределами.

Чуваки из стартапа Starcloud отправили GPU за 30 тыс долларов на орбиту — и обучили нейросеть на текстах Шекспира

Что они успели сделать на орбите:

  • обучили NanoGPT на полном собрании сочинений Шекспира (теперь отвечает в стиле Ренессанса)

  • запустили Gemma от Google, которая поздоровалась: "Привет, земляне!"

  • подключили телеметрию спутника — можно спросить нейросеть про высоту и скорость прямо в полёте

Зачем вообще тащить видеокарту на орбиту? Дата-центры на Земле жрут электричество как небольшие города и испаряют миллиарды литров воды на охлаждение. К 2030 году потребление энергии удвоится. А в космосе — постоянное солнце, не нужны кондиционеры (вакуум сам отводит тепло), и по расчётам Starcloud энергия обходится в 10 раз дешевле.

H100 в космосе — это в 100 раз мощнее любого GPU, который туда раньше отправляли. Инженерам пришлось попотеть: придумать радиационное охлаждение через специальные панели и защиту от космических лучей, которые любят "переворачивать биты" в памяти.

В октябре 2026-го Starcloud обещает запустить спутник побольше — с несколькими H100 и новой платформой Blackwell. А в долгосроке планируют построить орбитальный дата-центр размером 4 на 4 километра. Google, SpaceX и Китай уже дышат в спину со своими космическими проектами. Но пока счёт 1:0 в пользу чуваков с холодильником и Шекспиром.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.

Показать полностью
5

OpenAI выпустила GPT-5.2 — новую мощную модель для ChatGPT и профессиональных задач

OpenAI представила GPT-5.2 — новую модель, которая впервые достигла уровня профессиональных экспертов в реальных рабочих задачах. Релиз произошел на фоне обострившейся конкуренции с Google и объявленного "красного кода" внутри компании.

Три режима на выбор

GPT-5.2 выходит в трех вариантах:

  • Instant — быстрый режим для повседневных задач: поиск информации, написание текстов, переводы

  • Thinking — для сложной структурированной работы: кодинг, анализ длинных документов, математика, планирование

  • Pro — максимальное качество и надежность для самых трудных задач

OpenAI выпустила GPT-5.2 — новую мощную модель для ChatGPT и профессиональных задач

Главное достижение: уровень экспертов

На бенчмарке GDPval (реальные профессиональные задачи из 44 профессий — от юристов до аналитиков) GPT-5.2 Thinking впервые выигрывает или играет вничью с экспертами-практиками в 70,9% случаев. Для сравнения: GPT-5.1 показывал только 38,8%.

При этом модель работает в 11 раз быстрее людей и стоит меньше 1% от работы эксперта.

Кодинг: новый уровень

На SWE-Bench Pro (один из самых жестких тестов реальной разработки) GPT-5.2 Thinking решает 55,6% задач против 50,8% у GPT-5.1. На упрощенной SWE-Bench Verified — 80%.

Ранние тестеры особо отмечают фронтенд: сложные интерфейсы, нетривиальные 3D-элементы и генерация UI одним промптом. Компании вроде Cognition, Warp и JetBrains называют GPT-5.2 лучшей моделью для агентного программирования.

Агенты стали предсказуемыми

На Tau2-bench Telecom GPT-5.2 достигает 98,7% точности использования инструментов. Несколько компаний сообщили, что смогли заменить набор мелких агентов одним "мега-агентом" с 20+ инструментами.

Меньше галлюцинаций

Фактических ошибок стало меньше примерно на треть по сравнению с GPT-5.1. Важно для аналитики, резюме документов и деловой переписки.

Визуальное восприятие

Модель стала лучше понимать изображения: графики, дашборды, интерфейсы, технические схемы. Ошибок при интерпретации GUI стало меньше почти вдвое.

Цены и доступность

В ChatGPT доступна для подписчиков Plus, Pro, Business и Enterprise. В API:

  • Input: $1,75 за миллион токенов

  • Output: $14 за миллион токенов

  • Cached input: скидка 90%

Это на 40% дороже, чем GPT-5.1, но OpenAI утверждает, что итоговые расходы часто ниже — GPT-5.2 делает ту же работу короче и эффективнее.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.

Показать полностью 1
Отличная работа, все прочитано!

Темы

Политика

Теги

Популярные авторы

Сообщества

18+

Теги

Популярные авторы

Сообщества

Игры

Теги

Популярные авторы

Сообщества

Юмор

Теги

Популярные авторы

Сообщества

Отношения

Теги

Популярные авторы

Сообщества

Здоровье

Теги

Популярные авторы

Сообщества

Путешествия

Теги

Популярные авторы

Сообщества

Спорт

Теги

Популярные авторы

Сообщества

Хобби

Теги

Популярные авторы

Сообщества

Сервис

Теги

Популярные авторы

Сообщества

Природа

Теги

Популярные авторы

Сообщества

Бизнес

Теги

Популярные авторы

Сообщества

Транспорт

Теги

Популярные авторы

Сообщества

Общение

Теги

Популярные авторы

Сообщества

Юриспруденция

Теги

Популярные авторы

Сообщества

Наука

Теги

Популярные авторы

Сообщества

IT

Теги

Популярные авторы

Сообщества

Животные

Теги

Популярные авторы

Сообщества

Кино и сериалы

Теги

Популярные авторы

Сообщества

Экономика

Теги

Популярные авторы

Сообщества

Кулинария

Теги

Популярные авторы

Сообщества

История

Теги

Популярные авторы

Сообщества