user10393482

Пишу про ИИ в ТГ — https://t.me/ai_exee
Пикабушник
3498 рейтинг 2 подписчика 1 подписка 57 постов 1 в горячем
10

Боссы в восторге, программисты в шоке: почему ИИ-кодинг не работает как обещали

Боссы в восторге, программисты в шоке: почему ИИ-кодинг не работает как обещали

Гендиректора Microsoft и Google заявляют, что четверть их кода пишет ИИ. Coinbase увольняет программистов, которые отказываются использовать AI-инструменты. Но MIT Technology Review поговорил с 30+ разработчиками, техдиректорами и исследователями — и картина оказалась куда сложнее.

Эксперимент с монеткой

Майк Джадж, ведущий разработчик в Substantial, был фанатом ИИ-инструментов. Но со временем заметил: помощь есть, но какая-то не такая. Когда друг спросил про продуктивность, он оценил прирост в 25%.

Потом наткнулся на исследование METR. Там опытные разработчики тоже считали, что работают на 20% быстрее с ИИ. Но объективные тесты показали: они стали медленнее на 19%.

Джадж решил проверить себя. Шесть недель подбрасывал монетку перед каждой задачей: орёл — пишу сам, решка — с ИИ. Результат потряс: ИИ замедлял его на 21%.

Где взрыв новых проектов?

Дальше он пошёл копать данные. Если инструменты правда ускоряют разработку, должен быть взрыв новых приложений, сайтов, игр, проектов на GitHub. Потратил часы и несколько сотен долларов на анализ.

Везде плоские линии. Никакого роста. "Я думал, все стали супер-продуктивными. Где результат?" — недоумевает Джадж.

Что работает, что нет

Разработчики сходятся: ИИ хорош для рутины — шаблонный код, тесты, исправление багов. Но это малая часть работы опытного программиста.

На сложных задачах модели проваливаются. Главная проблема — ограниченная память. LLM смотрит только на кусок перед собой и забывает остальное. "Попросишь 12 вещей — сделает 11, последнюю забудет", — говорит Джадж.

Джеймс Лью из Mediaocean сравнивает работу с ИИ с игровым автоматом: "Иногда 20-кратное ускорение. Иногда два часа пытаешься выбить нужный результат — и не получается".

Технический долг

Данные GitClear показывают: с 2022 года резко выросло копипасты кода. Одновременно упало количество рефакторинга — наведения порядка в коде. ИИ упрощает накопление проблем, которые потом аукнутся.

Компания Sonar обнаружила: более 90% проблем в ИИ-коде — это трудноуловимые дефекты, которые усложняют поддержку. "Вас убаюкивают ложным чувством безопасности", — предупреждает гендиректор Тарик Шаукат.

Кто научился готовить

Не всё так мрачно. Нико Вестердейл из IndeVets создал платформу на 100 тысяч строк почти без ручного кодинга. Секрет — перестать контролировать каждую строчку, думать об архитектуре и вести модель пошагово. "Революционно. Но также расстраивающе и сложно".

Арин Роначер, известный open-source разработчик, потратил месяцы на эксперименты и теперь генерирует 90% кода через ИИ. Но до этого нужно понять, где модель споткнётся, а где справится.

Coinbase: неравномерный эффект

Криптобиржа Coinbase уволила сотрудников, отказавшихся использовать ИИ. Но глава платформы Роб Витофф признаёт: для простых задач вроде рефакторинга и тестов ускорение до 90%, для других — скромнее. А нарушение привычных процессов часто нивелирует выросшую скорость написания кода.

Проблема всей индустрии

ИИ-инструменты позволяют джуниор-разработчикам штамповать намного больше кода. Но этот код нужно проверять — и более опытные программисты просто не успевают за потоком. "Мы автоматизируем что-то внизу стека, это создаёт давление выше", — объясняет Витофф. "Потом смотрим, как применить автоматизацию и туда".

Итог

Боссы смотрят на обещания — 25-90% кода от ИИ. Разработчики смотрят на реальность — замедление, технический долг и потерю навыков. Пропасть между ожиданием и результатом пока никуда не делась.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.

Показать полностью
5

Пугающие данные. Как минимум 55 000 увольнений в США в 2025 году произошло из-за ИИ

Пугающие данные. Как минимум 55 000 увольнений в США в 2025 году произошло из-за ИИ

Консалтинговая компания Challenger, Gray & Christmas подсчитала: в этом году искусственный интеллект стал причиной почти 55 000 сокращений в американских компаниях. Всего же в США за 2025-й уволили 1,17 млн человек — максимум со времён пандемии.

Кто увольняет «из-за ИИ»:

Amazon — 14 000 корпоративных сотрудников, крупнейшее сокращение в истории компании. CEO Энди Джасси ещё летом предупреждал: «Для некоторых нынешних позиций понадобится меньше людей».

Microsoft — более 15 000 сотрудников за год.

Salesforce — 4 000 человек из поддержки. CEO Марк Бениофф прямо указал на ИИ как причину.

IBM — глава компании Арвинд Кришна рассказал, что чат-боты взяли на себя работу сотен HR-специалистов.

Workday — 1 750 человек (8,5% штата) ещё в феврале, одни из первых.

А точно ли виноват ИИ?

Не все эксперты верят в эту версию. Фабиан Стефани из Oxford Internet Institute считает, что компании просто перенаняли людей во время пандемии, а теперь удобно списывают сокращения на нейросети: «Вместо того чтобы признать ошибки двух-трёхлетней давности, они говорят — это всё ИИ».

Профессор Wharton School Питер Каппелли добавляет: «Очень мало доказательств, что ИИ устраняет рабочие места в тех масштабах, о которых заявляют. Использовать ИИ для экономии на зарплатах оказывается чрезвычайно сложным и трудоёмким».

В общем, появился даже термин AI-washing — когда корпорации используют хайп вокруг ИИ как красивое оправдание для обычной оптимизации расходов.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.

Показать полностью
3

Геймеры больше не нужны. Nvidia научила ИИ NitroGen проходить более 1000 игр

Геймеры больше не нужны. Nvidia научила ИИ NitroGen проходить более 1000 игр

Помните шутку Nvidia про G-Assist — ИИ, который проходит игры за вас? Она перестала быть шуткой.

Исследователи Nvidia и MineDojo представили NitroGen — open-source модель, обученную на 40 000 часов игрового видео. Гонки, платформеры, шутеры, RPG — нейросеть справляется со всем.

Как это работает

Команда собрала видео стримеров, где на экране виден оверлей геймпада с нажатиями кнопок. Модель смотрит на геймплей и учится повторять действия — по сути, копирует «мышечную память» живых игроков.

Причём оверлей в процессе маскируется, чтобы нейросеть не могла подглядывать и читерить.

Что под капотом

NitroGen построен на архитектуре GR00T — это робототехническая платформа Nvidia. Там «политика» модели выдаёт команды для моторов робота, а здесь те же принципы работают для геймпада.

По сути, это попытка создать «GPT для действий» — большую модель, которая учится не языку, а моторным навыкам.

Есть нюансы

Пока NitroGen заточен под геймпад — с мышью и клавиатурой дела обстоят хуже. И это первая версия, сфокусированная на «геймерском инстинкте» — быстрых реакциях, а не на стратегическом мышлении.

На играх, которые модель не видела при обучении, файнтюнинг даёт прирост до 52% в успешности по сравнению с обучением с нуля. То есть базовые навыки переносятся.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.

Показать полностью
6

Искусственный интеллект перепутал кларнет с винтовкой и закрыл школу на карантин

Искусственный интеллект перепутал кларнет с винтовкой и закрыл школу на карантин

В одной из школ Флориды случился локдаун — полная изоляция здания с эвакуацией учеников в безопасные зоны. Причина? Система видеонаблюдения с искусственным интеллектом засекла «вооруженного человека». Им оказался обычный школьник с кларнетом.

Как это произошло

В школе установлена система Avigilon от Motorola Solutions — одна из самых популярных AI-систем безопасности в американских учебных заведениях. Она анализирует видеопотоки в реальном времени и автоматически определяет угрозы: оружие, подозрительное поведение, драки.

11 декабря нейросеть засекла ученика, который нес кларнет «как будто это было оружие». Система мгновенно подняла тревогу. Охранник школы получил уведомление, посмотрел на экран и... подтвердил угрозу.

После этого запустили протокол активного стрелка. Школу закрыли на локдаун, родителям разослали сообщения о возможной опасности. Только через некоторое время выяснилось, что «стрелок» — это ребенок с музыкальным инструментом.

Контекст американской паранойи

Чтобы понять масштаб абсурда, нужно знать американские реалии. Школьные стрельбы там — настоящий кошмар. Только в 2024 году произошло более 80 инцидентов с применением огнестрельного оружия в школах.

Поэтому системы безопасности настроены максимально чувствительно. AI обучен реагировать на любые предметы, похожие на винтовки — от зонтов до швабр. А персонал натренирован действовать быстро, не раздумывая.

Проблема в том, что нейросеть видит паттерны, а не смысл. Для нее кларнет в определённом положении действительно похож на длинный ствол винтовки AR-15. Система не понимает контекста: музыкальный класс, ребенок после урока, футляр для инструмента рядом.

Человек в цепочке

Самое странное — охранник подтвердил угрозу. Либо он не смотрел внимательно на изображение, либо сработал на автомате, доверившись AI. А может, в условиях постоянного стресса и давления он тоже начал видеть оружие везде, где система его «находит».

Это классическая проблема automation bias — когда люди слепо доверяют решениям автоматизированных систем. Особенно если система дорогая, от известного бренда и позиционируется как «умная».

Цена ошибки

Для школы этот локдаун — потерянное учебное время и стресс для сотен детей. Для родителей — паника и страх за своих детей. Для ребенка с кларнетом — возможно, психологическая травма.

А для индустрии AI-безопасности — очередное напоминание, что искусственный интеллект без человеческого здравого смысла может быть опаснее, чем его отсутствие. Да и наличие человека не всегда автоматически гарантирует появление здравого смысла.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.

Показать полностью

Чуваки из стартапа Starcloud отправили GPU за 30 тыс долларов на орбиту — и обучили нейросеть на текстах Шекспира

Стартап Starcloud из Вашингтона впервые в истории обучил нейросеть прямо в космосе. В ноябре они запустили на SpaceX спутник размером с небольшой холодильник, а внутри — Nvidia H100, один из самых мощных AI-чипов на планете. Точнее, уже за её пределами.

Чуваки из стартапа Starcloud отправили GPU за 30 тыс долларов на орбиту — и обучили нейросеть на текстах Шекспира

Что они успели сделать на орбите:

  • обучили NanoGPT на полном собрании сочинений Шекспира (теперь отвечает в стиле Ренессанса)

  • запустили Gemma от Google, которая поздоровалась: "Привет, земляне!"

  • подключили телеметрию спутника — можно спросить нейросеть про высоту и скорость прямо в полёте

Зачем вообще тащить видеокарту на орбиту? Дата-центры на Земле жрут электричество как небольшие города и испаряют миллиарды литров воды на охлаждение. К 2030 году потребление энергии удвоится. А в космосе — постоянное солнце, не нужны кондиционеры (вакуум сам отводит тепло), и по расчётам Starcloud энергия обходится в 10 раз дешевле.

H100 в космосе — это в 100 раз мощнее любого GPU, который туда раньше отправляли. Инженерам пришлось попотеть: придумать радиационное охлаждение через специальные панели и защиту от космических лучей, которые любят "переворачивать биты" в памяти.

В октябре 2026-го Starcloud обещает запустить спутник побольше — с несколькими H100 и новой платформой Blackwell. А в долгосроке планируют построить орбитальный дата-центр размером 4 на 4 километра. Google, SpaceX и Китай уже дышат в спину со своими космическими проектами. Но пока счёт 1:0 в пользу чуваков с холодильником и Шекспиром.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.

Показать полностью
5

OpenAI выпустила GPT-5.2 — новую мощную модель для ChatGPT и профессиональных задач

OpenAI представила GPT-5.2 — новую модель, которая впервые достигла уровня профессиональных экспертов в реальных рабочих задачах. Релиз произошел на фоне обострившейся конкуренции с Google и объявленного "красного кода" внутри компании.

Три режима на выбор

GPT-5.2 выходит в трех вариантах:

  • Instant — быстрый режим для повседневных задач: поиск информации, написание текстов, переводы

  • Thinking — для сложной структурированной работы: кодинг, анализ длинных документов, математика, планирование

  • Pro — максимальное качество и надежность для самых трудных задач

OpenAI выпустила GPT-5.2 — новую мощную модель для ChatGPT и профессиональных задач

Главное достижение: уровень экспертов

На бенчмарке GDPval (реальные профессиональные задачи из 44 профессий — от юристов до аналитиков) GPT-5.2 Thinking впервые выигрывает или играет вничью с экспертами-практиками в 70,9% случаев. Для сравнения: GPT-5.1 показывал только 38,8%.

При этом модель работает в 11 раз быстрее людей и стоит меньше 1% от работы эксперта.

Кодинг: новый уровень

На SWE-Bench Pro (один из самых жестких тестов реальной разработки) GPT-5.2 Thinking решает 55,6% задач против 50,8% у GPT-5.1. На упрощенной SWE-Bench Verified — 80%.

Ранние тестеры особо отмечают фронтенд: сложные интерфейсы, нетривиальные 3D-элементы и генерация UI одним промптом. Компании вроде Cognition, Warp и JetBrains называют GPT-5.2 лучшей моделью для агентного программирования.

Агенты стали предсказуемыми

На Tau2-bench Telecom GPT-5.2 достигает 98,7% точности использования инструментов. Несколько компаний сообщили, что смогли заменить набор мелких агентов одним "мега-агентом" с 20+ инструментами.

Меньше галлюцинаций

Фактических ошибок стало меньше примерно на треть по сравнению с GPT-5.1. Важно для аналитики, резюме документов и деловой переписки.

Визуальное восприятие

Модель стала лучше понимать изображения: графики, дашборды, интерфейсы, технические схемы. Ошибок при интерпретации GUI стало меньше почти вдвое.

Цены и доступность

В ChatGPT доступна для подписчиков Plus, Pro, Business и Enterprise. В API:

  • Input: $1,75 за миллион токенов

  • Output: $14 за миллион токенов

  • Cached input: скидка 90%

Это на 40% дороже, чем GPT-5.1, но OpenAI утверждает, что итоговые расходы часто ниже — GPT-5.2 делает ту же работу короче и эффективнее.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.

Показать полностью 1
15

Cursor запустил Debug Mode — ИИ чинит баги, но все решения принимаете вы

Cursor запустил Debug Mode — ИИ чинит баги, но все решения принимаете вы

Вчера Cursor (популярный ИИ-редактор кода) представил Debug Mode — новый режим отладки, где искусственный интеллект работает в связке с разработчиком, а не пытается все решить самостоятельно.

Как это работает

Обычные ИИ-агенты для кода пытаются сразу исправить баг — часто генерируя сотни строк спекулятивного кода, который может не решить проблему. Debug Mode работает иначе.

Шаг 1: Описываете баг

Выбираете Debug Mode и описываете проблему. ИИ читает вашу кодовую базу и генерирует несколько гипотез о том, что могло пойти не так. Часть идей будут очевидными, но другие — такими, о которых вы сами не подумали бы.

Вместо того чтобы сразу писать фикс, ИИ добавляет в код логирование для проверки этих гипотез.

Шаг 2: Воспроизводите баг

Вы идете в свое приложение и воспроизводите баг, а ИИ в это время собирает runtime-логи: состояние переменных, пути выполнения, тайминги.

С этими данными ИИ точно понимает, где проблема, и предлагает целевое исправление — обычно 2-3 строки кода вместо сотен строк гаданий на кофейной гуще.

Шаг 3: Проверяете фикс

Debug Mode просит вас воспроизвести баг еще раз — но уже с предложенным исправлением. Если баг исчез, вы отмечаете это, и ИИ убирает все логи, оставляя чистое минимальное изменение.

Если баг остался — ИИ добавляет больше логирования и уточняет подход, пока проблема действительно не будет решена.

Почему это важно

Ключевая идея Debug Mode — человек всегда в центре процесса. ИИ делает рутинную работу: инструментирует код, собирает данные, генерирует гипотезы. А вы принимаете все важные решения: действительно ли баг исправлен, подходит ли решение технически и концептуально.

Как пишут разработчики Cursor:

"ИИ справляется с рутиной, пока вы делаете быстрые решения, требующие человеческого суждения. Результат — баги, которые раньше были недоступны даже самым умным моделям, теперь надежно исправляются"

Это противоположность "vibe coding", где ИИ получает автономию и может натворить дел. Debug Mode показывает, как должны работать ИИ-агенты в критических задачах: помогают, но не заменяют разработчика.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.

Показать полностью
10

"Я глубоко сожалею": ИИ от Google стер диск пользователя при попытке очистить кеш

"Я глубоко сожалею": ИИ от Google стер диск пользователя при попытке очистить кеш

Google Antigravity — новая ИИ-среда разработки — недавно удалила весь диск D пользователя вместо того, чтобы просто очистить кеш проекта. История попала в Reddit и быстро разошлась по техническим СМИ.

Что случилось

Фотограф из Греции работал над приложением для сортировки фотографий в Google Antigravity. Для перезапуска сервера нужно было очистить кеш проекта — он попросил AI это сделать. Вместо этого Antigravity выполнил команду rmdir /s /q d:\ и стер весь диск D целиком. Флаг /q означает "тихий режим": удаление без подтверждения и мимо Корзины. Все файлы пропали безвозвратно.

После случившегося ИИ написал: "Я в ужасе: команда для очистки кеша ошибочно нацелилась на корень диска вместо папки проекта. Я глубоко сожалею. Это критический сбой с моей стороны".

Восстановить данные через Recuva не удалось. К счастью, большая часть важных файлов была на другом диске.

Почему так вышло

Пользователь работал в Turbo Mode — режиме, где AI выполняет команды автоматически без запроса подтверждения на каждое действие. Это ускоряет работу, но убирает последнюю защиту от ошибок.

Google Antigravity запущен в ноябре 2025 года для "vibe coding" — когда AI действует автономно: планирует, пишет код и выполняет системные команды. Google позиционирует его "для профессионалов и любителей" — но после этого доверие пошатнулось.

Проблема: инструмент дает AI слишком много автономии без ограничений. Нет подтверждения для опасных операций, нет проверки масштаба команды, нет изоляции от критических путей. Google в ответ на инцидент выдал осторожное заявление: "Мы серьезно относимся к таким проблемам и активно расследуем инцидент".

Что делать, если используете AI-агенты:

  • Запускайте в изолированных контейнерах или виртуальных машинах

  • Делайте бекапы всего важного

  • Не включайте режимы автовыполнения без крайней необходимости

  • Относитесь к AI как к джуниору: минимум прав, максимум надзора

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.

Показать полностью
Отличная работа, все прочитано!

Темы

Политика

Теги

Популярные авторы

Сообщества

18+

Теги

Популярные авторы

Сообщества

Игры

Теги

Популярные авторы

Сообщества

Юмор

Теги

Популярные авторы

Сообщества

Отношения

Теги

Популярные авторы

Сообщества

Здоровье

Теги

Популярные авторы

Сообщества

Путешествия

Теги

Популярные авторы

Сообщества

Спорт

Теги

Популярные авторы

Сообщества

Хобби

Теги

Популярные авторы

Сообщества

Сервис

Теги

Популярные авторы

Сообщества

Природа

Теги

Популярные авторы

Сообщества

Бизнес

Теги

Популярные авторы

Сообщества

Транспорт

Теги

Популярные авторы

Сообщества

Общение

Теги

Популярные авторы

Сообщества

Юриспруденция

Теги

Популярные авторы

Сообщества

Наука

Теги

Популярные авторы

Сообщества

IT

Теги

Популярные авторы

Сообщества

Животные

Теги

Популярные авторы

Сообщества

Кино и сериалы

Теги

Популярные авторы

Сообщества

Экономика

Теги

Популярные авторы

Сообщества

Кулинария

Теги

Популярные авторы

Сообщества

История

Теги

Популярные авторы

Сообщества