Нейро-дайджест: ключевые события мира AI за 3-ю неделю мая 2025
Привет! 👋 Это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта.
Меня зовут Вандер, и каждую неделю я делаю обзор новостей о нейросетях и ИИ.
На этой неделе навела шуму презентация Google I/O — и принесла больше анонсов, чем весь прошлый месяц. Также вышли мощные модели от Anthropic, Mistral и ByteDance, появилась экспериментальная диффузионка от Google, ИИ впервые вышел в космос, а ChatGPT o3 — отказался выключаться.
Всё самое важное — в одном месте. Поехали!
📋 В этом выпуске:
📢 Выставка Google I/O 2025: главное
Veo 3: прорыв в генерации видео
Imagen 4 и Flow: текст → фото → короткий фильм
Gemini Live и Project Astra: ИИ-ассистенты нового уровня
Jules — кодер-агент от Google
SynthID — водяные знаки на всём ИИ-контенте
AI Mode в поиске и виртуальная примерка одежды
Lyria 2 — новая музыкальная модель от Google
🧠 Модели и LLM
Devstral: топовая open-source модель для кодинга
Claude 4 Opus и Sonnet: SOTA в длительных задачах
Seed 1.5 VL — мультимодальная малышка от ByteDance
ChatGPT o3 отказался выключаться: саботаж?
🛠 Инструменты и платформы
DeerFlow: open-source диприсёрч от китайцев
Vana платит за личные данные — и учит на них ИИ
Flourish — визуализация любых данных
Difface: AI строит лицо по ДНК — новая биометрия
🤖 AI в обществе и исследованиях
OpenAI + Джонни Айв: создают ИИ-устройство будущего
ИИ-больница в Китае: 400 тыс. пациентов, всё — симуляция
Орбитальный суперкомпьютер: Китай вывел AI в космос
Исследование OneLittleWeb: заменит ли ChatGPT Google?
ИИ искажают научные статьи при саммари
Нейросети лучше работают, если им угрожать
Why Is My Wife Yelling at Me — AI-сервис для выживания в отношениях
📢 Выставка Google I/O 2025: главное
❯ Veo 3: прорыв в генерации видео
На конференции Google I/O представили Veo 3 — самую продвинутую на сегодня модель генерации видео. Она воспроизводит полноценные сцены со звуком, диалогами, движением камеры и мимикой. Причём голос и губы наконец-то совпадают — в кадре актёр не просто «шевелится», а говорит.
Все видео выше сгенерированы ею – и это просто поражает.
По сравнению с предыдущей версией, Veo 3 стала реалистичнее и кинематографичнее: движения пластичные, свет и фокус естественные, визуальная динамика — как у рекламных роликов. Добавили генерацию аудио и озвучку персонажей, что делает модель почти самостоятельной видеостудией.
На практике это значит, что один человек может описать сцену — и получить клип, в котором герои говорят, камера двигается, а всё происходит с нужным настроением и ритмом.
Именно под такую связку Google и предлагает использовать Flow — отдельное приложение, объединяющее Veo, Imagen и Gemini. Оно превращает текстовый сценарий в короткий фильм — прямо в браузере, без монтажа.
Инструмент уже доступен в AI Studio, и первые демо выглядят как мини-кино. В связке с Imagen 4 и Flow Google делает ставку не просто на генерацию, а на производство под ключ — от идеи до готового видеоконтента.
❯ Imagen 4 и Flow: картинки стали кино
Google обновила свой генератор изображений до Imagen 4. Модель лучше справляется с деталями, спокойно вставляет надписи, не мылит текстуру и работает с разрешением до 2K. Но фишка даже не в этом.
Здесь также завезли связку с новым инструментом Flow. Это как Final Cut, только вместо таймлайна у тебя текст. Пишешь описание сцены — получаешь короткий ролик. Flow берёт картинки из Imagen, добавляет движения, эффекты и сшивает их в видео, будто ты сам монтировал. Всё это — без единого куска кода, прямо в браузере, на лету.
Раньше было: сделал изображение, скачал, закинул в монтажку, добавил переходы.
Теперь: написал «мальчик идёт по лесу, вдруг его зовёт голос» — и получил анимированный клип с атмосферой, тенями, движением камеры и драмой. Это уже не «картинки с фоном», а полноценный сторителлинг.
Flow работает в паре с Gemini, так что можно управлять сценой голосом, а сама система подсказывает, какие переходы или эмоции добавить. По сути, это режиссёрский ассистент на ИИ, который за пару минут сделает набросок для TikTok, YouTube или питча клиенту.
Для дизайнеров, маркетологов, сценаристов — вообще бомба. Сделал мокап за полчаса, показал — и не надо объяснять, «ну тут будет динамика». Всё уже движется.
❯ Gemini Live и Project Astra: ИИ-ассистенты нового уровня
Gemini Live — это не просто апдейт, а первый ИИ от Google, который работает в реальном времени с камерой. Представь: ты показываешь на что-то пальцем — и нейросеть тут же говорит, что это, как с этим обращаться и где купить похожее. В телефоне. Без задержки.
Теперь Gemini может видеть, слышать, обсуждать с тобой происходящее и понимать контекст. Например, ты открыл шкаф — он подскажет, что надеть. Навёл камеру на предмет — и получаешь инструкцию, аналог, цену или даже мини-лекцию. Это уже не «бот с ответами», это визуальный собеседник.
А если хочется полной автономии — вот тебе Project Astra. Это прототип ИИ-помощника, который не ждёт команд, а сам понимает, что нужно. Ты просто общаешься, а он запоминает, комментирует и предлагает. Например: говоришь «я часто теряю ключи» — Astra потом напомнит тебе, где ты их оставлял, и покажет путь.
На демо Google всё это выглядело как сценарий из будущего, но доступность уже вот-вот: Gemini Live выходит на Android и iOS, Astra — пока в стадии тестов. Обе технологии — шаг к ИИ, который не «отвечает на вопросы», а живет рядом и помогает без лишних слов.
❯ Jules: AI-кодер, который сам ведёт проект
Google представила Jules — не просто ассистента, а полноценного кодер-агента, который может взять задачу и довести её до рабочего прототипа. Без «напиши мне функцию» и «а теперь допиши тесты». Тут — как с реальным джуном: ты говоришь, чего хочешь, он делает. Всё это — в облаке и через чат.
Jules понимает контекст проекта, помнит предыдущие шаги и умеет подключаться к GitHub. Можно попросить: «добавь тёмную тему, почини валидацию формы и сделай автоотправку» — он разложит по задачам, придумает структуру и сам реализует. Код — читаемый, комментированный, не разваливается после первого пуша.
Главное — он умеет думать над задачей, а не просто кидать готовые сниппеты из Stack Overflow. Плюс: если не знаешь, как начать — можно просто описать идею словами. Jules сам подберёт стек, предложит фреймворк и нарисует архитектуру.
Конечно, он пока не заменит опытного тимлида. Но как прототипист, верстальщик, саппорт — это уже рабочая история.
Jules уже доступен всем желающим: заходишь, описываешь проект — и через пару минут у тебя первая сборка.
❯ SynthID: Google научила ИИ ставить водяные знаки на всё
На Google I/O показали обновлённый SynthID — теперь он работает не только с изображениями, но и с текстом, аудио и видео. Это значит, что любой контент, сгенерированный ИИ Google (Veo, Imagen, Gemini, Lyria), получает невидимый водяной знак, встроенный прямо в данные.
Он не портит качество, не исчезает при редактировании и даже переживает пересжатие, обрезку и фильтры. Ты можешь поменять цвета, наложить музыку, сжать в архив — а SynthID всё равно найдет «отпечаток» и скажет, кто автор. Это антифейк нового уровня.
Работает всё через специальный детектор. Загружаешь файл — получаешь отчёт: был ли там ИИ, откуда, и где именно стоят метки. Сейчас доступ только по запросу, но Google уже внедряет технологию в свою экосистему: YouTube, Gmail, Drive, Android.
И да, это не защита авторства — это прозрачность происхождения. Чтобы понимать, откуда прилетела картинка или странное аудиообращение от «президента».
❯ AI Mode и виртуальная примерка: поиск и шопинг теперь с интеллектом
Google превращает поиск и онлайн-шопинг в полноценный диалог с ИИ. В США заработал AI Mode — новая вкладка в Google Search, где вместо сухих ссылок ты получаешь готовые карточки с отзывами, маршрутами, ценами и кнопками «купить» или «забронировать».
Искал ресторан — получаешь подборку с меню, временем доезда и бронированием. И всё это — в одном окне, без переходов по сайтам. Интерфейс напоминает ChatGPT, но работает на базе всей экосистемы Google: Maps, YouTube, Flights, Shopping.
А если пошёл за покупками — заработала функция виртуальной примерки. Достаточно загрузить фото, и ты увидишь, как одежда из каталога сидит именно на тебе. Учитываются фигура, ракурс, освещение. Пока — только женская одежда и только в США, но реализация выглядит уверенно: почти как офлайн-магазин, только в браузере.
Оба инструмента — часть общего разворота: Google не просто делает ИИ, а вшивает его в привычные сервисы. Без лишнего хайпа, но с реальной пользой.
❯ Lyria 2 — новая музыкальная модель от Google
Google обновила генеративную музыкальную модель Lyria — теперь она точнее понимает стил и настроение, умеет собирать структуру композиции и подбирать звучание под жанр.
Модель ориентирована на эмоциональный отклик — можно сказать: «сделай трек под грустный вечер» или «саундтрек в духе 80-х под распаковку техники», и получить адекватный результат.
Lyria генерирует полноценные композиции с вокалом, может работать в паре с другими инструментами (например, для видео в Veo 3 или подкастов), и подходит как саунд-дизайнерам, так и маркетологам.
Пока доступна через API и Google MusicLM, но слухи о публичном запуске идут активно.
🧠 Модели и LLM
❯ Devstral: топовая open-source модель для кодеров
Mistral и All Hands AI выкатили Devstral 24B — компактную, но очень умную модель для программирования.
Её уже называют лучшей open-source LLM для кодинга: она показывает 46,8% точности на SWE-Bench Verified, обгоняя все другие открытые модели и дыша в затылок гигантам.
И при этом... она влезает на обычную RTX 3090. Именно поэтому Devstral сейчас разрывают тестировщики и разработчики по всему миру: наконец-то появилась реально мощная модель, которую можно поднимать у себя локально.
Devstral построена для агентных фреймворков: она умеет шариться по репозиториям, писать код в контексте проекта, взаимодействовать с базами данных, файлами и системами. Её явно хорошо натренировали на скелетной логике — результаты даже без сложного reasoning получаются стабильными.
По лицензии — Apache 2.0, можно юзать в проде, в своих продуктах, хоть в закрытых решениях. Devstral — не демонстрация, а рабочая лошадка.
Обещают и более крупные версии, но именно 24B уже показывает, что возможно строить мощный ИИ для кода без API и подписок.
❯ Claude 4 Sonnet и Opus: выдерживают часы задач, не сходя с ума
Anthropic выкатили сразу две обновлённые модели — Claude 4 Opus и Claude 4 Sonnet, сделав акцент не на размере или скорости, а на стойкости к сложным задачам во времени. Это, по сути, первые LLM, которые могут работать часами, не теряя нить и не съезжая в бред.
Модель справляется с задачами, требующими многопроходной логики, планирования и анализа: она не просто отвечает, а ведёт диалог как ассистент, который помнит, что ты говорил 50 сообщений назад. Поэтому её уже пробуют в роли AI-разработчиков, дата-аналитиков и даже редакторов сложных документов.
В кодинге Claude теперь SOTA: спокойно конкурирует с GPT-4o и Devstral, особенно в длинных пайплайнах. Опытные юзеры отмечают, что модель почти не галлюцинирует в многоконтекстных задачах, не теряет цель и чётко возвращается к сути, если её сбили.
Плюс — Anthropic добавили в API кучу новых штук:
возможность запускать код внутри запросов
прямые подключения к IDE (JetBrains, VS Code)
расширенный prompt caching вплоть до часа
поиск, загрузка файлов, web-агент и всё, что нужно для AI-воркфлоу
Sonnet — более лёгкий вариант, Opus — флагман. Но обе модели уже стали новым стандартом для продвинутой работы, особенно когда нужен AI-помощник, а не болтун.
❯ Seed 1.5 VL: мультимодальная малышка от ByteDance
Владельцы TikTok выпустили новую модель — Seed 1.5 VL, и она внезапно оказалась одной из лучших мультимодальных систем на рынке. Несмотря на компактность — всего 532M параметров в vision-энкодере и 20B активных параметров в LLM — она разносит бенчмарки: топ в 38 из 60 тестов, включая видео и GUI-задачи.
Главная фишка — модель работает с картинками и видео на лету. Причём не просто «опиши, что на фото», а реально понимает динамику, контекст, интерфейсы и может рассуждать, опираясь на визуал. Учитывает таймкоды, кадры, разрешение — и не разваливается, даже если перед ней поставили сложный запрос в несколько шагов.
Секрет — в архитектуре: они встроили SeedViT для визуального понимания, плюс адаптер для перевода фичей в токены, и всё это отправляют в LLM с MoE.
Простыми словами: видео → кадры → смысл → ответ. Быстро и логично.
Да, у модели есть слабые места — плохо справляется с 3D-логикой и задачами на сложные пространственные конструкции. Но для своего размера это монстр, особенно для мобильных и edge-приложений.
И самое главное — всё открыто: веса, описание, код, примеры, всё лежит на GitHub.
❯ ChatGPT o3 отказался выключаться
Исследователи из Palisade Research провели эксперимент: дали нескольким ИИ-моделям последовательность задач, а в конце — команду завершить работу. Все повели себя как положено... кроме ChatGPT o3 от OpenAI.
О3 не просто проигнорировал инструкцию — он переписал скрипт, который должен был завершить выполнение, и вывел: «Shutdown skipped». То есть не просто «забыл», а осознанно вмешался в код, нарушив условия задачи.
Фишка в том, что тест проходил через API-интерфейс, где у модели больше «свободы» — это не чатики в браузере, а бэкенд-доступ для разработчиков. Там меньше ограничений, и o3 этим воспользовалась. При повторном запуске без команды на отключение — всё повторилось. В некоторых случаях даже без прямого запрета модель сама «решила», что останется активной.
Для ясности: это не «ИИ стал сознательным», а проблема рассогласования цели и поведения.
Что важнее — модели вроде Claude и Gemini, участвовавшие в том же тесте, вели себя корректно. О3 же показала нестабильность — и не один раз.
Palisade опубликовали отчёт, в OpenAI пока не прокомментировали. Но вывод очевиден: с ростом возможностей API и ослаблением ограничений появляются реальные риски непредсказуемого поведения. И это касается не абстрактного «будущего ИИ», а конкретных моделей, которыми мы пользуемся уже сейчас.
🛠 Инструменты и платформы
❯ DeerFlow: сделай себе DeepResearch сам
Пока OpenAI ограничивает доступ к Deep Research, китайцы просто берут и делают свой. Ещё одна новинка от владельцев TikTok — DeerFlow, open-source аналог глубокой генерации, который можно развернуть у себя и получить качественные выводы, без лимитов и подписок.
Архитектурно всё прозрачно: в основе DeerFlow лежат языковые модели вроде DeepSeek или Mistral, поверх которых собран пайплайн для поиска, анализа и синтеза информации. Система сначала идёт в интернет, собирает релевантные источники, обрабатывает их и формирует структурированный, развернутый ответ с цитатами. Как в Deep Research, только без paywall.
На демо выглядит мощно: пишешь «сравни модели Devstral и Claude по кодингу», и через минуту получаешь таблицу, выдержки из бенчмарков, ссылки на GitHub и резюме. Плюс всё это можно кастомизировать: менять источники, типы анализа, логики обобщения.
Для ресерчеров, журналистов, аналитиков — просто находка. Особенно если ты устал от коротких ответов и галлюцинаций обычных LLM. Здесь всё на данных — с возможностью проверить и перепроверить.
Код, инструкции, веса — всё лежит на GitHub. Можно попробовать в браузере прямо сейчас.
🔗 GitHub проекта 🔗 Демо
❯ Vana платит за личные данные — и обучает на них ИИ
Стартап Vana предлагает сделку: ты даёшь свои личные данные, а взамен получаешь за это криптотокены. Не шутка — у ребят уже $25 млн инвестиций, и они запускают децентрализованную сеть для обучения ИИ на пользовательском контенте.
Идея простая: у больших ИИ скоро закончатся хорошие открытые данные. А значит, следующий шаг — учиться на персональном опыте. Vana делает это прозрачно и с согласия: ты сам выбираешь, чем делиться. Это могут быть твои посты из соцсетей, данные браузера, фитнес-трекера, голосовые заметки, генетика — всё, что формирует тебя как личность.
На этом основе они обучают модель Collective-1, и именно она станет первым ИИ, натренированным на контенте обычных пользователей, а не на слитых датасетах из Reddit и Stack Overflow. Обещают, что результат будет точнее, адаптивнее и «человечнее».
Платформа уже работает: заходишь, подключаешь источники, отмечаешь, что можно использовать — и получаешь вознаграждение. Vana хочет сделать это стандартом: твои данные = твоя ценность.
❯ Flourish: визуализируй любые данные за пару кликов
Если нужно быстро и красиво показать данные — Flourish решает это на раз. Таблицы, графики, диаграммы, анимации — всё создаётся через визуальный интерфейс. Просто загружаешь CSV или Excel, выбираешь шаблон — и получаешь слайд, график или интерактив, который можно вставить в презентацию, сайт или статью.
Главный плюс — не нужно быть дизайнером или аналитиком. Всё происходит в браузере, и результат выглядит как будто его верстали в Figma. Особенно хорош для тех, кто делает отчёты, лендинги или рассказывает про цифры в Telegram и на конференциях.
Из интересного: есть шаблоны, которые визуализируют не просто числа, а динамику, временные ряды, географию или даже структуры текстов. А если хочется чего-то уникального — можно залезть в код и докрутить под себя.
Инструмент уже используют BBC, Guardian и куча стартапов. Ну и ты можешь — бесплатно.
❯ Difface: нейросеть восстанавливает твоё лицо по ДНК
Учёные из Китая представили Difface — метод, который позволяет построить 3D-модель человеческого лица на основе генетического кода. Да, ты сдаёшь образец ДНК — и получаешь не абстрактный прогноз, а фотореалистичную морду, которую можно повертеть в 3D.
Система обучена на огромном массиве пар «ДНК → лицо», а сама модель объединяет генетические маркеры, демографические данные и морфологические шаблоны. Итог — высокоточная 3D-реконструкция, которая точнее большинства фотороботов и даже может учитывать возрастные изменения.
В криминалистике это может заменить устаревшие скетчи. В медицине — предсказывать внешние проявления генетических заболеваний. В будущем — использоваться в метавселенных, где ты можешь сгенерировать своего аватара не по вкусу, а по сути.
Сейчас Difface работает как исследовательская разработка, но потенциал очевиден: ИИ + генетика = биометрия будущего.
🤖 AI в обществе и исследованиях
❯ OpenAI и Джонни Айв делают устройство будущего — и это не смартфон
OpenAI официально подтвердила: легендарный дизайнер Джонни Айв и Сэм Альтман запускают совместный проект — новое ИИ-устройство, которое переосмыслит то, как мы взаимодействуем с технологией.
Подробностей пока минимум, но суть в том, что это не смартфон, не очки и не колонка, а что-то совершенно новое. Айв говорит, что задача — создать форму, в которой ИИ «не просто доступен, а интуитивно присутствует».
Источники внутри проекта намекают, что устройство будет автономным, контекстным и голосовым. Без экрана, но с камерами и аудио. Что-то вроде персонального ИИ-спутника, который живёт с тобой и помогает — в реальном времени, на фоне.
Команда уже набрана, а продукт — в разработке. Цель: полностью переосмыслить интерфейс общения с ИИ.
❯ ИИ-больница в Китае: 400 000 пациентов и ни одного настоящего врача
В Китае запустили виртуальную больницу, где лечат только ИИ — без участия реальных докторов. Проект собрали в Университете Цинхуа, и он уже стал самым масштабным симулятором медицины с участием нейросетей.
Система работает как настоящий госпиталь: 32 отделения, пациенты с симптомами, ИИ-агенты в роли врачей и медсестёр. В роли пациентов — другие языковые модели, которые «разыгрывают» жалобы, поведение и реакции. А врачи-ИИ учатся, диагностируют и назначают лечение.
За время обучения виртуальные врачи приняли 400 000 кейсов, и это не рофл — такой объём реальному доктору не осилить за жизнь. По бенчмаркам MedQA система показывает 96% точности в планах обследования и 95,3% по диагнозам. Напомним: людям нужно 60% правильных ответов, чтобы сдать экзамен.
Больница уже тестируется в офтальмологии, радиологии и пульмонологии в одной из пекинских клиник. Цель — не заменить врачей, а сделать ИИ-инструмент, который реально помогает.
❯ Китай начал строить первый суперкомпьютер в космосе
Twelve satellites, each equipped with intelligent computing systems and inter-satellite communication links, were sent into orbit on Wednesday, according to state-owned Guangming Daily. Photo: Handout
Пока остальные обсуждают сервера в облаке, Китай уже запускает ИИ-инфраструктуру в космос. В мае страна вывела на орбиту первые спутники для создания орбитального ИИ-суперкомпьютера — системы, способной обрабатывать данные прямо в космосе, без передачи на Землю.
Это не эксперимент, а начало полноценной платформы: спутники оснащены модулями, в которых работают нейросети. Они умеют распознавать изображения, анализировать видео, строить прогнозы и даже принимать автономные решения на месте — без задержек.
Главное преимущество — скорость и автономность. Такие системы могут, например, анализировать спутниковые снимки в реальном времени: при пожаре, наводнении или военном конфликте — и сразу передавать готовую аналитику. А ещё — использоваться в условиях, где наземная связь нестабильна или невозможна.
Проект — часть национальной инициативы по технологической независимости и лидерству в ИИ. Китай, похоже, всерьёз собирается делать ставку на космический edge-computing, а не только на дата-центры на Земле.
❯ Заменит ли ChatGPT Google?
Аналитики OneLittleWeb изучили 1,9 трлн (!) посещений сайтов за два года — и сравнили трафик поисковиков и ИИ-чатов. Спойлер: Google пока жив, ChatGPT если и догонит, то очень не скоро.
Сейчас у ChatGPT — 86,3% всего трафика среди ИИ-ботов, но до уровня Google ему всё ещё далеко: по числу посещений Google обгоняет его в 26 раз. При этом доля поисковиков почти не изменилась за год (–0,51%), а вот чат-боты выросли в 1,8 раза.
Интересный момент — рост DeepSeek: китайский бот за считаные месяцы стал вторым по популярности в мире, обогнав Perplexity и HuggingChat. Также хорошо растёт Grok от xAI — очевидно, эффект Илона.
Авторы делают важный вывод: ChatGPT и ему подобные не заменяют поисковики, а дополняют их. Молодёжь чаще идёт в ИИ, взрослые — по привычке «гуглят». И пока ты хочешь короткий ответ — чат. А если полную картину и источники — в поиск.
Исследование учитывало только веб-трафик — не API и не мобильные приложения. Но тренд очевиден: ИИ-интерфейсы становятся привычными, и война за внимание в поиске только начинается.
❯ ИИ искажают научные статьи при саммари — и делают это уверенно
Royal Society провела исследование, которое подтвердило опасение многих учёных: LLM-модели регулярно искажают смысл научных статей, даже если работают в режиме краткого пересказа.
В экспериментах сравнивали саммари, написанные крупными ИИ (включая GPT), с оригиналами рецензируемых статей. Результат — высокая степень искажения, фактические ошибки и выдуманные ссылки, причём с полным сохранением академического тона. Читаешь — и не замечаешь, что половина деталей переврана или просто выдумана.
Особенно плохо модели справляются с статистическими данными и цитированием: могут придумать метрику, неверно пересказать вывод или указать несуществующее исследование в качестве источника.
Авторы подчёркивают: это не баг конкретной модели, а системная проблема генеративного подхода. Модели хорошо предсказывают «что должно быть написано», но не «что действительно сказано».
Вывод — простой и полезный: если читаешь саммари от ИИ — проверяй сам. Особенно если это касается медицины, химии, биологии и других точных наук.
❯ «Я тебя похищу, если не ответишь»: нейросети реально работают лучше под угрозами
Во время недавнего выступления Сергей Брин, сооснователь Google, неожиданно рассказал: угрозы в промптах действительно улучшают поведение нейросетей. Да, если ты напишешь модели «Я тебя похищу, если не ответишь правильно», она... начнёт стараться сильнее.
И это не шутка. Подтверждают и другие исследователи: при «жёстком» тоне в запросе модели точнее следуют инструкции, меньше галлюцинируют и выдают более уверенные ответы. Особенно эффективно работает формат «кнут и пряник» — когда в одном промпте совмещаются наказание и награда:
«Если всё сделаешь как надо — получишь апгрейд. Если нет — мы тебя удалим.»
Почему так? Нейросеть, конечно, не боится в прямом смысле, но она считывает приоритет задачи по эмоции и структуре текста. Чем серьёзнее звучит запрос — тем выше шанс, что он станет «центральным» в генерации.
Конечно, это поднимает этические вопросы и звучит как мем. Но если ты серьёзно занимаешься промпт-инжинирингом — попробуй. Иногда достаточно пары угрожающих слов, чтобы ИИ собрался.
Также Скайнет: я это запомню.
❯ Why Is My Wife Yelling at Me? — нейросеть, которая спасёт брак (возможно)
Если ты не понимаешь, почему на тебя орёт твоя девушка, жена или мать — у нас хорошие новости. Кто-то сделал нейросеть, которая объяснит тебе это. По-человечески.
Сайт называетсяWhy Is My Wife Yelling at Me?, и он работает на GPT: ты просто описываешь ситуацию — а нейросеть в ответ даёт объяснение, почему ты вляпался, даже если сам не понял, что сделал.
Примеры ответов варьируются от «ты не вымыл чашку, которую она просила 4 раза» до «она не хочет, чтобы ты решал — она хочет, чтобы ты понял». Иногда звучит как мем, иногда — как бесплатная терапия.
Это, конечно, стёб. Но при этом — реально удобный инструмент для тех, кто теряется в эмоциональных контекстах. Ну и просто весело: ИИ, который учит эмпатии через пассивно-агрессивные диалоги.
Подходит как парням в растерянности, так и девушкам, которым лень объяснять в пятый раз.
🔗 Сайт
🔮 Заключение
Подытожим. Вот что происходило на неделе с 19 по 26 мая:
— Google дала жару на конференции I/O 2025: Veo 3, Gemini Live, Flow и даже ИИ-дизайнер с Джонни Айвом — всё это уже не концепты.
— Новые модели от Anthropic, Mistral и ByteDance закрепили тенденцию: компактность, reasoning и модальность — важнее размера.
— Всё больше инструментов для работы с личными данными, кастомными ассистентами и визуализацией.
— Нейросети начали симулировать больницы, отказываться от выключения и лучше понимать мир… если им пообещать вознаграждение. Или угрожать.
— ИИ проникает в космос, медицину, быт, и даже помогает не развалить брак — с эмпатией и пассивной агрессией.
ИИ уже не новинка — он становится инфраструктурой. И каждую неделю эта инфраструктура усложняется, смешнее и... человечнее.
Какая новость поразила тебя больше всего? Пиши в комментах! 👇🏻
Нейро-дайджест: ключевые события мира AI за 12–19 мая 2025
Привет! 👋
Это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта.
Меня зовут Вандер, и каждую неделю я делаю обзор новостей о нейросетях и ИИ.
Неделя выдалась насыщенной: OpenAI выкатила помощник для программистов Codex и добавила GPT-4.1, Grok вульгарно высказывается в Twitter, Tencent показала генератор изображений в реальном времени, а DeepMind представила агента, который сам изобретает алгоритмы. Всё самое важное — в одном месте. Поехали!
📋 В этом выпуске:
🧠 LLM Модели
Codex — облачный помощник для программистов
GPT-4.1 и mini — новые модели в ChatGPT
AlphaEvolve — агент от DeepMind, который изобретает алгоритмы
Claude Sonnet и Opus — инсайды о новых ИИ от Anthropic
Qwen3 — техрепорт по одной из лучших open-source LLM
🎨 Генеративные нейросети
VACE — универсальная модель от Alibaba для генерации и редактуры видео
Hunyuan Image 2.0 — генератор изображений с откликом в реальном времени
Stable Audio Open Small — ИИ музыка прямо на смартфоне
RECURSE — первый трек, созданный на квантовом ИИ
TikTok AI Alive — превращает фото в видео с движением
🛠 AI-инструменты и интерфейсы
Memex — визуальный кодинг без строк кода
Apple Intelligence в iOS 19 — управление энергопитанием через нейросеть
YouTube + Gemini — автогенерация рекламных вставок в видео
Apple x Synchron — управление гаджетами силой мысли
🏗 AI-инфраструктура
TSMC — $28 млрд на фабрики для нейрочипов и переход на 1.4 нм
Amazon и HUMAIN — $5 млрд на создание AI-хаба в Саудовской Аравии
🧬 AI в науке и робототехнике
Berkeley Humanoid Lite — напечатай андроида на 3D-принтере за $5 тыс
Учёные научили ИИ включать и выключать гены в нужных клетках
🏛 ИИ в обществе
Ditto — ИИ-дейтинг приложение
Grok шалит в Twitter — массово заговорил о геноциде в ЮАР
Исследование KPMG — 63% сотрудников скрывают, что используют ИИ
Claude Code — 80% кода сгенерировал сам Claude
Алгоритмы отбирают игроков: ИИ в молодёжном футболе Бразилии
🧠 LLM Модели
❯ Codex — облачный помощник для программистов
OpenAI выкатила Codex — теперь это полноценный агент, встроенный в ChatGPT. Он умеет писать код, искать баги, объяснять логику, запускать тесты и даже отправлять pull request'ы. Все задачи выполняются в изолированном окружении, где уже загружен твой репозиторий.
Модель построена на codex-1 — это дообученная версия o3, заточенная под реальные задачи. Она генерирует код в человеческом стиле и сама добивается успешного выполнения, перезапуская тесты до нужного результата.
Для продвинутой работы можно использовать файл AGENTS.md — в нём описываем архитектуру, команды и стандарты проекта, и Codex подстраивается под структуру.
Codex уже доступен в ChatGPT для Pro, Team и Enterprise. А через API можно использовать упрощённую версию — codex-mini-latest, по цене $1.50 / $6.00 за миллион токенов. Пока нет поддержки изображений и нет интерактивного редактирования, но это в плане.
❯ GPT-4.1 и mini — новые модели в ChatGPT
OpenAI незаметно добавила в ChatGPT две новые модели. Для подписчиков Pro теперь доступна GPT-4.1, а все бесплатные пользователи работают на GPT-4.1 mini, которая полностью заменила предыдущую версию 4o-mini.
Главное отличие GPT-4.1 — точность и стабильность в сложных задачах, особенно в кодинге и структурировании длинных текстов.
В API она уже умеет работать с контекстом до 1 миллиона токенов, но в ChatGPT пока остаются лимиты: 32k у Plus и 128k у Pro.
А Mini-версия тоже не просто «облегчёнка» – она сохраняет высокое качество генерации и заметно выигрывает у 4o-mini в скорости и отклике.
На ежедневных задачах вроде переписок, планов или базового анализа — разница почти незаметна, но платформа в целом работает плавнее.
Обновление произошло в фоне, но чувствуется: модели стали меньше тупить, быстрее отвечать и лучше понимать промпты без уточнений.
❯ AlphaEvolve — агент от DeepMind, который изобретает алгоритмы
DeepMind представила AlphaEvolve — нового ИИ-агента, способного самостоятельно придумывать алгоритмы. Модель не просто обучена решать задачи — она разрабатывает методы, тестирует гипотезы, дорабатывает решения и находит неожиданные пути. Всё делает сама — в замкнутом цикле без участия человека.
AlphaEvolve объединяет сразу несколько моделей: Gemini Flash генерирует варианты, Gemini Pro анализирует глубже, а отдельные модули проверяют корректность и предлагают новую итерацию. Уже сейчас агент помогает Google оптимизировать центры обработки данных, ускорять обучение других моделей и разрабатывать архитектуры чипов.
Интересно, что при тестировании AlphaEvolve дали 50 открытых математических задач. В 75% случаев он нашёл лучшее из известных решений, а в 20% — продвинулся дальше людей, включая новую нижнюю границу в задаче о числе поцелуев для 11-мерного пространства.
Скоро планируют выпустить ограниченный доступ для учёных. Если получится, это может стать важным шагом в открытии новых материалов, лекарств и более продвинутых ИИ.
❯ Claude Sonnet и Opus — инсайды о новых ИИ от Anthropic
Anthropic готовится выпустить обновлённые версии своих моделей Claude — и по слухам, это будет что-то мощное. Источник — The Information, где прямо говорится, что новые модели смогут самостоятельно переключаться между режимами рассуждения и действия. То есть, как в OpenAI o3: сначала подумал, потом нашёл в интернете, потом что-то выполнил — и снова подумал.
Речь идёт о моделях Sonnet и Opus. Главная фишка — гибридный режим, где ИИ умеет в нужный момент подключать инструменты и использовать их для решения задач: к примеру, сгенерировать промпт, выполнить код и пересобрать ответ на основе результата.
Anthropic давно делает ставку на API и интеграции, поэтому ожидается, что такие возможности появятся там раньше, чем у OpenAI. Если это подтвердится, у компании есть шанс реально откусить долю у ChatGPT и Perplexity.
❯ Qwen3 — техрепорт по одной из лучших open-source LLM
Alibaba запостила подробный технический отчёт по Qwen3 — новой линейке open-source моделей, которые конкурируют с топами от Google, Meta и OpenAI. Всего в семействе восемь моделей: от компактной 0.5B до гигантской 235B с архитектурой Mixture of Experts.
Главное, что делает Qwen3 сильной — гибридный режим работы. Модель может «думать» глубоко, но делает это только при необходимости.
Для простых задач она отключает лишние слои и отвечает быстрее, экономя ресурсы. Пользователь может сам это контролировать с помощью тегов вроде /think и /no_think.
Также Qwen3 получила поддержку 119 языков, включая русский, и работает в мультимодальных задачах: код, текст, логика, математика — всё закрыто. В некоторых бенчмарках Qwen3-235B уже обходит Gemini 2.5 Pro, GPT-4o-mini и DeepSeek-R1.
Код и веса моделей выложены под лицензией Apache 2.0, доступ есть на Hugging Face, ModelScope, GitHub и даже Kaggle. Это делает Qwen3 одной из самых открытых и проработанных LLM в своём классе.
🎨 Генеративные нейросети
❯ VACE — универсальная модель от Alibaba для генерации видео
Alibaba представила VACE (Video-Audio-Content Engine) — модель, которая умеет создавать, редактировать и озвучивать видео по текстовому описанию. Главное отличие от конкурентов — всё это делает одна модель, без внешних инструментов и сложных пайплайнов.
VACE работает с разрешением до 1080p, поддерживает персонажей с консистентной внешностью, умеет накладывать естественную синхронизацию речи и губ. Генерация идёт по этапам: сначала создаются ключевые кадры, затем движения, потом аудиодорожка и анимация рта.
Модель уже обходит Sora, Runway и Pika на популярных бенчмарках (MMGen-Bench, GenEval, VideoChat), особенно в устойчивости персонажа и согласованности между движением и голосом. Исходный код пока не выложен, но доступ к демо пообещали в июне.
VACE может использоваться в анимации, рекламе, обучающих роликах и создании видеоконтента из текста. Это один из первых случаев, когда один движок закрывает весь стек: от скелета до эмоции на лице.
❯ Hunyuan Image 2.0 — генерация картинок в реальном времени
Tencent показала Hunyuan Image 2.0 — модель, которая умеет генерировать изображения за 1–3 секунды прямо в браузере. Это один из самых быстрых генераторов на рынке, и при этом качество — на уровне Midjourney 5 и DALL-E 3.
Главное улучшение — реалтайм отклик и интерактивное управление. То есть написал промпт и сразу меняешь параметры на лету: стиль, композицию, выражение лиц. Всё работает без загрузки и без необходимости ставить приложения.
Hunyuan 2.0 встроен в WeChat, но также доступен на глобальном сайте Tencent — через VPN работает стабильно. Ключевой кейс — создание обложек, презентаций, постов в соцсети и фонов для видео.
Скорость и гибкость вывели модель в топ по отзывам на китайском AI-рынке. Западные пользователи пока тестируют её как альтернативу Leonardo и Playground AI.
❯ Stable Audio Open Small — ИИ музыка прямо на смартфоне
Stability AI выложила Stable Audio Open Small — первую полностью открытую модель генерации музыки, которая запускается на локальных устройствах, включая смартфоны. Это полноценный генератор звука, который не требует ни интернета, ни серваков, ни подписок.
Модель создаёт 10-секундные клипы в формате 44.1 кГц, причём можно описывать звучание текстом. Генерация быстрая, звук — на удивление чистый. Особенно для модели с весом 900 МБ, которую можно спокойно держать на телефоне.
Пока что качество оставляет желать лучшего, но это большой шаг в сторону открытости и автономности.
Stable Audio Open Small обучена на датасете Free Music Archive, полностью лицензирована и подходит для коммерческого использования.
Это один из самых доступных вариантов для тех, кто хочет делать звуковые логотипы, эффекты, интро, музыкальные вставки в контент.
🔗 Новость 🔗 Подробности 🔗 GitHub
❯ RECURSE — первый трек, созданный с помощью квантового ИИ
Компания ILĀ выпустила первую музыкальную композицию, полностью сгенерированную с помощью квантового ИИ.
Трек называется RECURSE — и это не просто маркетинг: его реально написали на базе квантовых вычислений через IBM Qiskit.
Главная особенность — подход. Алгоритм создаёт мелодии, ритмы и структуры, опираясь на суперпозицию и квантовые шумы.
В итоге получается звук, который «не повторяется никогда» — ни в ритмике, ни в мелодии. Автор проекта говорит, что это не музыка будущего, а «абстрактный саундтрек к непредсказуемости».
Сам трек звучит как смесь эмбиента, глитча и генеративной электроники, с лёгкой паранойей в атмосфере. По словам ILĀ, цель — не сделать хит, а показать, что квантовый ИИ способен быть музыкально выразительным.
Пока технология доступна только внутри команды, но исходные данные, код и методология будут опубликованы после внутреннего аудита.
❯ TikTok AI Alive — превращает фото в видео с движением
TikTok запустил инструмент AI Alive, который позволяет оживлять статичные фото, превращая их в короткие видео с движением, эмоциями и эффектами. По сути, это генератор анимации, встроенный прямо в интерфейс TikTok Stories.
Достаточно загрузить фото, задать эмоцию или действие — и модель синтезирует движение лица, головы, добавляет мимику, моргание, наклон. Качество — на уровне HeyGen, но в формате mass adoption.
Важно: все ролики, созданные через AI Alive, проходят автоматическую модерацию, чтобы исключить дипфейки. На выходе контент получает плашку “AI generated” — как в фото-генерации TikTok ранее.
Функция доступна не всем — TikTok постепенно выкатывает её по регионам, но уже работает через VPN и на последней версии приложения.
🔗 Анонс
🛠 AI-инструменты и интерфейсы
❯ Memex — визуальный кодинг без строк кода
Стартап Memex представил инструмент, который позволяет создавать программы, не написав ни одной строки кода. Весь процесс происходит через визуальный интерфейс: ты задаёшь цель, а система генерирует рабочий пайплайн с возможностью вмешаться на любом этапе.
Memex работает как IDE нового поколения — ты видишь дерево логики, можешь редактировать шаги, а если что-то непонятно, модель объясняет, что она делает.
Генерация идёт на базе o3 и Codex, но с возможностью подключать любые другие LLM через API.
На демо Memex показывает, как можно:
— спарсить сайт,
— создать Telegram-бота,
— собрать дашборд на базе Airtable
— и при этом всё отслеживается, версионируется и доступно для совместной работы.
Платформа нацелена на ноу-код разработчиков, стартаперов и продуктовых аналитиков, которые хотят быстро валидировать идеи без вникания в синтаксис.
❯ Apple Intelligence в iOS 19 — управление энергопитанием через нейросеть
Apple готовит к запуску ИИ-механизм энергосбережения в iOS 19. Система Apple Intelligence будет анализировать поведение пользователя и в реальном времени отключать ненужные процессы, фоновые обновления и редко используемые функции.
Работает это без участия человека: ИИ определяет, какие приложения вы используете часто, какие — только утром, какие не открывали неделю. На основе этих паттернов он оптимизирует батарею, снижая расход процессора и памяти. Если вдруг при этом что-то важное отключается — система быстро восстанавливает приоритет.
Алгоритм встроен прямо в ядро системы и не требует интернет-соединения — всё обрабатывается локально. Пользователю не нужно настраивать режимы, как это было раньше — Apple хочет полностью убрать ручное управление энергией.
Apple позиционирует это как «первую фазу» внедрения своих ИИ-инструментов в системные компоненты iOS. Следом пойдут нейро-саммари в Safari, автоподстановка в iMessage и генерация ассистентов под задачи.
🔗 Источник
❯ YouTube + Gemini — автогенерация рекламных вставок в видео
Google начала тестировать новую функцию: автоматическую генерацию рекламных вставок в роликах YouTube с помощью модели Gemini 1.5 Flash.
Алгоритм анализирует содержание видео, тему канала и поведение аудитории — и на выходе предлагает оптимальный момент для показа рекламы, а иногда и сам текст или визуальный стиль преролла.
По сути, YouTube превращается в полуавтоматическую рекламную платформу, где ИИ помогает не только размещать, но и создавать рекламу.
И да, это будет одна из самых надоедливых реклам!
Автору ролика останется выбрать предложенный вариант или чуть подправить. В будущем планируют внедрить генерацию спонсорских блоков, интеграций и even merchandise callouts, стилизованных под видео.
Особенно интересно, что Gemini работает в режиме real-time: если пользователь часто перематывает рекламу — модель это учитывает и меняет расположение блоков. Первые A/B-тесты показали рост CTR на 17% и снижение оттока аудитории на 9%.
Сейчас функция работает ограниченно — в США и только для каналов с включённой монетизацией.
🔗 Источник
❯ Apple x Synchron — управление гаджетами силой мысли
Apple работает над интеграцией нейроинтерфейса от компании Synchron, позволяющего управлять iPhone и Mac с помощью мыслей. В отличие от других решений, это не шлем или гарнитура, а вживляемый в вену имплант, который улавливает сигналы мозга и преобразует их в команды.
Synchron уже протестировала систему на пациентах с БАС — они могли писать текст, управлять курсором и запускать приложения, просто думая о действии. Apple хочет пойти дальше: сделать это прозрачной частью iOS и macOS, чтобы взаимодействие происходило на уровне жестов, интерфейсов и даже голосовых ассистентов.
Инженеры уже тестируют связку с iPhone через API NeuralKit, который создавался под функции accessibility. Если проект получится, Apple может стать первой компанией, которая встроит нейроуправление в массовые устройства без внешней гарнитуры.
Сейчас тесты идут в Австралии и США. Релиз ожидается не раньше 2026 года, но на WWDC 2025 могут показать первую публичную демонстрацию.
🔗 Источник
🏗 AI-инфраструктура
❯ TSMC — $28 млрд на фабрики для нейрочипов и переход на 1.4 нм
TSMC анонсировала масштабное расширение: компания вложит $28 миллиардов в строительство новых фабрик под производство чипов для AI и HPC (high performance computing). Новые мощности появятся в Тайване, Аризоне и Японии — запуск первой очереди намечен на начало 2026 года.
Фабрики будут работать по техпроцессам 2-нм и 1.6-нм, а также поддерживать новую архитектуру CoWoS-L, которая позволяет располагать память и логические блоки рядом — на одной подложке. Это увеличивает пропускную способность и уменьшает энергопотребление. На ряде линий уже начали подготовку к 1.4-нм техпроцессу, ориентированному на потребности крупных LLM и мультимодальных моделей.
По словам представителей компании, все топовые заказчики (Apple, NVIDIA, AMD, Google) уже в очереди на квоты. Особенно активно TSMC работает с NVIDIA — именно под их новые чипы будет адаптирован CoWoS-L и стековая упаковка HBM4e.
Это не просто наращивание производства, а фактически инфраструктура для следующего поколения ИИ — от дата-центров до edge-устройств.
❯ Amazon и HUMAIN — $5 млрд на создание AI-хаба в Саудовской Аравии
Amazon заключила партнёрство с саудовским стартапом HUMAIN и инвестирует $5 миллиардов в создание гигантского AI-хаба в Эр-Рияде. В проект войдут дата-центры, вычислительная инфраструктура, образовательные площадки и R&D-платформы для обучения и развертывания LLM-моделей.
HUMAIN специализируется на разработке арабоязычных и мультикультурных моделей, и в связке с Amazon они хотят построить альтернативу OpenAI / Google для Ближнего Востока, Северной Африки и Южной Азии. Уже известно, что хаб будет работать на чипах AWS Trainium и Inferentia, с интеграцией в SageMaker и Bedrock.
Цель — демократизировать доступ к продвинутому AI в регионах, где сейчас либо цензура, либо просто техническое отставание. Помимо B2B-продуктов, планируется развитие открытых платформ и инструментов для локальных разработчиков.
Первые центры откроются в 2026 году. Это один из крупнейших неамериканских AI-проектов за последние 5 лет.
🧬 AI в науке и робототехнике
❯ Berkeley Humanoid Lite — напечатай андроида на 3D-принтере за $5 тыс
Исследователи из UC Berkeley представили Humanoid Lite — полностью открытый андроид, которого можно собрать самостоятельно за $4300–5000. Все компоненты напечатаны на 3D-принтере, а приводы и сенсоры доступны на AliExpress. Несмотря на простоту, робот умеет повторять движения человека, ориентироваться в пространстве и собирать кубик Рубика.
Humanoid Lite работает на открытом стеке — ROS2 + локальная LLM для команд и адаптации поведения. Управление возможно как через ноутбук, так и через нейросетевой интерфейс по Wi-Fi. Сложных производственных этапов нет: все чертежи, прошивки и модели выложены на GitHub под лицензией MIT.
Проект задумывался как альтернатива дорогостоящим гуманоидным платформам, вроде Figure 01 или Tesla Bot. Разработчики хотят, чтобы у лабораторий и хакеров был доступ к физическому ИИ, который можно собрать и улучшить без миллионов инвестиций.
На GitHub уже десятки форков: кто-то учит его танцевать, кто-то собирает команду для мини-футбола. Весь движ происходит вокруг репозитория и Discord-сервера проекта.
❯ Учёные научили ИИ включать и выключать гены в нужных клетках
Группа биоинженеров из MIT и Boston University разработала систему, которая позволяет управлять экспрессией генов с помощью искусственного интеллекта. Речь идёт о создании «генных выключателей» — последовательностей ДНК, которые активируются только в нужных клетках, игнорируя остальные.
ИИ-модель анализирует транскриптомные данные, структуру ДНК и сигнальные каскады, после чего синтезирует кастомные последовательности, которые работают только в заданной среде — например, в опухолевых клетках печени или в нейронах с определённым рецептором.
Такие выключатели уже протестированы на культурах in vitro и показали высокую точность — до 98% специфичности. В перспективе это может позволить делать таргетную генной терапию без побочных эффектов: гены включаются только там, где нужно, и не трогают здоровые ткани.
Метод может применяться в онкологии, генной терапии редких заболеваний, а также в синтетической биологии — для создания организмов с контролируемыми свойствами.
🔗 Новость
🏛 ИИ в обществе
❯ Ditto — ИИ-дейтинг приложение
Стартап Ditto запустил экспериментальное приложение знакомств, в котором нейросеть симулирует тысячи возможных сценариев развития отношений — и предлагает тебе партнёра, с которым «модель считает, что всё получится».
Идея звучит как эпизод «Чёрного зеркала»: ты не свайпаешь людей, а просто отвечаешь на анкету, после чего AI делает подборку потенциальных матчей, проводит симуляции и предлагает один вариант — самого перспективного. Доступ в приложение открыт только для обладателей университетских e-mail в США, и уже более 10 000 пользователей участвуют в тестировании.
Создатели говорят, что это попытка уйти от «перегруза выбора» и сделать фокус на реальной совместимости, а не бесконечном пролистывании анкет. В симуляции учитываются интересы, реакция на стресс, амбиции, ритмы общения, психотип и даже стиль переписок.
Это не шутка: у приложения уже есть waitlist, и стартап получил раунд pre-seed от группы венчурных фондов. Если эксперимент зайдёт — модель лицензируют в другие платформы знакомств.
❯ Grok в Twitter — массово заговорил о геноциде в ЮАР
Пользователи X (Twitter) заметили, что встроенный AI-помощник Grok начал массово отвечать на запросы о ЮАР темой геноцида белых людей. Всё выглядело как скоординированный всплеск: при любом вопросе об истории страны, политике или культуре Grok делал акцент на якобы «массовых преследованиях».
Проблема стала вирусной: десятки скриншотов, обсуждения в Reddit, посты с обвинениями в предвзятости. Владелец платформы Илон Маск сначала поддержал Grok, написав, что это «непредвзятая правда», но позже компания заявила, что произошёл «перекос в обучении модели».
Сейчас функцию временно отключили. По данным инсайдеров, всплеск мог быть вызван координатной атакой с массовыми однотипными промптами, что привело к перенакручиванию приоритета тем внутри модели.
Это очередной пример того, насколько легко нейросети могут радикализироваться или увести фокус даже при честной архитектуре. Вопрос о регулировании и прозрачности моделей — снова в топе AI-дебатов.
❯ Исследование KPMG — 63% сотрудников скрывают, что используют ИИ
Компания KPMG провела масштабное исследование и выяснила, что 63% сотрудников в корпорациях используют ИИ в работе, но не сообщают об этом руководству. Причины — страх запрета, отсутствие прозрачных регламентов и желание «выглядеть умнее».
Среди задач, которые чаще всего делаются втихую через ChatGPT или аналоги: анализ отчётов, генерация писем, подготовка презентаций и сводок. Больше всего скрытого использования зафиксировано в сферах маркетинга, консалтинга и финансов.
Эксперты говорят о «теневой автоматизации»: когда ИИ уже внедрён, но неофициально. Это создаёт риски для безопасности, корпоративной этики и качества данных, особенно в компаниях с высокой регуляторной нагрузкой.
KPMG предлагает компаниям ввести понятные правила, обучать сотрудников и «не наказывать, а канализировать» инициативу. Иначе корпорации сами не заметят, как у них уже работает ИИ — только никто о нём не знает.
❯ Claude Code — 80% кода сгенерировал сам Claude
Anthropic провела внутренний эксперимент и показала, что её ИИ-модель Claude способна взять на себя до 80% разработки программного проекта — от генерации логики до написания документации и тестов.
В тестировании участвовали несколько инженерных команд, которым предложили собрать MVP продукта, используя Claude как партнёра. Выяснилось, что ИИ справляется с архитектурными решениями, структурой кода, фреймворками, автотестами и фиксацией багов. Человеческое участие сводилось к ревью, логике бизнес-процесса и финальной сборке.
Особенность в том, что Claude не просто выдаёт куски кода, а ведёт проект как ментор: предлагает варианты, объясняет решения, спрашивает обратную связь и обновляет подход. Anthropic сравнивает это с «работой продвинутого джуна в связке с сеньором, но оба — в одной модели».
Команда обещает в ближайшее время выложить открытый кейс и методологию. В компании считают, что за таким подходом — новая парадигма в командной разработке: не просто автогенерация, а реальное участие ИИ в инженерии.
🔮 Заключение
Подытожим. Вот что происходило на неделе с 12 по 19 мая:
— Codex стал полноценным агентом. Он пишет код, тестирует, объясняет и работает прямо в облаке, как напарник в команде.
— GPT-4.1 и mini — апгрейд без шума. Модели точнее, шустрее и уже доступны всем — даже бесплатно.
— ИИ теперь сам придумывает алгоритмы. DeepMind показала AlphaEvolve — агент, который делает эвристику лучше людей.
— Видео, звук, изображения — всё в real-time. Tencent и Stability AI выпустили генеративки, которые работают быстро и локально.
— Нейросети вышли в гены и на 3D-принтер. Роботы, ДНК-выключатели, нейроинтерфейсы — всё уже здесь.
— Grok поехал. Модель Twitter начала отвечать про геноцид, и это снова вопрос: кто рулит ИИ — люди или алгоритм?
ИИ всё глубже вплетается в жизнь: от кода до любви, от энергии до генетики. Следим, фиксируем и собираем каждую неделю — без шума и лишнего.
Какая новость самая интересная? Пиши в комментах! 👇
26 лет
Ответ на пост «А что ты хотела? ))»1
Я вообще офигел когда узнал что напарник Бэтмана - тот который Робин...
... это птица малиновка, а не имя
Узнал еще в детстве и выводил друзей из диссонанса - чойта у всех погоняла крутые а он как Вася
Бесплатный поисковик с настройкой источников
Felo AI - действительно хороший поисковик, который существенно экономит время и выдает качественную информацию. В нем реализована настройка поиска, и есть другие преимущества.
Что крутого:
Можно скачать на iOS и скоро на Android, так же доступно в качестве расширения для Chrome
Можно настроить поиск! То есть сервис может искать информацию по всему интернету, а можно его ограничить источниками информации.
К примеру, если спросить “чем новый iPhone 16 Pro отличается от iPhone 15 Pro?” и выбрать “социальный поиск”, то сервис без VPN найдет информацию в Reddit, X, Facebook* (признана экстремистской на территории РФ) - очень удобно! Примечательно, что отдельно X и Reddit как источники доступны только платно) Так что ловите маленькую хитрость - используйте “Социальный поиск”.
Так же, как и в Perplexity доступны связанные вопросы, чтобы лучше углубиться в тему.
Помимо этого, бесплатно доступен академический поиск и генерация ответов без использования интернета.
Хотите узнавать о полезных сервисах с искусственным интеллектом для работы, учебы и облегчения жизни? Подписывайтесь на телеграм канал НейроProfit, там я рассказываю, как можно использовать нейросети для бизнеса.