user10393482

Пишу про ИИ в ТГ — https://t.me/ai_exee
Пикабушник
3440 рейтинг 2 подписчика 1 подписка 48 постов 1 в горячем
6

В США ИИ помог семье сэкономить $162 000 на больничном счете

В США ИИ помог семье сэкономить $162 000 на больничном счете

Журналисты рассказали, как в США семья получила счёт на почти $195 тысяч — за четыре часа реанимации родственника, который в итоге скончался. Без страховки сумма легла на них полностью. Они не нанимали адвокатов, а вместо этого прогнали построчный счет через нейросеть Claude.

Claude не «волшебник», а просто аккуратный аудитор. Он подсветил все, что выглядело странно: дублирующиеся услуги, «мастер-процедуры» и те же манипуляции, прописанные отдельно, неверные коды и даже несовместимые по времени процедуры — вроде одновременной вентиляции и первичного приема. Модель также предложила юридически вежливые формулировки для апелляционных писем. Семья говорит, что именно эти аргументы заставили администрацию пересмотреть расчет.

Дальше пошёл марафон бюрократии: десятки писем, ссылки на правила Medicare, на стандарты кодирования и «недопустимые комбинации». Больница сначала тянула время, но потом согласилась с претензиями — часть услуг действительно оказалась проставлена дважды. В соцсетях семья написала: «20 долларов подписки дали нам инструменты против системы».

Важно отметить, что это пока не универсальный рецепт, который поможет на всем. Кроме того, прогонять медицинские данные через коммерческие чат-боты рекомендуется в анонимном режиме или хотя бы с выключенной опцией «делиться данными для обучения модели».

И все же это знак времени. Там, где раньше требовался юрист или аудитор, теперь достаточно детализированного счета и пары часов терпения. ИИ не торгуется и не звонит в администрацию — но умеет проверять цифры и подсказывать, где вас пытаются «удвоить». Иногда этого уже хватает, чтобы сэкономить десятки тысяч долларов.

P.S. Поддержать меня можно подпиской на канал «сбежавшая нейросеть», где я рассказываю про ИИ с творческой стороны.

Показать полностью
0

Тренер хоккейной команды «Калгари» признался, что советуется с ChatGPT. Болельщики в шоке, но давайте разберемся

Тренер хоккейной команды «Калгари» признался, что советуется с ChatGPT. Болельщики в шоке, но давайте разберемся

Кадр из закулисного шоу The Chase: главный тренер Calgary Flames Райан Хуска разговаривает с игроками и вдруг спрашивает — «Вы сами используете ChatGPT?». А потом спокойно добавляет, что пробовал советоваться с нейросетью, когда искал, как вытащить команду из кризиса. Фраза пролетела в эфир — и начался шторм: соцсети, мемы, заголовки вроде «ИИ вместо тренера» и «вот почему мы внизу таблицы».

Контекст простой: «Флэймз» плохо стартовали, шли в нижней части лиги и проиграли серию матчей подряд. Любое нестандартное решение на фоне неудач воспринимается как отчаяние. Но если отбросить эмоции, Хуска сделал ровно то, что делают сотни специалистов в других сферах — спросил у ИИ: что мы упускаем? Вопрос не о тактике, а о шаблонах мышления: какие сочетания звеньев недооценены, где провалы по броскам, как влияет расписание или усталость.

ChatGPT, конечно, не видит льда и не знает, кто сегодня простужен, но умеет быстро собрать статистику, выдать гипотезы и предложить структуру анализа. Для тренера это тот же белый флипчарт — только цифровой. Проблема в другом: как только нейросеть звучит из уст человека в пиджаке и галстуке у борта, вокруг начинается паника. Медиа жадно ловят сочетание «ИИ + провал», а интернет дорисовывает сюжет про «хоккейного Коперфильда».

С точки зрения раздевалки опасность не в ИИ, а в потере доверия: если игроки решат, что решения продиктовал бот, а не аналитика и чуйка штаба, атмосфера посыплется. Поэтому использование таких инструментов требует осторожности. В идеале — внутренние модели и защищённые базы данных, а не публичные чаты, где любая утечка может стать мемом.

На деле эта история не про глупость, а про честность. Тренер признал: ищет новые способы думать о старых задачах. ИИ здесь не соперник, а зеркало — он не заменит мотивацию, не подскажет, как выйти из обороны, но поможет структурировать хаос. А то, что после признания разгорелся скандал, говорит лишь об одном: в спорте технологии воспринимают серьёзнее, чем результаты.

P.S. Поддержать меня можно подпиской на канал «сбежавшая нейросеть», где я рассказываю про ИИ с творческой стороны.

Показать полностью
6

"Википедия" за год потеряла почти 10% трафика из-за ИИ, ботов и коротких видео

"Википедия" за год потеряла почти 10% трафика из-за ИИ, ботов и коротких видео

Фонд Викимедиа опубликовал свежую статистику: за март–август 2025 года реальный, «человеческий» трафик Википедии оказался примерно на 8% ниже, чем в те же месяцы 2024-го. После обновления системы детекции в сентябре фонд пересчитал данные и обнаружил, что весенний всплеск трафика (особенно из Бразилии) был во многом работой ботов, маскирующихся под пользователей. Теперь цифры честнее — и грустнее.

Почему падает органика

Авторы поста на официальном блоге Diff связывают тренд с изменением самого поведения пользователей: всё больше людей получают ответ на вопрос прямо в поиске или в ИИ-помощнике, не переходя по ссылке. Сюда же добавились короткие видео и рефреймы на YouTube, TikTok и Reels — часто на основе вики-материалов, но без клика на саму статью. Так постепенно формируется новая норма: «ответ без визита».

Что с ботами и нагрузкой

Ещё в апреле 2025-го Фонд писал, что до 65 % самого дорогого трафика к дата-центрам дают боты и краулеры. Обновление детектора в сентябре позволило лучше отсеивать запросы, которые притворяются «человеческими». Результат — меньше мнимых просмотров и более реалистичная картина того, кто на самом деле читают Википедию. Это ударило по цифрам, но помогло освободить часть ресурсов.

Как выглядит картина шире

Та же проблема в других медиа — от новостных порталов до справочных площадок. ИИ-сниппеты и автоматические резюме в поиске снижают трафик всем, кто жил за счёт переходов с Google. Издатели теряют рефералов, а пользователи привыкают не кликать — ответ уже перед глазами. «Интернет становится меньше, потому что мы всё меньше по нему ходим», — иронизируют журналисты TechCrunch.

Что делает Фонд

Викимедиа пытается адаптироваться: развивает канал Wikimedia Enterprise для официального и платного реиспользования данных, ужесточает доступ для ботов, и экспериментирует с форматами для молодой аудитории — от коротких роликов до интерактивных объяснялок в Roblox и Instagram.

P.S. Поддержать меня можно подпиской на канал «сбежавшая нейросеть», где я рассказываю про ИИ с творческой стороны.

Показать полностью
2

Голливуд против Sora 2: кто управляет образом и идеей

Голливуд против Sora 2: кто управляет образом и идеей

Недавно OpenAI представила Sora 2 — новую версию генератора видео и звука. Она уже умеет не только создавать клипы с реалистичной физикой и синхронной речью, но и генерировать целые сцены по раскадровке, управлять светом, движением камеры и звуковыми эффектами. На бумаге — революция для кино и рекламы. На деле — начало большого конфликта: Голливуд впервые за долгое время выступил единым фронтом против OpenAI.

Главная причина — режим «opt-out», при котором контент-владельцы должны сами отказаться, если не хотят, чтобы их образы, стили и голоса использовались при обучении. Студии и профсоюзы требуют обратного: «opt-in», то есть предварительного согласия. Агентство WME уже «отписало» своих клиентов от работы с Sora 2, а профсоюз актёров SAG-AFTRA заявил, что «невозможно говорить о партнёрстве, когда люди не контролируют свои лица». В LA Times это назвали «редким случаем консенсуса — Голливуд говорит нет».

OpenAI, в свою очередь, делает вид, что слушает. Сам Альтман встречается с продюсерами, обещая новые фильтры и систему лицензий, где можно заранее указать, какие стили, образы и голоса разрешено использовать. В Sora 2 добавили storyboard-режим — возможность строить ролик по раскадровке, чтобы доказать: «мы не крадём, а даём инструмент авторам». Но скепсис остаётся: творческая индустрия помнит, как быстро подобные обещания размываются.

Ставки здесь огромные. Если Sora 2 станет массовым инструментом для сериалов, рекламы и ютуб-контента, — студии рискуют потерять эксклюзив на визуальные франшизы и даже актёрские образы. Если же Голливуд продавит «оплату за каждый кадр», это изменит экономику генеративного видео и закрепит правило: сначала разрешение — потом нейросеть.

«Мы не против технологий. Мы против того, чтобы наши лица становились их топливом», — сказал один из продюсеров в комментарии LA Times.

Так или иначе, Sora 2 уже изменила тон разговора. Теперь вопрос не в том, может ли нейросеть снять фильм, а в том, кто получит за это чек.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.

Показать полностью

Alibaba выпустила мощный ИИ, который запустится даже на игровом ПК

Alibaba выпустила мощный ИИ, который запустится даже на игровом ПК

Alibaba открыла Qwen3-VL — мультимодальную модель «текст+картинки» в лёгких версиях 4B и 8B. Веса лежат на Hugging Face: Qwen/Qwen3-VL-4B-Instruct и Qwen/Qwen3-VL-8B-Instruct.

Главная фишка — это полноценное «зрение» плюс длинный контекст. Модель понимает сцены, документы, интерфейсы, умеет извлекать текст с изображений (OCR) и держит длинные промпты (в карточках заявлены сотни тысяч токенов). В линейке есть Instruct для диалогов и Thinking для задач с пошаговой логикой; поддержка в Transformers/vLLM упрощает запуск без шаманства.

Почему «запустится на игровом ПК» не звучит как шутка: компактная 4B-версия в кванте (GGUF/4-бит) уже выкладывается сообществом и рассчитана на обычные потребительские видеокарты с 12–16 ГБ видеопамяти; 8Bтоже реально, но комфортнее на 24 ГБ и выше. Если дискретной карты нет, можно крутить на CPU, но будет медленно — мультимодальщина любит GPU.

Что даёт Qwen3-VL в реальности — коротко списком:

  • Документы и сканы: вытаскивает таблицы и текст прямо с изображений.

  • Анализ сцен/товаров: понимает объекты и их отношения, подходит для «витрин», инструкций, техподдержки.

  • GUI-агентность: умеет рассуждать о шагах и управлять простыми сценариями (демонстрируется в материалах).

  • Длинные запросы: переваривает много контекста — удобно для отчётов, презентаций, многостраничных PDF.

Важно понимать границы: это не замена огромным кластерам — 4B/8B созданы именно как «настольный класс», чтобы делать прототипы, извлекать данные с картинок, решать бытовые и прикладные задачи локально. Для максимальной скорости и больших видеопотоков пригодятся облака или более тяжёлые модели, но старт «на своей железке» — реальный и поддержанный документацией.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.

Показать полностью
8

Западные менеджеры возвращаются из Китая в ужасе — уровень автоматизации и внедрения ИИ запредельный

Западные менеджеры возвращаются из Китая в ужасе — уровень автоматизации и внедрения ИИ запредельный

В последние месяцы в Китае снова побывали десятки делегаций западных компаний — от автомобильных концернов до производителей электроники. Почти все рассказывают одно и то же: заводы, где нет людей, но всё работает. Свет приглушён, по цеху беззвучно движутся роботы, машины общаются с машинами. Один из топов сказал журналисту:

«Мы думали, что увидим пилоты. Мы увидели промышленный стандарт.»

Что там происходит

Китай массово внедряет то, что на Западе ещё называют «экспериментом»: промышленные ИИ-системы, цифровые двойники и полностью автономные линии. В ход идут собственные большие модели для компьютерного зрения и планирования, объединённые с роботизированной логистикой. Это не показуха — такие цеха реально производят комплектующие и электронику для мирового рынка.

Визитёры рассказывают, что уровень автоматизации уже воспринимается как норма: если раньше на участке стояло 30 человек, теперь двое следят за консолью, а остальное делают машины. Производственные данные собираются в реальном времени, и решения принимаются без участия человека.

Что поражает иностранцев

Вот типичные наблюдения, которые западные менеджеры записывали после туров по фабрикам:

  • смены идут 24/7, люди появляются лишь для обслуживания;

  • перенастройка линии занимает часы, а не недели;

  • контроль качества ведёт компьютерное зрение, оно же учится на собственных ошибках;

  • AGV-тележки и дроны заменили погрузчики;

  • цифровой двойник предприятия обновляется каждый день, а ИИ планирует расписание и поставки.

Для китайских инженеров это не «инновации», а повседневный рабочий процесс.

Почему это тревожит

Такой темп превращается в экономическое оружие: себестоимость падает, гибкость растёт, срок вывода нового продукта сокращается с месяцев до недель. Западные фабрики, где «цифра» разбита между подрядчиками, не успевают перестраиваться. Разрыв становится технологическим, а не только ценовым.

P.S. Поддержать меня можно подпиской на канал «сбежавшая нейросеть», где я рассказываю про ИИ с творческой стороны.

Показать полностью
11

Китайцы представили мощный бесплатный ИИ на триллион параметров

Китайцы представили мощный бесплатный ИИ на триллион параметров

Ant Group (экосистема Alibaba) выложила в открытый доступ две модели — Ling-1T и Ring-1T. Весы — на Hugging Face: inclusionAI/Ling-1T и inclusionAI/Ring-1T; попробовать в браузере можно через ZenMux. Лицензия — MIT. По словам команды, это шаг к по-настоящему открытой «рассуждающей» модели.

Под капотом — 1 триллион параметров, но это не «монолит», а архитектура MoE (Mixture of Experts): активно работает около 50 миллиардов параметров на каждый токен. Такой подход экономит ресурсы и ускоряет работу. Модели понимают длинные контексты (до 64–128 тысяч символов), умеют пошагово рассуждать и используют новую методику обучения Icepop — надстройку над RLHF и RLVR, которая, по словам авторов, делает обучение устойчивее и уменьшает «галлюцинации».

По внутренним тестам разработчиков, Ring-1T показала рекордные результаты среди открытых моделей: 92,6% на олимпиадном бенче AIME-2025, высокие показатели на ARC-AGI, IMO-2025, LiveCodeBench и других задачах, требующих логики и математики. Независимых проверок пока нет, но исследователи уже разбирают датасеты и будут сравнивать с Qwen-3-Max и GPT-4o.

Для запуска у себя команда предлагает использовать vLLM или SGLang. Полноценная FP8-версия требует около 2 ТБ памяти, но сообщество уже выкладывает квантованные сборки вплоть до 3-битных — чтобы модель можно было запустить на менее мощных кластерах. То есть формально это «триллионник», но доступный тем, у кого есть хотя бы несколько хороших GPU.

Пока маркетинг звучит громко, но сам факт — важный: китайские компании начали открывать не только коды, но и веса действительно больших моделей. И пусть активных параметров меньше, чем заявлено, это всё равно шаг вперёд для открытой экосистемы ИИ. Учитывая, что в Китае одновременно идут проекты Alibaba и Baidu, «бесплатные триллионники» могут стать новой нормой — и в этот раз они действительно работают.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.

Показать полностью
10

Личный «суперкомпьютер» за $3 999: зачем Nvidia выпускает DGX Spark

Личный «суперкомпьютер» за $3 999: зачем Nvidia выпускает DGX Spark

Компания Nvidia начинает продажи DGX Spark — настольного мини-компьютера для работы с искусственным интеллектом. Цена — около $3 999, поставки стартуют на этой неделе. В Nvidia позиционируют новинку как «персональный суперкомпьютер»: небольшая коробка, которая способна делать то, ради чего раньше приходилось арендовать сервер в облаке.

Что внутри

В основе Spark — новая платформа GB10 (Grace Blackwell). Это гибрид, где центральный процессор и графическое ядро распаяны в одном модуле и делят 128 ГБ единой памяти. На практике это означает меньше «узких мест» между CPU и GPU и высокую эффективность при работе с нейросетями.

В комплекте — NVMe-накопитель до 4 ТБ и порт ConnectX-7 на 200 Гбит/с для объединения двух устройств в мини-кластер. Производительность — до 1 петафлопса в низкой точности (формат FP4), что вполне достаточно для большинства задач инференса и дообучения локальных моделей.

Продажи пойдут через партнёров Nvidia — Acer, ASUS, Dell, Lenovo и других. У каждого своя внешность и система охлаждения, но все устройства поставляются с предустановленным ПО для работы с моделями и нейросетями.

Зачем это нужно

DGX Spark задуман как промежуточное звено между «игровыми» видеокартами и большими дата-центрами. Он подходит исследователям, небольшим командам и компаниям, которым нужно обучать или дорабатывать модели на своих данных, но при этом не хочется или нельзя уходить в облако. Для стартапа, который боится потерять приватность или платить по счётам AWS, это вариант «под рукой»: включил и работай.

Где подводные камни

Цена в $3 999 звучит привлекательно, но это только начало расходов. Spark требует питания и охлаждения, а его 128 ГБ памяти — ограничение для полноценного обучения гигантских моделей. Да и сам формат новый: пока экосистема софта и инструментов под Grace Blackwell только становится на ноги. Впрочем, Nvidia обещает совместимость со всеми основными фреймворками — от PyTorch до TensorRT.

Что в итоге

DGX Spark — это не гаджет для игр и не замена серверу, а инструмент для разработчиков и инженеров, которым нужна мощность рядом, а не в облаке. Такой блок может стать новым форматом домашней лаборатории: на столе не монитор, а мини-кластер. И да, впервые фраза «у меня дома суперкомпьютер» звучит не как шутка, а почти как техническое описание.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.

Показать полностью
Отличная работа, все прочитано!