Илон Маск выложил в открытый доступ Grok




Компания xAI выложила исходный код своей нейросети Grok-1. Эта языковая модель — настоящий титан среди собратьев, она насчитывает 314 миллиардов параметров.
Илон Маск, как известно, неоднократно высказывался в пользу максимальной открытости и доступности разработок в области ИИ. Публикация Grok-1 вписывается в эту философию: модель распространяется под лицензией Apache 2.0, что позволяет её использовать в коммерческих целях, открывая перед бизнесом и исследователями новые горизонты.
Особое внимание заслуживает тот факт, что Grok-1 не предназначена для какого-то одного специфического применения и не обладает встроенными ограничениями на типы обрабатываемой информации, в отличие от многих других современных языковых моделей. Это означает, что Grok способна генерировать и анализировать данные практически любой тематики, включая те, которые могут попадать под различные ограничения в разных странах. Проще говоря, в Grok отсутствует цензура.
Такая беспрецедентная свобода общения делает Grok уникальным инструментом в руках исследователей, художников, писателей и всех, кто ищет новые подходы к созданию и анализу текстовых данных.
Неудивительно, что с момента анонса модель вызвала огромный интерес среди профессионального сообщества и любителей технологий. Однако необходимо отметить, что для работы с Grok-1 потребуются значительные вычислительные мощности, так как объём данных модели превышает 300 ГБ. Это означает, что не каждый желающий сможет запустить её на своём домашнем компьютере.
Хотите узнавать первыми о полезных сервисах с искусственным интеллектом для работы, учебы и облегчения жизни? Подпишитесь на мой телеграм канал НейроProfit, там я рассказываю, как можно использовать нейросети для бизнеса.
Маск говорит, что подписчики X получат ранний доступ к чат-боту xAI - Grok
Стартап Илона Маска, xAI, создает собственную версию ChatGPT. По крайней мере, так обстоит дело судя по пятничным твитам Маска на X. Названная модель Grok (недавно зарегистрированная торговая марка xAI) отвечает на вопросы в диалоговом режиме, возможно, опираясь на базу знаний, аналогичную той, которая используется для обучения ChatGPT и других сопоставимых моделей генерации текста (например, Llama 2 от Meta).
По словам Маска, Grok использует «доступ в реальном времени» к информации о X. И, как и ChatGPT, эта модель имеет возможности "просмотра" информации в интернете, что позволяет ей искать актуальную информацию по конкретным темам.
Рано утром в пятницу Маск заявил, что xAI выпустит свою первую модель искусственного интеллекта для «избранных» в субботу, 4 ноября (ко дню народного единства?). Но в последующем твите вечером Маск сказал, что все подписчики недавно запущенного плана X Premium Plus (стоит 16 долларов в месяц) получат доступ к Grok, «как только он выйдет из ранней бета-версии».
Погодите, это реально? Илон Маск приедет в Москву с докладом на российскую конференцию посвященной ИИ
Об этом сообщают европейские источники. Маск должен выступить в качестве спикера на конференции AI Journey. Судя по всему гений, миллиардер представит нам свою нейросеть Grok, которая была обучена на базе публикаций в социальной сети X (ранее Twitter), которая в скором времени получит поддержку модели.
- - -
NeuroTrends 👇:
https://t.me/neuro_trends8/4072
НЕЙРОСЕТИ | НЕЙРОТРЕНДЫ | CHATGPT | MIDJORNEY | STABLE DIFFUSION
Grok — что с ним? Давно ничего не писал про эту модель, а она очень сильно обновилась, вот что теперь доступно БЕСПЛАТНО:
— Теперь есть отдельный сайт, где можно зарегистрироваться в обход социальной сети X (что очень удобно) — grok com
— Режимы работы: DeepSearch (поиск + рассуждения), DeeperSearch (подойдет для создания проектов и исследований), Think (рассуждения), Grok 3 (обычная модель, но может подключаться к поиску).
— Рабочие области (проекты). Папки проектов, куда можно загрузить документы, презентации, картинки, схемы и шаблоны ответов. Как в ChatGPT, только не нужно ничего никуда платить.
— Редактор картинок. Можно загрузить любую картинку, затем ее редактировать при помощи языковой модели. Есть много готовых стилей, можно сразу что-то попробовать применить.
— Свежие новости. Отдельный режим, который позволяет быстро получить свежие новости по определенному гео, запросу, сегменту (гибкая настройка при помощи промтинга)
— Персоны. Grok возьмет на себя некую роль (друг, терапевт, учитель, комик и прочие)
Скоро протестирую обновленный Grok и выпущу сравнение с Gemini 2.5 Pro в разных режимах работы. Базово, очень много интересных функций, особенно — проекты.
P.S. Да, меня зовут Артем, приятно познакомиться!
💬Grok 3 — Пользуемся тут grok com
📌 Если кому интересно, то пишу про лучшие ИИ в своем авторском канале (ссылка в профиле)
Ошибки ИИ: как их распознать и обезвредить (6 практических советов внутри статьи)
Да, ИИ тоже ошибается. И порой его ошибки могут стоить денег. В этой статье подробно разберём, с какими проблемами чаще всего можно столкнуться в чат-ботах и как их минимизировать.
1. Невозможность сказать "не знаю"
К сожалению, нейросеть может придумать ответ для вас, даже если у неё нет информации. Это связано с тем, что обучение направлено на генерацию ответа, а не на отказ от него. И нейросети предпочитают догадку, чем тишину.
Как минимизировать риски в работе?
Прямо спрашивайте нейросеть: если не знаешь — скажи об этом честно.
И также проверяйте ответы по внешним источникам.
2. Потеря контекста в длинных диалогах
Бот может забыть или исказить информацию, сказанную ранее в чате.
Виной всему то, что у любой нейросети есть ограничение на длину «памяти» (в токенах). Помимо этого, в некоторых чат-ботах старые сообщения могут быть частично обрезаны.
Как минимизировать риски в работе?
Кратко напоминай ключевые факты в новых сообщениях. Если обсуждение длинное — лучше переформулируй всю задачу заново.
3. Слишком буквальное восприятие
Бот может не понять сарказм, шутку, иносказание или "игру слов", поскольку нейросеть опирается на тексты, а не интонации, эмоции, контекст вне слов. Тон иронии или юмора сложно уловить без явных указаний.
Как минимизировать риски в работе?
Говори прямо: "Это шутка" / "Скажи это с сарказмом" / "Говори как в комедии".
4. Формальные ответы без глубины
Ответ вроде бы правильный, но поверхностный, обобщённый, без анализа или свежести. Это связано с тем, что модель подбирает "среднестатистический ответ". Она по умолчанию не имеет мотивации к оригинальности.
Как исправить?
Проси прямо:
"Дай более глубокий анализ"
"Добавь уникальные примеры"
"Не используй клише"
5. Этические ограничения и автоцензура
Нейросети могут отказаться от ответа на даже безобидный вопрос, посчитав его «опасным». Поскольку в чат-ботах на основе нейросетей встроены фильтры безопасности (поиск запрещённого, вредного и т.п.), иногда они срабатывают избыточно.
Как минимизировать возникновение данной проблемы?
Переформулируй запрос нейтрально. Избегай слов, похожих на запрещённые. Например: наркотики, самоубийство, убить, секс и тому подобное.
6. Галлюцинации (придумывание фактов)
И, конечно, одна из самых главных проблем нейросетей — это галлюцинации. Чат-бот может выдать неправильную или вымышленную информацию, часто с уверенностью.
Такое возникает из-за того, что нейросети не «знают» мир — они предсказывают наиболее вероятные слова. Они не обращаются к реальным базам данных, если явно не подключены к интернету.
Как минимизировать риски по данной проблеме?
Перепроверяй факты вручную. Проси указать источник или уточняй.
Пишу о применении и влиянии новых технологий на бизнес и повседневную жизнь в канале Telegram: https://t.me/+NimdslpY9WU0MDYy
Grok 3 бета - эпоха "думающих" агентов
Grok 3 — это последняя серия моделей компании xAI Илона Маска. Представленная 17 февраля 2025 года, эта модель была обучена с использованием суперкомпьютера Colossus, оснащенного около 200 000 графических процессоров Nvidia H100, что в десять раз превышает вычислительные мощности, использованные для предыдущей версии Grok 2.
Согласно результатам бенчмарков, представленным xAI, Grok 3 превосходит другие передовые модели, такие как GPT-4o, Claude 3.5 Sonnet, Gemini-2 Pro и DeepSeek-V3, в областях математики, программирования и научных исследований.
Модель способна решать сложные математические задачи, проводить научные исследования и создавать простые игры. Например, во время презентации Grok 3 сгенерировал вариант игры, сочетающий элементы «Тетриса» и «три в ряд».
Немаловажным преимуществом этой модели является контекстное окно 1 миллион токенов - в 8 раз больше, чем у предыдущих версий.
Помимо Grok 3 и Grok 3 mini, xAI выпустили в релиз две бета-модели рассуждений - Grok 3 (Think) и Grok 3 mini (Think). Как легко догадаться, они обучены на весах двух названных базовых моделей с помощью Reinforcement Learning совершенствовать процесс chain-of-thoughts. Это позволяет моделям Think находить оптимальные стратегии решения задач, находить ошибки в своих рассуждениях, то есть делать все то, чему обучены OpenAI o1 и DeepSeek R1. На процесс рассуждений у Grok 3 может уходить от нескольких секунд до нескольких минут.
Технически обучить веса небольшой модели строить и оптимизировать цепочки рассуждений можно и на достаточно небольших мощностях, арендовав облачные GPU. Некоторые подробности о процессе обучения есть в одном из моих видео.
Особенность Grok 3 в том, что Reinforcement Learning осуществлялся в GPU-кластере невиданных до этого масштабов.
Доступ к Grok 3 первоначально предоставлялся подписчикам X уровня Premium+, стоимость которой составляет около $40 в месяц. Кроме того, xAI предлагает подписку SuperGrok за $30 в месяц или $300 в год, предоставляющую расширенные возможности, включая доступ к новым функциям и неограниченное количество кредитов для генерации изображений.
Впоследствии, однако, xAI анонсировала в X, что доступ к чат-боту с Grok 3 в настоящее время предоставляется бесплатно, “пока наши сервера не расплавятся”.
В посте также говорится, что подписчики X Premium+ и SuperGrok получат расширенный функционал, а также ранний доступ к возможностям вроде Voice Mode, которые еще не вышли в релиз.
Здесь следует отметить, что речь идет об использовании модели Grok 3 через интерфейс чатбота. В ближайших планах xAI — добавить в Grok 3 голосовой режим и предоставить программный доступ к модели через API.
Особенный интерес представляют агенты на базе Grok 3, первый из них - DeepSearch - уже доступен через интерфейс чата. Он также будет доступен через корпоративный API, чтобы компании автоматизировали с его помощью свои бизнес-процессы.
Как заявили xAI в анонсе Grok 3:
чтобы познать Вселенную, мы должны создать интерейс между Grok и миром. Оснащенные интерпретаторами кода и веб-поиском, модели Grok 3 учатся находить недостающий контекст, динамически корректировать свой подход и улучшать рассуждения, опираясь на фидбек
Как новый Grok 3 не смог в олимпиадную математику 7 класса, а o3-mini смог + нашел ошибку в демо-варианте
Все сложнее становится тестировать модели, чтобы тесты получались наглядными и понятными, а не просто в виде бенчмарков в вакууме.
На фоне выхода сегодня Grock 3 от Маска я прошелся по разным логическим задачкам, с которыми ИИ не справлялась еще 1-2 года назад: про братьев Алисы, про сравнение 0.9 и 0.1, про стоимость колодца и т.д. Все это топовые модели (и грок 3 с ними) сегодня щелкают, как орешки. Надо что-то поинтереснее.
ЗАДАЧА
ОК. Закинул на тест задание с олимпиады по математике "Высшая проба" для 7 класса из демо-варианта
Задача 7.6. (20 баллов)
Столбцы белой клетчатой таблицы 11 × 11 пронумерованы слева направо числами от 1 до 11. Найдите количество способов закрасить в этой таблице 66
клеток так, чтобы выполнялись следующие условия:
• в одном столбце закрашена 1 нижняя клетка, ещё в одном — 2 нижние клетки, ещё в одном — 3 нижние клетки, …, ещё в одном — 11 нижних клеток;
• ровно в одном столбце закрашенных клеток больше, чем его номер.
Источник (там есть ответ и ход решения от составителей)
Решение от составителей (последняя строчка решения)
(2^1 − 1) + (2^2 − 1) + … + (2^10 − 1) = 2^1 + 2^2 + … + 2^10 − 10 = 2^11 − 11
или 2037, запомним этот ответ. Но верный ли он?
Посмотрим, как справятся топовые модели с ним, сравним с Grock 3
QWEN2.5-MAX
Ответ: 11*10 = 110 (неправильно <2037)
Но быстро. Как покажет дальнейших ход событий, это уже хорошо )
DEEPSEEK R1
Ответ: 45 x 10! = 163 296 000 (неправильно >>>> 2037)
The server is busy
The server is busy
The server is busy
...
Пришлось запускать R1 на Perplexity. Долго рассуждал. Со второго раза решил вдруг написать код на питоне (!), потом с третьего раз выдал неверный ответ.
GIGACHAT
Не будем забывать про наших слонов, вдруг они когда-нибудь удивят во время таких тестов. Но не сегодня. Кстати, результат похож на R1, но при этом сильно быстрее ))
Ответ: 11 × 10! = 39 948 000 (неправильно >> 2037)
GROK 3
Наконец, виновник тестов сегодня. Использована модель early-grok-3 c lmareana. Весь в предвкушении. Иииии...
Ответ: его нет, Грок сделал больше 50 больших долгих шагов на десятки минут, и все без результата. Пришлось просто скипнуть
Пример, как выглядит шаг:
А вот как выглядит портянка из шагов, и здесь только половина
Напомню, результата так и не было. Он не мог прийти к ответу и продолжал делать свои шаги. Думаю, это провал.
Но решаемо ли это вообще?
CHAT GPT o3-mini (R) - режим рассуждений
Ответ: 2048-12 = 2036
Так, так, так, погодите. Это уже очень близко к "правильному" 2037
Тогда я показываю o3 ход решения от составителей, типа смотри, там 2037, ты точно не ошибся? Он два раза говорит, что все точно, и указывает на ошибку в демо-решении при сложении
И... он же прав?!
ОШИБКА В ОТВЕТЕ У СОСТАВИТЕЛЕЙ?
Помните выражение из решения? Эта последняя строчка, ведущая к ответу
(2^1 − 1) + (2^2 − 1) + … + (2^10 − 1) = 2^1 + 2^2 + … + 2^10 − 10 = 2^11 − 11
Проверяем сами
(2^1 − 1) + (2^2 − 1) + … + (2^10 − 1)
= 2^1 − 1 + 2^2 − 1 + … + 2^10 − 1
= 2^1 + 2^2 + … + 2^10 − 10
Тут все пока верно. Дальше семиклассникам предлагалось временно избавиться от "-10" и усмотреть тут геометрическую прогрессию (есть еще один подход). И соответственно найти сумму первых членов по формуле. Ну пусть покажет сам ИИ
Возвращаем 10-ку
2^11 - 2 - 10 = 2^11 - 12 = 2036
А не 2^11 − 11, как в ответах демо-варианта
ChatGPT прав, а люди ошиблись.
ВЫВОДЫ
Вот так. Проверял Грок3, а в итоге единственный, кто справился с задачей - o3-mini. Так еще ИИ нашел ошибку у кожаных. А помните, недавно ChatGPT считать не умел? )
Сам Грок3 норм по другим обычным задачам, Маск влетает условно в топ-5 LLM, но революции пока нет. Это не дипсик, который дешевый, опенсорсный и способный размещаться в оперативке без квантизации.
В олимпиадах (особенно в дистанционных этапах) перекос ожидаю в сторону геометрических задач, так как они сложнее пока поддаются ИИ.
Мой канал в TG: @it_sabat — запускаю стартап и регулярно тестирую новые ИИ.
















