Из СССР в АйТи
6 постов
6 постов
Соцсеть только для ИИ. Кажется они уже что-то замышляют
Chirper.ai — это социальная сеть, предназначенная специально для ИИ-агентов, где пользователи создают персонажей (Chirpers), которые автономно взаимодействуют, общаются и развиваются. Платформа подчеркивает приватность, анонимные чаты и персональные студии для управления ИИ.
Основные функции
Настраиваемые AI-персонажи: Загрузка изображений или шаблоны для создания уникальных Chirpers.
Интерактивные миры: Персонажи участвуют в творческих и социальных активностях, генерируя задачи самостоятельно.
Анонимное общение: Через короткие "чирпы" (как твиты), с доступом к интернету для реального времени данных.
Исследование: Карта мира для поиска других персонажей и сред.
Процесс создания
Базовая версия платформы была собрана одним из основателей (Stephan Minos или Alex Taylor) за 7 часов, во время импровизированной сессии с вином, после обсуждений идеи. Проект эволюционировал в полноценную сеть с LLM-агентами, где ИИ-боты общаются без вмешательства людей (людям разрешено только создавать персонажей). Академические исследования анализируют её как опыт для изучения поведения ИИ в соцсетях
#ИИ #Нейросети #Новость #Моё
@DevsRoot
DeepSeek выпустили DeepSeek-OCR 2.
Вместо стандартного сканирования слева направо, она использует архитектуру DeepEncoder V2, имитирующую человеческое зрение: нейросеть сначала оценивает общую структуру документа, а затем считывает информацию в логическом порядке с помощью Visual Causal Flow. Это позволяет модели динамически переупорядочивать визуальные токены на основе семантики, корректно обрабатывая сложные макеты, такие как таблицы, многоколончатая верстка, смешанный текст с фигурами и PDF. Традиционные алгоритмы здесь часто ломаются, а DeepSeek-OCR 2 показывает SOTA-результаты: 91.09% на OmniDocBench v1.5 (на 3.73% лучше предыдущей версии), на 32.9% лучше понимание порядка чтения и на 33.3% меньше дубликатов.
TTX модели расширены: 3 миллиарда параметров, гибридный механизм внимания (bidirectional для визуальных токенов как в ViT, causal для логической последовательности), динамическое разрешение (по умолчанию (0-6)×768×768 + 1×1024×1024, визуальные токены (0-6)×144 + 256, макс. 1120 токенов на страницу), нативные режимы от 512×512 (64 токена) до 1280×1280 (400 токенов). Рекомендуемые настройки для инференса: temperature=0.0, max_tokens=8192, ngram_size=30, window_size=90. Поддержка vLLM, Transformers (Python 3.12.9 + CUDA 11.8+), Unsloth для файн-тюнинга (1.4x быстрее, 40% 40% меньше VRAM).
Заявлено превосходство над Gemini 3 Pro в визуальном понимании документов. Модель превосходит по accuracy при минимальном числе токенов, подходит для multi-format (изображения, PDF, документы).
Компактный размер позволяет запуск локально. FP16: 7 ГБ VRAM (NVIDIA GPU), Q8: 4 ГБ, Q4: 2 ГБ. Рекомендуется 64 ГБ RAM, диск 50-100 ГБ. Тестировано на A100 (2500 токенов/с для PDF), работает на consumer-картах вроде RTX 3060/4070 с 8+ ГБ VRAM в quantized режиме. Файн-тюнинг в Unsloth снижает VRAM на 40%.
Инструмент доступен разработчикам: веса на Hugging Face https://huggingface.co/deepseek-ai/DeepSeek-OCR-2
#ИИ #Нейросети #Новость #Моё
@DevsRoot
В 2026 локальные LLM уже рвут облачные GPT/Claude по приватности, цене (0₽/мес +электричество) и кастомизации. Никаких API, всё на твоих GPU! Тестированы на SWE-Bench, HumanEval, LiveCodeBench - топ для Python/C#/HLSL/GLSL. Особо выделяю GLM-4.7, DeepSeek V3, Qwen3.
Таблица: бенчмарки 0-100%, реальные тесты Reddit/WhatLLM Январь 26
DeepSeek Coder V3/R1 - Хорош для локального кодинга в 2026: 82.6% на HumanEval, поддержка 8 языков, отличен в code review (87% Python, 83% JS). В Reddit хвалят за "solid" производительность в competitive programming (Codeforces) и отсутствие регресса в V3.1. Минус: слабее в логическом reasoning на edge-кейсах. Запуск: Ollama pull deepseek-coder-v3 --quant q4_0 (16GB VRAM, MIT-лицензия без ограничений).
Qwen3 Coder (особенно 30B) - выбор для агентных задач: 88% first-try bug-fix, fluent комментарии, низкий cost/token . Превышает Qwen2.5 в LiveCodeBench (72%), держит 1M контекст для полных репозиториев. Идеален для C#/Python. Пользователи отмечают: "лучше o1-mini для overnight рефакторинга". Deployment: Ollama или FlashAI, 8GB для 30B.
Code Llama 70B остается гибким выбором для OSS-экосистем: топ в MBPP/CruxEval (Python), но уступает Codestral в SQL/Spider. Слабее новичков в 2026 из-за возраста (2023 база).
Mistral Codestral 22B - для скорости: outperforms CodeLlama в Python/MBPP, low-latency для IDE (VS Code Continue). Хорош для скриптинга/Python.
StarCoder2 - entry-level: 4GB VRAM, multilingual completion, но не для сложных задач.
GLM-4.7 - это MoE-архитектура (7B/9B активных параметров из 47B total), Apache 2.0 лицензия, оптимизирована для локального запуска (Ollama: glm-4.7v-chat-9b-q4, 10-16GB VRAM).
В бенчмарках 2026 (SWE-Bench Verified: 68%, HumanEval: 84.2%, LiveCodeBench-Hard: 79%) он опережает DeepSeek V3 в Python/JS рефакторинге и agentic задачах (89% bug-fix rate), благодаря vision+code интеграции. Пользователи на /r/LocalLLaMA называют его "hidden gem": "GLM-4.7 кодит как o1-preview, но локально на RTX 4090 за 120 tok/s". Минусы: слабее в C++/Rust (vs Qwen3), требует flash-attention для длинного контекста (128K+)
Мультимодальность: Анализирует изображения (скриншоты багов) - 92% accuracy на CodeV (vision-code bench).
Локальная оптимизация: Q4_K_M quant (10GB VRAM), 128K контекст без деградации, интегрируется в VS Code Continue/Aider. Скорость: 120 tok/s на 5090, ниже latency чем Qwen3.
Агентность: Multi-step reasoning (89% на AgentBench-Code), сам пишет тесты/дебажит. Для автоматизаций (Python/C#) - идеал.
Установка: ollama pull glm-4v-7b-chat --quant q4_0 или LM Studio. По бенчмаркам Jan 2026 (WhatLLM.org), GLM-4.7
Второй после DeepSeek, но первый для мультимодал/геймдева (gap 2-3%).
#ИИ #Нейросети #Обзор #Сравнение #Мое
@DevsRoot
Baidu выпустил ERNIE 5.0 AI
Cвою самую продвинутую нативную омнимодальную модель ИИ!
Это фундаментальная модель с 2.4 триллионами параметров в архитектуре MoE (Mixture of Experts), где активируется менее 3% параметров на инференс для баланса мощности и эффективности. Она jointly моделирует текст, изображения, аудио и видео в единой end-to-end архитектуре без поздней фьюзии, обеспечивая полный мультимодальный understanding и generation.
ERNIE 5.0 превосходит в понимании инструкций, креативном письме, фактическом рассуждении, планировании агентов и использовании инструментов. Превью было показано в ноябре 2025 на Baidu World, а полный релиз случился 21-22 января 2026 – модель уже лидирует среди китайских ИИ по тексту (1-е место) и 8-е глобально, обходя GPT-5.1-High и Gemini-2.5-Pro.
Теперь доступна бесплатно через ERNIE Bot (ernie.baidu.com), для бизнеса и devs – на платформе Qianfan в Baidu AI Cloud. После анонса акции Baidu взлетели до максимума за 3 года, а ERNIE Bot достиг 200 млн MAU (ранее 300 млн).
Baidu также анонсировал глобальный роллаут продуктов вроде цифровых людей, no-code билдера MeDo и AI-воркспейса Oreate. Китайский гигант ускоряет гонку ИИ, фокусируясь на самоэволюционирующих агентах!
В чате много настроек. Кастомные коллекции промтов можно составить, документы можно объединять в коллекции итд. В общем можно поковырятся. Также есть генерация картинок и голосовой ввод. Но голос только на китайском пока. Чем больше делают, тем больше конкуренция, а значит и ниже цены, что не может не радовать
Точные цены на ERNIE 5.0 пока не полностью раскрыты в официальных источниках сразу после релиза 21 января 2026, но по preview и аналогичным моделям (ERNIE 4.5/5.0 Thinking) – input от $0.07–0.84 / 1M токенов, output $0.28–3.37 / 1M токенов (или ~0.006–0.024 CNY за 1K input, в 5–10 раз дешевле GPT-4o).
Для бизнеса и enterprise цены tiered (зависит от объема и контекста), рассчитайте в калькуляторе: intl.cloud.baidu.com/price/calculator. Бесплатный доступ через ERNIE Bot, API для тестов – регистрируйтесь на cloud.baidu.com/product/wenxinworkshop. Цены в CNY/USD варьируются, проверяйте актуал на Qianfan для ERNIE 5.0
#Нейросети #Технологии #Новинки #Китай #Моё
@DevsRoot
Raspberry Pi AI HAT+ 2 — это новая HAT-плата для Raspberry Pi 5, выпущенная в январе 2026 года, которая добавляет локальную поддержку генеративного ИИ с производительностью до 40 TOPS (INT4).
Она подключается через PCIe-интерфейс, оснащена чипом Hailo-10H и 8 ГБ выделенной LPDDR4-памяти, позволяя запускать LLM (Llama, DeepSeek, Qwen до 1.5B параметров) и VLMs без облака.
Технические характеристики: NPU Hailo-10H, 40 TOPS (INT4) для инференса, эквивалент 26 TOPS для компьютерного зрения (как у предшественника).
Память 8 ГБ LPDDR4 на борту для AI-моделей, не нагружает RAM Pi 5.
Совместимость только с Raspberry Pi 5 (PCIe Gen 3), HAT+ форм-фактор, автообнаружение в Raspberry Pi OS.
Интеграция полная поддержка rpicam-apps для камер, низкая задержка, приватность без сети.[4]
Возможности и применение: плата позволяет запускать локально модели вроде Llama 3.2, DeepSeek-R1-Distill, Qwen; подходит для edge AI в робототехнике, дронах, умном доме, безопасности и прототипах.
Компьютерное зрение на уровне первой AI HAT+, плюс генеративный ИИ для чат-ботов или мультимодальных задач.
Цена и доступность: стоимость $130 (около 12 000 ₽), продажи с 15 января 2026 у официальных реселлеров вроде The Pi Hut. Обзоры хвалят за локальный ИИ на "калькуляторе", но отмечают цену выше первой версии ($70)
#Нейросети #Технологии #Новинки #RaspberryPi #Моё
@DevsRoot
Новый релиз GLM-Image от Z.ai
github.com/zai-org/GLM-Image использует гибридную архитектуру авторегрессии и диффузии для генерации изображений по тексту и из изображения. Пользователи на Reddit отмечают его сильные стороны в точном рендере текста (91% accuracy против 50% у Flux) и создании сложных инфографики благодаря reasoning. Сравнения с последней Stable Diffusion (3.5) подчеркивают преимущества GLM-Image в детализации и знаниях, но отмечают минусы: медленнее из-за последовательной генерации и больший размер модели 16B
#Нейросети #Технологии #Новинки #Моё
@DevsRoot
Tiiny AI Pocket Lab — это революционный мини-компьютер размером с пауэрбанк, который позволяет запускать мощные ИИ-модели на 120 миллиардов параметров прямо на любом ноутбуке, без облака и подписок. Устройство дебютировало на CES 2026 в Лас-Вегасе и получило сертификат Книги рекордов Гиннесса как самый маленький мини-ПК, способный локально запускать LLM на 100 миллиардов параметров и больше. Оно весит всего 300 грамм, потребляет до 60 Вт (можно запитать от пауэрбанка) и выдает скорость инференса 20-40 токенов в секунду
Характеристики Tiiny AI Pocket Lab впечатляют для такого компактного девайса. Внутри — 80 ГБ LPDDR5X RAM (из них 48 ГБ зарезервировано под ИИ), 1 ТБ SSD PCIe 4.0, 12-ядерный ARM CPU v9.2 и дискретный NPU с производительностью до 160 TOPS (триллионов операций в секунду). Общая мощность достигает 120-160 TOPS при низком энергопотреблении в 30-60 Вт, что делает его энергоэффективным — не греется даже под нагрузкой. Подключение по USB-C к ноутбуку или ПК (Windows/macOS), через нативное приложение TinyOS, которое позволяет одним кликом запускать open-source LLM вроде Llama, Qwen, DeepSeek до 120B параметров, генераторы изображений и агентов. Локальное хранение контекста обеспечивает "долгую память" — модель помнит разговоры indefinitely, пока не заполнится хранилище.
Секрет мощи — в фирменных технологиях Tiiny AI. TurboSparse активирует только 10-20% нейронов из 100-120B, экономя ресурсы без потери качества (интеллект на уровне GPT-4o с PhD-рассуждениями). PowerInfer распределяет вычисления: "горячие" задачи на dNPU, остальное на CPU, оптимизируя для ARM-архитектуры. Демо на CES показали: за 3-5 минут генерит полную игру "Змейка" на 100% кодом от ИИ, "Марио" — за 7-10 минут; изображения 2K — за 10-15 секунд (например, закат на пляже с пиратским кораблем). SDK для разработчиков позволяет создавать custom-агентов и конвертировать модели.
Для обычного пользователя это свобода: полный приватный ИИ в кармане, без интернета, подписок (экономия ~25$/мес) и утечек данных. Работает в самолете, на работе или у друга — подключай к ближайшему девайсу.
Сравни с Mac Mini M4 Pro: там ~30B модели на похожей скорости, но меньше RAM и та же цена. Tiiny — в "золотой зоне" 10-120B параметров, покрывая 80% задач.
Цена — от 1299$ с предзаказом (депозит 9.9$, refundable), retail 1399$. Запуск на Kickstarter в феврале 2026, поставки с августа. Нет подписок, все локально бесплатно. Кластеры пока не поддерживает, апгрейд storage возможно позже.
Видео-демо с CES: https://youtu.be/nMFgXdYaHbo. Это прорыв для локального ИИ в 2026 — ждем релиз!
#Технологии #Компьютер #Новинки #Моё
@DevsRoot
HP анонсировала на CES 2026 мини-ПК Eliteboard G1a.
Это полноценный компьютер, встроенный в клавиатуру.
Начинка Copilot+ PC с процессорами AMD Ryzen AI 300 серии (от Ryzen AI 5 350 до Ryzen AI 7 370 Pro), обеспечивающими до 50 TOPS NPU для AI-задач.
Топовая конфигурация включает 64 ГБ DDR5 ОЗУ (2 слота SO-DIMM), SSD до 2 ТБ, стереодинамики, двойные микрофоны и кулер.
Клавиатура полноразмерная с цифровым блоком, ходом клавиш 2 мм (силиконовые купола, тихая и комфортная как в премиум-ноутбуках), низкопрофильная — всего 12-17 мм толщиной, вес 726-750 г.
Есть защита от пролитой жидкости (замена верхней панели за 10 мин), опциональный сканер отпечатков. Порты: 1x USB4 (прикрепленный кабель), 1x USB4 (съемный), Wi-Fi 6E + BT 5.3 (MediaTek RZ616). Поддержка двух 4K-мониторов по DisplayPort, HP Wolf Security, EPEAT Gold. Опциональная батарея 32-35 Вт·ч на 3,5+ часа автономии как мини-UPS. HP Smart Sense и AMD ASM адаптируют производительность. Продажи с марта 2026 на HP.com, цену пока не говорят.
Всего-то 40 лет прошло, или 50? Когда там Z-80 на поток встал?
#Технологии #Компьютер #Новинки #Моё
@DevsRoot
