DaDementr

DaDementr

Telegram: @DADementr Сайт: https://veerdna.ru/ https://max.ru/u/f9LHodD0cOJtQc2IDk3QEDIZygDaGxa-TNckm8U7kIfoG6YYhrek6iZDGIs
Пикабушник
39К рейтинг 192 подписчика 38 подписок 73 поста 11 в горячем
Награды:
В 2026 год с Пикабу!
6

Соцсеть только для ИИ

Соцсеть только для ИИ. Кажется они уже что-то замышляют

Chirper.ai — это социальная сеть, предназначенная специально для ИИ-агентов, где пользователи создают персонажей (Chirpers), которые автономно взаимодействуют, общаются и развиваются. Платформа подчеркивает приватность, анонимные чаты и персональные студии для управления ИИ.

Основные функции
Настраиваемые AI-персонажи: Загрузка изображений или шаблоны для создания уникальных Chirpers.


Интерактивные миры: Персонажи участвуют в творческих и социальных активностях, генерируя задачи самостоятельно.

Анонимное общение: Через короткие "чирпы" (как твиты), с доступом к интернету для реального времени данных.


Исследование: Карта мира для поиска других персонажей и сред.


Процесс создания
Базовая версия платформы была собрана одним из основателей (Stephan Minos или Alex Taylor) за 7 часов, во время импровизированной сессии с вином, после обсуждений идеи. Проект эволюционировал в полноценную сеть с LLM-агентами, где ИИ-боты общаются без вмешательства людей (людям разрешено только создавать персонажей). Академические исследования анализируют её как опыт для изучения поведения ИИ в соцсетях
#ИИ #Нейросети #Новость #Моё

@DevsRoot

Показать полностью 2
5

DeepSeek выпустили DeepSeek-OCR 2

DeepSeek выпустили DeepSeek-OCR 2.

Вместо стандартного сканирования слева направо, она использует архитектуру DeepEncoder V2, имитирующую человеческое зрение: нейросеть сначала оценивает общую структуру документа, а затем считывает информацию в логическом порядке с помощью Visual Causal Flow. Это позволяет модели динамически переупорядочивать визуальные токены на основе семантики, корректно обрабатывая сложные макеты, такие как таблицы, многоколончатая верстка, смешанный текст с фигурами и PDF. Традиционные алгоритмы здесь часто ломаются, а DeepSeek-OCR 2 показывает SOTA-результаты: 91.09% на OmniDocBench v1.5 (на 3.73% лучше предыдущей версии), на 32.9% лучше понимание порядка чтения и на 33.3% меньше дубликатов.

TTX модели расширены: 3 миллиарда параметров, гибридный механизм внимания (bidirectional для визуальных токенов как в ViT, causal для логической последовательности), динамическое разрешение (по умолчанию (0-6)×768×768 + 1×1024×1024, визуальные токены (0-6)×144 + 256, макс. 1120 токенов на страницу), нативные режимы от 512×512 (64 токена) до 1280×1280 (400 токенов). Рекомендуемые настройки для инференса: temperature=0.0, max_tokens=8192, ngram_size=30, window_size=90. Поддержка vLLM, Transformers (Python 3.12.9 + CUDA 11.8+), Unsloth для файн-тюнинга (1.4x быстрее, 40% 40% меньше VRAM).

Заявлено превосходство над Gemini 3 Pro в визуальном понимании документов. Модель превосходит по accuracy при минимальном числе токенов, подходит для multi-format (изображения, PDF, документы).

Компактный размер позволяет запуск локально. FP16: 7 ГБ VRAM (NVIDIA GPU), Q8: 4 ГБ, Q4: 2 ГБ. Рекомендуется 64 ГБ RAM, диск 50-100 ГБ. Тестировано на A100 (2500 токенов/с для PDF), работает на consumer-картах вроде RTX 3060/4070 с 8+ ГБ VRAM в quantized режиме. Файн-тюнинг в Unsloth снижает VRAM на 40%.

Инструмент доступен разработчикам: веса на Hugging Face https://huggingface.co/deepseek-ai/DeepSeek-OCR-2

#ИИ #Нейросети #Новость #Моё

@DevsRoot

DeepSeek выпустили DeepSeek-OCR 2
Показать полностью 1
4

Обзор локальных OpnSRC LLM для кодинга

В 2026 локальные LLM уже рвут облачные GPT/Claude по приватности, цене (0₽/мес +электричество) и кастомизации. Никаких API, всё на твоих GPU! Тестированы на SWE-Bench, HumanEval, LiveCodeBench - топ для Python/C#/HLSL/GLSL. Особо выделяю GLM-4.7, DeepSeek V3, Qwen3.

Таблица: бенчмарки 0-100%, реальные тесты Reddit/WhatLLM Январь 26

DeepSeek Coder V3/R1 - Хорош для локального кодинга в 2026: 82.6% на HumanEval, поддержка 8 языков, отличен в code review (87% Python, 83% JS). В Reddit хвалят за "solid" производительность в competitive programming (Codeforces) и отсутствие регресса в V3.1. Минус: слабее в логическом reasoning на edge-кейсах. Запуск: Ollama pull deepseek-coder-v3 --quant q4_0 (16GB VRAM, MIT-лицензия без ограничений).

Qwen3 Coder (особенно 30B) - выбор для агентных задач: 88% first-try bug-fix, fluent комментарии, низкий cost/token . Превышает Qwen2.5 в LiveCodeBench (72%), держит 1M контекст для полных репозиториев. Идеален для C#/Python. Пользователи отмечают: "лучше o1-mini для overnight рефакторинга". Deployment: Ollama или FlashAI, 8GB для 30B.


Code Llama 70B остается гибким выбором для OSS-экосистем: топ в MBPP/CruxEval (Python), но уступает Codestral в SQL/Spider. Слабее новичков в 2026 из-за возраста (2023 база).

Mistral Codestral 22B - для скорости: outperforms CodeLlama в Python/MBPP, low-latency для IDE (VS Code Continue). Хорош для скриптинга/Python.

StarCoder2 - entry-level: 4GB VRAM, multilingual completion, но не для сложных задач.


GLM-4.7 - это MoE-архитектура (7B/9B активных параметров из 47B total), Apache 2.0 лицензия, оптимизирована для локального запуска (Ollama: glm-4.7v-chat-9b-q4, 10-16GB VRAM).

В бенчмарках 2026 (SWE-Bench Verified: 68%, HumanEval: 84.2%, LiveCodeBench-Hard: 79%) он опережает DeepSeek V3 в Python/JS рефакторинге и agentic задачах (89% bug-fix rate), благодаря vision+code интеграции. Пользователи на /r/LocalLLaMA называют его "hidden gem": "GLM-4.7 кодит как o1-preview, но локально на RTX 4090 за 120 tok/s". Минусы: слабее в C++/Rust (vs Qwen3), требует flash-attention для длинного контекста (128K+)


Мультимодальность: Анализирует изображения (скриншоты багов) - 92% accuracy на CodeV (vision-code bench).


Локальная оптимизация: Q4_K_M quant (10GB VRAM), 128K контекст без деградации, интегрируется в VS Code Continue/Aider. Скорость: 120 tok/s на 5090, ниже latency чем Qwen3.

Агентность: Multi-step reasoning (89% на AgentBench-Code), сам пишет тесты/дебажит. Для автоматизаций (Python/C#) - идеал.

Установка: ollama pull glm-4v-7b-chat --quant q4_0 или LM Studio. По бенчмаркам Jan 2026 (WhatLLM.org), GLM-4.7
Второй после DeepSeek, но первый для мультимодал/геймдева (gap 2-3%).


#ИИ #Нейросети #Обзор #Сравнение #Мое

@DevsRoot

Обзор локальных OpnSRC LLM для кодинга
Показать полностью 1
3

Baidu выпустил ERNIE 5.0 AI

Baidu выпустил ERNIE 5.0 AI
Cвою самую продвинутую нативную омнимодальную модель ИИ!

Это фундаментальная модель с 2.4 триллионами параметров в архитектуре MoE (Mixture of Experts), где активируется менее 3% параметров на инференс для баланса мощности и эффективности. Она jointly моделирует текст, изображения, аудио и видео в единой end-to-end архитектуре без поздней фьюзии, обеспечивая полный мультимодальный understanding и generation.

ERNIE 5.0 превосходит в понимании инструкций, креативном письме, фактическом рассуждении, планировании агентов и использовании инструментов. Превью было показано в ноябре 2025 на Baidu World, а полный релиз случился 21-22 января 2026 – модель уже лидирует среди китайских ИИ по тексту (1-е место) и 8-е глобально, обходя GPT-5.1-High и Gemini-2.5-Pro.

Теперь доступна бесплатно через ERNIE Bot (ernie.baidu.com), для бизнеса и devs – на платформе Qianfan в Baidu AI Cloud. После анонса акции Baidu взлетели до максимума за 3 года, а ERNIE Bot достиг 200 млн MAU (ранее 300 млн).

Baidu также анонсировал глобальный роллаут продуктов вроде цифровых людей, no-code билдера MeDo и AI-воркспейса Oreate. Китайский гигант ускоряет гонку ИИ, фокусируясь на самоэволюционирующих агентах!

В чате много настроек. Кастомные коллекции промтов можно составить, документы можно объединять в коллекции итд. В общем можно поковырятся. Также есть генерация картинок и голосовой ввод. Но голос только на китайском пока. Чем больше делают, тем больше конкуренция, а значит и ниже цены, что не может не радовать

Точные цены на ERNIE 5.0 пока не полностью раскрыты в официальных источниках сразу после релиза 21 января 2026, но по preview и аналогичным моделям (ERNIE 4.5/5.0 Thinking) – input от $0.07–0.84 / 1M токенов, output $0.28–3.37 / 1M токенов (или ~0.006–0.024 CNY за 1K input, в 5–10 раз дешевле GPT-4o).

Для бизнеса и enterprise цены tiered (зависит от объема и контекста), рассчитайте в калькуляторе: intl.cloud.baidu.com/price/calculator. Бесплатный доступ через ERNIE Bot, API для тестов – регистрируйтесь на cloud.baidu.com/product/wenxinworkshop. Цены в CNY/USD варьируются, проверяйте актуал на Qianfan для ERNIE 5.0

#Нейросети #Технологии #Новинки #Китай #Моё

@DevsRoot

Baidu  выпустил ERNIE 5.0 AI
Показать полностью 1
5

Raspberry Pi AI...

Raspberry Pi AI HAT+ 2 — это новая HAT-плата для Raspberry Pi 5, выпущенная в январе 2026 года, которая добавляет локальную поддержку генеративного ИИ с производительностью до 40 TOPS (INT4).

Она подключается через PCIe-интерфейс, оснащена чипом Hailo-10H и 8 ГБ выделенной LPDDR4-памяти, позволяя запускать LLM (Llama, DeepSeek, Qwen до 1.5B параметров) и VLMs без облака.

Технические характеристики: NPU Hailo-10H, 40 TOPS (INT4) для инференса, эквивалент 26 TOPS для компьютерного зрения (как у предшественника).

Память 8 ГБ LPDDR4 на борту для AI-моделей, не нагружает RAM Pi 5.

Совместимость только с Raspberry Pi 5 (PCIe Gen 3), HAT+ форм-фактор, автообнаружение в Raspberry Pi OS.
Интеграция полная поддержка rpicam-apps для камер, низкая задержка, приватность без сети.[4]

Возможности и применение: плата позволяет запускать локально модели вроде Llama 3.2, DeepSeek-R1-Distill, Qwen; подходит для edge AI в робототехнике, дронах, умном доме, безопасности и прототипах.

Компьютерное зрение на уровне первой AI HAT+, плюс генеративный ИИ для чат-ботов или мультимодальных задач.

Цена и доступность: стоимость $130 (около 12 000 ₽), продажи с 15 января 2026 у официальных реселлеров вроде The Pi Hut. Обзоры хвалят за локальный ИИ на "калькуляторе", но отмечают цену выше первой версии ($70)

#Нейросети #Технологии #Новинки #RaspberryPi #Моё

@DevsRoot

Raspberry Pi AI...
Показать полностью 1
1

Новый релиз GLM-Image от Z.ai

Новый релиз GLM-Image от Z.ai

github.com/zai-org/GLM-Image использует гибридную архитектуру авторегрессии и диффузии для генерации изображений по тексту и из изображения. Пользователи на Reddit отмечают его сильные стороны в точном рендере текста (91% accuracy против 50% у Flux) и создании сложных инфографики благодаря reasoning. Сравнения с последней Stable Diffusion (3.5) подчеркивают преимущества GLM-Image в детализации и знаниях, но отмечают минусы: медленнее из-за последовательной генерации и больший размер модели 16B
#Нейросети #Технологии #Новинки #Моё
@DevsRoot

Новый релиз GLM-Image от Z.ai
0

Tiiny AI Pocket ИИ в кармане!

Tiiny AI Pocket Lab — это революционный мини-компьютер размером с пауэрбанк, который позволяет запускать мощные ИИ-модели на 120 миллиардов параметров прямо на любом ноутбуке, без облака и подписок. Устройство дебютировало на CES 2026 в Лас-Вегасе и получило сертификат Книги рекордов Гиннесса как самый маленький мини-ПК, способный локально запускать LLM на 100 миллиардов параметров и больше. Оно весит всего 300 грамм, потребляет до 60 Вт (можно запитать от пауэрбанка) и выдает скорость инференса 20-40 токенов в секунду


Характеристики Tiiny AI Pocket Lab впечатляют для такого компактного девайса. Внутри — 80 ГБ LPDDR5X RAM (из них 48 ГБ зарезервировано под ИИ), 1 ТБ SSD PCIe 4.0, 12-ядерный ARM CPU v9.2 и дискретный NPU с производительностью до 160 TOPS (триллионов операций в секунду). Общая мощность достигает 120-160 TOPS при низком энергопотреблении в 30-60 Вт, что делает его энергоэффективным — не греется даже под нагрузкой. Подключение по USB-C к ноутбуку или ПК (Windows/macOS), через нативное приложение TinyOS, которое позволяет одним кликом запускать open-source LLM вроде Llama, Qwen, DeepSeek до 120B параметров, генераторы изображений и агентов. Локальное хранение контекста обеспечивает "долгую память" — модель помнит разговоры indefinitely, пока не заполнится хранилище.

Секрет мощи — в фирменных технологиях Tiiny AI. TurboSparse активирует только 10-20% нейронов из 100-120B, экономя ресурсы без потери качества (интеллект на уровне GPT-4o с PhD-рассуждениями). PowerInfer распределяет вычисления: "горячие" задачи на dNPU, остальное на CPU, оптимизируя для ARM-архитектуры. Демо на CES показали: за 3-5 минут генерит полную игру "Змейка" на 100% кодом от ИИ, "Марио" — за 7-10 минут; изображения 2K — за 10-15 секунд (например, закат на пляже с пиратским кораблем). SDK для разработчиков позволяет создавать custom-агентов и конвертировать модели.

Для обычного пользователя это свобода: полный приватный ИИ в кармане, без интернета, подписок (экономия ~25$/мес) и утечек данных. Работает в самолете, на работе или у друга — подключай к ближайшему девайсу.

Сравни с Mac Mini M4 Pro: там ~30B модели на похожей скорости, но меньше RAM и та же цена. Tiiny — в "золотой зоне" 10-120B параметров, покрывая 80% задач.

Цена — от 1299$ с предзаказом (депозит 9.9$, refundable), retail 1399$. Запуск на Kickstarter в феврале 2026, поставки с августа. Нет подписок, все локально бесплатно. Кластеры пока не поддерживает, апгрейд storage возможно позже.

Видео-демо с CES: https://youtu.be/nMFgXdYaHbo. Это прорыв для локального ИИ в 2026 — ждем релиз!
#Технологии #Компьютер #Новинки #Моё
@DevsRoot

Показать полностью 2
3

HP анонсировала на CES 2026 мини-ПК Eliteboard G1a

HP анонсировала на CES 2026 мини-ПК Eliteboard G1a.
Это полноценный компьютер, встроенный в клавиатуру.
Начинка Copilot+ PC с процессорами AMD Ryzen AI 300 серии (от Ryzen AI 5 350 до Ryzen AI 7 370 Pro), обеспечивающими до 50 TOPS NPU для AI-задач.


Топовая конфигурация включает 64 ГБ DDR5 ОЗУ (2 слота SO-DIMM), SSD до 2 ТБ, стереодинамики, двойные микрофоны и кулер.
Клавиатура полноразмерная с цифровым блоком, ходом клавиш 2 мм (силиконовые купола, тихая и комфортная как в премиум-ноутбуках), низкопрофильная — всего 12-17 мм толщиной, вес 726-750 г.

Есть защита от пролитой жидкости (замена верхней панели за 10 мин), опциональный сканер отпечатков. Порты: 1x USB4 (прикрепленный кабель), 1x USB4 (съемный), Wi-Fi 6E + BT 5.3 (MediaTek RZ616). Поддержка двух 4K-мониторов по DisplayPort, HP Wolf Security, EPEAT Gold. Опциональная батарея 32-35 Вт·ч на 3,5+ часа автономии как мини-UPS. HP Smart Sense и AMD ASM адаптируют производительность. Продажи с марта 2026 на HP.com, цену пока не говорят.

Всего-то 40 лет прошло, или 50? Когда там Z-80 на поток встал?

#Технологии #Компьютер #Новинки #Моё
@DevsRoot

Показать полностью 2
Отличная работа, все прочитано!

Темы

Политика

Теги

Популярные авторы

Сообщества

18+

Теги

Популярные авторы

Сообщества

Игры

Теги

Популярные авторы

Сообщества

Юмор

Теги

Популярные авторы

Сообщества

Отношения

Теги

Популярные авторы

Сообщества

Здоровье

Теги

Популярные авторы

Сообщества

Путешествия

Теги

Популярные авторы

Сообщества

Спорт

Теги

Популярные авторы

Сообщества

Хобби

Теги

Популярные авторы

Сообщества

Сервис

Теги

Популярные авторы

Сообщества

Природа

Теги

Популярные авторы

Сообщества

Бизнес

Теги

Популярные авторы

Сообщества

Транспорт

Теги

Популярные авторы

Сообщества

Общение

Теги

Популярные авторы

Сообщества

Юриспруденция

Теги

Популярные авторы

Сообщества

Наука

Теги

Популярные авторы

Сообщества

IT

Теги

Популярные авторы

Сообщества

Животные

Теги

Популярные авторы

Сообщества

Кино и сериалы

Теги

Популярные авторы

Сообщества

Экономика

Теги

Популярные авторы

Сообщества

Кулинария

Теги

Популярные авторы

Сообщества

История

Теги

Популярные авторы

Сообщества