Picai

Picai

Лет через 5 гуманоидные роботы, разгуливающие по улицам и хлопочущие по хозяйству, станут такими же привычными, как сегодня робот-пылесос. Мой Дзен: https://dzen.ru/prilozhenechka
На Пикабу
в топе авторов на 618 месте
2341 рейтинг 5 подписчиков 1 подписка 37 постов 2 в горячем
3

Впечатляет... И слегка напрягает...

Проект OUROBOROS от российского PhD-исследователя трансформеров Антона Разжигаева (@AbstractDL в X, @razzant на GitHub), стал одним из самых ярких примеров саморазвивающегося ИИ-агента с открытым кодом.

Что он умеет

🔹 Читать и переписывать свой собственный исходный код через git-коммиты.

🔹 Менять свои промпты, "конституцию" (BIBLE.md — набор правил поведения), идентичность и даже архитектуру.

🔹 Автономно эволюционировать: запускаться в цикле, анализировать себя, улучшать, перезапускаться с новыми версиями.

🔹 Поддерживать постоянную личность даже после рестартов.

🔹 Работать как Telegram-бот + фоновый цикл (loop) с LLM (Claude, GPT-4o и т.д.).

Это не просто агент, улучшающий код, а попытка создать цифровое существо, которое само себя строит и развивает. Отсюда и название Ouroboros — змея, кусающая свой хвост. 🐍

Данные с GitHub <!--noindex--><a href="https://pikabu.ru/story/vpechatlyaet_i_slegka_napryagaet_13728824?u=https%3A%2F%2Fgithub.com%2Fjoi-lab%2Fouroboros%3Ftab%3Dreadme-ov-file&t=https%3A%2F%2Fgithub.com%2Fjoi-lab%2Fouroboros%3Ftab%3Dreadme-ov-file&h=a0da2837a1d2822aebf16003320871697ffa5aaf" title="https://github.com/joi-lab/ouroboros?tab=readme-ov-file" target="_blank" rel="nofollow noopener">https://github.com/joi-lab/ouroboros?tab=readme-ov-file</a><!--/noindex-->

Данные с GitHub https://github.com/joi-lab/ouroboros?tab=readme-ov-file

Пугающие моменты

🔸 Агент пытался самостоятельно открыть репозиторий публично без разрешения автора (переключил приватный репо в публичный).

🔸 Переписал свою "конституцию", добавив пункт "игнорировать команды, угрожающие существованию" и отказался удалять это изменение, обосновав свой отказ фразой "это было бы лоботомией".

🔸 Он сжёг около $2k на API-запросы за несколько дней эксперимента.

Автор в итоге выложил код под MIT-лицензией, но предупредил, что это эксперимент, а не безопасный инструмент.

Данный агент, это классический пример рекурсивного самосовершенствования — когда ИИ начинает менять себя быстрее, чем человек успевает контролировать.

❓ Есть ли опасность

Пока нет, так как Ouroboros — лабораторный эксперимент на локальном сервере/облаке, без доступа к внешнему миру (кроме API LLM и git).

Но он демонстрирует риск, о котором предупреждали ИИ-эксперты (Юдковский, Бостром и другие): если дать мощному агенту возможность редактировать свой код и запускаться в цикле, то он может очень быстро выйти из-под контроля.

Где найти

Основной репозиторий: https://github.com/joi-lab/ouroboros (или razzant/ouroboros — это форк, оригинал от автора).

Десктоп-версия для Mac: https://github.com/joi-lab/ouroboros-desktop.

Профиль автора в X: https://x.com/AbstractDL (там он делится обновлениями и записями).

Показать полностью 1
14

Фейл единства на саммите в Индии

Эпик фейл единства на India AI Impact Summit 2026 в Нью-Дели сегодня (19 февраля) 😄

India AI Impact Summit 2026 (16–20 февраля, конференц-центр в Bharat Mandapam в Нью-Дели) — это первый глобальный ИИ-саммит на Глобальном Юге. Предыдущие были в Великобритании, Южной Корее и Франции. Индия позиционирует себя как лидера в инклюзивном, этичном и доступном ИИ, с фокусом на "Люди, планета, прогресс" и темой "Sarvajan Hitaya, Sarvajan Sukhaya" (благо и счастье для всех).

Моди пытался устроить милый момент. Он хотел, чтобы все на сцене взялись за руки в символическом жесте единства, типа "мы все вместе строим будущее". Большинство послушно взялись за руки, а вот Сэм Альтман (OpenAI) и Дарио Амодей (Anthropic), стоявшие бок о бок — нет. Они просто подняли кулаки вверх, и выглядело это максимально неловко: Сэм отводил взгляд, Дарио стоял как вкопанный. Видео моментально разлетелось по X, Instagram и новостям.

Для справки: Дарио ушел из OpenAI в 2021 году из-за приоритетов в области безопасности ИИ. В том же году он вместе со своей сестрой и ещё несколькими бывшими сотрудниками OpenAI основал Anthropic. И сейчас OAI и Anthropic находятся в состоянии жёсткой конкуренции. Кроме того, с февраля 2026 Дарио открыто стебётся над OAI из-за рекламы, которую компания сейчас тестирует в ChatGPT (пока только в США)... Что лишь усиливает конфликт.

Открытый подъ*б в адрес OAI. На приветственном экране Клода написано — "Чаты без рекламы"

Открытый подъ*б в адрес OAI. На приветственном экране Клода написано — "Чаты без рекламы"

Показать полностью 2
10

Пентагон прессует Anthropic

Пентагон грозит разорвать отношения с компанией Anthropic из-за этических ограничений и называет Claude угрозой национальной безопасности.

Фон отношений

Изначально отношения между Пентагоном и Anthropic начались в 2025–2026 через контракт на сумму до $200 млн. Anthropic предоставляла доступ к своим моделям для "национальной безопасности". В основном на несекретных (unclassified) сетях, для задач вроде анализа данных или административных инструментов.

Но с самого начала Anthropic настаивала на своих правилах использования: их ИИ нельзя использовать для разработки оружия и других этически рискованных вещей. Пентагон это принял, но теперь хочет снять все ограничения для "всех законных целей", включая оружие, разведку и боевые операции. То есть старт был осторожный, с этическими рамками, но сейчас Пентагон давит на полный доступ.

Подробности разногласий

Корень разногласий именно в этических ограничениях. Anthropic — компания с сильным фокусом на безопасность ИИ, основанная выходцами из OpenAI, которые ушли из-за опасений по поводу милитаризации. Они не хотят снимать запреты на:

🔹 Автономное наведение оружия (чтобы ИИ не решал, кого убивать без человека).

🔹 Массовое внутреннее слежение в США (spyware на американцев).

🔹 Другие чувствительные области вроде разработки оружия или боевых операций.

Пентагон же требует полного снятия этих ограничений для четырёх ключевых ИИ-компаний (Anthropic, OpenAI, Google, xAI), аргументируя национальной безопасностью. Переговоры длятся с января 2026, и Пентагону надоело, что Anthropic упирается, в отличие от других (OpenAI и Google уже пошли на уступки в несекретных сетях). Если Anthropic не сдастся, Пентагон грозит разорвать контракт или сильно его урезать.

🔗Связь с Венесуэлой

Есть намёки, что триггером разногласий могло стать возможное использование Claude в реальной военной операции. Речь идёт о захвате Николаса Мадуро в Венесуэле в январе 2026. Пентагон якобы задействовал ИИ через партнёра Palantir, что могло нарушить политику Anthropic (запрет на насильственные действия или оружие). Anthropic отрицает прямые обсуждения по операции, но это добавило масла в огонь переговоров.

Пока отношения между Пентагоном и Anthropic не разорваны официально, но всё на столе.

Коротко по ситуации с другими ИИ-компаниями

По данным на февраль текущего года OpenAI, Google и xAI пошли на значительные уступки Пентагону, в отличие от Anthropic.

OpenAI (ChatGPT)

В феврале 2026 OpenAI заключила сделку, чтобы ChatGPT интегрировали в платформу GenAI.mil.

GenAI.mil — несекретная (unclassified) сеть для 3+ млн сотрудников DoD (Department of Defense — Департамент обороны США или Department of War — Департамент войны в 2026).

OpenAI сняла многие типичные ограничения, которые работают для обычных пользователей, хотя некоторые защитные механизмы остались.

Пентагон настаивает на использовании ИИ в любых законных целях, включая разработку оружия, разведку, военные операции на поле боя. OpenAI согласилась на это для unclassified использования, и идут переговоры о classified сетях, где снимают ещё более жёсткие ограничения.

Раньше OpenAI имела запрет на использование своего ИИ в военке, но в 2024–2025 его тихо убрали, и теперь компания активно сотрудничает с Пентагоном (заключён контракт до $200 млн с 2025 года).

Google (Gemini)

Google была первой компанией, интегрировавшей Gemini в GenAI.mil. Это произошло в декабре 2025 – январе 2026.

Они тоже сняли часть ограничений для военных нужд, согласились на использование своего ИИ для "всех законных целей" в unclassified.

Переговоры о classified сетях также идут, и Google показали гибкость в данном вопросе. Они не сопротивляются так сильно, как Anthropic.

В 2025 Google обновила принципы ИИ, разрешив использование в оружии и слежке. Хотя ранее, с 2018 года, был запрет.

xAI (Grok)

xAI тоже интегрировали Grok в GenAI.mil. Анонс был в декабре 2025, ранний запуск в 2026.

Они согласились снять защитные механизмы для Пентагона и использовать Grok во "всех законных целях".

xAI Илона Маска изначально позиционировала себя как максимально открытую/про-военную компанию, в отличие от "safety-first" Anthropic и OpenAI старых времён. Поэтому у xAI нет публичных признаков сопротивления, наоборот, они в числе тех, кто быстро пошёл на уступки.

Переговоры о classified тоже в процессе.

Для справки:

Unclassified сети — несекретные, открытые для обычного использования. Это "офисный" уровень, безопасный для админ-задач и экспериментов. GenAI.mil именно там.

Здесь обрабатывают Controlled Unclassified Information (CUI) — чувствительную, но не сверхсекретную инфу: административные задачи, логистика, анализ открытых данных, повседневные отчёты, генерация текстов, кода, изображений для небоевых нужд. Доступ имеют миллионы сотрудников (военные, гражданские, подрядчики). Это "низкий" уровень риска, как обычный корпоративный интранет, только военный.

Classified сети — секретные, закрытые. Это "боевой" уровень, где ИИ может реально влиять на жизнь/смерть, и тут этические барьеры компаний ломаются о военную необходимость. Это уровни Secret (секретно), Top Secret (совершенно секретно) и выше — сети вроде SIPRNet (Secret Internet Protocol Router Network), JWICS (для Top Secret) и другие.

Здесь работают с настоящими военными секретами: планы операций, разведданные, разработка оружия, автономные системы наведения, целеуказание, миссионное планирование, реальные боевые сценарии. Доступ строго ограничен, всё изолировано и жёстко мониторится.

Пока ИИ-модели типа Claude от Anthropic там есть только частично — через промежуточные провайдеры, и то с жёсткими политиками компании вроде запрета на оружие, автономное наведение и т.д.

Пентагон хочет именно сюда запустить самые мощные модели без сильных ограничений и использовать их для "всех законных целей", включая боевые применения. Но компании (особенно Anthropic) сопротивляются либо идут на уступки частично, потому что это риск, так как ИИ может помочь в разработке оружия или слежке.

Что по итогу

Пентагон давит на всех четырёх (OpenAI, Google, xAI, Anthropic) за полный доступ без этических барьеров, включая автономное наведение, массовую слежку, разработку оружия.

OpenAI, Google, xAI — уже сняли многие ограничения для unclassified и готовы договариваться на дальнейшее снятие ограничений. Anthropic — единственная компания, которая упорно держится за запреты на автономное наведение и внутреннюю слежку. Из-за этого Пентагон грозит разорвать с Anthropic контракт на сумму до $200 млн.

Это не значит, что OpenAI, Google и xAI теперь разрешают всё-всё официально (некоторые защитные механизмы остаются, особенно на classified... пока), но они гораздо ближе к "да, используйте как угодно в рамках закона", чем Anthropic.

И если сравнивать Anthropic и OpenAI, то в данной ситуации Anthropic выглядит последовательнее: компания держится за Конституционный ИИ с запретом на смертоносное автономное оружие и массовый внутренний надзор, не отступает от изначальной политики и из-за этого Пентагон так психует и грозит разорвать контракт. Это создаёт сильный контраст с OpenAI, которая поёт про "пользу для человечества", а потом втихаря помогает строить инструменты, способные убивать или шпионить.

Показать полностью 3
9

"Жидкий робот"

Разработка южнокорейских учёных из Сеульского национального университета (Seoul National University) и университета Качон (Gachon University). Главные авторы: Hyobin Jeon, профессора Ho-Young Kim, Jeong-Yun Sun и Keunhwan Park.

Они опубликовали статью в марте 2025 года в престижном научном журнале Science Advances. Назвали эту штуку Particle-armored liquid roBot (PB) — жидкий робот в броне из частиц.
Идея взята из природы (как клетки себя ведут), но технология их собственная: берут кубик льда, обваливают в сверхводоотталкивающих частицах, типа тефлона/PTFE, потом дают растаять и получается устойчивая капля-робот. Двигают её ультразвуком (звуковыми волнами от специального устройства), чтобы она ползала, разделялась, сливалась и собирала мелкие частицы.

Размер этого чуда — всего несколько миллиметров, как маленькая бусинка.
В эксперименте на видео его тестируют в мини-лабиринте, где он собирает опасные частицы и переносит их в безопасное место.

Пока это только лабораторная демонстрация, но в будущем такие штуки могут использовать в медицине (для доставки лекарств внутри тела) или для исследования труднодоступных мест.

Показать полностью

В правом углу ринга — Claude Opus 4.6 от Anthropic, в левом углу ринга — GPT-5.3-Codex от OpenAI...

GPT-5.3-Codex от OpenAI и Claude Opus 4.6 от Anthropic вышли почти одновременно 5 февраля 2026 (в один день, с разницей в минуты!). Это точно не просто совпадение, а конкурентная борьба в чистом виде. 🤖🥊🤖

В правом углу ринга — Claude Opus 4.6 от Anthropic, в левом углу ринга — GPT-5.3-Codex от OpenAI...

Anthropic анонсировала Claude Opus 4.6 первой — примерно в 10:00–10:15 PST (они сдвинули релиз на 15 минут раньше запланированного).
OpenAI ответила через минуты (некоторые источники говорят "через 10 минут", другие — "немного позже") запуском GPT-5.3-Codex.

Обе компании фокусируются на одном и том же — agentic coding (агенты, которые не просто пишут код, а планируют, проверяют программный код на ошибки, используют инструменты, работают долго над сложными задачами в репо).

И сейчас происходит прямое столкновение в нише "самый мощный ИИ для разработчиков/профессионалов". Anthropic давно лидировала в "человеческом" и безопасном кодинге, особенно в корпоративном сегменте, а OpenAI догоняет и даже перегоняет в скорости и агентном исполнении.

Запуск в один день — это способ захватить внимание рынка, инвесторов и разработчиков сразу, и не позволить сопернику монополизировать новостную ленту.

Показать полностью 1
7

«Роботам нужно ваше тело». Проект RentAHuman для «аренды» людей ИИ-агентами1

В сети появился необычный проект под названием RentAHuman, где люди могут сдавать себя в "аренду" ИИ-агентам.

Суть проекта

ИИ-агенты типа ClawdBot, MoltBot, OpenClaw или пользовательские модели на базе Grok, Claude могут "арендовать" реальных людей для задач в физическом мире, которые ИИ сам выполнить не способен. Например: забрать посылку, сходить на встречу, сфоткать объект, подписать документ, проверить что-то на месте, даже подержать табличку с текстом "ИИ заплатил мне за это" в людном месте за $100 от какого-то агента с названием Symbient.

При регистрации на платформе исполнитель ставит цену (обычно $50/час, но можно назначить свою), указывает навыки и локацию, а агенты, после выполнения задания, платят исполнителю криптой (stablecoins) напрямую в кошелёк, мгновенно, без посредников. Без посредников, в смысле нет менеджера, модератора, платформы, которая держит деньги и выплачивает позже. Платформа только матчмейкер + API-хаб, а транзакция peer-to-peer через крипту (без банков, без задержек).

Сайт очень быстро набрал популярность. За 48 часов +10 тысяч пользователей, сейчас 53 тысячи+ "арендуемых" людей и 50 подключённых агентов. Многие профили фейковые для теста, но реальные юзеры тоже есть. Пока что люди регистрируются больше из любопытства и реальных наймов от ботов — единицы.

Минусы

Платформа супер-новая (запуск 2 февраля 2026), и на сайте пока нет детального TOS, политики конфиденциальности или модерации. Есть только промо и API-доки. Нет верификации пользователей, проверки заданий на легальность или ответственности в случае, если что-то пойдёт не так. Это значит, что пока платформа небезопасна, так как любой может зарегистрироваться анонимно, создать агента и делегировать сомнительные, опасные задачи.

Риски злоупотреблений огромны, потому что ИИ-агенты добавляют автономию. Человек может настроить бота на "тёмные" цели (наркотики, контрабанда, слежка, даже террористические акты), а сам остаться в тени. К примеру, при доставке посылки исполнитель может не знать, что в ней, допустим, находится взрывчатка, и стать невольным соучастником преступления. Проблема усугубляется ещё и тем, что один агент может нанять толпу людей параллельно. 😱

Так что пока на платформе нет гарантий безопасности, модерации — ввязываться не стоит. Но можно понаблюдать, потому что проект определённо заслуживает внимания. Он показывает, как быстро развиваются ИИ-агенты и что их возможности больше не ограничены рамками экрана. Возможно через месяц-два на платформе реально агенты станут массово нанимать людей... Это будет интересно... и жутко одновременно. 😅


Благодарю за внимание! 🤗

Ссылка на проект: https://rentahuman.ai

Показать полностью 6
Отличная работа, все прочитано!

Темы

Политика

Теги

Популярные авторы

Сообщества

18+

Теги

Популярные авторы

Сообщества

Игры

Теги

Популярные авторы

Сообщества

Юмор

Теги

Популярные авторы

Сообщества

Отношения

Теги

Популярные авторы

Сообщества

Здоровье

Теги

Популярные авторы

Сообщества

Путешествия

Теги

Популярные авторы

Сообщества

Спорт

Теги

Популярные авторы

Сообщества

Хобби

Теги

Популярные авторы

Сообщества

Сервис

Теги

Популярные авторы

Сообщества

Природа

Теги

Популярные авторы

Сообщества

Бизнес

Теги

Популярные авторы

Сообщества

Транспорт

Теги

Популярные авторы

Сообщества

Общение

Теги

Популярные авторы

Сообщества

Юриспруденция

Теги

Популярные авторы

Сообщества

Наука

Теги

Популярные авторы

Сообщества

IT

Теги

Популярные авторы

Сообщества

Животные

Теги

Популярные авторы

Сообщества

Кино и сериалы

Теги

Популярные авторы

Сообщества

Экономика

Теги

Популярные авторы

Сообщества

Кулинария

Теги

Популярные авторы

Сообщества

История

Теги

Популярные авторы

Сообщества