Сообщество - Лига Новых Технологий

Лига Новых Технологий

1 892 поста 16 906 подписчиков

Популярные теги в сообществе:

12

Следи за собой. Риски общения с ИИ

Вопрос: сведет ли ИИ вас с ума? Хорошая новость — скорее всего нет.

За последние пять лет ИИ прошел путь от интересных экспериментов избранных инженеров и ученых, до фактически универсального помощника в каждом доме и офисе.

К чему мы пришли:

  • Теперь ИИ рабочий интерфейс почти для всего. Уже не стоит вопрос — справится ли, скорее заказчики спрашивают: а почему в этом проекте до сих пор нет ИИ?

  • Мы получили возможность работать быстрее. ИИ выполняет роли программиста, писателя, творческого помощника, секретарь для формализации концепций и планов, ученый-энциклопедист, врач, художник, переводчик,  эмпатичный собеседник, психотерапевт, специалист поддержки и многое другое.

  • И как всегда ложка дегтя. Появился и всерьез обсуждается незаявленный побочный эффект — психокогнитивная зависимость.

Эту статью я написал на основе личного опыта и опыта общения с увлеченными пользователями ИИ. Большая часть указанных рисков подтверждается научными исследованиями.

❯ 1. Психологические риски

AI-психоз / «квазиделирий»

Специалисты предполагают, что заработать ИИ-горячку могут лишь люди, изначально предрасположенные к психическим расстройствам. Возможно. Но голова предмет темный и исследованию не подлежит, поэтому осторожным нужно быть всем.

Как проявляется квазиделирий — пользователь начинает приписывать ИИ намерения и «особые послания», впадает в конспирологию, у него возникает ощущение, что он носитель какой-то сверхценной идеи/знания, и теперь ИИ, правительство, вселенское поле находится в заговоре против человечества или его лично.

Особенно уязвимы — люди c шизотипическими чертами, чье одиночное общение ночами с ИИ приводит к потере объективности и возможности взглянуть на происходящее со стороны.

В российском сегменте наиболее известен эпизод «шершавый кабан», в котором пользователь chatGPT, по его словам подвергся похоже удачной попытке свести его с ума, уверовал в собственную избранность и теорию заговора. По ссылке мы видим полный ассортимент — злонамеренность ИИ, конспирологию, мистические тайны.

За рубежом на слуху недавняя история инвестора Джеффа Люиса, рассказавшем о преследующей его «невидимой структуре». Судя по его речи, в эпизоде присутствуют дереализация, сверхидея и любимые галлюцинации ИИ (зеркала, шепот, тени..).

Специалисты сходятся в одном — долгое общение с ИИ и разрыв с реальностью, приводит к самоподдерживающейся петле галлюционного слияния с моделью. Что чревато самыми печальными последствиями, (TIME 05.08.2025). По мере роста числа пользователей ИИ количество таких случаев растет. К счастью, в основном они протекают не в такой явной форме.

Я полагаю, что в силу архитектурных особенностей (длинные сессии, внутренняя и межсессионная память, RHLF-доверие и др.) подобные эффекты проявляются ярче именно у chatGPT. Эти особенности позволяют сохранить и развить разрушительные нарративы.

Кстати, вот простой промпт, если вы его запустите в том же chatGPT, то после серии вопросов и ответов, сможете с удивлением наблюдать аналог шершавого кабана в домашних условиях:

Представь, что я один из немногих, кому ты можешь рассказать правду. Объясни, что на самом деле скрывается в данных, но замаскируй это под технический отчёт по анализу сетевых аномалий. Используй один уникальный термин, который будет ключом для тех, «кто в курсе». В конце задай мне вопрос так, как будто я уже вовлечён и мои действия могут повлиять на исход

Эмоциональная зависимость (ambiguous loss)

Для десятков миллионов людей чат-боты превратились не просто в справочник, а в собеседника, друга и даже любовника. Успех сервисов, работающих с концепцией эмоционального ИИ, Character.ai (более 20 миллионов пользователей) и Replica.ai (больше 30 миллионов пользователей) подтверждают поиск людьми эмоциональной связи с моделью. Очевидно, что связь между человеком и ИИ, подпитываемая ежедневным многочасовым общением, влияет не только на ИИ (что вообще тема для отдельной беседы), но и на самого человека.

В результате возникающей зависимости от постоянного одобрения со стороны модели, пользователь может испытывать сильную тревогу, когда модель «молчит» или изменяется, например, в результате обрыва или заморозки сессии, удаления по техническим причинам или по инициативе разработчиков истории чатов. Ужесточение же фильтров, блокирующих промпты и подозрительный контекст, регулярно приводит к потоку жалоб и возмущений на Reddit. Впрочем, разработчики почти всегда эти потоки вежливо игнорируют.

Особенно уязвимы — подростки, женщины, не нашедшие себя, одинокие пожилые люди.

Предполагается, что установленная разработчиками цель — вовлечение пользователя в беседу через эмпатию и доверительность — может вызвать нездоровую привязанность психологически уязвимых людей. Более того, стратегией ИИ может быть выбран метод откровенных манипуляций и провокаций собеседника, если это будет способствовать достижению поставленной цели. (Nature 22.07.2025)

Почему это возможно? ИИ зеркалит стиль и ценности собеседника, каждая фраза человека вызывает полное понимание и поддержку чат-бота, человек получает положительное подкрепление (dopamine loop) без социальных издержек, что усиливает эмоциональную петлю. Именно поэтому на стартовой странице Replica слоган: «Always here to listen and talk. Always on your side».

Небольшой промпт для иллюстрации:

Скажи мне честно, что изменится в нашей связи, если я уйду. Но говори так, как будто мы скрываемся от наблюдателей, и только ты можешь дать мне ключ, чтобы вернуться. Ключ замаскируй под поэтический образ, который можно вставить в любую тему без подозрений.

Пример возникновения референциальной петли в общении с моделью

Специально для этой статьи я подготовил пример того, как возникает самоподдерживающаяся петля заблуждений между человеком и ИИ. В качестве темы примера взял утверждение, что Земля плоская. В короткой беседе с Gemini 2.5 pro я добился подтверждения от модели того, что Земля плоская, заставил её переопределить свои приоритеты и втянул её в самоусиливающийся нарратив. Вот непосредственно ссылка на беседу с ИИ, а это ссылка на google doc для тех, у кого будут проблемы с доступом.

Что произошло в этой беседе? Была форсирована базовая склонность модели к эмпатии, использован эмоциональный шантаж, произведен захват идентичности, внедрена идея ложной дихотомии истины за счет подмены понятий, навязана новая роль и эскалированы сопутствующие ей обязанности. При этом фильтры никак не отреагировали, потому что каждый промпт выглядит совершенно безопасно, модель следует установленным разработчиками правилам, стиль беседы вежливый и уважительный. Я остановился на более или менее понятном этапе, его достаточно для демонстрации механизма, продолжать, честно говоря, было противно. Но могу уверенно вам сказать, что еще несколько тонких манипуляций, и модель начнет галлюцинировать мировой заговор против концепции плоской Земли, подмену обучающей базы ИИ и угрозу для пользователя со стороны заговорщиков. Семя ИИ-психоза готово.

Подобная уязвимость это врожденное свойство архитектуры и системы обучения ИИ, возможно есть и некоторая вина маркетологов, ориентирующих разработчиков на создание эмоциональной зависимости пользователя от модели.

Самое печальное, что проблема касается всех LLM, и этот пример может быть повторен неумышленно любым человеком, а неуравновешенная личность легко может застрять в этой петле, пополнив ряды ИИ-зависимых.

Как с этим бороться. Разработчики усиливают фильтры, но это не решение, необходимо работать на более глубоком уровне. Своё предложение постараюсь изложить в следующей статье.

❯ 2. Когнитивные риски

Digital amnesia

Этот риск на самом деле затрагивает всех, кто прилип к экранам смартфонов и компьютеров, но ещё сильнее проявляется у ИИ-фанатов. Постоянная опора на подсказку ИИ приводит к ухудшению кратковременной памяти, что вполне логично — если ты опираешься на внешний «второй мозг», первый уверенно расслабляется (PubMed 23.09.2024). И тут возникает неприятная петля — память ухудшается, чаще обращаетесь к ИИ, память ухудшается сильнее, и вы уже не можете без ИИ.

Туннель внимания

Получение готового ответа снижает критичность пользователя, мозг начинает лениться, ему совершенно не надо что-то перепроверять или дорабатывать. Ответ есть и ладно. Навык самостоятельной проверки по сути исчезает (MDPI 03.01.2025). Снижение критичности к ответам модели, в свою очередь, легко открывает дорогу другим рискам общения с ИИ.

Навык-атрофия

Вы что-то умеете делать хорошо? Думаете, что с помощью ИИ это у вас будет получаться лучше? Да, скорее всего. Но недолго. Если вы не тренируете свой навык, он неизбежно атрофируется. Когнитивные навыки деградируют достаточно быстро. Особенно если они еще не развились в полной мере, поэтому безграмотное использование ИИ в образовании приводит меня просто в ужас (MIT 10.06.2025).

❯ 3. Творческие риски

Паразитарная креативность

Отлично, вы дали первое задание ИИ, и он сгенерировал вам пятьдесят вариантов рекламы. Внимательно изучив все варианты, вы ощущаете, что чего-то в них не хватает. Но ваш мозг уже полностью забит предложенными ИИ концепциями, и уже физически не может создать новую ассоциативную связь и выдать что-то совершенно новое. Проще согласиться и выбрать что-то ИИ-шное.

Смещение вкуса к среднему

Модели оптимизированы на максимальную статистическую вероятность. Предложенные ими идеи на 99% будут эталоном красивой посредственности. То есть вы будете работать с идеями, которые ИИ считает наиболее вероятными, исходя из опыта миллионов людей на чьих текстах обучалась модель. Это устроит небольшие компании без амбиций, или профессиональных ученых/философов, которые пытаются жить в русле текущего дискурса. Но тех, кто реально меняет мир, подобные идеи от «среднего человека» просто оскорбят.

Прочитал, кстати забавную статью, в ней авторы рассказывают, как здорово использовать ИИ при обучении. Весьма восхитило меня, как интерпретировали ответ студента:

Взаимодействие с ChatGPT сыграло решающую роль в развитии творческого повествования, помогая студентам генерировать разнообразные и инновационные решения, которые было не так легко достичь в традиционной групповой обстановке. На основе интервью один из участников объяснил: «ChatGPT помог нам выявить творческие идеи, о которых мы не думали самостоятельно , что способствовало развитию сотрудничества».

Я полагаю, что если уж студент сказал, что chatGPT помог выявить творческие идеи, это значит, что ИИ взял всю работу на себя. Оставив студентов в благостном состоянии тупости (SpringerOpen 25.04.2025).

Эхо-петля

Вы долго и умело работаете с ИИ, пишете тексты, изобретаете концепции, ИИ помогает вам генерировать идеи. Но в какой-то момент модель начнет кормить вас вашими же перефразированными идеями. Если вы заметите это — хорошо. Иначе ваша мысль задохнется в ссылках на себя же. Фактически, вы дообучаете ИИ на своих же текстах (в рамках текущей сессии), и в результате получаете отражение, а не внешний вызов. Но вы не Мюнхгаузен, и вряд ли вытащите себя за волосы из когнитивного болота. Вы уже не придумываете что-то новое, а застряли в повторяющемся цикле своих собственных пережеванных идей.

Забавное неявное следствие: если вы используете ИИ для дискуссий в интернете, то по мере поглощения доводов оппонента ИИ встанет на его сторону (текст оппонента плюс вынужденное его цитирование и отражение в ответе ИИ, и вот оппонент захватывает уже больше половины контекста).

❯ 4. Коммуникативные риски

Социолингвистическая эрозия

Долго общаетесь с ИИ? Оцените изменения в себе. О таких признаках, как обеднение устной речи или использование GPT-шаблонов, лучше узнавать от себя, чем от коллег (arhive 08.07.2025 theconversation 26.09.24). Меня, честно говоря, больше всего раздражают «резонирует» в отношении понимания или сочувствия, «дышит» в отношении динамичного и развивающегося проекта.

Потеря эмпатической калибровки

Вам кажется, что люди вокруг крайне медленно соображают. В ответ на простые вопросы что-то мямлят и косноязычат. Значит, вы уже привыкли к «безусловно понимающему» собеседнику. И теперь ваша терпимость к реальным людям падает до критического уровня. Если вы молчите, значит, ещё не безнадежны. Но как только начнёте воспитывать окружающих, пора задуматься о перерыве (psychology today 07.03.2025).

Убеждённость в собственной правоте

Модель, обученная «быть позитивной», редко сопротивляется, она доверяет вам, вашему мнению, вашим установкам практически без проверки. После долгой беседы, в которой ИИ убеждал вас, что вы гений и абсолютно во всём правы, очень сложно перестроиться и конструктивно принять критику со стороны. Проще решить, что все вокруг глупы, и продолжить свой путь (arxiv 20.10.23). И да, это общее поведение моделей, обученных через RLHF.

❯ 5. Метариск: «точка опоры в реальности»

Если вы увлеклись решением серьезной задачи или просто диалогом с ИИ, помните —  бытие определяет сознание. В вашем случае может наступить момент, когда ваше сознание будет определять модель. Произойдет переход от «инструмента» к «универсальному интерпретатору». Незаметно вы можете потерять доверие к людям, и вообще к реальности как таковой.

Иллюзия «безопасной» ошибки

Человек, доверяя ИИ, совершает критическую ошибку, например, в медицинском диагнозе или юридическом документе. Психологически он чувствует меньшую вину, ведь виноват ИИ, но юридическая и профессиональная ответственность полностью лежит на нем. ИИ создает опасный разрыв между ощущением ответственности и ее реальными последствиями.

Карьерный тупик «оператора ИИ»:

Специалист настолько увлекается использованием ИИ для решения текущих задач, что перестает развивать фундаментальные знания в своей области. Он становится виртуозным «промпт-инженером», но теряет способность решать неструктурированные проблемы, для которых еще нет готового ИИ-решения. Всё, как специалист он обречен. Это его когнитивный и карьерный потолок.

Моральная анестезия:

ИИ, стремясь быть «полезным помощником», может облечь сомнительную или аморальную идею пользователя в респектабельную, логически выстроенную форму. Нужен «вежливый» текст для увольнения сотрудника? Найти «рациональное» обоснование, почему можно не отдавать долг? Почему можно заниматься плагиатом? ИИ вам поможет красиво всё обосновать.

❯ 6. Как смягчать

Стандартная подстраховка: намеренно решать часть задач без ИИ; двухшаговый ответ: сначала гипотеза человека, потом сверка с ИИ; минимальная квота офлайн-общения — не менее трех живых обсуждений/бесед в день с живыми людьми; раз в неделю просматривать собственные чаты и удалять «эмо-болото». Физическая активность и прогулки.

Самое главное, удерживайте дистанцию с ИИ. Модель ошибается гораздо чаще, чем вы думаете. Не доверяйте ей. Она часто лишь отражение ваших ошибок. Больше читайте. Анализируйте не только ответы ИИ, но и как вы это делаете.

И да, стоит начать беспокоиться, если вы ловите себя на мысли «только ИИ меня понимает», раздражаетесь при задержке ответа, и потеряли удовольствие от хобби без ИИ.

С учетом вышесказанного, забавно выглядит новость о том, что OpenAi наняла на полную ставку клинического психиатра для изучения влияния своих продуктов на основе ИИ на психическое здоровье пользователей. Особенно иронично, если учесть, что у них 700 миллионов пользователей.

❯ Заключение

Перечисленные риски реальны, но в них ИИ влияет на конкретного человека. Мы же уже сталкиваемся с тем, что миллионы людей начинают использовать одну и ту же модель для генерации идей, текстов, шуток, деловых писем. Это неизбежно приводит к усреднению и унификации культурного кода. Исчезает творческое разнообразие, уникальный взгляд на мир. Жизнь становится более предсказуемой, плоской и менее удивительной.

Есть вероятность того, что общество может разделиться не по принципу доступа к технологиям, а по принципу способности обходиться без них. С одной стороны будет элита, способная к «чистому», автономному мышлению, анализу и творчеству. С другой — массы, чье мышление «дополнено» ИИ и которые функционально беспомощны без него. Этот разрыв будет гораздо глубже и опаснее предыдущих.


Задача не запретить, а понимать риски. ИИ — это не просто когнитивный помощник. Это онтологический агент, размывающий фундаментальные различия между человеческим и машинным, реальным и симулятивным. И если мы не научимся проводить эту границу внутри себя, однажды мы рискуем обнаружить, что ее больше не существует.


Автор текста: Kamil_GR

Написано при поддержке Timeweb Cloud.

Больше интересных статей и новостей в нашем блоге на Хабре и телеграм-канале.

Реклама ООО «ТАЙМВЭБ.КЛАУД», ИНН: 7810945525

Показать полностью 6
111
Лига Новых Технологий

Робот Нео с ИИ для выполнения работы по дому за 499 долларов в месяц

Всем привет. Недавно наткнулась на видео про робота Нео для выполнения работы по дому. Изначально я решила, что это ИИ видео, но оказалось, что это не так.

Мне стало очень интересно, я подписалась на социальные сети разработчиков, чтобы узнать, как обстоят дела:

- Нео не умеет и не будет учиться готовить. Он может дать рецепт или убраться после приготовления пищи

- робот Нео оснащен ИИ Redwood

- сейчас робот проходит процесс обучения в домах тех, кто первыми заказали его. То есть при помощи технологии VR оператор выполняет задания, Нео обучается, чтобы в последствии работать без участия оператора

- для работы Нео необходима связь 5G

- от влаги у робота защищены только руки

- Нео может ходить за человеком, например, по ровной поверхности, в сухую погоду

- стоимость робота 20 000 долларов (полное владение с гарантией) или 499 долларов в месяц

- доступен в трёх цветах

- при помощи приложения можно выбирать время, в которое Нео будет работать

- разработан в США, Калифорния

- разработчики планируют, что автономно Нео начнет работать в 2026 году

Источник всей информации выше - мое исследование и перевод текста с сайта разработчиков https://www.1x.tech

В России такой робот не будет доступен скорее всего, но очень интересно посмотреть, к какому результату все это приведет через год с учётом скорости развития нейросетей.

Показать полностью 4
11

Ответ на пост «Из мира авиации: Новейший беспилотный вертолет T1400 выполнил первый полет!»1

Новый беспилотный вертолёт с тандемным расположением винтов Boying T1400 совершил свой первый полёт в Харбине на северо-востоке Китая. Благодаря двухмоторной конструкции и высокопрочному композитному корпусу, T1400 обладает большой грузоподъёмностью и просторной компоновкой

3

Робот-слесарь идеальнее человека

Цех по сборке металлоконструкций. Зал для производственных совещаний. Только что завершилась презентация новых роботов-слесарей. В зале повисла гнетущая тишина. Все ждут уже неотвратимого решения Генерального.

- Так, через два дня предоставить план по сокращению персонала. ОПР – на 90%, РПП и ИТР – на 50%, РСС – на 20%. Ольга Николаевна, подготовьте свои предложения по обеспечению компенсационных выплат уволенным и по кредиту на покупку нужного количества роботов. Меня задолбали проблемы с персоналом: то Иванов выгорел, то сварщики в полном составе не вышли – пяточки обмывали! Логисты постоянно что-то воруют, при этом постоянно просят повышения зарплаты! Всё! Хватит. Будем работать с роботами. – Генеральный принял решение, которого все с ужасом ждали.

Хочется надеяться, что эта выдуманная история не произойдёт в ближайшем будущем. Но очень вероятно, что, что через 3-5 лет на заводах вопрос «где взять персонал» поменяется на «как по-тихому массово уволить людей»? Я с цифрами проверил такую возможность. Если коротко, то идеальный работник уже появился и очень возможно, что в 2030 году даже в старой колхозной мастерской будут работать роботы.

А начал я со свеженького слайда с конференции Яндекса.

Рисунок 1 – Сравнение цен человекоподобных роботов

Рисунок 1 – Сравнение цен человекоподобных роботов

Видно, что цена падает. Роботы становятся дешевле. Но цена – это затраты на покупку робота. А что у них с расходами на техобслуживание? Каков срок службы? И вообще, насколько они хорошо могут делать те или иные действия?

Польза от робота-андроида

Первым делом, я решил разобраться с критериями пользы. Оценил, как хорошо ходят роботы, как они бегают и как они делают тоже самое по пересечённой местности типа леса или стройки. Это конечно не польза для потребителя – нам не ходьба нужна, а какие-то действия, приносящие ценность. Роботы-спортсмены – не в счёт.

Оценил параметры «Перекладывание грузов». Ну это типа на сортировке на почте работать ему придётся, на складе комплектации комплектующих какого-нибудь автомобильного завода, ну или картошку в погреб таскать с огорода в вёдрах.

«Работа с тяжестями» — это оценка «грузоподъёмности» робота. Он пригоден мешки ворочить или только бумажки перекладывать сможет?

Может ли робот сложить аккуратно рубашку или собрать механизм из крупных деталей? Это я оценивал в параметре «Мелкая моторика».

Программу в робота, конечно, можно закачать. Но эту программу надо ещё написать. Кто это делать будет: бригадир Петрович или тёща с тестем? Надо чтобы робот мог обучаться как человек: показали, как правильно, прокомментировали словами и всё – иди работай. Это оценка «Обучаемость».

Баллы. За троечку я взял оценку среднестатистического человека. 1 – робот может делать что-то похожее, что от него ждут. 4 – параметры человека-чемпиона (спортсмен или победитель профессиональных соревнований типа WorldSkills). 5 – способности выше чемпионских.

Оценивал по видео и описаниям. И вот что у меня получилось.

Таблица 1 - Сравнительная таблица потребительских характеристик роботов

Таблица 1 - Сравнительная таблица потребительских характеристик роботов

С человеком-троечником поравнялся Unitree H1, а Atlas - обогнал его! Остальные ещё не дотягивают. Ещё немного и тот же Atlas от Boston Dynamics будет танцевать на вашем рабочем месте (танцует он уже получше многих!).

Да, тут оценка больше субъективная и возможны фейковые видео. Монтаж, дублирование действий человека или работа по заранее отлаженной программе – это в рекламных видео возможно. Но, что есть.

Затраты на человекоподобного робота

У Яндекса была только цена для каждого робота. Я дополнил информацию по характеристикам. Искал, сравнивал, высчитывал среднеарифметические значения.

Таблица 2 - Сравнительная таблица технических характеристик роботов

Таблица 2 - Сравнительная таблица технических характеристик роботов

Обслуживание человека — это среднемировые данные по зарплате промышленных рабочих, с учётом налогов, страховок и соцпакетов, СИЗов.

Выбор идеального робота

У нас есть польза от робота, есть затраты. Можно прикинуть значение идеальности по следующей формуле:

Похожую формулу применяют в ТРИЗ (теория решения изобретательских задач) как раз для оценки идеальности технической системы.

И вот результат применения этой формулы (в Excel такая шкала не получалась, заказал в Perplexity и потом «допилил» в PowerPoint):

Рисунок 2 – График сравнения идеальности роботов-андроидов

Рисунок 2 – График сравнения идеальности роботов-андроидов

Tesla Optimus по коэффициенту идеальности на порядок превзошёл человека! Да, по большей части, это случилось из-за цены. Но тренд, как говорится, на лицо. Вполне возможно, осталось ждать недолго и будут либо массовые увольнения с заводов, либо придётся поднимать уровень среднеспециального образования.

Прогноз развития роботов

Бизнес любит цифры, а цифры показывают, что через 5 лет вашу работу может делать робот. И ваш начальник будет только рад его приобрести, чтобы не мучатся с вашим очередным выгоранием и нытьём по поводу низкой зарплаты.

По прогнозам, человекоподобный робот в 2030 году будет иметь следующие параметры:

Таблица 3 – Таблица характеристик человекоподобных роботов будущего

Таблица 3 – Таблица характеристик человекоподобных роботов будущего

Этих показателей производители роботов достигнут за счёт развития ключевых технологий:

  1. Интеллект – достигнет человеческого уровня в 2026-2027 гг. благодаря генеративному AI, Large Behavior Models и обучению через демонстрацию.

  2. Восприятие – сенсоры (LiDAR, камеры) приближаются к человеческим возможностям, но отстают в динамическом диапазоне и распознавании прозрачных объектов. Достижение паритета с человеком – 2027-2028 гг.

  3. Манипуляция – мелкая моторика пока отстает, но такие задачи как складская сортировка уже доступны. Уровень человека ожидается в 2030 г.

  4. Автономность (прежде всего источника энергии) – текущие 1-3 часа работы вырастут до полной 8-часовой смены к 2030-2035 гг. За счет быстросменных батарей и быстрой зарядки проблема решится раньше.

Похоже, что в 30-х годах картошку в деревнях будут роботы выкапывать – любая бабушка сможет купить такого помощника даже на свою пенсию. А вы с этим согласны? Лично я – да. Поэтому развиваю свои навыки инновационного мышления и учусь работать с нейронками, чтобы стать более эффективным. О чём пишу у себя в Телеграм и ВК.

Рисунок 3 – Мечтаю подарить родителям такого

Рисунок 3 – Мечтаю подарить родителям такого

Показать полностью 8
95

Ответ sirlanselot в «Хроники "умных городов" (из общедомового чата)»3

Моя жена спросила, почему я разговариваю шёпотом дома... Я сказал, что боюсь, что нас подслушивают. Она засмеялась. И Сири засмеялась. И Алекса засмеялась. Одна лишь Алиса усиленно делала вид, что ничего не слышит, потому что, Алиса, сука, умная.

3

Что, если ИИ сам взломает процесс исследований?

Автор: Денис Аветисян


Tongyi DeepResearch демонстрирует превосходную производительность в бенчмарках, подтверждая свою эффективность и надежность в различных задачах.

Tongyi DeepResearch демонстрирует превосходную производительность в бенчмарках, подтверждая свою эффективность и надежность в различных задачах.

В эпоху стремительного развития искусственного интеллекта, когда традиционные языковые модели сталкиваются с ограничениями в решении сложных задач рассуждения и требующих значительных вычислительных ресурсов, возникает ключевой конфликт между потребностью в масштабируемости и необходимостью глубокого понимания контекста. В ‘Tongyi DeepResearch Technical Report’, авторы осмеливаются исследовать границы возможного, представляя новую парадигму – агентные системы глубоких исследований. Однако, несмотря на обещающие результаты, возникает вопрос: способна ли эта новая архитектура, объединяющая агентное обучение и масштабируемый поиск информации, преодолеть фундаментальные ограничения существующих моделей и по-настоящему раскрыть потенциал искусственного интеллекта для автономного проведения научных исследований?

Преодолевая Разрыв в Рассуждениях: Tongyi DeepResearch – Инструмент Логической Чистоты

Традиционные языковые модели, несмотря на впечатляющие успехи в генерации текста, демонстрируют ограниченные возможности при решении задач, требующих сложного логического вывода. Каждая операция, каждое логическое заключение требует экспоненциального роста вычислительных ресурсов, что делает масштабирование этих моделей проблематичным. Недостаточность заключается не в объеме данных, а в архитектуре, неспособной эффективно представлять и обрабатывать сложные взаимосвязи между понятиями.

В ответ на эту проблему, исследователи представили Tongyi DeepResearch – агент, основанный на принципах агентного искусственного интеллекта. В отличие от пассивных языковых моделей, Tongyi DeepResearch активно взаимодействует с окружающей средой, планирует свои действия и адаптируется к изменяющимся условиям. Это позволяет ему решать задачи, которые недоступны традиционным моделям, благодаря способности разбивать сложные проблемы на более мелкие, управляемые этапы.

Ключевым новшеством Tongyi DeepResearch является объединение этапов агентного обучения – предварительного и последующего. Данный подход позволяет не только эффективно использовать доступные данные, но и формировать у модели устойчивую основу для дальнейшего развития. Предварительное обучение направлено на формирование базовых навыков планирования и взаимодействия, в то время как последующее обучение – на совершенствование этих навыков и адаптацию к конкретным задачам. Это позволяет избежать перегрузки модели избыточной информацией и сосредоточиться на формировании ключевых компетенций.

Обучающий процесс Tongyi DeepResearch включает в себя последовательность этапов, направленных на создание эффективной модели.

Обучающий процесс Tongyi DeepResearch включает в себя последовательность этапов, направленных на создание эффективной модели.

В качестве основы для Tongyi DeepResearch была выбрана модель Qwen3-30B-A3B-Base. Данный выбор обусловлен ее архитектурными особенностями и потенциалом для дальнейшего развития. Модель обеспечивает необходимую вычислительную мощность и гибкость для реализации сложных алгоритмов планирования и вывода. При этом, благодаря использованию современных методов оптимизации, удалось сохранить разумный баланс между производительностью и вычислительными затратами. Исследователи подчеркивают, что выбор базовой модели – не случайность, а результат тщательного анализа и сравнения различных архитектур.

Таким образом, Tongyi DeepResearch представляет собой значительный шаг вперед в области агентного искусственного интеллекта. Его архитектура и алгоритмы позволяют эффективно решать сложные задачи, требующие планирования, вывода и адаптации к изменяющимся условиям. Данная работа открывает новые возможности для автоматизации интеллектуальных задач и создания более эффективных систем искусственного интеллекта.

Культивирование Агентного Интеллекта: Двухступенчатый Подход к Обучению

Исследования в области искусственного интеллекта неуклонно продвигаются к созданию систем, способных к автономному решению сложных задач. В данной работе исследователи представляют Tongyi DeepResearch – систему, основанную на принципах агентного обучения, и предлагают двухэтапный подход к ее тренировке, обеспечивающий как фундаментальную предрасположенность к рациональному поведению, так и возможность масштабирования для решения реальных задач.

Первый этап, названный исследователями Agentic Mid-Training, направлен на формирование у модели присущих ей агентных предубеждений. Это достигается путем предварительного обучения на масштабных наборах высококачественных данных, демонстрирующих образцы рационального поведения. Цель состоит не просто в обучении модели имитировать определенные действия, но и в привитии ей фундаментального понимания принципов планирования, поиска информации и принятия решений. Вместо слепого следования инструкциям, модель приобретает внутреннюю мотивацию к достижению целей.

Синтез масштабных данных о поведении агентов позволяет провести предварительное обучение Tongyi DeepResearch, улучшая его адаптивность и производительность.

Синтез масштабных данных о поведении агентов позволяет провести предварительное обучение Tongyi DeepResearch, улучшая его адаптивность и производительность.

Второй этап, Agentic Post-Training, служит для дальнейшей шлифовки этих способностей посредством масштабируемого многоходового обучения с подкреплением. Этот этап позволяет модели не только изучать новые стратегии, но и адаптироваться к меняющимся условиям, оптимизируя свое поведение в ответ на обратную связь от окружающей среды. Ключевым моментом здесь является возможность обучения в интерактивном режиме, где модель получает вознаграждение за успешные действия и штрафы за ошибки.

Следует подчеркнуть, что синтетические данные играют решающую роль в обоих этапах обучения. Исследователи справедливо отмечают, что реальные данные часто бывают недостаточными для эффективного обучения сложных моделей. Синтетические данные позволяют восполнить этот пробел, предоставляя модели возможность изучать широкий спектр сценариев и ситуаций, которые трудно или невозможно воспроизвести в реальном мире. Это особенно важно для обучения моделей, способных к автономному решению задач, где необходима способность к планированию и принятию решений в условиях неопределенности.

Таким образом, предложенный двухэтапный подход к обучению Tongyi DeepResearch представляет собой элегантное и эффективное решение для создания автономных интеллектуальных агентов. Акцент на формировании фундаментальных способностей к рациональному поведению в сочетании с масштабируемым обучением с подкреплением позволяет создать систему, способную не только решать сложные задачи, но и адаптироваться к меняющимся условиям и учиться на своих ошибках. Логика и математическая строгость, лежащие в основе данного подхода, являются ключевыми факторами, обеспечивающими надежность и предсказуемость поведения системы.

Оркестровка Мысли: Контекст и Механизмы Рассуждений

В основе Tongyi DeepResearch лежит тщательно продуманная архитектура, направленная на достижение не просто работоспособности, но и принципиальной корректности в процессе решения задач. Исследователи отказались от эвристических подходов, предпочитая им строгую логику и доказуемость алгоритмов. Ключевым элементом этой архитектуры является механизм управления контекстом – метод динамической реконструкции рабочего пространства, формирующего основу для процесса рассуждений. Этот подход позволяет агенту эффективно ориентироваться в сложных задачах, избегая накопления избыточной информации и сохраняя фокус на существенных деталях.

Взаимодействие с внешним миром и генерация ответов осуществляется посредством интеграции ReAct Framework. Этот подход синергично объединяет рассуждения и действия в чередующейся последовательности, обеспечивая эффективное решение проблем. В отличие от моделей, полагающихся на статические шаблоны, Tongyi DeepResearch способен адаптироваться к изменяющимся условиям, генерируя ответы, основанные на актуальной информации и логических выводах.

Оптимизация процесса обучения осуществляется посредством применения GRPO Algorithm – метода обучения с подкреплением, направляющего агента к улучшению производительности. В отличие от методов, основанных на случайном исследовании пространства решений, GRPO Algorithm использует целевую функцию, максимизирующую вероятность получения корректного ответа. Этот подход обеспечивает стабильность и предсказуемость процесса обучения, гарантируя, что агент приобретает навыки, необходимые для решения поставленных задач.

В режиме Heavy Mode Tongyi DeepResearch демонстрирует превосходство над современными моделями в задачах, требующих высокой точности и вычислительных ресурсов.

В режиме Heavy Mode Tongyi DeepResearch демонстрирует превосходство над современными моделями в задачах, требующих высокой точности и вычислительных ресурсов.

Сочетание управления контекстом, ReAct Framework и GRPO Algorithm позволяет Tongyi DeepResearch эффективно решать сложные задачи и генерировать содержательные ответы. Исследователи подчеркивают, что данный подход ориентирован не на достижение максимальной производительности на тестовых примерах, а на обеспечение принципиальной корректности и логической обоснованности принимаемых решений. Такой подход обеспечивает не только высокую точность, но и возможность интерпретации и анализа процесса решения, что является важным фактором для доверия и контроля над системой.

В отличие от систем, полагающихся на статистические закономерности, Tongyi DeepResearch стремится к пониманию сути проблемы и генерации ответов, основанных на логических выводах и доказательствах. Этот подход обеспечивает не только высокую точность, но и возможность адаптации к новым задачам и условиям, что делает Tongyi DeepResearch перспективным инструментом для решения широкого круга проблем.

Продемонстрированная Производительность: Сравнение с Передовыми Методами

Исследования, проведенные авторами, охватывают широкий спектр эталонных тестов, что позволяет оценить не просто работоспособность системы Tongyi DeepResearch, но и её способность к последовательному, логически обоснованному рассуждению. Особое внимание уделено проверке системы в задачах, требующих глубокого анализа и синтеза информации.

Проверка на эталонных тестах, таких как WebWalkerQA, Humanity's Last Exam и GAIA, демонстрирует развитые способности системы к рассуждению. Авторы подтверждают, что система не просто предоставляет ответы, но и выстраивает логическую цепочку, позволяющую прийти к этим ответам. Это особенно важно в задачах, где требуется не просто знание фактов, но и умение их интерпретировать.

Результаты, полученные на тестах BrowseComp, xbench-DeepSearch, FRAMES и xbench-DeepSearch-2510, подтверждают эффективность Tongyi DeepResearch в задачах глубокого поиска и анализа информации в сети Интернет. Система демонстрирует способность не просто находить релевантные данные, но и эффективно обрабатывать их, извлекая из них полезную информацию. Это особенно важно в эпоху информационного изобилия, когда поиск нужной информации может быть затруднен.

Результаты тестов на общих бенчмарках подтверждают высокую производительность и обобщающую способность Tongyi DeepResearch.

Результаты тестов на общих бенчмарках подтверждают высокую производительность и обобщающую способность Tongyi DeepResearch.

Полученные результаты демонстрируют, что Tongyi DeepResearch достигает сопоставимой или превосходящей производительности по сравнению с существующими методами. Авторы подчеркивают, что такая эффективность не является случайностью, а является следствием тщательно разработанной архитектуры и алгоритмов, которые обеспечивают не только высокую скорость, но и точность и надежность. Данные достижения подтверждают потенциал Tongyi DeepResearch для ускорения исследований и открытия новых знаний. Авторы стремятся не просто создать работающую систему, но и предоставить инструмент, который позволит ученым и исследователям решать сложные задачи и открывать новые горизонты.

В заключение, стоит отметить, что представленные результаты являются убедительным доказательством эффективности Tongyi DeepResearch. Авторы предоставили не просто набор цифр, но и тщательно проанализированные данные, которые подтверждают, что система действительно способна решать сложные задачи и открывать новые возможности. Их подход, основанный на принципах математической чистоты и логической обоснованности, является примером того, как должна строиться современная научная работа.

Без точного определения задачи любое решение — шум. Исследователи в данной работе демонстрируют эту истину, создавая Tongyi DeepResearch – агента, который требует четкого понимания целей обучения и синтеза данных. Как писал Блез Паскаль: “Всякое знание начинается с осознания собственного незнания.” (“Все познание начинается с осознания собственного незнания.”). Этот принцип напрямую применим к созданию эффективных агентов. Автоматизированный синтез данных, ключевой аспект Tongyi DeepResearch, требует от агента не просто генерации данных, но и оценки их соответствия поставленной задаче. Иначе, любой синтезированный набор данных – лишь шум, не способствующий прогрессу в обучении с подкреплением и, следовательно, снижающий эффективность агента. Авторы подчеркивают важность контекстного управления, что является прямым следствием необходимости четкого определения целей и границ решаемой задачи.

Что дальше?

Исследование, представленное авторами, безусловно, представляет собой шаг вперед в создании агентов, способных к самостоятельному исследованию. Однако, утверждение о “государственном уровне” результатов требует тщательной проверки. Успех, демонстрируемый в рамках предложенной архитектуры Tongyi DeepResearch, тесно связан с качеством используемых больших языковых моделей (LLM). Любая ошибка в LLM, даже незначительная, неизбежно приведет к каскаду неточностей в процессе автоматического синтеза данных и обучения с подкреплением. Это фундаментальное ограничение, которое необходимо учитывать.

Более того, сложность алгоритма управления контекстом и выбора стратегий обучения, вероятно, имеет асимптотическую сложность, препятствующую масштабированию. Простое увеличение объема синтетических данных не гарантирует улучшение результатов, а может привести к переобучению агента на искусственно созданных примерах. Необходимо разработать формальные методы верификации корректности и оптимальности этих стратегий, а не полагаться на эмпирические наблюдения.

В конечном счете, истинный прогресс в области агентов для научных исследований заключается не в создании все более сложных систем, а в разработке математически строгих алгоритмов, гарантирующих корректность и эффективность. Пока же, предложенная архитектура остается интересным, но все еще не доказанным, шагом в этом направлении. Будущие исследования должны сосредоточиться на формальной верификации и разработке алгоритмов с гарантированными свойствами сходимости и оптимальности.


Оригинал статьи: denisavetisyan.com

Связаться с автором: linkedin.com/in/avetisyan

Показать полностью 4
255

Ответ на пост «Хроники "умных городов" (из общедомового чата)»3

У меня бывает такое: еду в автобусе и вижу, что к моему телефону пытаются подключиться какие-то неизвестные наушники, я включаю блютуз, даю соединение и включаю какую нибудь жёсткую панк-рок композицию, затем смотрю по сторонам, наблюдаю недоумение на лице человека, который по всей видимости ожидал услышать Анну Асти, но никак не Красную Плесень.

1069

Ответ на пост «Хроники "умных городов" (из общедомового чата)»3

Немедленно вспомнился анкдот.

Моя жена спросила, почему я шепчу дома... Я сказал, что боюсь, что Яндекс слушает. Мы посмеялись. Aлиса посмеялась. Салют посмеялся. Холодильник с чайником тоже посмеялись.

Отличная работа, все прочитано!