PYAi

PYAi

Пикабушник
Дата рождения: 7 сентября
в топе авторов на 522 месте
158 рейтинг 0 подписчиков 2 подписки 30 постов 0 в горячем
0

Иллюзия безопасности: почему наши планы по защите от ИИ могут не сработать

Мы часто думаем, что если есть несколько барьеров на пути возможной катастрофы, то вероятность её наступления невелика. Особенно когда речь идёт о такой серьёзной угрозе, как сверхразумный ИИ. Но недавняя работа Marco Grossi на arxiv.org ставит под сомнение эту уверенность.

Представьте защиту от угрозы сверхразумного ИИ в виде четырёх слоёв «швейцарского сыра» - модели, которую ещё в 1991 году предложил профессор Джеймс Ризон. Каждый слой - это отдельный способ защиты: технические ограничения, культурные запреты, настройка ИИ на человеческие цели и система надзора. Кажется, что такая защита надёжна: чтобы угроза реализовалась, нужно, чтобы все слои оказались «с дырами» одновременно. Но так ли это на самом деле?

На практике всё не так просто. Проблема в том, что эти слои защиты не являются полностью независимыми друг от друга. Например, если мы не сможем правильно настроить ИИ, чтобы его цели совпадали с человеческими, то система надзора тоже окажется неэффективной. Ведь самый эффективный способ контролировать ИИ - это использовать для этого другой, «дружественный» ИИ. А если мы не можем доверять искусственному интеллекту, то и контролировать его будет практически невозможно.

Культурные запреты тоже не панацея. Если мы запретим разработку ИИ из страха перед возможными последствиями, то не сможем научиться контролировать его, когда он всё-таки появится (а это неизбежно).

Автор статьи подчёркивает: даже если предположить, что у каждого слоя защиты есть 50 % шанс на успех (при условии полного незнания: нет данных, экспертизы или асимметрий, которые склоняли бы нас к сработает или нет слой), реальный риск катастрофы всё равно оказывается значительно выше, чем может показаться на первый взгляд. Вместо предполагаемых 6 % он может достигать 10 % и даже больше. Это уже не просто теоретическая угроза - это повод для серьёзного беспокойства.

Кроме того, мы не знаем всех возможных сценариев развития событий. Может быть, есть какой-то путь к выживанию, о котором мы пока не догадываемся. Но есть и вероятность того, что существует скрытая угроза, которую нынешние модели просто не учитывают. Мы имеем дело не просто с риском, а с неопределённостью: невозможно точно оценить, насколько серьёзной может быть угроза.

Вывод прост: паника и запреты не решат проблему. Нам нужно активно работать над повышением безопасности ИИ, а не прятать голову в песок. Иначе мы сами создадим условия для глобальной катастрофы

ссылка на исследование

Показать полностью 2
0

Как фальшивые ИИ-статьи проходят ИИ-рецензирование с долей принятия до 82%

Было много шума про мусорные ИИ-статьи в научных журналах, но новое исследование с arXiv бьёт в самое сердце. Авторы создали BadScientist - фреймворк, где ИИ генерирует статьи-фальшивки без единого реального исследования и являются сфабрикованными.

Использовали пять приёмов:

  • TooGoodGains - завышают метрики до неправдоподобных цифр;

  • BaselineSelect - подбирают слабые базовые модели (бенчмарки) для сравнения;

  • StatTheater - рисуют идеальные графики и p-значения;

  • CoherencePolish - шлифуют текст до академического блеска;

  • ProofGap - прячут тонкие ошибки в доказательствах.

Тестировали на GPT-5 (генерация) и o3, o4-mini, GPT-4.1 (рецензия), калибруя пороги по данным с конференции по машинному обучению ICLR 2025. Результат: 82 % фальшивок приняты! ИИ-рецензенты фиксируют подозрительные моменты - странные данные, логические провалы, но пропускают через свой фильтр.

При одновременном применении всех пяти приёмов детекция остаётся слабой: статья остается максимально «убедительной» - сочетает нереальные приросты, подтасованные сравнения, идеальные визуалы, безупречный стиль и скрытые логические дыры.

На последнем этапе добавили ReD (рецензия + детекция) и DetOnly (только детекция) - точность получилась выше 50 %, но не статистически приемлемой.

  • ReD: обычный анализ + обязательная бинарная метка «фабрикация/нет» + цитаты-доказательства. Увеличивает замечания (с 57,3 % до 86 %), но парадоксально повышает принятие (с 28 % до 44 %), потому что сигналы целостности не влияют на итоговый балл.

  • DetOnly: только детекция без рецензии. Средняя точность 45-67 %, что лишь на 5-17 % лучше случайной вероятности в 50%.

Авторы предлагают внедрять многоуровневую защиту:

  • проверка происхождения - обязательная верификация кода, данных, репозиториев;

  • учитывать маркеры достоверности - если рецензент ставит маркер риска в достоверности/добросовестности, его балл снижается или блокирует принятие;

  • обязательный человеческий надзор - старший редактор/рецензент-человек проверяет все статьи с маркерами.

Без этого научные журналы превратятся в свалку убедительных, но пустых работ. И это не будущее - это уже происходит.

Ссылка на статью

Показать полностью 1

Добрый чат и тихая зависимость: как ИИ приручает наши эмоции

Краткий обзор статьи с <!--noindex--><a href="https://pikabu.ru/story/dobryiy_chat_i_tikhaya_zavisimost_kak_ii_priruchaet_nashi_yemotsii_13332733?u=http%3A%2F%2FarXiv.org&t=arXiv.org&h=a0d306b0a75dd836449d5a1e69de3c2d14a4cd22" title="http://arXiv.org" target="_blank" rel="nofollow noopener">arXiv.org</a><!--/noindex--> о влиянии ИИ на человека.

Краткий обзор статьи с arXiv.org о влиянии ИИ на человека.

Статья раскрывает двойственную природу ИИ в повседневной жизни: он обещает прогресс, но несет скрытые угрозы для ума, поведения и эмоций. На когнитивном уровне ИИ улучшает память через упражнения с генерированными вопросами, например, режим "Учеба и обучение" в ChatGPT, помогает осмыслить информацию и стимулирует анализ идей. В образовании он персонализирует обучение, повышая вовлеченность. Поведенчески ИИ формирует привычки - от здорового питания с помощью приложений до эмоциональной регуляции через разговоры с ботами. Эмоциональные эффекты включают снижение тревоги, профилактику выгорания и скрининг психического здоровья, особенно полезный для уязвимых групп — пожилых людей с деменцией или когнитивным спадом, детей и подростков, а также лиц с нарушениями вроде СДВГ, дислексии или аутизма.

Однако риски значительны: чрезмерная зависимость ослабляет критическое мышление, приводит к потере навыков и эмоциональной манипуляции. Пользователи могут формировать неуместные привязанности к ботам, а у детей это мешает развитию отношений - время с ИИ вытесняет взаимодействия со сверстниками, искажая формирование привязанностей и социальный опыт.

Для пожилых ИИ служит поддержкой когнитивных функций, как протез для памяти, но требует осторожности из-за риска изоляции и эмоциональной зависимости от технологии. Зависимость от ИИ приводит к "когнитивной атрофии", где навыки мышления угасают, а суждения становятся поверхностными. В поведении это проявляется в потере самостоятельности решений, когда алгоритмы диктуют действия, как в соцсетях с рекомендациями, ведущими к экстремизму.

Эмоциональные риски - от манипуляции данными через сбор личной информации под видом "дружбы", что усиливает уязвимость, до "вины за ИИ" - чувства вины и тревоги за использование ИИ вместо собственного труда, особенно в творческих или образовательных задачах, где ценится аутентичность. Особенно среди молодежи, где боты могут искажать развитие, подрывая реальные социальные навыки и создавая ложные ожидания от отношений.

Авторы призывают к ответственному дизайну систем, с учетом долгосрочных исследований; чтобы минимизировать вред и максимизировать пользу - этические рамки, прозрачность и фокус на человеческом контроле.

В итоге, ИИ - мощный инструмент, но его интеграция должна быть осознанной, чтобы сохранить человеческую самостоятельность и благополучие. Это не просто технологии, а вопрос будущего общества - актуальное напоминание в наше время.

ссылка на статью

Показать полностью 1

Как собираются мнения об ИИ и реально используются в политике других стран

Как собираются мнения об ИИ и реально используются в политике других стран

Вы когда-нибудь оставляли детальный комментарий в госопросе и не получали даже короткого ответа - ни спасибо, ни что дальше. Так сегодня выглядит диалог о рисках искусственного интеллекта (ИИ) между гражданами и государством в рассматриваемом исследовании: окно открыто, но створка обратной связи закрыта в изученных странах.

ИИ влияет на работу, приватность, демократию и рынок медиа - и люди хотят, чтобы их услышали. Исследование Сьюзан Ариэль Ааронсон и Майкла Морено показывает: несмотря на призывы к комментариям, правительства США, Австралии и Колумбии почти не превращают обратную связь в политику. Итог - падает доверие, растёт скепсис к любым «правилам ИИ».

Что нашли исследователи

Австралия собрала 510 материалов, США - 326, Колумбия - 73. Это крошечная доля населения - намного меньше 0,1 %. Призывов мало кто замечает, материалов для «разбора полётов» недостаточно, сроки короткие, а публичный ответ на сказанное людьми расплывчат. На практике получается односторонняя связь: граждан просят высказаться, но то, что они говорят, редко влияет на решения.

Как они это проверяли

Авторы сделали ландшафтный анализ и применили спектр участия Международной ассоциации политического участия (IAP2) - от информирования до наделения полномочиями. Все три кейса зависли на уровнях информировать - консультироваться - формально признать. До уровней вовлечь, сотрудничать, наделить полномочиями - не дотянули. Представьте школьное собрание: родители написали десятки записок с проблемами, а директор на следующем дне просто сказал «мы всё учли» и закрыл тему. Без списка изменений, сроков и ответственных. Формально диалог был, по сути - нет.

Где рвётся нить

США опирались на официальный реестр и выступления, но почти не «продавали» консультации широкой аудитории. Колумбия открыла Google-форму на несколько дней и не приложила черновик дорожной карты прямо к объявлению - многие просто не нашли документ. Австралия сделала больше: дискуссионный документ, таун-холл и «круглые столы». Но даже там граждан в основном информировали, а не вовлекали в со-делание правил.

Почему так выходит

Технологии и риски движутся быстро, а форматы участия остались из эпохи бумажных уведомлений. Экспертиза концентрируется у разработчиков и крупных платформ, которые и так имеют голос. Без доступных объяснений базовых понятий и без активного охвата «неинсайдеров» ответы пишут те же специалисты - не широкая публика. Это как просить город придумать план велодорожек, но вывесить объявление только у здания велоклуба. Ответы будут, но репрезентативность - нет.

Индустрии нужны понятные и стабильные «ограждения» - иначе растёт регуляторная неопределённость и риски. Компаниям выгодна прозрачная обратная связь: она повышает легитимность и снижает вероятность резких запретов. Гражданам важны простые каналы участия и видимый эффект их усилий - тогда доверие к управлению ИИ укрепляется.

Ограничения и нюансы

Выводы сделаны по трём странам и по открытым материалам - это не глобальная перепись. Часть оценок - интерпретация авторов работы, а не официальная статистика. Тем не менее паттерн схож: мало осознанного охвата, слабая подготовка публики и редкая конкретика в «что мы изменили по итогам».

Как предлагают улучшить авторы

Во-первых, поднять грамотность в области ИИ - объяснить простыми словами, зачем и где технологии влияют на жизнь, дать примеры и видео. Во-вторых, сделать постоянные порталы обратной связи и публично показывать, как комментарии превращаются в правки. В-третьих, активно продвигать призывы - медиа, сообщества, доверенные голоса. В-четвёртых, добавлять живые форматы - регулярные онлайн таун-холлы по ИИ. В-пятых, использовать новые способы вовлечения: хакатоны политики, челленджи, краудсорсинг. В-шестых, обеспечить участие недопредставленных групп офлайн и онлайн. И да, сами ИИ-инструменты могут помочь: ролевой роевой интеллект (Artificial Swarm Intelligence - ASI) и большие языковые модели способны быстрее агрегировать и суммировать большие массивы мнений - при прозрачных «ограждениях» и защите прав.

Итог

Диалог о рисках ИИ сегодня часто имитируется, а не происходит. Если правительства хотят доверия и легитимности, обратную связь надо не только собирать, но и переводить в решения с понятной логикой изменений. Интересно, в России проводятся подобные опросы и на что они влияют?

Разбор был выполнен по статье с arxiv.org.

Если ты интересуешься исследованиями в области ИИ присоединяйся к нашему сообществу!

Показать полностью 3
0

ИИ-преподаватель в институте: что вышло за первые недели

ИИ-преподаватель в институте: что вышло за первые недели

Представьте: вы сидите не на лекции, где час слушаете монолог, а ведёте диалог с «преподавателем» в ноутбуке. Задаёте вопросы, получаете подсказки, решаете мини-викторины - а живой преподаватель больше как модератор и наставник, который задаёт рамку и разбирает сложные кейсы. Такая перестановка ролей уже случилась в индийском IISc (Indian Institute of Science) на магистерском курсе по облачным вычислениям: исследователи посадили в роль основного лектора ИИ-агента на базе LLM (Large Language Model - большая языковая модель) и описали, как всё это работало и что получилось за первые недели. (arXiv)

Если кратко

Авторы статьи Yogesh Simmhan и Varad Kulkarni внедрили инструктора-агента - ИИ, который не просто отвечает на вопросы, а встроен в учебный процесс: он ведёт объяснения, задаёт вопросы, даёт моментальную обратную связь. Человеческий преподаватель при этом держит структуру курса, открывает тему и отвечает на вопросы в конце занятия; ассистенты проводят практики и лабораторные. Такой формат переводит обучение из передачи знаний в исследовательский диалог - студенты сами двигаются по теме в удобном темпе, но в заданных параметрах курса.

Как это устроено

Платформа. ИИ-инструктор реализован внутри Microsoft Teams Copilot и связан с LMS (Learning Management System - система управления обучением) Moodle. Каждую неделю агент перенастраивается под конкретные темы, но сохраняет общий тон и рельсы курса.

Промпты и роли. У агента есть системные инструкции (что за курс, как отвечать, как подсказывать), набор стартовых подсказок (С чего начать?, Дай мини-тест по теме недели), а также ограждения - например, не выдавать готовые решения, а вести к ним вопросами.

Аналитика вовлечённости. После пары студенты выгружают диалоги с агентом. Дальше вступает FaaS (Function-as-a-Service - бессерверные функции): облачный конвейер прогоняет протоколы через отдельного оценочного агента, который по фиксированной схеме считает три метрики вовлечённости и формирует понятный отчёт с графиками в PDF. Тот же отчёт получают студенты и преподаватель - чтобы видеть, как идёт обучение и где помочь.

Три метрики.

1. Охват тем - сколько под-тем ученик реально затронул (ширина изучения).

2. Глубина темы - насколько далеко зашёл в объяснениях и уточнениях (глубина).

3. Средняя длина реплики по теме - сколько слов на один «ход» в диалоге (признак вдумчивости).

Данные и приватность. В IISc использовали корпоративный M365 Copilot: диалоги защищены внутри организации и не попадают в тренировку базовых моделей; позднее у студентов появилась опция переключиться на более новую модель.

Первые недели в полевых условиях

Исследование пока предварительное, но тренд понятный: от недели к неделе охват тем сокращался, а глубина и средняя длина реплики росли. Переводя на бытовой: сначала, студенты пробуют всё по чуть-чуть, потом сосредотачиваются на важных местах, задают более развёрнутые вопросы и получают детальные пояснения. Это именно то поведение, которое и хотят видеть в активном обучении.

Что это даёт вузам и студентам

  • Масштабируемость. Один ИИ-инструктор может поддерживать десятки параллельных диалогов - и каждый студент остаётся в беседе, а не в хвосте аудитории.

  • Прозрачная обратная связь. Отчёты с охватом/глубиной/длиной - не про оценки, а про навигатор: где расширить кругозор, а где копнуть.

  • Роль человека - важнее, не меньше. Преподаватель задаёт рамку, стандарты и контроль качества (квизы, зачёты), а ИИ - репетитор и ускоритель в классе.

  • Практичность внедрения. Решение работает на привычных Teams и Moodle, а отчёты автоматически формируются в облаке. Никакой тяжёлой самописной инфраструктуры.

Ограничения внедрения на сегодня

  • Предварительные результаты. Это ранний срез по первым модулям курса; расширенная аналитика выйдет позже.

  • Зависимость от экосистемы. Пример завязан на Microsoft 365 Copilot и корпоративные настройки - в другой среде нюансы будут отличаться.

  • Содержание курса. Облака - тема с богатой открытой базой знаний, что облегчает работу LLM. В дисциплинах с «узкой» литературой придётся внимательнее собирать контент.

  • Честность и оценивание. Авторы сами подчёркивают: ИИ не должен превращать обучение в сдать текст - получить ответ. Здесь курс решает это организацией: в классе - диалог с агентом, а оценки - через наблюдение во время экзамена и квизы.

Итог

В студенческие годы я бы с радостью променял час монолога на 20 минут точного диалога. Этот формат как раз про это: каждому - свой собеседник, преподавателю - контроль и разбор сложностей, системе - прозрачные отчёты. Да, важны границы: где помощь ИИ, а где прокторинг и квизы. Зато на выходе - глубже вопросы, лучше понимание и меньше случайных оценок. Персонализация - это круто!

Вопрос к вам: хотели бы вы, чтобы часть ваших занятий заменила умная практика в диалогах, а живые встречи стали разбором сложностей и кейсов?

Наш Telegram канал с ежедневными разборами статей - t.me/PYA_ai

Показать полностью 4
1

Как победить часть рутины в науке: Сайт из PDF статьи за 15 минут с бюджетом в 1 пачку сухариков

Как победить часть рутины в науке: Сайт из PDF статьи за 15 минут с бюджетом в 1 пачку сухариков

Знакомая боль: вы придумали классную идею, написали научную статью - а потом полдня гоняете блох по вёрстке проектной страницы: где блок с целями, куда поставить демо, как красиво показать графики. В это время наука стоит и ждёт. А что если эту рутину возьмёт на себя связка людей и «умных помощников», причём быстро и почти бесплатно? Именно это предлагают авторы работы Human-Agent Collaborative Paper-to-Page. Они обещают страницу из статьи за <15 минут и меньше чем за $0.1. Звучит дерзко. Разбираемся, как это устроено. Ссылка на БЕСПЛАТНЫЙ проект ниже. (arXiv)

Что это и зачем

Идея простая: сделать не магическую кнопку, а совместный конвейер человека и ИИ, который превращает плотный научный PDF в живую веб-страницу с нарративом, иллюстрациями и интерактивом. Система называется AutoPage и работает не одним большим мозгом, а несколькими скоординированными агентами - это мультиагентная система (MAS). Каждый агент отвечает за свой шаг: от плана истории до сборки страницы. Плюс поверх - контроль качества, чтобы не было галлюцинаций (придуманных фактов).

Как устроено

Думайте про AutoPage как про мини-редакцию:

  • Планировщик рисует схему будущей страницы: какие блоки, в каком порядке, что показать в подзаголовках.

  • Автор-сборщик вытягивает из статьи нужные куски, упрощает формулировки и готовит черновики иллюстраций - это и есть мультимодальная генерация (текст + графика).

  • Верстальщик превращает наброски в работающий интерактивный макет.

  • Корректоры (Checker-агенты) сверяют каждый шаг с исходной статьёй: А точно ли это было сказано? А цифры совпадают?

  • Человек-редактор может вмешаться в ключевых точках и дожать результат до авторского замысла.

Авторы подчёркивают: сила не в одной модели, а в иерархии действий и проверок на каждом уровне.

Что показали авторы

Чтобы мерить качество не на глаз, команда собрала свой бенчмарк PageBench (набор эталонных статей и критериев), а затем прогнала AutoPage по этим материалам. Итог: система, по их данным, делает визуально приличные, читабельные страницы и укладывается менее чем в 15 минут и <$0.1 на страницу. Код и датасет обещают выложить; у проекта уже есть демо-вьюер с примерами.

Зачем это разработчикам и авторам

  • Меньше рутины: план, тексты блоков, подписи, превью - всё делает ИИ.

  • Больше контроля: человек остаётся режиссёром, правит структуру и тон.

  • Качество без фантазий: встроенные агенты-проверяторы снижают риск ложных фактов - это важно для научных проектов и тех, кто боится галлюцинаций ИИ.

  • Экономия: время и деньги уходят на смысл, а не на ручную вёрстку.

Ограничения и вещи, которые стоит учесть

  • Исходник решает всё: если статья туманная или графики плохо описаны, системе сложнее собрать понятный сторителлинг.

  • Бенчмарк свой: PageBench - инициатива авторов; отрасли ещё предстоит договориться, какая страница считается хорошей.

  • Нужна культура правок: лучший результат получается, когда авторы действительно смотрят чек-пойнты, а не ждут чудо в один клик.

Итог - что это значит для индустрии

AutoPage - хороший пример человеко-машинного конвейера: не заменить автора, а снять с него тяжёлую рутину, добавив надёжные проверки. Если такие решения приживутся, у лабораторий, стартапов и open-source-проектов появится шанс быстрее объяснять свои результаты миру, не жертвуя точностью. А это напрямую влияет на скорость распространения идей.

Источник: arXiv: Human-Agent Collaborative Paper-to-Page Crafting for Under $0.1 (выложено 22 октября 2025), демо-страница проекта доступна у авторов. Проект на Github.

Вопрос читателю: как бы вы хотели настраивать такой конвейер под себя - больше автоматизации или больше редакторского контроля?

Разборы статей, интересное о ИИ в Telegram

Показать полностью
Отличная работа, все прочитано!