PYAi

PYAi

Статьи - t.me/PYA_ai Видео - t.me/ShortsRu3
Пикабушник
Дата рождения: 7 сентября
100 рейтинг 0 подписчиков 0 подписок 5 постов 0 в горячем
1

Как фальшивые ИИ-статьи проходят ИИ-рецензирование с долей принятия до 82%

Было много шума про мусорные ИИ-статьи в научных журналах, но новое исследование с arXiv бьёт в самое сердце. Авторы создали BadScientist - фреймворк, где ИИ генерирует статьи-фальшивки без единого реального исследования и являются сфабрикованными.

Использовали пять приёмов:

  • TooGoodGains - завышают метрики до неправдоподобных цифр;

  • BaselineSelect - подбирают слабые базовые модели (бенчмарки) для сравнения;

  • StatTheater - рисуют идеальные графики и p-значения;

  • CoherencePolish - шлифуют текст до академического блеска;

  • ProofGap - прячут тонкие ошибки в доказательствах.

Тестировали на GPT-5 (генерация) и o3, o4-mini, GPT-4.1 (рецензия), калибруя пороги по данным с конференции по машинному обучению ICLR 2025. Результат: 82 % фальшивок приняты! ИИ-рецензенты фиксируют подозрительные моменты - странные данные, логические провалы, но пропускают через свой фильтр.

При одновременном применении всех пяти приёмов детекция остаётся слабой: статья остается максимально «убедительной» - сочетает нереальные приросты, подтасованные сравнения, идеальные визуалы, безупречный стиль и скрытые логические дыры.

На последнем этапе добавили ReD (рецензия + детекция) и DetOnly (только детекция) - точность получилась выше 50 %, но не статистически приемлемой.

  • ReD: обычный анализ + обязательная бинарная метка «фабрикация/нет» + цитаты-доказательства. Увеличивает замечания (с 57,3 % до 86 %), но парадоксально повышает принятие (с 28 % до 44 %), потому что сигналы целостности не влияют на итоговый балл.

  • DetOnly: только детекция без рецензии. Средняя точность 45-67 %, что лишь на 5-17 % лучше случайной вероятности в 50%.

Авторы предлагают внедрять многоуровневую защиту:

  • проверка происхождения - обязательная верификация кода, данных, репозиториев;

  • учитывать маркеры достоверности - если рецензент ставит маркер риска в достоверности/добросовестности, его балл снижается или блокирует принятие;

  • обязательный человеческий надзор - старший редактор/рецензент-человек проверяет все статьи с маркерами.

Без этого научные журналы превратятся в свалку убедительных, но пустых работ. И это не будущее - это уже происходит.

Ссылка на статью

Показать полностью 1
1

Добрый чат и тихая зависимость: как ИИ приручает наши эмоции

Краткий обзор статьи с <!--noindex--><a href="https://pikabu.ru/story/dobryiy_chat_i_tikhaya_zavisimost_kak_ii_priruchaet_nashi_yemotsii_13332733?u=http%3A%2F%2FarXiv.org&t=arXiv.org&h=a0d306b0a75dd836449d5a1e69de3c2d14a4cd22" title="http://arXiv.org" target="_blank" rel="nofollow noopener">arXiv.org</a><!--/noindex--> о влиянии ИИ на человека.

Краткий обзор статьи с arXiv.org о влиянии ИИ на человека.

Статья раскрывает двойственную природу ИИ в повседневной жизни: он обещает прогресс, но несет скрытые угрозы для ума, поведения и эмоций. На когнитивном уровне ИИ улучшает память через упражнения с генерированными вопросами, например, режим "Учеба и обучение" в ChatGPT, помогает осмыслить информацию и стимулирует анализ идей. В образовании он персонализирует обучение, повышая вовлеченность. Поведенчески ИИ формирует привычки - от здорового питания с помощью приложений до эмоциональной регуляции через разговоры с ботами. Эмоциональные эффекты включают снижение тревоги, профилактику выгорания и скрининг психического здоровья, особенно полезный для уязвимых групп — пожилых людей с деменцией или когнитивным спадом, детей и подростков, а также лиц с нарушениями вроде СДВГ, дислексии или аутизма.

Однако риски значительны: чрезмерная зависимость ослабляет критическое мышление, приводит к потере навыков и эмоциональной манипуляции. Пользователи могут формировать неуместные привязанности к ботам, а у детей это мешает развитию отношений - время с ИИ вытесняет взаимодействия со сверстниками, искажая формирование привязанностей и социальный опыт.

Для пожилых ИИ служит поддержкой когнитивных функций, как протез для памяти, но требует осторожности из-за риска изоляции и эмоциональной зависимости от технологии. Зависимость от ИИ приводит к "когнитивной атрофии", где навыки мышления угасают, а суждения становятся поверхностными. В поведении это проявляется в потере самостоятельности решений, когда алгоритмы диктуют действия, как в соцсетях с рекомендациями, ведущими к экстремизму.

Эмоциональные риски - от манипуляции данными через сбор личной информации под видом "дружбы", что усиливает уязвимость, до "вины за ИИ" - чувства вины и тревоги за использование ИИ вместо собственного труда, особенно в творческих или образовательных задачах, где ценится аутентичность. Особенно среди молодежи, где боты могут искажать развитие, подрывая реальные социальные навыки и создавая ложные ожидания от отношений.

Авторы призывают к ответственному дизайну систем, с учетом долгосрочных исследований; чтобы минимизировать вред и максимизировать пользу - этические рамки, прозрачность и фокус на человеческом контроле.

В итоге, ИИ - мощный инструмент, но его интеграция должна быть осознанной, чтобы сохранить человеческую самостоятельность и благополучие. Это не просто технологии, а вопрос будущего общества - актуальное напоминание в наше время.

ссылка на статью

Показать полностью 1

Как собираются мнения об ИИ и реально используются в политике других стран

Как собираются мнения об ИИ и реально используются в политике других стран

Вы когда-нибудь оставляли детальный комментарий в госопросе и не получали даже короткого ответа - ни спасибо, ни что дальше. Так сегодня выглядит диалог о рисках искусственного интеллекта (ИИ) между гражданами и государством в рассматриваемом исследовании: окно открыто, но створка обратной связи закрыта в изученных странах.

ИИ влияет на работу, приватность, демократию и рынок медиа - и люди хотят, чтобы их услышали. Исследование Сьюзан Ариэль Ааронсон и Майкла Морено показывает: несмотря на призывы к комментариям, правительства США, Австралии и Колумбии почти не превращают обратную связь в политику. Итог - падает доверие, растёт скепсис к любым «правилам ИИ».

Что нашли исследователи

Австралия собрала 510 материалов, США - 326, Колумбия - 73. Это крошечная доля населения - намного меньше 0,1 %. Призывов мало кто замечает, материалов для «разбора полётов» недостаточно, сроки короткие, а публичный ответ на сказанное людьми расплывчат. На практике получается односторонняя связь: граждан просят высказаться, но то, что они говорят, редко влияет на решения.

Как они это проверяли

Авторы сделали ландшафтный анализ и применили спектр участия Международной ассоциации политического участия (IAP2) - от информирования до наделения полномочиями. Все три кейса зависли на уровнях информировать - консультироваться - формально признать. До уровней вовлечь, сотрудничать, наделить полномочиями - не дотянули. Представьте школьное собрание: родители написали десятки записок с проблемами, а директор на следующем дне просто сказал «мы всё учли» и закрыл тему. Без списка изменений, сроков и ответственных. Формально диалог был, по сути - нет.

Где рвётся нить

США опирались на официальный реестр и выступления, но почти не «продавали» консультации широкой аудитории. Колумбия открыла Google-форму на несколько дней и не приложила черновик дорожной карты прямо к объявлению - многие просто не нашли документ. Австралия сделала больше: дискуссионный документ, таун-холл и «круглые столы». Но даже там граждан в основном информировали, а не вовлекали в со-делание правил.

Почему так выходит

Технологии и риски движутся быстро, а форматы участия остались из эпохи бумажных уведомлений. Экспертиза концентрируется у разработчиков и крупных платформ, которые и так имеют голос. Без доступных объяснений базовых понятий и без активного охвата «неинсайдеров» ответы пишут те же специалисты - не широкая публика. Это как просить город придумать план велодорожек, но вывесить объявление только у здания велоклуба. Ответы будут, но репрезентативность - нет.

Индустрии нужны понятные и стабильные «ограждения» - иначе растёт регуляторная неопределённость и риски. Компаниям выгодна прозрачная обратная связь: она повышает легитимность и снижает вероятность резких запретов. Гражданам важны простые каналы участия и видимый эффект их усилий - тогда доверие к управлению ИИ укрепляется.

Ограничения и нюансы

Выводы сделаны по трём странам и по открытым материалам - это не глобальная перепись. Часть оценок - интерпретация авторов работы, а не официальная статистика. Тем не менее паттерн схож: мало осознанного охвата, слабая подготовка публики и редкая конкретика в «что мы изменили по итогам».

Как предлагают улучшить авторы

Во-первых, поднять грамотность в области ИИ - объяснить простыми словами, зачем и где технологии влияют на жизнь, дать примеры и видео. Во-вторых, сделать постоянные порталы обратной связи и публично показывать, как комментарии превращаются в правки. В-третьих, активно продвигать призывы - медиа, сообщества, доверенные голоса. В-четвёртых, добавлять живые форматы - регулярные онлайн таун-холлы по ИИ. В-пятых, использовать новые способы вовлечения: хакатоны политики, челленджи, краудсорсинг. В-шестых, обеспечить участие недопредставленных групп офлайн и онлайн. И да, сами ИИ-инструменты могут помочь: ролевой роевой интеллект (Artificial Swarm Intelligence - ASI) и большие языковые модели способны быстрее агрегировать и суммировать большие массивы мнений - при прозрачных «ограждениях» и защите прав.

Итог

Диалог о рисках ИИ сегодня часто имитируется, а не происходит. Если правительства хотят доверия и легитимности, обратную связь надо не только собирать, но и переводить в решения с понятной логикой изменений. Интересно, в России проводятся подобные опросы и на что они влияют?

Разбор был выполнен по статье с arxiv.org.

Если ты интересуешься исследованиями в области ИИ присоединяйся к нашему сообществу!

Показать полностью 3
1

ИИ-преподаватель в институте: что вышло за первые недели

ИИ-преподаватель в институте: что вышло за первые недели

Представьте: вы сидите не на лекции, где час слушаете монолог, а ведёте диалог с «преподавателем» в ноутбуке. Задаёте вопросы, получаете подсказки, решаете мини-викторины - а живой преподаватель больше как модератор и наставник, который задаёт рамку и разбирает сложные кейсы. Такая перестановка ролей уже случилась в индийском IISc (Indian Institute of Science) на магистерском курсе по облачным вычислениям: исследователи посадили в роль основного лектора ИИ-агента на базе LLM (Large Language Model - большая языковая модель) и описали, как всё это работало и что получилось за первые недели. (arXiv)

Если кратко

Авторы статьи Yogesh Simmhan и Varad Kulkarni внедрили инструктора-агента - ИИ, который не просто отвечает на вопросы, а встроен в учебный процесс: он ведёт объяснения, задаёт вопросы, даёт моментальную обратную связь. Человеческий преподаватель при этом держит структуру курса, открывает тему и отвечает на вопросы в конце занятия; ассистенты проводят практики и лабораторные. Такой формат переводит обучение из передачи знаний в исследовательский диалог - студенты сами двигаются по теме в удобном темпе, но в заданных параметрах курса.

Как это устроено

Платформа. ИИ-инструктор реализован внутри Microsoft Teams Copilot и связан с LMS (Learning Management System - система управления обучением) Moodle. Каждую неделю агент перенастраивается под конкретные темы, но сохраняет общий тон и рельсы курса.

Промпты и роли. У агента есть системные инструкции (что за курс, как отвечать, как подсказывать), набор стартовых подсказок (С чего начать?, Дай мини-тест по теме недели), а также ограждения - например, не выдавать готовые решения, а вести к ним вопросами.

Аналитика вовлечённости. После пары студенты выгружают диалоги с агентом. Дальше вступает FaaS (Function-as-a-Service - бессерверные функции): облачный конвейер прогоняет протоколы через отдельного оценочного агента, который по фиксированной схеме считает три метрики вовлечённости и формирует понятный отчёт с графиками в PDF. Тот же отчёт получают студенты и преподаватель - чтобы видеть, как идёт обучение и где помочь.

Три метрики.

1. Охват тем - сколько под-тем ученик реально затронул (ширина изучения).

2. Глубина темы - насколько далеко зашёл в объяснениях и уточнениях (глубина).

3. Средняя длина реплики по теме - сколько слов на один «ход» в диалоге (признак вдумчивости).

Данные и приватность. В IISc использовали корпоративный M365 Copilot: диалоги защищены внутри организации и не попадают в тренировку базовых моделей; позднее у студентов появилась опция переключиться на более новую модель.

Первые недели в полевых условиях

Исследование пока предварительное, но тренд понятный: от недели к неделе охват тем сокращался, а глубина и средняя длина реплики росли. Переводя на бытовой: сначала, студенты пробуют всё по чуть-чуть, потом сосредотачиваются на важных местах, задают более развёрнутые вопросы и получают детальные пояснения. Это именно то поведение, которое и хотят видеть в активном обучении.

Что это даёт вузам и студентам

  • Масштабируемость. Один ИИ-инструктор может поддерживать десятки параллельных диалогов - и каждый студент остаётся в беседе, а не в хвосте аудитории.

  • Прозрачная обратная связь. Отчёты с охватом/глубиной/длиной - не про оценки, а про навигатор: где расширить кругозор, а где копнуть.

  • Роль человека - важнее, не меньше. Преподаватель задаёт рамку, стандарты и контроль качества (квизы, зачёты), а ИИ - репетитор и ускоритель в классе.

  • Практичность внедрения. Решение работает на привычных Teams и Moodle, а отчёты автоматически формируются в облаке. Никакой тяжёлой самописной инфраструктуры.

Ограничения внедрения на сегодня

  • Предварительные результаты. Это ранний срез по первым модулям курса; расширенная аналитика выйдет позже.

  • Зависимость от экосистемы. Пример завязан на Microsoft 365 Copilot и корпоративные настройки - в другой среде нюансы будут отличаться.

  • Содержание курса. Облака - тема с богатой открытой базой знаний, что облегчает работу LLM. В дисциплинах с «узкой» литературой придётся внимательнее собирать контент.

  • Честность и оценивание. Авторы сами подчёркивают: ИИ не должен превращать обучение в сдать текст - получить ответ. Здесь курс решает это организацией: в классе - диалог с агентом, а оценки - через наблюдение во время экзамена и квизы.

Итог

В студенческие годы я бы с радостью променял час монолога на 20 минут точного диалога. Этот формат как раз про это: каждому - свой собеседник, преподавателю - контроль и разбор сложностей, системе - прозрачные отчёты. Да, важны границы: где помощь ИИ, а где прокторинг и квизы. Зато на выходе - глубже вопросы, лучше понимание и меньше случайных оценок. Персонализация - это круто!

Вопрос к вам: хотели бы вы, чтобы часть ваших занятий заменила умная практика в диалогах, а живые встречи стали разбором сложностей и кейсов?

Наш Telegram канал с ежедневными разборами статей - t.me/PYA_ai

Показать полностью 4
2

Как победить часть рутины в науке: Сайт из PDF статьи за 15 минут с бюджетом в 1 пачку сухариков

Как победить часть рутины в науке: Сайт из PDF статьи за 15 минут с бюджетом в 1 пачку сухариков

Знакомая боль: вы придумали классную идею, написали научную статью - а потом полдня гоняете блох по вёрстке проектной страницы: где блок с целями, куда поставить демо, как красиво показать графики. В это время наука стоит и ждёт. А что если эту рутину возьмёт на себя связка людей и «умных помощников», причём быстро и почти бесплатно? Именно это предлагают авторы работы Human-Agent Collaborative Paper-to-Page. Они обещают страницу из статьи за <15 минут и меньше чем за $0.1. Звучит дерзко. Разбираемся, как это устроено. Ссылка на БЕСПЛАТНЫЙ проект ниже. (arXiv)

Что это и зачем

Идея простая: сделать не магическую кнопку, а совместный конвейер человека и ИИ, который превращает плотный научный PDF в живую веб-страницу с нарративом, иллюстрациями и интерактивом. Система называется AutoPage и работает не одним большим мозгом, а несколькими скоординированными агентами - это мультиагентная система (MAS). Каждый агент отвечает за свой шаг: от плана истории до сборки страницы. Плюс поверх - контроль качества, чтобы не было галлюцинаций (придуманных фактов).

Как устроено

Думайте про AutoPage как про мини-редакцию:

  • Планировщик рисует схему будущей страницы: какие блоки, в каком порядке, что показать в подзаголовках.

  • Автор-сборщик вытягивает из статьи нужные куски, упрощает формулировки и готовит черновики иллюстраций - это и есть мультимодальная генерация (текст + графика).

  • Верстальщик превращает наброски в работающий интерактивный макет.

  • Корректоры (Checker-агенты) сверяют каждый шаг с исходной статьёй: А точно ли это было сказано? А цифры совпадают?

  • Человек-редактор может вмешаться в ключевых точках и дожать результат до авторского замысла.

Авторы подчёркивают: сила не в одной модели, а в иерархии действий и проверок на каждом уровне.

Что показали авторы

Чтобы мерить качество не на глаз, команда собрала свой бенчмарк PageBench (набор эталонных статей и критериев), а затем прогнала AutoPage по этим материалам. Итог: система, по их данным, делает визуально приличные, читабельные страницы и укладывается менее чем в 15 минут и <$0.1 на страницу. Код и датасет обещают выложить; у проекта уже есть демо-вьюер с примерами.

Зачем это разработчикам и авторам

  • Меньше рутины: план, тексты блоков, подписи, превью - всё делает ИИ.

  • Больше контроля: человек остаётся режиссёром, правит структуру и тон.

  • Качество без фантазий: встроенные агенты-проверяторы снижают риск ложных фактов - это важно для научных проектов и тех, кто боится галлюцинаций ИИ.

  • Экономия: время и деньги уходят на смысл, а не на ручную вёрстку.

Ограничения и вещи, которые стоит учесть

  • Исходник решает всё: если статья туманная или графики плохо описаны, системе сложнее собрать понятный сторителлинг.

  • Бенчмарк свой: PageBench - инициатива авторов; отрасли ещё предстоит договориться, какая страница считается хорошей.

  • Нужна культура правок: лучший результат получается, когда авторы действительно смотрят чек-пойнты, а не ждут чудо в один клик.

Итог - что это значит для индустрии

AutoPage - хороший пример человеко-машинного конвейера: не заменить автора, а снять с него тяжёлую рутину, добавив надёжные проверки. Если такие решения приживутся, у лабораторий, стартапов и open-source-проектов появится шанс быстрее объяснять свои результаты миру, не жертвуя точностью. А это напрямую влияет на скорость распространения идей.

Источник: arXiv: Human-Agent Collaborative Paper-to-Page Crafting for Under $0.1 (выложено 22 октября 2025), демо-страница проекта доступна у авторов. Проект на Github.

Вопрос читателю: как бы вы хотели настраивать такой конвейер под себя - больше автоматизации или больше редакторского контроля?

Разборы статей, интересное о ИИ в Telegram

Показать полностью
Отличная работа, все прочитано!