FutureOfAI

FutureOfAI

Бесплатный ChatGPT бот - https://t.me/gptrurobot Канал про ИИ и Технологии - https://t.me/+Ux8twwQx7KAyMjNi
На Пикабу
поставил 0 плюсов и 0 минусов
151 рейтинг 1 подписчик 1 подписка 27 постов 0 в горячем

OpenAI: данные, защищенные авторским правом, "невозможно" избежать для обучения ИИ

OpenAI: данные, защищенные авторским правом, "невозможно" избежать для обучения ИИ Искусственный интеллект, Технологии, Telegram (ссылка)

Статья является переводом с сайта

Бесплатный ChatGPT бот

На этой неделе OpenAI наделала много шума своим смелым заявлением в парламентском комитете Великобритании о том, что без использования огромного количества данных, защищенных авторским правом, разработать ведущие современные системы ИИ будет "невозможно".

Компания утверждала, что передовые инструменты ИИ, такие как ChatGPT, требуют настолько широкого обучения, что соблюдение закона об авторском праве было бы совершенно нецелесообразным

В письменных показаниях OpenAI заявила, что благодаря расширенным законам об авторском праве и повсеместному распространению защищенного онлайн-контента, "практически все виды человеческих высказываний" окажутся вне зоны доступа для обучающих данных. От новостных статей до комментариев на форумах и цифровых изображений - мало какой онлайн-контент может быть использован свободно и легально.

По мнению OpenAI, попытки создать эффективный ИИ, избегая при этом нарушения авторских прав, потерпят неудачу: "Ограничение обучающих данных книгами и рисунками, находящимися в общественном достоянии и созданными более века назад... не позволит создать системы ИИ, отвечающие потребностям современных граждан".

Защищая свою практику как соответствующую нормам, OpenAI признала, что партнерство и компенсационные схемы с издателями могут быть оправданы для "поддержки и расширения возможностей авторов". Однако компания не дала понять, что намерена резко ограничить сбор онлайн-данных, в том числе платной журналистики и литературы.

Такая позиция открыла OpenAI путь к многочисленным судебным искам, в том числе от таких СМИ, как The New York Times, обвиняющих ее в нарушении авторских прав.

Тем не менее, OpenAI, похоже, не желает кардинально менять процессы сбора данных и обучения, учитывая "невозможные" ограничения, которые наложит на себя авторское право. Вместо этого компания надеется опираться на широкое толкование принципов добросовестного использования, чтобы легально использовать огромные массивы данных, защищенных авторским правом

Поскольку передовой ИИ продолжает демонстрировать удивительные способности к подражанию человеческому самовыражению, эксперты в области права ожидают активных судебных баталий по поводу нарушения авторских прав системами, изначально предназначенными для поглощения огромных объемов защищенных текстов, медиа и других творческих материалов.

Пока что OpenAI делает ставку на максимализм в области авторского права в пользу почти безграничного копирования, чтобы стимулировать дальнейшее развитие ИИ.

Бесплатный ChatGPT бот

Показать полностью

Как ИИ Агенты помогают объяснить работу других систем ИИ

Как ИИ Агенты помогают объяснить работу других систем ИИ Искусственный интеллект, Технологии, Длиннопост, Telegram (ссылка)


Статья является переводом статьи MIT

Исследователи Массачусетского технологического института представили метод, использующий искусственный интеллект для автоматизации объяснения сложных нейронных сетей.

Объяснение поведения обучаемых нейронных сетей остается интересной загадкой, особенно по мере роста размеров и сложности этих моделей. Как и другие научные задачи на протяжении всей истории, для того чтобы понять, как работают системы искусственного интеллекта, требуется значительное количество экспериментов: выдвижение гипотез, вмешательство в поведение и даже препарирование больших сетей для изучения отдельных нейронов. До сих пор большинство успешных экспериментов проводилось под контролем человека. Объяснение каждого вычисления в моделях размером с GPT-4 и больше почти наверняка потребует большей автоматизации - возможно, даже с помощью самих моделей ИИ.

Исследователи из Лаборатории компьютерных наук и искусственного интеллекта Массачусетского технологического института (CSAIL) разработали новый подход, который использует ИИ модели для проведения экспериментов над другими системами и объяснения их поведения. Их метод использования агентов, создан на основе предварительно обученных языковых моделей, для получения интуитивных объяснений вычислений внутри обученных сетей.

Центральное место в этой стратегии занимает "автоматизированный агент интерпретации" (AIA), созданный для имитации экспериментальных процессов ученого. Агенты интерпретируемости планируют и проводят тесты других вычислительных систем, масштабы которых могут варьироваться от отдельных нейронов до целых моделей, чтобы получить объяснения этих систем в различных формах: языковые описания того, что делает система и где она терпит неудачу, и код, воспроизводящий поведение системы. В отличие от существующих процедур интерпретации, которые пассивно классифицируют или обобщают примеры, AIA активно участвует в формировании гипотез, экспериментальном тестировании и итеративном обучении, тем самым уточняя свое понимание других систем в режиме реального времени.

Дополняет метод AIA новый эталон "интерпретации и описания функций" (FIND) - тестовый стенд функций, напоминающих вычисления в обученных сетях, и сопровождающие их описания поведения. Одна из ключевых проблем при оценке качества описаний компонентов реальных сетей заключается в том, что описания хороши лишь настолько, насколько велика их объяснительная способность: Исследователи не имеют доступа к истинным меткам блоков или описаниям обученных вычислений. FIND решает эту давнюю проблему, предоставляя надежный стандарт для оценки процедур интерпретации: объяснения функций (например, созданные с помощью AIA) могут быть оценены по сравнению с описаниями функций в эталоне.

Например, FIND содержит синтетические нейроны, созданные для имитации поведения реальных нейронов в языковых моделях, некоторые из которых селективны для отдельных понятий, таких как "наземный транспорт". AIA получают доступ к синтетическим нейронам в режиме "черного ящика" и вводимые данные (такие как "дерево", "счастье" и "автомобиль"), чтобы проверить реакцию нейрона. Заметив, что синтетический нейрон выдает более высокие значения реакции на "автомобиль", чем на другие входы, AIA может разработать более тонкие тесты, чтобы отличить избирательность нейрона к автомобилям от других видов транспорта, таких как самолеты и лодки. Когда AIA создает описание типа "этот нейрон избирателен к автомобильному транспорту, а не к воздушному или морскому", это описание оценивается по сравнению с истинным описанием синтетического нейрона ("избирателен к наземному транспорту") в FIND. Затем этот эталон можно использовать для сравнения возможностей AIA с другими методами в литературе.

Сара Шветтманн (Sarah Schwettmann PhD '21), соавтор статьи о новой работе и научный сотрудник CSAIL, подчеркивает преимущества такого подхода. "Способность AIA к автономной генерации и проверке гипотез может помочь выявить поведение, которое иначе ученым было бы сложно обнаружить. Примечательно, что языковые модели, оснащенные инструментами для исследования других систем, способны на такой тип эксперимента", - говорит Шветтманн. "Чистые, простые эталоны с истинными ответами стали основным стимулом для развития более общих возможностей языковых моделей, и мы надеемся, что FIND сможет сыграть такую же роль в исследованиях интерпретируемости".

Автоматизация интерпретируемости

Большие языковые модели все еще сохраняют свой статус востребованных знаменитостей в мире технологий. Последние достижения в области LLM подчеркивают их способность выполнять сложные задачи рассуждения в различных областях. Команда CSAIL поняла, что, учитывая эти возможности, языковые модели могут стать основой обобщенных агентов для автоматизированной интерпретации. "Исторически интерпретация была очень многогранной областью", - говорит Шветтманн. Не существует универсального подхода; большинство процедур очень специфичны для отдельных вопросов, которые мы можем задать системе, и для отдельных модальностей, таких как зрение или язык". Существующие подходы к маркировке отдельных нейронов в моделях зрения требуют обучения специализированных моделей на человеческих данных, где эти модели выполняют только эту единственную задачу. Агенты интерпретации, построенные на основе языковых моделей, могут обеспечить общий интерфейс для объяснения других систем - синтезировать результаты экспериментов, интегрировать различные модальности, даже открывать новые экспериментальные техники на очень фундаментальном уровне".

По мере того как мы входим в режим, когда модели, выполняющие объяснения, сами являются "черными ящиками", внешние оценки методов интерпретации становятся все более важными. Новый эталон команды решает эту задачу с помощью набора функций с известной структурой, которые смоделированы на основе поведения, наблюдаемого в дикой природе. Функции, входящие в состав FIND, охватывают самые разные области, от математических рассуждений до символьных операций над строками и синтетических нейронов, построенных на основе задач на уровне слов. Набор данных интерактивных функций построен процедурно; сложность реального мира вносится в простые функции путем добавления шума, составления функций и моделирования смещений. Это позволяет сравнивать методы интерпретации в условиях, приближенных к реальной производительности.

В дополнение к набору данных функций исследователи представили инновационный протокол оценки для определения эффективности AIA и существующих автоматизированных методов интерпретации. Этот протокол включает в себя два подхода. Для задач, требующих воспроизведения функции в коде, оценка напрямую сравнивает оценки, сгенерированные ИИ, и оригинальные, истинные функции. Оценка становится более сложной для задач с описанием функций на естественном языке. В таких случаях для точной оценки качества описаний требуется автоматическое понимание их семантического содержания. Для решения этой задачи исследователи разработали специализированную "стороннюю" языковую модель. Эта модель специально обучена оценивать точность и связность описаний на естественном языке, предоставляемых системами искусственного интеллекта, и сравнивать их с истинным поведением функции.

Оценка FIND показала, что мы все еще далеки от полной автоматизации интерпретируемости; хотя AIA превосходят существующие подходы к интерпретируемости, они все еще не могут точно описать почти половину функций в бенчмарке. Тамар Ротт Шахам, соавтор исследования и постдок в CSAIL, отмечает, что "хотя нынешнее поколение AIA эффективно в описании высокоуровневой функциональности, они все еще часто упускают более тонкие детали, особенно в функциональных подобластях с шумом или нерегулярным поведением. Вероятно, это связано с недостаточной выборкой в этих областях. Одна из проблем заключается в том, что эффективность AIA может быть затруднена их первоначальными исследовательскими данными. Чтобы справиться с этой проблемой, мы попробовали направить работу AIA, инициализировав их поиск с помощью определенных, релевантных данных, что значительно повысило точность интерпретации". Этот подход объединяет новые методы AIA с предыдущими техниками, использующими предварительно вычисленные примеры для инициирования процесса интерпретации.

Исследователи также разрабатывают инструментарий для расширения возможностей AIA по проведению более точных экспериментов с нейронными сетями, как в условиях "черного ящика", так и "белого ящика". Этот инструментарий призван вооружить AIA лучшими инструментами для выбора исходных данных и улучшения возможностей проверки гипотез для более тонкого и точного анализа нейронных сетей. Команда также решает практические задачи в области интерпретируемости ИИ, сосредоточившись на определении правильных вопросов, которые нужно задавать при анализе моделей в реальных сценариях. Их цель - разработать автоматизированные процедуры интерпретации, которые в конечном итоге помогут людям проводить аудит систем - например, для автономного вождения или распознавания лиц - для диагностики потенциальных сбоев, скрытых предубеждений или неожиданного поведения перед внедрением.

Наблюдение за наблюдателями

Команда предполагает, что в один прекрасный день будут разработаны практически автономные AIA, которые смогут проводить аудит других систем, а ученые-люди будут осуществлять надзор и руководство. Усовершенствованные AIA могут разрабатывать новые виды экспериментов и вопросов, потенциально выходящие за рамки первоначальных представлений ученых-людей. Основное внимание уделяется расширению интерпретируемости ИИ для включения более сложных моделей поведения, таких как целые нейронные цепи или подсети, и прогнозированию входных данных, которые могут привести к нежелательному поведению. Эта разработка представляет собой значительный шаг вперед в исследованиях ИИ, направленных на то, чтобы сделать системы ИИ более понятными и надежными.

"Хороший эталон - это мощный инструмент для решения сложных задач", - говорит Мартин Уоттенберг, профессор информатики Гарвардского университета, который не принимал участия в исследовании. "Замечательно видеть этот сложный эталон для интерпретируемости - одной из самых важных проблем в машинном обучении сегодня. Особенно меня впечатлил созданный авторами автоматизированный агент интерпретируемости. Это своего рода интерпретируемое джиу-джитсу, когда ИИ поворачивается спиной к самому себе, чтобы помочь человеческому пониманию".

Шветтман, Ротт Шахам и их коллеги представили свою работу на конференции NeurIPS 2023 в декабре. Среди соавторов работы из Массачусетского технологического института (все они являются сотрудниками CSAIL и факультета электротехники и вычислительной техники (EECS)) - аспирантка Джоанна Матержинска, студент-бакалавр Нил Чоудхури, Шуанг Ли PhD '23, доцент Джейкоб Андреас и профессор Антонио Торральба. Дополнительным соавтором является доцент Северо-Восточного университета Дэвид Бау.

Работа была частично поддержана лабораторией искусственного интеллекта MIT-IBM Watson, организацией Open Philanthropy, премией Amazon Research Award, компанией Hyundai NGV, Исследовательской лабораторией армии США, Национальным научным фондом США, программой Цукермана STEM Leadership Program и стипендией Витерби.

Бесплатный ChatGPT бот

Показать полностью

Как ИИ ускоряет решение проблем в сложных сценариях?

Как ИИ ускоряет решение проблем в сложных сценариях? Искусственный интеллект, Технологии, Длиннопост

Статья является переводом статьи MIT


Этот подход может быть использован везде, где применяются MILP-решатели, например, в службах доставки на дом, операторах электрических сетей, распространителях вакцин или в любой другой организации, столкнувшейся со сложной проблемой распределения ресурсов.

"Иногда в такой области, как оптимизация, очень распространено мнение, что решения могут быть либо чисто машинными, либо чисто классическими. Я твердо убеждена, что мы хотим получить лучшее из обоих миров, и это действительно сильное воплощение гибридного подхода", - говорит старший автор работы Кэти Ву, доцент кафедры гражданского и экологического строительства (CEE) имени Гилберта У. Уинслоу, член Лаборатории систем информации и принятия решений (LIDS) и Института данных, систем и общества (IDSS).

Ву написала работу вместе с соавторами Сируи Ли, аспирантом IDSS, и Вэньбином Оуяном, аспирантом CEE, а также Максом Паулюсом, аспирантом ETH. Исследование будет представлено на конференции по нейронным системам обработки информации.

Сложности в решениях

Задачи MILP имеют экспоненциальное число потенциальных решений. Например, продавец-путешественник хочет найти кратчайший путь, чтобы посетить несколько городов, а затем вернуться в свой город. Если городов, которые можно посетить в любом порядке, много, то количество потенциальных решений может быть больше, чем количество атомов во Вселенной.

"Такие задачи называются NP-трудными, что означает, что очень маловероятно, что существует эффективный алгоритм для их решения. Когда проблема достаточно велика, мы можем надеяться только на достижение некоторой субоптимальной производительности", - объясняет Ву.

Решатель MILP использует целый ряд методов и практических приемов, которые позволяют получить разумные решения за приемлемое время.

Типичный решатель использует подход "разделяй и властвуй", сначала разбивая пространство потенциальных решений на более мелкие части с помощью техники, называемой ветвлением. Затем решатель применяет технику, называемую разрезанием, чтобы сжать эти меньшие части и ускорить их поиск.

Резка использует набор правил, которые сужают пространство поиска, не удаляя ни одного возможного решения. Эти правила генерируются несколькими десятками алгоритмов, известных как сепараторы, которые были созданы для различных типов задач MILP.

Ву и ее команда обнаружили, что процесс определения идеальной комбинации используемых алгоритмов-сепараторов сам по себе является проблемой с экспоненциальным числом решений.

"Управление разделителями является основной частью каждого решателя, но это недооцененный аспект проблемного пространства. Один из вкладов этой работы - определение проблемы управления сепараторами как задачи машинного обучения", - говорит она.

Сокращение пространства решений

Она и ее коллеги разработали механизм фильтрации, который сокращает пространство поиска разделителя с более чем 130 000 потенциальных комбинаций до примерно 20 вариантов. Этот механизм фильтрации опирается на принцип убывающей предельной отдачи, который гласит, что наибольшую пользу принесет небольшой набор алгоритмов, а добавление дополнительных алгоритмов не принесет значительного улучшения.

Затем они используют модель машинного обучения, чтобы выбрать наилучшую комбинацию алгоритмов из 20 оставшихся вариантов.

Эта модель обучается на наборе данных, специфичном для оптимизационной задачи пользователя, поэтому она учится выбирать алгоритмы, которые лучше всего подходят для конкретной задачи пользователя. Поскольку такая компания, как FedEx, уже не раз решала проблемы маршрутизации, использование реальных данных, полученных из прошлого опыта, должно приводить к лучшим решениям, чем каждый раз начинать с нуля.

Итерационный процесс обучения модели, известный как контекстные бандиты (форма обучения с подкреплением), включает в себя выбор потенциального решения, получение обратной связи о том, насколько оно хорошо, а затем повторную попытку найти лучшее решение.

Этот подход, основанный на данных, ускорил работу решателей MILP на 30-70% без какого-либо снижения точности. Более того, ускорение было одинаковым, когда они применяли его к более простому решателю с открытым исходным кодом и более мощному коммерческому решателю.

В будущем Ву и ее коллеги хотят применить этот подход для решения еще более сложных задач MILP, где сбор маркированных данных для обучения модели может оказаться особенно сложным. Возможно, они смогут обучить модель на небольшом наборе данных, а затем подстроить ее под решение гораздо более крупной оптимизационной задачи, говорит она. Исследователи также заинтересованы в интерпретации изученной модели, чтобы лучше понять эффективность различных алгоритмов разделения.

Это исследование частично поддержано компанией Mathworks, Национальным научным фондом (NSF), MIT Amazon Science Hub и Комитетом по поддержке исследований MIT.

Показать полностью
Отличная работа, все прочитано!