Горячее
Лучшее
Свежее
Подписки
Сообщества
Блоги
Эксперты
#Круги добра
Войти
Забыли пароль?
или продолжите с
Создать аккаунт
Я хочу получать рассылки с лучшими постами за неделю
или
Восстановление пароля
Восстановление пароля
Получить код в Telegram
Войти с Яндекс ID Войти через VK ID
Создавая аккаунт, я соглашаюсь с правилами Пикабу и даю согласие на обработку персональных данных.
ПромокодыРаботаКурсыРекламаИгрыПополнение Steam
Пикабу Игры +1000 бесплатных онлайн игр Уникальная игра, объединяющая популярные механики Match3 и пошаговые бои!

Магический мир

Мидкорные, Ролевые, Три в ряд

Играть

Топ прошлой недели

  • AlexKud AlexKud 38 постов
  • Animalrescueed Animalrescueed 36 постов
  • Oskanov Oskanov 7 постов
Посмотреть весь топ

Лучшие посты недели

Рассылка Пикабу: отправляем самые рейтинговые материалы за 7 дней 🔥

Нажимая кнопку «Подписаться на рассылку», я соглашаюсь с Правилами Пикабу и даю согласие на обработку персональных данных.

Спасибо, что подписались!
Пожалуйста, проверьте почту 😊

Помощь Кодекс Пикабу Команда Пикабу Моб. приложение
Правила соцсети О рекомендациях О компании
Промокоды Биг Гик Промокоды Lamoda Промокоды МВидео Промокоды Яндекс Директ Промокоды Отелло Промокоды Aroma Butik Промокоды Яндекс Путешествия Постила Футбол сегодня
0 просмотренных постов скрыто
13
SlyVolunteer
SlyVolunteer
1 год назад
Программирование на python

Гайд по PyTorch⁠⁠

3 нейросети за 60 минут

Ноутбук colab: https://colab.research.google.com/drive/1sHLuc6qO5i42oQh_BFq...

PyTorch — это довольно низкоуровневая библиотека по созданию нейросетей, где мы можем управлять созданием слоев, даже непосредственно тензорами и расчётом градиентного спуска.

  • 00:00:00

    Создание нейронной сети

    • • Создание копии нейронной сети с ключом для демонстрации.

    • • Установка библиотек для работы с данными и нейронными сетями.

  • 00:02:41

    Создание трансформатора данных

    • • Создание трансформатора данных для подготовки данных.

    • • Нормализация данных и создание дата лоудера для загрузки данных.

  • 00:06:02

    Создание нейронной сети

    • • Создание линейного слоя нейронной сети с 756 входными нейронами, 128 выходными нейронами и 10 выходными нейронами.

    • • Определение активационных функций для каждого слоя.

  • 00:09:06

    Работа нейронной сети

    • • Демонстрация работы нейронной сети на примере распознавания рукописных цифр.

    • • Подсчет количества параметров в нейронной сети.

  • 00:11:02

    Создание нейронной сети

    • • Создание примитивной нейронной сети на Python с использованием слоев и активационных функций.

    • • Обсуждение важности понимания принципов работы нейронных сетей и использования специальных инструментов для обучения и оптимизации.

  • 00:15:42

    Функция потерь и обучение нейронной сети

    • • Объяснение алгоритма обратного распространения ошибки для обучения нейронной сети.

    • • Обсуждение различных методов ошибок и оптимизаторов для обучения нейронных сетей.

  • 00:18:18

    Оптимизация и обучение нейронной сети

    • • Обсуждение различных оптимизаторов для обучения нейронных сетей, таких как Adam и другие.

    • • Объяснение процесса обучения нейронной сети, включая выбор шага обучения и его изменение в процессе обучения.

  • 00:22:20

    Обучение нейронной сети

    • • В видео объясняется процесс обучения нейронной сети с использованием градиента.

    • • Обучение происходит в рамках одной эпохи, где моделька обучается на всех данных перед обучением.

    • • Оптимизатор обнуляется, и моделька обучается в режиме обучения.

    • • Ошибка между ответом нейронки и правильными ответами рассчитывается и распространяется назад для обучения весов.

  • 00:28:22

    Влияние выбора функции активации

    • • Ступенчатая функция не мешает градиенту, и расчеты градиентов могут быть выполнены даже для недифференцированных функций.

  • 00:29:04

    Вычисление и тестирование

    • • Моделька и тестовый лоудер проверяются на тестовой выборке.

    • • Градиенты отключаются, и ответы нейронки сравниваются с правильными ответами.

    • • Точность нейронки составляет 97,47%.

  • 00:31:20

    Динамическое структурирование нейронной сети

    • • В Keras нейронка жестко прошита, в то время как в Torch можно динамически менять слои.

    • • Это позволяет более гибко управлять графом нейронки и обучением.

  • 00:33:08

    Обучение с подкреплением

    • • Обучение с подкреплением может иметь преимущество, но это зависит от конкретного проекта.

    • • В видео также обсуждается нелинейность и визуализация предсказаний модели.

  • 00:34:56

    Линейность в пространстве весов

    • • В пространстве весов функция становится нелинейной, когда есть два слоя.

    • • В пространстве данных функция остается линейной, так как данные не меняются.

  • 00:42:19

    Нормализация и предобученная модель

    • • Нормализация используется для предобученной модели, которая принимает картинки размера 224x224.

    • • Модель обучена на огромном датасете, и веса уже установлены.

  • 00:45:11

    Использование видеокарты и ускорение обучения

    • • Если есть видеокарта, обучение на ней будет быстрее, чем на процессоре.

    • • Ускорение может быть от 5 до 50 раз.

  • 00:48:05

    Автоэмли библиотеки и цифры

    • • Авто ML библиотеки существуют для Пайторч, но автор не может назвать конкретные.

    • • Цифры, которые умножаются, изначально задаются случайными, а затем оптимизируются в процессе обучения.

  • 00:49:57

    Создание нейронной сети

    • • Создание нейронной сети для классификации изображений с использованием Keras.

    • • Обучение сети на 25 эпох с использованием функции обучения Adam.

    • • Визуализация результатов обучения и оценка точности.

  • 00:53:27

    Визуализация предсказаний модели

    • • Создание линейной сети с 2024, 512, 256, 128, 64 и 32 нейронами.

    • • Использование активационных функций и dropout для предотвращения переобучения.

    • • Обучение модели на 200 эпох с использованием функции средней квадратичной ошибки.

  • 00:57:29

    Обучение и проверка нейронной сети

    • • Обучение модели на проверочных выборках для определения момента остановки обучения.

    • • Остановка обучения, если в течение 20 эпох точность не улучшается.

    • • Обучение нейронной сети на 200 эпох и остановка на 141 эпохе.

  • 01:00:11

    Результаты обучения и выводы

    • • Средняя цена квартиры, предсказанная нейронной сетью, составляет 8 900 000 рублей.

    • • Средняя ошибка составляет 10,85%.

    • • Нейронная сеть показывает точность 400 000 отброса, что в 2,5 раза ниже, чем у реальной цены.

  • 01:03:38

    Влияние драпаутов на обучение

    • • Обсуждение влияния драпаутов на обучение, включая отбрасывание несущественных признаков и изменение корреляции нейронов.

    • • Упоминается, что драпауты могут привести к тому, что нейросети начинают подхватывать себя и обучаться признакам.

  • 01:05:39

    Применение временных рядов

    • • Утверждается, что временные ряды могут быть обучены с помощью нейросетей, таких как пайторч и керос.

    • • Отмечается, что архитектура нейросети играет важную роль в обучении временных рядов.

  • 01:08:17

    Выбор всех пяти из текста

    • • Обсуждается задача выбора всех пяти из текста, которая может быть решена с помощью нейросети.

    • • Упоминается, что это другая задача, чем обучение нейросети.

  • 01:09:30

    Сравнение с другими фреймворками

    • • Сравниваются пайторч и керос, и утверждается, что пайторч используется чаще в реальных проектах.

    • • Упоминается, что пайторч может быть написан на языке программирования C++, но это не было проверено.

Youtube:

VK:

Показать полностью 2
Python Гайд Глубокое обучение Видео YouTube Видео ВК Длиннопост
3
2
user5308564
user5308564
2 года назад

Как нейросети видят пользователей arch⁠⁠

Как нейросети видят пользователей arch Архитектура, Машинное обучение, Искусственный интеллект, Нейронные сети, Глубокое обучение
Показать полностью 1
Архитектура Машинное обучение Искусственный интеллект Нейронные сети Глубокое обучение
3
alexmarned
3 года назад

Для чего в меня запихивали математику многие годы?⁠⁠

В универе было много математики, перед тем в школе. Бесконечные теоремы, методы решения уравнений и задач, признаки и аксиомы - я прилежно учился.


Перед выпуском из университета один из преподавателей профильного предмета немного отвлечённо сказал -"Вся эта математика в действительности работает и отображает реальную ситуацию. Только вот чисел, что бы подставить их в тензоры, нам взять неоткуда. В реальной работе вообще не получится. Есть отдельные исследования,. в которых мы получаем данные, только это всегда лаборатория, сложнейшие комплексные исследования нескольких точек и это всё. То есть только статические данные, по времени на исследования в самом лучшем варианте пять - шесть часов, а ведь у нас динамические процессы измерыемые сотнями метров в секунду и высокие температуры, но никаких даже предположений как это сделать нет. "


И  в своей  работе я никогда не встречал никаких попыток применения какой либо из всех профильных теорий из математики. В журналах как минимум трёх пятилеток вообще все предпочитают построить математическую модель и даже без попыток её объяснить. Техника стала доступнее и модели можно делать без вникания в теорию, тут и красивые графики выдаёт, для статьи большего и не надо. Несколько статей и гораздо легче защищаться.


С месяц назад прочел статью о машинном обучении. Мне его применять почти некуда, стат пакеты дают прогнозы нагляднее, только в статье расписывались шаги по распознаванию текстов и смыслов. А этим я продолжаю заниматься, не в таком масштабе как крупные игроки, но не прекращаю уже пару лет.


И читая статью, осознаю что я двигаются по тем же шагам. И даже в том же порядке, что и передо мной. Остался один шаг - нейронные сети. Нашёл книги по вопросам глубокого обучения а там математика. Та же самая, изучению которой я  отдал годы своей жизни. Те-же вектора, скаляры, матрицы, тензоры, выпуклость / вогнутость, дифференцирование, пределы,  теоремы сходимости и всё остальное до боли знакомое. Вспоминалось всё моментально.


Ну если это применимо в моделировании только в последние десять лет, то зачем тогда  мне это забивали в мозги все университетские годы? К чему нас готовили и не говорили этого вслух, шесть лет математики, применить которую я при всей фантазии не мог. Мне и сейчас нет точки приложения для машинного обучения,  но хоть понял, как эту математику применять. А раньше для чего? Ядерные взрывы моделировать? Вот кто знает ответ на этот вопрос, поделитесь.

Показать полностью
[моё] Программирование Математика Моделизм Бизнес Глубокое обучение Нейронные сети Текст
18
38
Dildodemon
Dildodemon
4 года назад

О хитром админе⁠⁠

Было у меня в городе в конце нулевых небольшое конструкторское бюро. И вот однажды директриса этого КБ вздумала расширить штат сотрудников. Естественно, для этого нужно было закупить компьютеры. Проблемы закупки легли на плечи главного (и единственного) админа.

Админ, не будь дурак, тут же предложил купить б/у компы у своего знакомого директора ООО "Рога и копыта".

У директрисы возник вопрос, почему, собственно, б/у компы стоят дороже таких же, но новых.

Админ не растерялся: несколько дней он навяливал ей на уши что-то типа:
"Елена Сергеевна, эти компы стоят дороже новых потому что они ОБУЧЕННЫЕ! Компьютер - сложная система с возможностью самообучения. Когда компьютер выполняет типовые задачи, он запоминает, как их делать, и в следующий раз выполняет их быстрее".
И всё это время админ размахивал перед директрисой распечатками передовых статей про глубокое обучение и сыпал непонятными словами навроде "ограниченной машины Больцмана".
Про то, что нейросети к бэушным компам отношения не имеют, он упомянуть забыл.

Собственно, спустя два месяца, компы были куплены, а админ с довольной рожей уехал в отпуск в далёкие тёплые страны.

Мораль: будучи руководителем, старайтесь вникать в то, о чем вам говорят подчинённые.

Показать полностью
[моё] Системное администрирование Закупки Нейронные сети Глубокое обучение Обман Работа Текст
10
861
FabLabCFU
4 года назад
Искусственный интеллект

На пути к нейросети⁠⁠

Мы занимаемся разработкой экзоскелета кисти с биологической обратной связью для реабилитации детей с синдромом ДЦП. А точнее, пытаемся обучить нейросеть распознавать сигналы мозга для управления экзокистью.

Хочу рассказать, с чего началось и как продвигается наше исследование.

Несколько месяцев назад мы начали подготовку данных - сняли около 1000 энцефалограмм, которые содержат признаки, характерные для мысленного представления определенных движений кистью. Всего планируем снять 2000 ЭЭГ, но уже сейчас у нас достаточно данных для начала работы.

Следующий этап - установка видеокарты GeForce RTX 3090 c GDDR6 24Гб. Она позволяет обрабатывать большие обучающие выборки благодаря наличию большого объема памяти и использованию технологии CUDA. Но в новизне видеокарты скрывались подводные камни, которые я не без труда, но с успехом преодолел.

На пути к нейросети Нейронные сети, Глубокое обучение, Cuda, Длиннопост, Nvidia, Текст, ЭЭГ

Видеокарта «взлетела» не сразу. Для начала стало ясно, что она не помещается ни в один из имеющихся в наличии корпусов. Был приобретен новый корпус Full Tower и отдельно блок питания на 750Вт. При попытке задействовать возможности CUDA в обучении нейронных сетей возникла следующая проблема – видеокарта слишком новая, фреймворки и библиотеки для искусственного интеллекта (DeepLearning4j, Theano, TensorFlow) её еще не поддерживают. Выход – скачать исходники фреймворков для ИИ и самостоятельно перекомпилировать их для поддержки видеокарты. Однако в процессе оказалось, что эти фреймворки ускоряются не только за счет ресурсов видеокарты, но и требуют поддержки современных инструкций процессора. Был приобретен современный процессор Inter Core I7-10700K с поддержкой AVX, AVX2 команд – , вместе с новой материнской платой и 32 Гб DDR4.


И вот наконец GeForce RTX 3090 смогла продемонстрировать свои возможности!


На первом графике видно, как задействуется память видеокарты и ресурсы GPU при обучении Convolution 1D — сверточной одномерной сети, обрабатывающей временные ряды — данные исследований ЭЭГ. Ранее обучение нейронной сети на этом датасете занимало около 4 часов. На новой видеокарте — порядка 3-4 секунд.

На пути к нейросети Нейронные сети, Глубокое обучение, Cuda, Длиннопост, Nvidia, Текст, ЭЭГ

А вот задача посложнее: LSTM — рекуррентная сеть с долгой краткосрочной памятью. Те же данные считаются дольше — около 2 минут, и нагрузка на GPU выше:

На пути к нейросети Нейронные сети, Глубокое обучение, Cuda, Длиннопост, Nvidia, Текст, ЭЭГ

Видеокарта решает! Раньше при внесении даже небольших изменений в конфигурацию сети, приходилось ждать несколько часов, чтобы понять, каким образом внесенные изменения отобразились на качестве распознавания признаков нейронной сетью. Теперь эта задача существенно облегчается.


Таким образом, видеокарту удалось запустить в Keras, используя только что вышедшее обновление TensorFlow в версии для GPU.

Однако эти решения используют Python, который при всех его положительных качествах (возможность быстрого прототипирования нейронных сетей, развитые библиотеки для работы с данными, простота и скорость разработки приложений) плохо подходит для многопоточных задач, когда в пределах одного приложения надо получать данные с устройства в реальном масштабе времени, обрабатывать их, подавать на вход ИНС, сохранять в файл, управлять внешними устройствами, рисовать данные на экране и т.д.

Поэтому необходимо было получить возможность работать с ИНС в Java-приложениях, но с этим из-за использования слишком нового железа возникли трудности. Описанными в мануалах способами GPU никак не хотел подключаться, и решения на тематических форумах на сайте разработчиков и GitHub не было, а те рецепты решения проблемы, которые советовали разработчики, не помогали.


Возникло понимание, что причина проблемы - в несовместимости ряда библиотек, компонентов фреймворка, с новыми библиотеками CUDA от NVIDIA.

Пришлось скачивать исходники и пытаться собирать библиотеки под необходимые платформы: CUDA 11.* и CuDNN 8.*, что оказалось нетривиальной задачей: имелось несколько тысяч файлов и масса условий окружения для нормальной сборки, а мануалы описывали сборки устаревших версий и не работали с новыми.

Кроме того, в исходных кодах возникали некоторые ошибки компиляции, одинаковые как для компиляции из Windows 10 (VS2019), так и из Ubuntu (gcc).

Удалось скомпилировать, после правки исходных кодов, часть зависимых библиотек проекта - libnd4j, а затем уже с ними библиотеку nd4j-cuda-11.1.


Ранее поддержка проекта рекомендовала использовать snapshots - версии библиотек из специального репозитория:


«we’ll be releasing a version with 11.0 in a bit, for now you can use snapshots and see if that works? https://deeplearning4j.konduit.ai/config/config-snapshots»


Однако, как оказалось, часть необходимых для работы файлов там отсутствовала, и рекомендация не помогла.


https://oss.sonatype.org/service/local/artifact/maven/redire...

404 — Not Found

Path /org/nd4j/nd4j-cuda-11.0/1.0.0-SNAPSHOT/nd4j-cuda-11.0-1.0.0-20201117.023522-181-windows-x86_64.jar not found in local storage of repository «Snapshots» [id=snapshots]


Что и обусловило компиляцию недостающих файлов. К счастью, версия deeplearniung4j для 11.0 версии CUDA импортировалась, и, добавив в проект в виде отдельных jar и dll файлов скомпилированные библиотеки, удалось запустить приложение на видеокарте!


Часть POM файла работоспособного проекта:

На пути к нейросети Нейронные сети, Глубокое обучение, Cuda, Длиннопост, Nvidia, Текст, ЭЭГ

Скомпилированные библиотеки добавлены в зависимости вручную:

На пути к нейросети Нейронные сети, Глубокое обучение, Cuda, Длиннопост, Nvidia, Текст, ЭЭГ

В данном случае - обучение на сравнительном не большом объеме данных заняло 42 минуты 37 секунд, на CPU эта же задача выполнялась более 2500 минут при полной загрузке процессора.


Вот так я сам добавил поддержку современных видеокарт в Deeplearniung4j, чтобы не дожидаться, пока это сделают разработчики.


Спасибо за внимание. Пока мы еще в начале пути, буду продолжать рассказывать о нашей работе!

Показать полностью 5
[моё] Нейронные сети Глубокое обучение Cuda Длиннопост Nvidia Текст ЭЭГ
126
5
chuvpilo
chuvpilo
5 лет назад
Искусственный интеллект

Кто лидирует в искусственном интеллекте в 2020 году? Анализ публикаций конференции по машинному обучению ICML 2020⁠⁠

ПРЕДИСЛОВИЕ


Международная конференция по машинному обучению (International Conference on Machine Learning, или ICML) — одна из самых престижных научных конференций в области искусственного интеллекта (другая — Конференция по нейронным системам обработки информации, или NeurIPS). В 2020 году процент принятых в ICML статей составил 21,8% (22,6% в 2019 году) — в общей сложности было принято 1088 статей из 4990 представленных. Используя материалы конференции (ICML 2020), мы изучили каждую из принятых статей и составили список авторов и связанных с ними организаций, а затем рассчитали индекс публикаций для каждой из этих организаций (см. далее раздел “методология”). Самое интуитивное объяснение понятия “индекс публикаций” — с точки зрения эквивалентных полных статей: индекс публикаций Google, равный 92,2, можно интерпретировать так, как если бы Google опубликовал 92,2 полных статей на ICML 2020.


Мы начнем этот анализ с подробностей методологии, перейдем к рейтингам исследований искусственного интеллекта на ICML 2020, затем покажем интересную описательную статистику, обсудим изменения среди лидеров ICML 2019 и ICML 2020 и, наконец, поделимся ссылкой на наши файлы с данными.



МЕТОДОЛОГИЯ


Методология нашего индекса публикаций получила вдохновение от индекса журнала Nature (Nature Index):


Для определения вклада страны, региона или учреждения в статью и обеспечения того, чтобы они не учитывались более одного раза, индекс Nature использует дробный подсчет (ДП), который учитывает долю авторства по каждой статье. Общая сумма ДП, доступная для каждой статьи, равна 1, и она распределяется между всеми авторами при условии, что каждый из них внес свой вклад в равной степени. Например, статья с 10 авторами означает, что каждый автор получает оценку 0.1. Для авторов, связанных более чем с одним учреждением, авторский ДП затем делится поровну между каждым учреждением. Общая сумма ДП для учреждения рассчитывается путем суммирования ДП для отдельных аффилированных авторов. Этот процесс аналогичен для стран/регионов, хотя и осложняется тем фактом, что некоторые учреждения имеют зарубежные лаборатории, которые будут учитываться при подсчете итоговых данных по принимающей стране/региону.

Единственная разница заключается в том, что наш индекс публикаций учитывает зарубежные лаборатории по стране/региону штаб-квартиры (а не принимающей стране/региону). Это спорный момент, но мы считаем, что такой подход лучше отражает передачу интеллектуальной собственности и соответствующую выгоду, получаемую штаб-квартирой, а не местной лабораторией.


Вот пример расчета индекса публикации. Если у статьи пять авторов — три из Массачусетского технологического института (MIT), один из Оксфордского университета и один из Google, то каждый автор получит 1/5 от одного балла, или 0,2. В результате только из этой статьи MIT увеличит свой индекс публикаций на 3*0,2=0,6 пункта, Оксфордский университет увеличит свой индекс на 0,2, а Google добавит 0,2. Поскольку MIT базируется в Соединенных Штатах, MIT увеличит индекс публикаций США на 0,6. Аналогичным образом, поскольку Оксфордский университет базируется в Великобритании, категория “Европейская экономическая зона + Швейцария” увеличится на 0,2. Наконец, Google является многонациональной корпорацией со штаб-квартирой в Соединенных Штатах, поэтому Соединенные Штаты увеличат свой индекс публикаций еще на 0,2, а общее увеличение составит 0,8. Если у автора несколько аффилированных организаций, мы разделяем его долю на каждую из этих организаций. Например, в приведенном выше случае, если бы последний автор перечислил две аффилированных организации, Google и Стэнфордский университет (а не только Google), то и Google, и Стэнфордский университет получат дополнительные 0,2/2=0,1 балла.



РЕЙТИНГ МИРОВЫХ ЛИДЕРОВ В СФЕРЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА НА ICML 2020


Топ-50 глобальных организаций (коммерческие и научные организации), лидирующих в исследованиях искусственного интеллекта на ICML 2020 (с индексами публикаций):

Кто лидирует в искусственном интеллекте в 2020 году? Анализ публикаций конференции по машинному обучению ICML 2020 Искусственный Интеллект, Машинное Обучение, Глубокое Обучение, Стартап, Длиннопост

1. Google (США) — 92,2

2. Стэнфордский университет (США) — 39,2

3. Массачусетский технологический институт (США) — 38,5

4. Калифорнийский университет в Беркли (США) — 34,2

5. Университет Карнеги-Меллона (США) — 24,0

6. Microsoft (США) — 22,6

7. Facebook (США) — 17,1

8. Принстонский университет (США) — 17,0

9. Оксфордский университет (Великобритания) — 16,3

10. Техасский университет в Остине (США) — 14,3

11. Калифорнийский университет в Лос-Анджелесе (США) — 14,3

12. Университет Дьюка (США) — 14,1

13. Федеральная политехническая школа Лозанны (Швейцария) — 13,9

14. Гарвардский университет (США) — 13,7

15. Корнельский университет (США) — 12,6

16. Швейцарская высшая техническая школа Цюриха (Швейцария) — 12,4

17. Университет Цинхуа (Китай) — 12,3

18. Национальный университет Сингапура (Сингапур) — 12,2

19. Пенсильванский университет (США) — 12,1

20. Технион (Израиль) — 12,1

21. IBM (США) — 10,7

22. Вашингтонский университет (США) — 9,7

23. Калифорнийский университет в Сан-Диего (США) — 9,5

24. Мэрилендский университет (США) — 9,0

25. Пекинский университет (Китай) — 8,9

26. Технологический институт Джорджии (США) — 8,8

27. Иллинойский университет в Урбана-Шампейне (США) — 8,7

28. Висконсинский университет в Мадисоне (США) — 8,7

29. Университет Торонто (Канада) — 8,3

30. MILA — Институт обучающихся алгоритмов Монреаля (Канада) — 8,0

31. KAIST — Корейский институт передовых технологий (Южная Корея) — 8,0

32. Техасский университет A&M (США) — 7,9

33. RIKEN — Институт физико-химических исследований (Япония) — 7,8

34. Кембриджский университет (Великобритания) — 7,8

35. Колумбийский университет (США) — 7,8

36. Массачусетский университет в Амхерсте (США) — 7,5

37. INRIA — Государственный институт исследований в информатике и автоматике (Франция) — 7,5

38. Нью-Йоркский университет (США) — 7,1

39. Университетский колледж Лондона (Великобритания) — 6,8

40. Университет Южной Калифорнии (США) — 6,8

41. Йельский университет (США) — 6,6

42. Яндекс (Россия) — 6.0

43. Шанхайский Университет Цзяо Тун (Китай) — 5,7

44. Университет Миннесоты (США) — 5,6

45. Чикагский университет (США) — 5,6

46. Университет Макгилла (Канада) — 5,5

47. Сеульский национальный университет (Южная Корея) — 5,5

48. Тюбингенский университет (Германия) — 5,5

49. Университет Альберты (Канада) — 5,4

50. Университет Райса (США) — 5,3


Топ-20 американских университетов, лидирующих в исследованиях искусственного интеллекта на ICML 2020 (с индексами публикаций):

Кто лидирует в искусственном интеллекте в 2020 году? Анализ публикаций конференции по машинному обучению ICML 2020 Искусственный Интеллект, Машинное Обучение, Глубокое Обучение, Стартап, Длиннопост

1. Стэнфордский университет — 39,2

2. Массачусетский технологический институт — 38,5

3. Калифорнийский университет в Беркли — 34,2

4. Университет Карнеги-Меллона — 24,0

5. Принстонский университет — 17,0

6. Техасский университет в Остине — 14,3

7. Калифорнийский университет в Лос-Анджелесе — 14,3

8. Университет Дьюка — 14,1

9. Гарвардский университет — 13,7

10. Корнельский университет — 12,6

11. Пенсильванский университет — 12,1

12. Вашингтонский университет — 9,7

13. Калифорнийский университет в Сан-Диего— 9,5

14. Мэрилендский университет — 9,0

15. Технологический институт Джорджии — 8,8

16. Иллинойский университет в Урбана-Шампейне — 8,7

17. Висконсинский университет в Мадисоне — 8,7

18. Техасский университет A&M — 7,9

19. Колумбийский университет — 7,8

20. Массачусетский университет в Амхерсте — 7,5


Топ-20 университетов мира, лидирующих в исследованиях искусственного интеллекта на ICML 2020 (с индексами публикаций):

Кто лидирует в искусственном интеллекте в 2020 году? Анализ публикаций конференции по машинному обучению ICML 2020 Искусственный Интеллект, Машинное Обучение, Глубокое Обучение, Стартап, Длиннопост

1. Стэнфордский университет (США) — 39,2

2. Массачусетский технологический институт (США) — 38,5

3. Калифорнийский университет в Беркли (США) — 34,2

4. Университет Карнеги-Меллона (США) — 24,0

5. Принстонский университет (США) — 17,0

6. Оксфордский университет (Великобритания) — 16,3

7. Техасский университет в Остине (США) — 14,3

8. Калифорнийский университет в Лос-Анджелесе (США) — 14,3

9. Университет Дьюка (США) — 14,1

10. Федеральная политехническая школа Лозанны (Швейцария) — 13,9

11. Гарвардский университет (США) — 13,7

12. Корнельский университет (США) — 12,6

13. Швейцарская высшая техническая школа Цюриха (Швейцария) — 12,4

14. Университет Цинхуа (Китай) — 12,3

15. Национальный университет Сингапура (Сингапур) — 12,2

16. Пенсильванский университет (США) — 12,1

17. Технион (Израиль) — 12,1

18. Университет Вашингтона (США) — 9,7

19. Калифорнийский университет в Сан-Диего (США) — 9,5

20. Мэрилендский университет (США) — 9,0


Топ-20 глобальных компаний, лидирующих в исследованиях искусственного интеллекта на ICML 2020 (с индексами публикаций):

Кто лидирует в искусственном интеллекте в 2020 году? Анализ публикаций конференции по машинному обучению ICML 2020 Искусственный Интеллект, Машинное Обучение, Глубокое Обучение, Стартап, Длиннопост

1. Google (США) — 92,2

2. Microsoft (США) — 22,6

3. Facebook (США) — 17,1

4. IBM (США) — 10,7

5. Яндекс (Россия) — 6,0

6. Amazon (США) — 5,2

7. OpenAI (США) — 4.4

8. Criteo (Франция) — 4,4

9. Uber(США) — 4,3

10. Samsung (Южная Корея) — 4,2

11. Baidu (Китай) — 3,9

12. Apple (США) — 3,7

13. Alibaba (Китай) — 2,8

14. Huawei (Китай) — 2,6

15. Intel (США) — 2,1

16. NVIDIA (США) — 2,0

17. Qualcomm (США) — 2,0

18. NEC (Япония) — 1,8

19. Salesforce (США) — 1,7

20. Bosch (Германия) — 1,6



ДАЛЬНЕЙШИЙ АНАЛИЗ


Top-50 глобальных организаций (коммерческие и научные организации) — сравнение количества статей на ICML 2019 и ICML 2020 (с индексами публикаций):

Кто лидирует в искусственном интеллекте в 2020 году? Анализ публикаций конференции по машинному обучению ICML 2020 Искусственный Интеллект, Машинное Обучение, Глубокое Обучение, Стартап, Длиннопост

1. Google: +19,4

2. Стэнфордский университет: +14,7

3. Массачусетский технологический институт: +15,4

4. Калифорнийский университет в Беркли: +10,0

5. Университет Карнеги-Меллона: +4,8

6. Microsoft: +5,9

7. Facebook: +7.6

8. Принстонский университет: +6,3

9. Оксфордский университет: +2,7

10. Техасский университет в Остине: +3,4

11. Калифорнийский университет в Лос-Анджелесе: +5,9

12. Университет Дьюка: +6,9

13. Федеральная политехническая школа Лозанны: +4,3

14. Гарвардский университет: +6,7

15. Корнельский университет: +2,0

16. Швейцарская высшая техническая школа Цюриха: +0,3

17. Университет Цинхуа: +2,8

18. Национальный университет Сингапура: +9,7

19. Пенсильванский университет: +8,1

20. Технион: +3,9

21. IBM: +0.3

22. Вашингтонский университет: +0,6

23. Калифорнийский университет в Сан-Диего: +7.2

24. Мэрилендский университет: +4,7

25. Пекинский университет: +3,1

26. Технологический институт Джорджии: -5,7

27. Иллинойский университет в Урбана-Шампейне: -0,8

28. Висконсинский университет в Мадисоне: +4,7

29. Университет Торонто: +1,8

30. MILA — Институт обучающихся алгоритмов Монреаля: +4.3

31. KAIST — Корейский институт передовых технологий: -3.1

32. Техасский университет A&M: +5,1

33. RIKEN — Институт физико-химических исследований: +2.2

34. Кембриджский университет: +1,7

35. Колумбийский университет: +1,9

36. Массачусетский университет в Амхерсте: +3,3

37. INRIA — Государственный институт исследований в информатике и автоматике: +1,0

38. Нью-Йоркский университет: +3,4

39. Университетский колледж Лондона: +2,6

40. Университет Южной Калифорнии: +2,4

41. Йельский университет: +3,0

42. Яндекс: +4.3

43. Шанхайский Университет Цзяо Тун: +3,5

44. Университет Миннесоты: +2,2

45. Чикагский университет: +3,0

46. Университет Макгилла: +1,7

47. Сеульский национальный университет: -1,8

48. Тюбингенский университет: +4,5

49. Университет Альберты: +3,2

50. Университет Райса: +3,9


Облако слов названий статей на ICML 2020:

Кто лидирует в искусственном интеллекте в 2020 году? Анализ публикаций конференции по машинному обучению ICML 2020 Искусственный Интеллект, Машинное Обучение, Глубокое Обучение, Стартап, Длиннопост

ОБСУЖДЕНИЕ


Давайте посмотрим, что изменилось в авторстве статей на ICML 2019 и ICML 2020 (данные за 2019 год см. в нашем рейтинге искусственного интеллекта на ведущих конференциях за 2019 год, где мы объединили статистику по NeurIPS 2019 и ICML 2019). Как видно в статистике, пятью ведущими мировыми организациями, лидирующими в исследованиях искусственного интеллекта, по-прежнему являются Google, Стэнфордский университет, Массачусетский технологический институт, Калифорнийский университет в Беркли и Университет Карнеги-Меллона. Каждый из них значительно увеличил свой индекс публикаций на ICML 2020 по сравнению с ICML 2019: Google опубликовал эквивалент дополнительных 19,4 статей на ICML 2020, Стэнфордский университет вырос на 14,7, Массачусетский технологический институт вырос на 15,4, Калифорнийский университет в Беркли вырос на 10,0, а Университет Карнеги-Меллона вырос на 4,8. Как и в гонке Красной Королевы Льюиса Кэрролла, ведущие исследователи каждый год вынуждены публиковать всё больше статей, чтобы сохранить своё лидерство.


«Нужно бежать со всех ног, чтобы только оставаться на месте, а чтобы куда-то попасть, надо бежать как минимум вдвое быстрее!». (Льюис Кэрролл)


ДАННЫЕ


Поскольку конференции не публикуют данные о статьях в стандартной форме, нам пришлось делать анализ вручную (анализ HTML, преобразования в Python, стандартизация названий организаций и исправление опечаток авторов, объединение в сводную таблицу). Если Вы обнаружите какие-либо ошибки, пожалуйста, напишите нам, и мы будем рады их исправить. Если Вы хотите скачать наш файл с данными, он размещен здесь. Желаем успехов!



О СЕБЕ


Меня зовут Глеб Чувпило, и я управляющий партнер венчурной компании Thundermark Capital, инвестирущей в стартапы в области искусственного интеллекта и робототехники. Я получил степень магистра в Лаборатории компьютерных наук и искусственного интеллекта Массачусетского технологического института и степень MBA в области финансов и стратегического менеджмента в Уортонской школе бизнеса Пенсильванского университета. Вы можете прочитать обо мне здесь. Пожалуйста, напишите мне по адресу gleb@thundermark.com если Вы хотите поговорить об искусственном интеллекте, робототехнике, инновациях вообще или о своей идее для стартапа в частности. 🤖

Показать полностью 6
[моё] Искусственный Интеллект Машинное Обучение Глубокое Обучение Стартап Длиннопост
4
39
Mike317
5 лет назад
Искусственный интеллект

Искусственный интеллект позволяет менять черты лица и эмоции в реальном времени⁠⁠

Искусственный интеллект Машинное обучение Глубокое обучение Видео
10
24
Mike317
5 лет назад
Искусственный интеллект

Этот робот вкалывает лучше людей⁠⁠

Искусственный интеллект Машинное обучение Глубокое обучение Artificial Intelligence: Ai Deep learning Видео
43
Посты не найдены
О нас
О Пикабу Контакты Реклама Сообщить об ошибке Сообщить о нарушении законодательства Отзывы и предложения Новости Пикабу Мобильное приложение RSS
Информация
Помощь Кодекс Пикабу Команда Пикабу Конфиденциальность Правила соцсети О рекомендациях О компании
Наши проекты
Блоги Работа Промокоды Игры Курсы
Партнёры
Промокоды Биг Гик Промокоды Lamoda Промокоды Мвидео Промокоды Яндекс Директ Промокоды Отелло Промокоды Aroma Butik Промокоды Яндекс Путешествия Постила Футбол сегодня
На информационном ресурсе Pikabu.ru применяются рекомендательные технологии