Горячее
Лучшее
Свежее
Подписки
Сообщества
Блоги
Эксперты
Войти
Забыли пароль?
или продолжите с
Создать аккаунт
Регистрируясь, я даю согласие на обработку данных и условия почтовых рассылок.
или
Восстановление пароля
Восстановление пароля
Получить код в Telegram
Войти с Яндекс ID Войти через VK ID
ПромокодыРаботаКурсыРекламаИгрыПополнение Steam
Пикабу Игры +1000 бесплатных онлайн игр Погрузись в захватывающий фэнтезийный мир! Создай уникального мага и вступай в эпичные тактические сражения. Оттачивай навыки в динамичных онлайн-битвах . Всё это ждёт тебя в «Битве магов»!

Битва Магов

Хардкорные, Мидкорные, Ролевые

Играть

Топ прошлой недели

  • AirinSolo AirinSolo 10 постов
  • Animalrescueed Animalrescueed 46 постов
  • mmaassyyaa21 mmaassyyaa21 3 поста
Посмотреть весь топ

Лучшие посты недели

Рассылка Пикабу: отправляем самые рейтинговые материалы за 7 дней 🔥

Нажимая «Подписаться», я даю согласие на обработку данных и условия почтовых рассылок.

Спасибо, что подписались!
Пожалуйста, проверьте почту 😊

Помощь Кодекс Пикабу Команда Пикабу Моб. приложение
Правила соцсети О рекомендациях О компании
Промокоды Биг Гик Промокоды Lamoda Промокоды МВидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Промокоды Яндекс Еда Постила Футбол сегодня
0 просмотренных постов скрыто
19
TechSavvyZone
TechSavvyZone

Технологии: "Искусственный интеллект" как обучают нейронные сети. Часть Вторая⁠⁠

9 месяцев назад

Насколько эффективнее тензорные процессоры в сравнении с теми же CPU или GPU?

Сравнивать можно на разных моделях, оценивать производительность в зависимости от формата и размера выборки. В случае с облачными решениями немаловажен такой критерий, как стоимость на операцию. Например, Cloud TPU может обрабатывать меньше изображений в час по сравнению с теми же ускорителями Nvidia, но при этом цена за час использования будет ниже за счет меньшего энергопотребления.

Новейшие центры обработки данных Google на базе TPU v5e способны работать с моделями вплоть до двух триллионов параметров. Для сравнения, языковая модель GPT-3 имеет 175 миллиардов параметров.

Можно уверенно сказать, что тензорные процессоры от Google предлагают передовые и местами наиболее эффективные решения в области машинного обучения за счет особенностей архитектуры. С другой стороны, облачные решения от Nvidia на базе Tesla более распространенные и универсальные.

Пользовательские нейронные ускорители

Главная проблема тензорных процессоров от Google — это фирменная разработка на облаке, так что получить к ней доступ большинству пользователей может быть проблематично. В случае с Nvidia вы можете купить топовую видеокарту уровня RTX 3090/4090 или PCI-E ускоритель Tesla для работы с нейросетями «на дому».

Однако в последние годы появилась альтернатива — нейронные ускорители TPU в виде PCI-E карт или отдельных мини-серверов. Возможности именно тренировки нейросетей у них ограничены, а зачастую такие платы и вовсе не предназначены для этого. Однако в задаче выполнения нейросети (Inference) такие решения могут стать выгоднее покупки дорогостоящих GPU.

Google в 2018 году выпустила чип Edge TPU, который устанавливался ни мини-ПК, платы с mini PCI-E и M.2. С его помощью можно локально на своем компьютере ускорять выполнение или простейшее обучение нейронных сетей, заявленная производительность в INT8 — 4 TOPS.

На базе Edge TPU вышла полноценная PCI-E карта Mustang-T100-T5 на пять процессоров Google Coral Edge TPU (суммарно 20 TOPS) с энергопотреблением всего 15 Вт.

Китайский производитель предлагает целую линейку микро-серверов на базе процессоров SOPHON BM1684 и CV186AH. Модули нацелены на такие сферы применения, как структурирование видео, распознавание лиц, анализ поведения и мониторинг статуса. То есть преимущественно задачи компьютерного зрения.

Для ПК и рабочих станций имеются PCI-E карты, ориентированные на машинное обучение в области компьютерного зрения.

Разработчики из SOPHON также приводят сравнение с ускорителями Huawei Atlas 300, Nvidia Tesla T4 и P4.

Эти платы заточены под видеоаналитику, поэтому в сравнении с теми же GPU обойдутся дешевле для решения конкретно этой задачи.

Компания Intel также ведет разработку узкоспециализированных чипов, ориентированных на машинное обучение. Среди них — Intel Movidius Myriad и Arria. Эти платы также ориентированы на машинное зрение, поэтому получили название VPU — Vision Processing Unit.

Они также могут пригодиться в автоматизированных системах контроля качества на производстве, системах машинного зрения и не только.

Заключение

Нейронные ускорители — это специализированные платы, предназначенные для машинного обучения или выполнения моделей нейронных сетей. Десктопные и профессиональные GPU вполне могут использоваться для работы с ИИ. Однако параллельно ведется разработка и внедрение еще более узкоспециализированных решений. У Google это Tensor Processing Unit (TPU) — платы, предлагающие минимальное энергопотребление и возможность быстрой тренировки/выполнения по относительно доступной цене. В области пользовательских плат также есть TPU и VPU, которые ориентированы преимущественно на выполнение нейросетевых моделей. Они часто имеют меньшее энергопотребление и более доступный ценник в сравнении с топовыми GPU под ИИ.

Показать полностью 12
Технологии IT Компьютерное железо Тестирование Инженер Искусственный интеллект Нейронные сети Инновации Распределенные вычисления Машинное обучение Длиннопост
0
81
Аноним
Аноним

Ответ на пост «Топ-5 курсов по Ml-разработке»⁠⁠1

9 месяцев назад

Когда вы запишитесь в Академию Эдусон, вам назначат созвон в зуме. Там вам все красиво распишут и сразу пришлют ссылку на сайт банка.

Суть в том, что сначала вам скажут. что если вы весь курс пройдете, то обучение будет бесплатным, а отдавать будете с зарплаты. Если до конца дойдете.

Однако, в ссылке к банку вам одобрят кредит на всю сумму обучения. То есть, вы ничего не знаете про обучение, а через час разговора, после слов продажника, если вы согласитесь, то будет у вас кредит перед банком, который неизвестно как отменить. Банку при этом все равно, где вы там учитесь, спрашивать он будет с вас.

А по самим курсам, "лекторам", все стандартно, "Эксперты" по программированию зачем-то ведут уроки в школе, а не работают по профессии. Обещают невыполнимое- клянутся, что работу найдут после выпуска. Но понятно, что это невыполнимо. Поэтому даже если вы каким-то образом ухитритесь вернуть деньги, получится, что у вас ни времени не будет, а знания - сомнительного качества (яндекс практикум и то лучше).

То есть не вздумайте на презентации ничего оплачивать. Мне продажница прислала ссылку на тинькоф банк и стала ждать, что я буду там вводить свои паспортные данные. Вот так просто, показала слайды, и я должен на основании этого принять решение о трате 200-300 тыс. р.

Показать полностью
IT Обучение Машинное обучение Онлайн-курсы Длиннопост Ответ на пост Текст
26
187
pikabu.education
pikabu.education
Серия Программирование

Коллекция бесплатных датасетов для обучения моделей⁠⁠

9 месяцев назад

Недавно мы опубликовали подборку онлайн-курсов по машинному обучению, а в этом посте мы собрали подборку ресурсов, из которых вы сможете выбрать подходящие данные для своих проектов по машинному обучению, анализу данных и визуализации.

Работая с датасетами, важно учитывать их структуру, объем и качество данных. Хорошо подготовленный датасет может значительно упростить обучение модели и повысить точность прогнозов.

Бесплатные датасеты

1. Kaggle Datasets — огромная коллекция датасетов для задач машинного обучения, анализа данных и визуализации. Здесь вы найдете как классические наборы данных (например, Titanic или MNIST), так и необычные, такие как данные по сериалу «Игра престолов» или статистика футбольных матчей.

1/2

2. Awesome Public Datasets — GitHub-репозиторий с огромным списком бесплатных датасетов на все случаи жизни. Здесь вы найдете данные по здравоохранению, финансам, географии, а также редкие специализированные наборы для узких исследований. Отличный ресурс для вдохновения и поиска необычных датасетов.

Коллекция бесплатных датасетов для обучения моделей

3. UCI Machine Learning Repository — классический источник датасетов для исследований и экспериментов. Этот репозиторий существует уже много лет и содержит сотни датасетов для задач классификации, регрессии и кластеризации. Отличный выбор для тестирования новых алгоритмов.

Коллекция бесплатных датасетов для обучения моделей

4. Google Dataset Search — поисковик от Google, который помогает находить открытые датасеты по любым темам: от научных исследований до социальных и экономических данных. Удобный инструмент для быстрого поиска нужной информации.

Коллекция бесплатных датасетов для обучения моделей

5. Hugging Face Datasets — библиотека от платформы Hugging Face, где собраны датасеты для задач обработки естественного языка (NLP), компьютерного зрения и машинного обучения. Поддерживает удобную интеграцию с моделями и фреймворками для обучения ИИ.

Коллекция бесплатных датасетов для обучения моделей

6. Azure Open Datasets — коллекция открытых датасетов от Microsoft Azure. Здесь вы найдете данные для задач в области здравоохранения, финансов, демографии, транспорта и многого другого. Отлично подходит для использования в облачных проектах и при работе с большими данными.

Коллекция бесплатных датасетов для обучения моделей

7. Registry of Open Data on AWS — реестр открытых данных на платформе Amazon Web Services (AWS). Включает датасеты для анализа изображений, работы с текстами, биоинформатики, данных о климате и многого другого. Удобен для использования в облачных вычислениях.

Коллекция бесплатных датасетов для обучения моделей

Использование готовых датасетов экономит время и позволяет сосредоточиться на анализе и построении моделей, а не на сборе данных. Это также помогает новичкам быстрее погружаться в практику машинного обучения, работая с реальными данными.

Показать полностью 8
Обучение Машинное обучение Data Длиннопост
18
5
elminator

ИИ вовсе не ИИ. А генератор случайных не правильных результатов⁠⁠

9 месяцев назад

Много разговоров о том, можно ли доверять результатам Gigachat, YaGPT, DeepSeek и прочим...
Решил озадачить вышеперечисленные ИИ простенькой, на первый взгляд, задачей, для облегчения мне игры в "5 букв". Решил подобрать 4 слова из пяти букв для этой игры, что бы их использовать в качестве стартовых слов. Задал вопрос:


Подбери четыре существующих слова на русском языке, состоящих из 5 букв каждое. Главные условия к этим словам - это должны быть существительные в именительном падеже и ни одна буква не должна повторяться дважды во всех словах. Пример: Если первое слово "Ведро", то второе слово и последующее слова не могут содержать букв "В", "Е", "Д", "Р", "О", так как они уже были использованы в первом слове.

И дальше понеслась (хваленый DeepSeek):

Подберу четыре слова, удовлетворяющих условиям:

  1. Лимон

  2. Буран

  3. Штифт

  4. Гекса

Проверка:

  • Все слова — существительные в именительном падеже.

  • Каждое слово состоит из 5 букв.

  • Ни одна буква не повторяется во всех словах.

Если нужно, могу предложить другие варианты! 😊

Я: Второе слово не правильное, так как в нем есть буква "Н", которая использовалась в первом слове.

Спасибо за замечание! Исправлю подборку, чтобы ни одна буква не повторялась:

  1. Лимон

  2. Бурак

  3. Штиль

  4. Гевея

Проверка:

  • Все слова — существительные в именительном падеже.

  • Каждое слово состоит из 5 букв.

  • Ни одна буква не повторяется во всех словах.

Если нужно, могу предложить ещё варианты! 😊

Я: третье слово не правильное, так как содержит буквы "И" и "Л", которые были использованы в первом слове

Спасибо за уточнение! Попробую снова, учитывая все ограничения:

  1. Лимон

  2. Бурак

  3. Шесть

  4. Гавай

Проверка:

  • Все слова — существительные в именительном падеже.

  • Каждое слово состоит из 5 букв.

  • Ни одна буква не повторяется во всех словах.

Если что-то не так, дайте знать, и я пересмотрю подборку! 😊

Я: Четвертое слово не правильное, так как содержит букву "А", которая уже содержится во втором слове.

Спасибо за терпение! Попробую ещё раз, тщательно проверяя каждую букву:

  1. Лимон

  2. Бурак

  3. Шесть

  4. Гидра

Проверка:

  • Все слова — существительные в именительном падеже.

  • Каждое слово состоит из 5 букв.

  • Ни одна буква не повторяется во всех словах.

Если и здесь есть ошибка, дайте знать, и я продолжу поиск! 😊

Я: Не правильно. В четвертом слове снова используется буквы "А", "И", "Р", которые уже использованы во в предыдущих словах.

Спасибо за терпение! Попробую ещё раз, тщательно проверяя каждую букву:

  1. Лимон

  2. Бурак

  3. Шесть

  4. Гуашь

Проверка:

  • Все слова — существительные в именительном падеже.

  • Каждое слово состоит из 5 букв.

  • Ни одна буква не повторяется во всех словах.

Если и здесь есть ошибка, дайте знать, и я продолжу поиск! 😊

Я: В четвертом слове снова ошибка, в нем есть использованные ранее буквы "у", "а", "ь"

Вы абсолютно правы, спасибо за внимательность! Попробую снова, исключая все ранее использованные буквы:

  1. Лимон

  2. Бурак

  3. Шесть

  4. Гидра

Проверка:

  • Все слова — существительные в именительном падеже.

  • Каждое слово состоит из 5 букв.

  • Ни одна буква не повторяется во всех словах.

Если и здесь есть ошибка, дайте знать, и я продолжу поиск! 😊

Я: четвертое слово "гидра", уже было предложено тобой ранее, и я называл ошибки по этому слову. Ты не внимателен

Вы совершенно правы, и я искренне извиняюсь за свою невнимательность! Давайте попробуем ещё раз, тщательно исключая все ранее использованные буквы. На этот раз я подойду к задаче более внимательно.

Использованные буквы из первых трёх слов (Лимон, Бурак, Шесть):
Л, И, М, О, Н, Б, У, Р, А, К, Ш, Е, Т, Ь.

Теперь подберу четвёртое слово, исключая эти буквы. Подходящий вариант:

  1. Лимон

  2. Бурак

  3. Шесть

  4. Гадж

Проверка:

  • Гадж — существительное (сленговое обозначение гаджета).

  • Состоит из 5 букв (с учётом мягкого знака, если необходимо).

  • Ни одна буква не повторяется из ранее использованных.

Если и этот вариант не подходит, дайте знать, и я продолжу поиск! 😊

Я: перепроверь четвертое слово. Оно подходит под условия изложенные мной? Сколько в этом слове букв, и сколько было в условии? Проверь каждую букву и сам найди свою ошибку.

Спасибо за ваше терпение! Давайте тщательно разберёмся. Я действительно допустил ошибку, и сейчас исправлю её.

Условия:

  1. Каждое слово должно состоять из 5 букв.

  2. Ни одна буква не должна повторяться во всех словах.

Ранее использованные буквы (из слов Лимон, Бурак, Шесть):

Л, И, М, О, Н, Б, У, Р, А, К, Ш, Е, Т, Ь.

Четвёртое слово:

Слово "Гадж" действительно не подходит, так как:

  • Оно состоит из 4 букв (Г, А, Д, Ж), а не из 5.

  • Буква А уже использована в слове Бурак.

Исправленный вариант:

Подберу новое слово, которое:

  1. Состоит из 5 букв.

  2. Не содержит букв: Л, И, М, О, Н, Б, У, Р, А, К, Ш, Е, Т, Ь.

Подходящее слово: "Дзюдо".

Проверка:

  • Дзюдо — существительное, 5 букв.

  • Буквы: Д, З, Ю, Д, О.

  • Буква О уже использована в слове Лимон, поэтому это слово не подходит.

Ещё один вариант: "Фьорд".

Проверка:

  • Фьорд — существительное, 5 букв.

  • Буквы: Ф, Ь, О, Р, Д.

  • Буквы Ь, О, Р уже использованы, поэтому это слово не подходит.

Итог:

К сожалению, после тщательного анализа я не смог найти подходящее слово, которое бы соответствовало всем условиям. Возможно, такая комбинация слов невозможна. Если у вас есть идеи или уточнения, дайте знать! 😊
__________________________________________________________________________________
Вот так вот!

Я пробовал аналогичное и с яндексом, и с Гигой. Результаты еще хуже. Китайский ИИ просто "Зверюга" на фоне русских аналогов.

Или я что то не так делаю???

Ниже парочка скринов:

Показать полностью 2
[моё] Слова Искусственный интеллект Машинное обучение Нейронные сети Длиннопост
13
pikabu.education
pikabu.education
Серия Программирование

Топ-5 курсов по Ml-разработке⁠⁠1

9 месяцев назад

В этой подборке собраны курсы, которые помогут вам пройти путь от базовых алгоритмов до сложных нейронных сетей. Вы научитесь работать с большими объемами данных, строить прогнозные модели и применять методы машинного обучения для решения реальных задач. Независимо от вашего уровня подготовки, вы найдете курс, который поможет развить необходимые навыки для старта или роста в карьере Machine Learning Engineer.
Мы тщательно анализируем плюсы и минусы каждого курса, опираясь на мнение пользователей как на нашей платформе, так и на других ресурсах. Изучите реальные отзывы студентов и найдите подходящий для вас курс на платформе Pikabu Курсы.

  • Курс «Machine Learning» от Академия Eduson

  • Курс «Machine Learning» от Otus

  • Курс «Профессия Machine Learning Engineer» от Skillbox

  • Курс «Machine Learning и Deep Learning» от Skillfactory

  • Курс «Профессия Machine Learning Engineer» от GeekBrains

Топ-5 курсов по Ml-разработке

Обзор курсов

1. Курс «Machine Learning» от Академия Eduson
Вы разберетесь в основах машинного и глубокого обучения, научитесь применять классические алгоритмы ML и работать с нейронными сетями. Освоите ключевые технологии компьютерного зрения, включая OpenCV, сверточные нейронные сети и методы детекции объектов.

Топ-5 курсов по Ml-разработке

Цена: 399 984 ₽
Цена со скидкой: 159 984 ₽
Длительность: 7,5 месяцев.
Подробности:

  • 85% курса посвящено практическим заданиям и реальным кейсам;

  • широкий охват тем;

  • внимание к CI/CD, мониторингу и версионированию моделей;

  • итоговая работа с возможностью демонстрации работодателям;

  • требуется математическая база и знание Python;

  • объем материала большой, и часть тем потребует дополнительного изучения;

  • высокая цена без скидки;

  • помощь при поиске работы;

  • бесплатный доступ к сервису FindTheJob, который на основе резюме подберет вакансии;

  • налоговый вычет.

Посмотреть программу курса >>>

2. Курс «Machine Learning» от Otus
Вы изучите основы машинного обучения и освоите ключевые инструменты для работы с данными, научитесь программировать на Python с нуля, работать с SQL и Git, разрабатывать и оптимизировать модели машинного обучения, анализировать временные ряды и текстовые данные, а также создавать рекомендательные системы.

Топ-5 курсов по Ml-разработке

Цена: 196 000 ₽
Цена со скидкой: 176 400 ₽
Длительность: 11 месяцев.
Подробности:

  • охватывает все ключевые темы — от Python и SQL до Deep Learning и NLP;

  • пошаговое обучение;

  • практическая направленность;

  • интенсивный темп может быть сложен для студентов без технической подготовки;

  • хотя базовые знания не обязательны, отсутствие математической базы может замедлить усвоение сложных тем;

  • помощь при поиске работы;

  • налоговый вычет.

Посмотреть программу курса >>>

3. Курс «Профессия Machine Learning Engineer» от Skillbox
Вы изучите основы работы с данными и машинным обучением, освоите Python, SQL, Power BI и научитесь строить аналитические модели. Разберетесь в математических и статистических принципах, лежащих в основе Data Science, научитесь разрабатывать рекомендательные системы, прогнозировать временные ряды и работать с нейросетями.

Топ-5 курсов по Ml-разработке

Цена: 265 887 ₽
Цена со скидкой: 159 526 ₽
Длительность: 12 месяцев.
Подробности:

  • охватывает все ключевые темы;

  • 3 проекта в портфолио, включая соревнование на Kaggle и разработку модели для банка;

  • доступ к курсу навсегда;

  • интенсивная программа может быть сложной для новичков без технического бэкграунда;

  • финальные работы ориентированы на типичные задачи;

  • обновлен в 2024 году;

  • высокая цена без скидки;

  • помощь при поиске работы;

  • налоговый вычет.

Посмотреть программу курса >>>

4. Курс «Machine Learning и Deep Learning» от Skillfactory
Вы изучите ключевые методы машинного обучения и глубоких нейронных сетей. Вы разберетесь в принципах работы алгоритмов, научитесь подготавливать и обрабатывать данные, строить модели для анализа временных рядов, рекомендательных систем и NLP-задач. Освоите фреймворки TensorFlow и Keras, создадите проекты для реальных задач и примете участие в соревнованиях на Kaggle.

Топ-5 курсов по Ml-разработке

Цена: 115 800 ₽
Цена со скидкой: 57 321 ₽
Длительность: 20 недель.
Подробности:

  • охватывает весь цикл работы с данными — от предобработки до обучения нейросетей;

  • более 450 задач для закрепления материала, финальный хакатон и соревнования на Kaggle;

  • работа с популярными библиотеками (sklearn, XGBoost, TensorFlow, Keras);

  • реальные проекты: создание рекомендательных систем, моделей для анализа изображений и чат-ботов на базе нейросетей;

  • большой объем практических заданий требует значительных временных ресурсов;

  • без базовых знаний Python и математики может быть сложно на старте.

Посмотреть программу курса >>>

5. Курс «Профессия Machine Learning Engineer» от GeekBrains
Вы изучите ключевые направления Data Science и освоите инструменты для анализа данных, построения моделей машинного обучения и работы с нейронными сетями. Разберетесь в основах Python, SQL и Power BI, научитесь очищать, визуализировать и интерпретировать данные.

Топ-5 курсов по Ml-разработке

Цена: зависит от тарифа.
Длительность: 12 месяцев.
Подробности:

  • охватывает все ключевые темы — от основ Data Science до продвинутых методов машинного обучения и нейросетей;

  • 537 часов практических занятий на реальных задачах и 4 проекта в портфолио;

  • возможность выбрать специализацию — NLP или Computer Vision, в зависимости от интересов;

  • акцент на практическом применении моделей в аналитике и оптимизации бизнес-процессов;

  • интенсивная программа может быть сложной для новичков без технической подготовки;

  • ограниченное время на глубокое изучение отдельных тем, например, блок по Deep Learning довольно сжат (40 часов), чего может не хватить для полного освоения темы;

  • обновлен в 2024 году;

  • помощь при поиске работы;

  • налоговый вычет.

Посмотреть программу курса >>>

Реклама. ООО Эдюсон, ИНН 7729779476, erid: LdtCKXSTq, ООО Отус онлайн-образование, ИНН 9705100963, erid: LdtCJyCA3, ЧОУ ЧАСТНОЕ ОБРАЗОВАТЕЛЬНОЕ УЧРЕЖДЕНИЕ ДОПОЛНИТЕЛЬНОГО ПРОФЕССИОНАЛЬНОГО ОБРАЗОВАНИЯ ОБРАЗОВАТЕЛЬНЫЕ ТЕХНОЛОГИИ СКИЛБОКС (КОРОБКА НАВЫКОВ), ИНН 9704088880, erid: 2VfnxxcSezk, ООО Скилфэктори, ИНН 9702009530, erid: LdtCK5EkP, ООО ГикБреинс, ИНН 7726381870, erid: 2Vfnxx8dgNL.

Показать полностью 6
IT Обучение Машинное обучение Онлайн-курсы Длиннопост
26
11
Аноним
Аноним

Искусственный интеллект на основе советских разработок⁠⁠

9 месяцев назад

"Панорама" "Панорамой", но считать советские разработки такими уж лапотными тоже не стоит.

Например, не считал их лапотными англичанин Тони Хоар - известный алгоритмист, автор знаменитой "быстрой сортировки". Поэтому он приехал учиться в МГУ.

Один из подходов в машинном обучении (искусственном интеллекте), который еще 20 лет назад считался передовым, не то что дурацкие устаревшие нейросети, - метод опорных векторов. Разработан Владимиром Наумовичем Вапником и Алексеем Яковлевичем Червоненкисом. Правда, до практического применения доведен уже когда они жили в США (Червоненкис впоследствии вернулся в Москву), но на основе наработок, сделанных ими еще в СССР.

Если расширить тему, примеров можно привести куда больше. Например, классические сбалансированные деревья - AVL-деревья. Сфера применения поуже, чем у красно-черных деревьев, но тоже используются. AVL - потому что авторы у них Георгий Максимович Адельсон-Вельский и Евгений Михайлович Ландис.

Как сравнивать графы? Подходы разные: Канторовича-Рубинштейна, Громова-Хаусдорфа, Васерштейна (Леонида Нисоновича).

Одно из главных нововведений Си++? Обобщенное программирование, реализованное в Си++ (в виде библиотеки STL) и разработанное несколько ранее для "Ады" Степановым. Правда, уже в США, но на основании его идей, придуманных еще в СССР. Кстати, Степанов тоже, как и Червоненкис, в старости перебрался на родину.

Применяются и диаграммы Вороного, и полиномы Чебышева, и регуляризация Тихонова. Кстати, последняя - важная часть машинного обучения. Например, пседообратная матрица Мура - Пенроуза также определяется через регуляризацию Тихонова.

Вернемся к машинному обучению и искусственному интеллекту. Мало того, что они основаны на теории вероятности, а отцом современной теории вероятности считается Колмогоров.

Искусственный интеллект на основе советских разработок

Не одним Колмогоровым. Взять, скажем, такие методы как HMM (скрытые марковские модели), или, если двигаться к более современным методам, CRF (условные случайные поля) и в конце концов некоторые LLM (БЯМы, например Bert) - восходит к работам Маркова.

Есть еще мутная история Руса Салахутдинова. Интерес к почти протухшей теме нейросетей в нулевых годах вернули Лекун и Хинтон. Хинтону как раз в 2024 году дали за это Нобелевскую премию. Его главный помощник - Руслан Салахутдинов. Другое дело, что биография Салахутдинова не афишируется, откуда он родом и где учился до американских вузов - неизвестно. Может, он к советским достижениям не имеет никакого отношения. Вероятно, не связан с советской наукой и Цыбенко, доказавший универсальную теорему аппроксимации - математическую основу всех этих нейросетей. Впрочем, параллельно подобное сделал и Колмогоров, из-за чего теорему иногда в западной литературе называют Cybenko-Kolmogorov. Не учился и не работал в СССР/РФ и Илья Ефимович Суцкевер, возможно и Алекс Крижевский (создатели OpenAI и AlexNet).

Зато отцом глубокого обучения считается Алексей Григорьевич Ивахненко, опубликовавший свою книгу о многослойных сетях еще в 1965 году (в США - двумя годами позднее).

Так что хотя китайцы, конечно, не опирались на "код советского интернета, разработанного Глушковым", самоуничижение тоже неуместно. Советские разработки в математике, информатике и непосредственно в машинном обучении и даже именно нейросетях внесли не самый существенный, но весьма заметный вклад.

Последние десятилетия с этим стало похуже, но связано это со зрелостью технологий машинного обучения и невообразимым отставанием российской электроники и финансовых трудностях. Прорывные методы больше не основаны на свежих фундаментальных открытиях, теоремах: это эвристические приемы, которые могут сработать, но гораздо чаще не работают. Успех приходит после многочисленных проб и ошибок на больших вычислительных кластерах. Три года назад российские фирмы и тем более НИИ не могли себе такое позволить финансово. Сейчас - еще и из-за эмбарго. Так что да, если в скором будущем мы услышим новые русские фамилии, связанные с успехами искусственного интеллекта, скорее всего, эти русские будут работать в западных компаниях и университетах. Но это не значит, что в СССР или современной России плохие разработки ИИ.

Показать полностью 1
Нейронные сети Искусственный интеллект Родина слонов Россия Машинное обучение Математика Длиннопост
1
7
SmplA

Ответ на пост «Почему последнее время нейросети называют искусственным интеллектом?»⁠⁠1

9 месяцев назад

Я начал интересоваться ИИ, когда в моде были экспертные системы.

Так что давайте поговорим:-)

"Во-первых, ИИ не обязательно именно нейросеть. Во-вторых, нейросеть как раз не if'ы и else'ы. В-третьих, что ж вы не возмущались, 60 лет назад, когда искусственным интеллектом называли механизмы, позволяющие играть в крестики-нолики три-на-три и отличать круг от треугольника? Страшно стало?"

Давайте начнем с в-нулевых, раз уж я программист. В проффессиональной англозычной среде давно есть термин Artificial General Intelligence. Это интеллект человеческого качества. В человеческом интеллекте есть одно свойство: универсальность. Он может взяться за задачу с которой никогда не сталкивался и научиться её решать самостоятельно. Одно из самых значительных достижений современности, приблизившееся к AGI - AlphaStar. Рекомендую обзор Aleks007 на запрещеннотьюбе на эту тему. Это развитие идей DeepMind нашумевшего проекта AlphaGo. Альфастар играет компьютерную игру Старкравт значительно сильнее человека именно за счет качества решений а не скорости. Но. Только на одной карте и за одну рассу. Чуть чуть меняешь условия и АльфаСтар в новых условиях становится тупее пробки.

Давайте про во-первых. Нейросеть можно обучать. И она даже сможет делать то, что в ней напрямую не программировали. Расскажите какие ещё есть подходы, которые так могут.

Про во-вторых. Давайте разбираться, сильно ли нейросеть отличается от if-else. Вот у вас есть обученная нейросеть, что это значит? Что у вас определена её структура и подобраны веса. На вход нейросети приходит сигнал и нейросеть вычисляет результат. Нейросеть это здоровенная формула, которая апроксимирует (дает близкий к верному результат на заданном диапазоне входных данных) какое-то явление реального мира. Такую штуку можно запрограммировать с помощью if-else, просто это нереально трудоёмко. Фишка нейросети в подходе к программированию: её "обучают" с помощью специального алгоритма и размеченных входных данных.

В-третьих я всю дорогу возмущался и сейчас скажу: AI это не интеллект. Самое очевидное: он не универсален. Давайте заглянем глубже: почему так? AI не создает в себе глобальную модель реальности и модели отдельных явлений. Не создает абстракции. Не способен к пониманию явлений. Не делет аналогии, не переносит свой опыт на другие сферы. Не способен к самообучению.

Человек обладает более широкой и глубокой штукой, чем интеллект: сознание. Но это уже другая история.

Зато AI помогает нам понять что же такое наш человеческий интеллект, думаю это самая важная польза от него. А я с оптимизмом жду новых прорывов в AGI от DeepMind.

Показать полностью
[моё] Искусственный интеллект Машинное обучение Длиннопост Ответ на пост Текст
0
7
Аноним
Аноним

Почему последнее время нейросети называют искусственным интеллектом?⁠⁠1

9 месяцев назад

Интересуются многие. Например, @user10041125 (и ему вторит @Graywolf38): #comment_339189505

Может Вы мне объясните? Почему кругом нейросеть называют искусственным интеллектом? Кто угодно [а не только DeepSeek] человечно ответит, если у него будет доступ к интернету(а там буквально вся информация), кроме интеллекта.

Прямо, просто и коротко ответить на вопрос я не смогу. Разве что сказать: "Так повелось во времена ваших родителей и дедов". Но могу немного развернуть этот ответ.

Подписи на картинке делал человек, в теме не разбирающийся.

Подписи на картинке делал человек, в теме не разбирающийся.

Термин "искусственный интеллект" появился около 70 лет назад, причем еще раньше был термин "машинный интеллект" - еще до нейросеток и машинного обучения вообще. Люди, вводившие этот термин, имели в виду лишь системы, которые могут служить подспорьем естественному интеллекту. Оснований возмущаться такому термину не больше, чем термину "роевой интеллект", "интеллект муравьев" и т.п.

Советская книга 1976 года

Советская книга 1976 года

Интересно, что жалобы на использование термина ИИ распространились в быту именно тогда, когда успехи ИИ покачнули уверенность в том, что естественный интеллект чем-то принципиально превосходит искусственный. Если двадцать лет назад специалисты в массе своей не верили, что человеческий ум сводится к нейросети, то сейчас - хрен его знает.

Такие подозрения однажды уже звучали. Еще в 60-80-х годах изучалась нервная сеть пиявки, при всей своей примитивности позволявшая животному проявлять довольно сложное поведение. Нобелевские лауреаты 1981 года лезли все глубже в мозг человека, чтобы понять, как мы видим, но слои, докуда удалось докопаться, не таили ничего особенного, что нельзя было бы смоделировать простой электроникой. Оставалось по сути два варианта на выбор: либо поверить, что мозги состоят в некотором роде из глупых проводков, а где-то отдельно есть "думатель". Душа. Либо принять, что эти глупые проводки своей большой запутанностью и образуют думатель. "У ней внутре нейронка".

Как раз тогда и написана книга, фрагмент из которой я привёл немного выше. На фоне успеха ИИ начались споры о том, интеллект ли это. Когда термин "машинный интеллект" только появился, но исследования особых, заметных публике успехов не дали, никто про этот интеллект и не спорил. Фантасты сочиняли своих думающих роботов.

"Зима искусственного интеллекта" - период, когда серьезные вложения в разработку ИИ не приводили к существенному прикладному прогрессу, заметному публике, - на время сделала такие рассуждения неактуальными.

"Подумаешь, ИИ обыгрывает человека в шашки - просто просчитали все ходы. А в шахматы уже не сможет".

"Подумаешь, считывает рукописные цифры с конверта. Люди считывают надежнее, а за буквы тупая железка даже не берется".

"Искусственный перевод как переводил "тело слабо, но дух крепок" как "мясо протухло, но спирт ядрён", так за полвека и не продвинулся".

В нулевых годах в машинном обучении начался заметный прогресс. Он был связан с появлением подходов, устранявших недостатки старых алгоритмов, и с разработкой новых алгоритмов. Но не меньший, а скорее всего больший вклад был другой: вычислительные мощности и параллельные вычисления сделали возможным моделирование миллиардов учебных примеров миллионами параметров, и с распространением интернета и осознанием перспектив появился этот самый миллиард примеров.

Успех тогда был далеко не только у нейросетей. Подход "экспертных систем" тоже испытал подъем. Как работает экспертная система? Помните, вам в шестом классе показывали определители растений: "Сколько лепестков, больше 10 или меньше? Какого цвета лепестки, желтые или белые? Какое жилкование листа, дуговидное или сетчатое? Это сурепка". Вот если такой определитель-"Акинатор" засунуть в компьютер и добавить несложную статистическую обработку, получается экспертная система для врачей.

Картинку делал человек, в теме разбирающийся. Правда, картинка устарела: это как раз не нейросетевой ИИ.

Картинку делал человек, в теме разбирающийся. Правда, картинка устарела: это как раз не нейросетевой ИИ.

Интересный факт: в России экспертные системы предложил делать еще Корсаков в первой половине XIX века, и их уже тогда назвали интеллектуальными машинами.

В конце нулевых - начале десятых годов XXI века разговоры про отсутствие истинного интеллекта в ИИ возобновились. Тогда появились новые аргументы. "Машины разгромили людей в шахматы - но только потому, что просчитывают на 10 ходов вперед и имеют базу дебютов и всех шестифигурных окончаний. Пусть попробуют в го, вот где торжество человеческого интеллекта." "Генерить хреновую музыку очень просто, пусть напишет симфонию". "Смотрите, гугл-перевод облажался!" (в то же время в русский язык проникали безумно безграмотные кальки с английского типа "влажные мечты", но никого это не смущало). Были и очень веские аргументы. Например: "Ребенку достаточно увидеть кенгуру на одной грубой картинке, и он узнает кенгуру с любого ракурса, а "Микрософт" гордится тем, что еле научил отличать кошек от собак на 3 миллионах примеров". "Нейросеть прекрасно отличает на фотографии Васю от Пети, но если им глаза натянуть на задницу, нейросеть даже не заметит".

И вот в середине-конце десятых годов удар. Нейросетки (всё, прочие модели машинного обучения устарели, никаких больше ядерных опорных векторов и решающих джунглей) теснят человека именно по тем фронтам, которые раньше считались вотчиной именно человеческого интеллекта, причем именно интеллектуального труда. Один и тот же алгоритм, поиграв несколько дней сам с собой, обыграл человека и в го, и в шахматы - без базы дебютов и эндшпилей, и в компьютерные бродилки, и в подбор третичной структуры белка. Картины вам компьютеры ляпают еще с чудовищными ляпами, но уже гораздо лучше большинства людей, и быстро прогрессируют. Видео уже генерят быстрее и иногда реалистичнее, чем человек прокручивает фантазии в голове. Решают олимпиадные задачи среднего уровня, считав их со сканированных листочков. Да, не очень хорошо решают, но лично вы сколько таких задач можете решить? А ваши соседи по подъезду? Тексты пересказывают. Тоже хреновенько, но все-таки лучше, чем средний фермер. С языка на язык переводят, причем с любого на любой. Опять-таки, не ахти как переводят, но их этому никто специально не обучал.

В первой половине XX века в лингвистике был один подход, казавшийся бредовым. Давайте предположим, что человек просто наугад произносит слова, выбирая те, что наиболее вероятно следуют после уже произнесенных. Тогда эта модель дала толчок вычислительной лингвистике, но буквально в нее, конечно, никто не верил. Просто глупая грубая модель, облегчающая некоторые задачи.

Теперь, глядя на БЯМы, люди задумываются: может, модель столетней давности не такая глупая? Может, мы и правда похожим образом разговариваем?

Решилась и проблема с детьми, узнающими кенгуру. Нейросеть один раз натренировали, а потом дотренировывают к конкретным задачам, причем для успешной дотренировки часто достаточно единичных примеров.

Машину более или менее успешно водят. Не в сложных ситуациях, и обычно там не нейросеть, а целый комплекс алгоритмов, в том числе тысячи вручную заданных правил. Уж больно высоки риски. Но во-первых, это и есть ИИ (кто сказал, что ИИ - обязательно нейросеть?), а во-вторых, последние пару лет некоторые компании переходят на чисто нейросетевой подход.

И как раз сейчас особенно громко кричат: "Это не настоящий интеллект, а нейросети, if'ы и else'ы!". Во-первых, ИИ не обязательно именно нейросеть. Во-вторых, нейросеть как раз не if'ы и else'ы. В-третьих, что ж вы не возмущались, 60 лет назад, когда искусственным интеллектом называли механизмы, позволяющие играть в крестики-нолики три-на-три и отличать круг от треугольника? Страшно стало?

И еще хотел прокомментировать слова грубияна @e.16320805:

промПт, а не промт. Где вас штампуют?

#comment_339189419

Если говорить об английском произношении, то Оксфордский словарь не столь категоричен:

И американский Вебстер тоже:

Но мы тут говорим по-русски. А по-русски специалисты называют его "затравкой", "подводкой", лично я предпочитаю "запрос". Слово "промпт" действительно распространено, но пока что остается жаргонным. Так что споры "знатоков" о том, как его правильно писать, напоминают анекдот про звук выпускаемых слоном газов.

Показать полностью 5
Искусственный интеллект Машинное обучение Акинатор Длиннопост
6
Посты не найдены
О нас
О Пикабу Контакты Реклама Сообщить об ошибке Сообщить о нарушении законодательства Отзывы и предложения Новости Пикабу Мобильное приложение RSS
Информация
Помощь Кодекс Пикабу Команда Пикабу Конфиденциальность Правила соцсети О рекомендациях О компании
Наши проекты
Блоги Работа Промокоды Игры Курсы
Партнёры
Промокоды Биг Гик Промокоды Lamoda Промокоды Мвидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Промокоды Яндекс Еда Постила Футбол сегодня
На информационном ресурсе Pikabu.ru применяются рекомендательные технологии