Горячее
Лучшее
Свежее
Подписки
Сообщества
Блоги
Эксперты
Войти
Забыли пароль?
или продолжите с
Создать аккаунт
Регистрируясь, я даю согласие на обработку данных и условия почтовых рассылок.
или
Восстановление пароля
Восстановление пароля
Получить код в Telegram
Войти с Яндекс ID Войти через VK ID
ПромокодыРаботаКурсыРекламаИгрыПополнение Steam
Пикабу Игры +1000 бесплатных онлайн игр Играйте в Длинные и Короткие нарды онлайн! Наслаждайтесь классической настольной игрой с простыми правилами и захватывающей стратегией. Бросайте кубики, перемещайте шашки и обыгрывайте своего соперника. Играйте прямо сейчас бесплатно!

Нарды Длинные и Короткие онлайн

Настольные, Для двоих, Пошаговая

Играть

Топ прошлой недели

  • AirinSolo AirinSolo 10 постов
  • Animalrescueed Animalrescueed 46 постов
  • mmaassyyaa21 mmaassyyaa21 3 поста
Посмотреть весь топ

Лучшие посты недели

Рассылка Пикабу: отправляем самые рейтинговые материалы за 7 дней 🔥

Нажимая «Подписаться», я даю согласие на обработку данных и условия почтовых рассылок.

Спасибо, что подписались!
Пожалуйста, проверьте почту 😊

Помощь Кодекс Пикабу Команда Пикабу Моб. приложение
Правила соцсети О рекомендациях О компании
Промокоды Биг Гик Промокоды Lamoda Промокоды МВидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Промокоды Яндекс Еда Постила Футбол сегодня
0 просмотренных постов скрыто
4
A.Kristina
A.Kristina
Видеохостинг на Пикабу

Как напугать кота⁠⁠

22 дня назад
Перейти к видео

Кому интересно, ссылка на такую маску

Маска Трансформеры Видео Вертикальное видео Короткие видео
3
454
bartender026
Видеохостинг на Пикабу

Ответ на пост «Неодимовый магнит - физика во всей своей красоте»⁠⁠1

25 дней назад

Я немного звук поправил

Перейти к видео
Магниты Slow motion Вертикальное видео Короткие видео Реферальная ссылка Видео Ответ на пост Трансформеры Саундтрек
31
4
Аноним
Аноним

История нейросетей⁠⁠

25 дней назад

История нейросетей началась с идеи--попытки описать работу человеческого мозга языком математики. Это было в середине 20-го века, когда нейрофизиологи, математики и кибернетики начали работать вместе. Главными героями того времени стали Уоррен Мак-Каллок и Уолтер Питтс. В 1943 году они опубликовали статью, в которой предложили первую математическую модель искусственного нейрона. Эта модель, известная как нейрон Мак-Каллока-Питтса, была очень простой. Она работала по принципу "всё или ничего": принимала на вход сигналы в виде нулей и единиц, и если их сумма превышала определённый порог, нейрон "срабатывал" и выдавал единицу. Если нет--оставался пассивным и выдавал ноль. Но самое гениальное было в том, что они доказали: из таких простых "переключателей", соединённых в сеть, можно собрать машину, способную выполнить любую логическую операцию. По сути, они показали, что нейронная сеть теоретически не уступает по возможностям машине Тьюринга, дав биологическое обоснование самой идее вычислений. Они создали целую концепцию, где интеллект--это результат работы сложной сети взаимосвязанных вычислительных элементов.

Если Мак-Каллок и Питтс создали "скелет", то Дональд Хебб вдохнул в него жизнь, предложив концепцию обучения. В своей книге 1949 года он сформулировал знаменитый принцип, который часто описывают фразой "нейроны, которые активируются вместе, связываются вместе". Идея была в том, что связь между двумя нейронами усиливается, если они срабатывают одновременно. Это было первое научное объяснение того, как мозг может учиться и запоминать что-то, просто адаптируясь к поступающей информации. Этот принцип стал основой для многих будущих алгоритмов обучения, где веса соединений между нейронами--это не что-то застывшее, а переменные, которые меняются с опытом.

В 50-е годы эти идеи начали потихоньку воплощаться в железе. В 1951 году Марвин Минский и Дин Эдмондс построили SNARC--первую физическую нейросетевую машину. Этот "шкаф" из 3000 вакуумных ламп мог научиться находить выход из лабиринта. Но настоящую шумиху поднял Фрэнк Розенблатт, который в 1957 году представил "Перцептрон". Это была однослойная нейросеть для классификации, которая, в отличие от предыдущих моделей, могла по-настоящему учиться на данных, подстраивая свои веса. Розенблатт даже создал физическую версию, Mark I Perceptron, и делал громкие заявления, что его машина однажды сможет обрести сознание. Это вызвало огромный интерес и волну оптимизма. Примерно в то же время Бернард Уидроу и Тед Хофф разработали системы ADALINE и MADALINE. Они были более приземлёнными и решали конкретные задачи--например, успешно использовались для подавления эха на телефонных линиях. Это стало одним из первых коммерческих применений нейросетей и показало их реальный потенциал. К концу 50-х нейросети прошли путь от абстрактной теории до работающих устройств, заложив основу как для будущих прорывов, так и для грядущего разочарования.

Этот первоначальный оптимизм был заразителен, но, как оказалось, построен на довольно хрупком фундаменте. Период с конца 50-х до 80-х годов стал для нейросетей американскими горками: от эйфории до глубокого кризиса, известного как первая "зима искусственного интеллекта". Общественность и правительства, вдохновлённые Перцептроном Розенблатта, ждали появления разумных машин чуть ли не завтра. Финансирование лилось рекой, исследователи были полны энтузиазма.

А потом, в 1969 году, Марвин Минский и Сеймур Паперт опубликовали книгу "Перцептроны", которая стала для этой области холодным душем. Они математически доказали, что однослойный перцептрон, на который все возлагали такие надежды, имеет фундаментальные ограничения. Он просто не мог решить задачи, которые не являются "линейно разделимыми". Самый известный пример--логическая операция XOR ("исключающее ИЛИ"). Представьте, что вам нужно провести одну прямую линию на листе бумаги, чтобы отделить точки одного класса от другого. Для XOR это невозможно. Минский и Паперт убедительно показали, что для таких задач нужны многослойные сети, но как их эффективно обучать, тогда никто не знал. Их критика, исходящая от авторитетных учёных из MIT, оказалась убийственной. У фондов и исследователей пропал энтузиазм, и финансирование начало иссякать.

Причины "зимы ИИ" были не только в одной книге. В 1973 году в Великобритании вышел отчёт Лайтхилла, который раскритиковал всю область ИИ за невыполненные обещания. В США приняли поправку Мэнсфилда, которая требовала от военных агентств, вроде DARPA, финансировать только прикладные, а не фундаментальные исследования. К тому же, компьютеры того времени были слишком слабыми для обучения сложных моделей, а данных было мало. В это же время набирал популярность символьный подход к ИИ--системы, основанные на строгих правилах и логике. Они казались более понятными и надёжными, чем нейросети, которые работали как "чёрные ящики". В итоге исследования нейросетей на целое десятилетие ушли в тень.

Но даже в самые тёмные времена работа не останавливалась полностью. Некоторые учёные продолжали разрабатывать идеи, которые позже стали ключевыми. Например, Джон Хопфилд в 1982 году представил сети Хопфилда--рекуррентную сеть, которая работала как ассоциативная память. Она могла восстановить полный образ по его зашумлённому или неполному фрагменту. А Кунихико Фукусима в 1980 году разработал "Неокогнитрон"--многослойную иерархическую сеть, вдохновлённую строением зрительной коры мозга. В ней уже были заложены ключевые идеи современных свёрточных сетей: слои для извлечения локальных признаков и слои для их обобщения. Хотя эффективного алгоритма для обучения Неокогнитрона ещё не было, его архитектура стала прямым предком тех сетей, которые сегодня распознают лица на фотографиях.

Возрождение началось во второй половине 80-х, и его главной движущей силой стал один алгоритм--метод обратного распространения ошибки (backpropagation). Сама идея была известна и раньше, но именно статья Дэвида Румельхарта, Джеффри Хинтона и Рональда Уильямса 1986 года сделала её по-настояшему популярной и понятной. Этот алгоритм наконец-то дал эффективный способ обучать многослойные сети. Если говорить просто, он позволяет ошибке на выходе сети "путешествовать" в обратном направлении, от последнего слоя к первому, и на каждом шаге подсказывать нейронам, как именно им нужно изменить свои веса, чтобы в следующий раз результат был точнее. Это решило главную проблему, на которую указали Минский и Паперт, и открыло дорогу к созданию глубоких, сложных систем.

В это же время развивались и новые архитектуры. Появились рекуррентные нейронные сети (RNN), созданные для работы с последовательностями--например, с текстом или временными рядами. Однако у них была своя проблема: они плохо запоминали информацию на длинных дистанциях из-за так называемой проблемы исчезающих градиентов. Революционное решение в 1997 году предложили Зепп Хохрайтер и Юрген Шмидхубер, создав сети долгой краткосрочной памяти (LSTM). В них были специальные "вентили", которые позволяли сети самой решать, какую информацию из прошлого стоит запомнить, какую--забыть, а какую--использовать прямо сейчас. Это сделало их невероятно эффективными для задач вроде машинного перевода и распознавания речи.

Эти прорывы подкреплялись и практическими успехами. В 1985 году проект NetTalk показал, как нейросеть, обученная на словах, может научиться произносить их вслух. В лабораториях Bell Labs активно работали над распознаванием рукописного текста, что позже легло в основу систем автоматического чтения чеков. Даже появились первые специализированные "нейрочипы", которые пытались реализовать вычисления для нейросетей на аппаратном уровне. Хотя они не стали массовыми, это показало, что исследователи уже понимали: для серьёзных задач понадобится специальное железо.

В 90-е годы нейросети начали выходить из лабораторий и находить применение в реальном мире. Самым ярким примером стала работа Яна ЛеКуна и его команды в Bell Labs. В 1989 году они применили метод обратного распространения ошибки для обучения свёрточной нейронной сети, которую назвали LeNet. Её задачей было распознавание рукописных почтовых индексов. Успех был ошеломительным. К концу 90-х система на основе LeNet обрабатывала до 20% всех чеков в США. Это было первое крупное коммерческое применение глубокого обучения, которое доказало, что нейросети--это не просто академическая игрушка, а надёжная и прибыльная технология.

Тем временем LSTM-сети продолжали доказывать свою мощь в обработке речи. К 2007 году они начали превосходить традиционные подходы, а к 2015 году Google сообщила, что использование LSTM в системе распознавания речи на Android улучшило точность на 49%. Теория тоже не стояла на месте: в 1989 году была доказана теорема об универсальной аппроксимации. Она гласит, что нейросеть с одним скрытым слоем может аппроксимировать любую непрерывную функцию с любой желаемой точностью. Это дало прочное математическое основание для использования нейросетей в качестве универсальных "решателей" задач.

Параллельно шла подготовка к следующему рывку. Исследователи понимали, что для прогресса нужны две вещи: много данных и стандартные тесты для сравнения моделей. Примерно в 2007 году команда под руководством Фэй-Фэй Ли начала работу над проектом ImageNet--огромной базой данных из миллионов размеченных изображений. Позже на её основе был запущен ежегодный конкурс ILSVRC, который стал главным "олимпийским стадионом" для моделей компьютерного зрения. И, наконец, в 2009 году исследователи из Стэнфорда показали, что использование графических процессоров (GPU) может ускорить обучение нейросетей в 70 раз по сравнению с обычными процессорами. Все три компонента будущего взрыва--алгоритмы, данные и вычислительная мощность--были готовы.

Настоящая революция случилась в 2012 году. На том самом конкурсе ILSVRC команда Алекса Крижевского, Ильи Суцкевера и Джеффри Хинтона представила свёрточную нейросеть AlexNet. Она победила с таким ошеломительным отрывом, что это навсегда изменило мир ИИ. Её ошибка распознавания была на 10% ниже, чем у ближайшего конкурента. Секрет успеха был в комбинации нескольких факторов: очень глубокая архитектура, использование новой функции активации ReLU, которая ускоряла обучение, метод регуляризации Dropout для борьбы с переобучением и, самое главное,--обучение на двух мощных GPU. Эта победа стала сигналом для всех: глубокое обучение--это будущее. Крупные технологические компании вроде Google, Facebook и Microsoft начали массово инвестировать в эту область.

Успех AlexNet был бы невозможен без двух других "китов": больших данных, как ImageNet, и мощных вычислений на GPU. Графические процессоры, изначально созданные для игр, оказались идеально подходящими для параллельных вычислений, необходимых нейросетям. Это позволило обучать модели с миллионами и миллиардами параметров, что раньше было просто немыслимо.

После 2012 года начался взрывной рост. Исследователи стали создавать всё более глубокие и сложные архитектуры. VGGNet в 2014 году показала, что глубина решает. А в 2015 году появилась ResNet, которая решила проблему обучения сверхглубоких сетей с помощью "остаточных связей"--специальных "мостиков", которые позволяли градиенту беспрепятственно проходить через сотни слоёв. Благодаря ResNet в том же году компьютерное зрение впервые превзошло человеческие способности в задаче классификации на ImageNet. Появились и специализированные архитектуры вроде U-Net для сегментации изображений. Параллельно развивались фреймворки вроде TensorFlow и PyTorch, которые сделали разработку нейросетей доступной для тысяч инженеров и исследователей по всему миру.

С 2017 года начался новый этап, который можно назвать эрой универсальных моделей. Ключевым событием стала публикация статьи "Attention Is All You Need", в которой представили архитектуру "Трансформер". Она полностью отказалась от рекуррентных и свёрточных слоёв в пользу механизма "внимания". Этот механизм позволяет модели при обработке, скажем, слова в предложении, взвешивать важность всех остальных слов в этом же предложении одновременно, а не последовательно. Это не только ускорило обучение, но и позволило гораздо лучше улавливать длинные зависимости в данных. Трансформеры стали основой для гигантских языковых моделей, таких как BERT и GPT, которые демонстрируют поразительные способности в понимании и генерации текста. Позже эту архитектуру успешно адаптировали и для компьютерного зрения.

Одновременно произошёл бум в генеративном ИИ. Ещё в 2014 году Иэн Гудфеллоу представил генеративно-состязательные сети (GAN). В них две сети--генератор и дискриминатор--соревнуются друг с другом. Генератор пытается создать реалистичные данные (например, фото человека), а дискриминатор--отличить подделку от оригинала. В процессе этой "игры" генератор учится создавать настолько качественные подделки, что их не отличить от настоящих. Это привело к появлению таких систем, как DALL-E, которые могут генерировать сложные изображения по текстовому описанию. ИИ из инструмента анализа превратился в инструмент для творчества.

Несмотря на все успехи, сегодня перед нейросетями стоит несколько серьёзных вызовов. Во-первых, проблема "чёрного ящика": часто мы не можем точно объяснить, почему модель приняла то или иное решение. Это критично для медицины или беспилотных автомобилей. Для решения этой проблемы развивается нейро-символический ИИ, который пытается объединить обучаемость нейросетей с логикой и интерпретируемостью символьных систем. Во-вторых, огромная вычислительная стоимость. Обучение моделей вроде GPT-4 стоит сотни миллионов долларов и требует колоссального количества энергии, что поднимает экологические вопросы. В-третьих, этические проблемы: дипфейки, дезинформация, предвзятость в данных и влияние на рынок труда. Будущее нейросетей, вероятно, будет связано с поиском баланса между мощностью, эффективностью, безопасностью и прозрачностью.

Показать полностью
[моё] Глубокое обучение Обучение Машинное обучение История (наука) Искусственный интеллект Нейронные сети Технологии Наука CNN Трансформеры Текст Длиннопост
1
MadeinUSSR3000
MadeinUSSR3000
Мото

Гаражные трансформеры⁠⁠

30 дней назад

ИИ проник в гараж

Перейти к видео
Перейти к видео
Показать полностью 1
[моё] Контент нейросетей Технологии Гараж Мото Снегоход Трансформеры Искусственный интеллект Видео Короткие видео Вертикальное видео
3
15
SilvestorSt
SilvestorSt

Автоботы в Москву прилетели⁠⁠

1 месяц назад
Перейти к видео

Развалилось и сгорело эпично.
Не было бы известных событий, было бы конечно очевидней что это развалилось в атмосфере.
Космический мусор, ракета, 3I Atlas?
Красиво конечно.
Пару раз видел подобное много лет назад, но без зеленого свечения. И разваливалось не так эпично.

Показать полностью 3
Трансформеры Космический корабль Космический мусор Комета Видео Вертикальное видео Короткие видео Длиннопост
12
11
asanbek.best
asanbek.best
Видеохостинг на Пикабу

Мегатрон из Битвы Зверей⁠⁠

1 месяц назад
Перейти к видео
Мегатрон Трансформеры Косплей Beast Wars Короткие видео Вертикальное видео Видео
0
7
Coelurus
Coelurus

Игрушки-трансформеры из прошлого⁠⁠

1 месяц назад

Были такие вот игрушки.

Блицвинга все старики знают. Ну, практически. У меня он сохранился хорошо: всё цело, у одной ракеты сломана лопасть, и найдена была на улице ещё 1 ракета такая же поврежденная. Потеряны пружины для пуска ракет, но могут подойти от авторучек. Я второй владелец после брата. Ему, кажется, в 1991 купили его в честь того, что окончил учебный год на отлично. Я был совсем маленький, не давали его сломать. Как оказалось, это было к лучшему.

Далее вроде как Ferrari F40. Автобот. Утрачен спойлер, одна рука у мини-робота. Всё это было лет 20 назад, но выкинули коробочку одну, где ещё были джипы времён СССР, пистолет прозрачный с красными вставками и кучей шестерней внутри. Частично разбирался для ремонта. Пока что всё работает. Подарили нам с братом на новый год 1994, кажется. Был в пакете с инструкцией маленькой. Меч и пушка в руки не влезают нормально, литье так себе, пластик жесткий. Кто-нибудь знает его название?

И какой-то десептикон робот-самолет-динозавр. Тоже название неизвестно. Эксперты есть? Подскажите? Он куплен в 1995 году мне на день рождения. Утрачено 1 крыло, 1 пушка. Сильно заигран, имеет более мягкий пластик. Суставы почти не держатся. Зато кусок коробки сохранился.

Думаю, эти артефакты 30летней давности долго не продержатся. Пластиковые всё-таки. Уже через несколько месяцев сыну передам на растерзание. Хотя, может, продать для ценителей?

Показать полностью 3
[моё] Трансформеры Игрушки Вопрос Ностальгия Детство 90-х Длиннопост
3
4
Bioharange
Bioharange
Кибертрон

Продолжение поста «Девастатор v 2.0»⁠⁠1

1 месяц назад

Upd. 2ая Пере_Сборка уже после видеообзора. Хоть устойчив теперь!

Основная сложность - красный трактор в ноге.

Основная сложность - красный трактор в ноге.

Голова тоже неким ребусом в Стыке оказалась.

Голова тоже неким ребусом в Стыке оказалась.

Бульдозер в руку - лишь ковши перевернуть.

Бульдозер в руку - лишь ковши перевернуть.

Экскаватор телом - не сложно, но долго.

Экскаватор телом - не сложно, но долго.

Улыбнись, фоткают в последний раз...

Улыбнись, фоткают в последний раз...

Если вкратце - Коллекционерам этот экземпляр вполне сгодится, если не пугает долгая сборка даже по видео.

Показать полностью 5
[моё] Персонажи Фильмы Робот Трансформеры Экранизация Фигурки Коллекция Гештальт Боевики Ностальгия Длиннопост Ответ на пост
0
Посты не найдены
О нас
О Пикабу Контакты Реклама Сообщить об ошибке Сообщить о нарушении законодательства Отзывы и предложения Новости Пикабу Мобильное приложение RSS
Информация
Помощь Кодекс Пикабу Команда Пикабу Конфиденциальность Правила соцсети О рекомендациях О компании
Наши проекты
Блоги Работа Промокоды Игры Курсы
Партнёры
Промокоды Биг Гик Промокоды Lamoda Промокоды Мвидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Промокоды Яндекс Еда Постила Футбол сегодня
На информационном ресурсе Pikabu.ru применяются рекомендательные технологии