Горячее
Лучшее
Свежее
Подписки
Сообщества
Блоги
Эксперты
Войти
Забыли пароль?
или продолжите с
Создать аккаунт
Регистрируясь, я даю согласие на обработку данных и условия почтовых рассылок.
или
Восстановление пароля
Восстановление пароля
Получить код в Telegram
Войти с Яндекс ID Войти через VK ID
ПромокодыРаботаКурсыРекламаИгрыПополнение Steam
Пикабу Игры +1000 бесплатных онлайн игр Битва героев: RPG - увлекательная игра в жанре РПГ, позволяющая окунуться в невероятный фэнтезийный мир, полный приключений и захватывающих сражений.

Битва Героев: RPG

Приключения, Фэнтези

Играть

Топ прошлой недели

  • solenakrivetka solenakrivetka 7 постов
  • Animalrescueed Animalrescueed 53 поста
  • ia.panorama ia.panorama 12 постов
Посмотреть весь топ

Лучшие посты недели

Рассылка Пикабу: отправляем самые рейтинговые материалы за 7 дней 🔥

Нажимая «Подписаться», я даю согласие на обработку данных и условия почтовых рассылок.

Спасибо, что подписались!
Пожалуйста, проверьте почту 😊

Помощь Кодекс Пикабу Команда Пикабу Моб. приложение
Правила соцсети О рекомендациях О компании
Промокоды Биг Гик Промокоды Lamoda Промокоды МВидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Промокоды Яндекс Еда Постила Футбол сегодня
0 просмотренных постов скрыто
Finder
Finder

ТОП-16 курсов Data Engineering: онлайн-обучение на инженера данных бесплатно и платно⁠⁠

2 месяца назад

Один из перспективных направлений обучения в IT сейчас — Data Engineer курсы. Эта профессия связана с обработкой big data, а также созданием и поддержкой хранилищ данных и их инфраструктуры. А работать по ней можно как в проектах data science, так и в аналитике. Освоить специальность смогут все со знанием SQL, навыками Python и опытом решения практических задач в программировании. А Data Engineering курсы уже позволят изучить технологии big data и научат применять инструменты для их анализа и обработки.

Я рассмотрела не один десяток таких программ и собрала список из 16 лучших вариантов. В первой части обзора будет краткое и подробное описание ТОП-10, а во второй — список еще 6 неплохих предложениях. Также для некоторых курсов я нашла дополнительные эксклюзивные скидки, акции и промокоды.

ТОП-10 лучших курсов Data Engineer в 2025 году

  1. Дата-инженер от Нетологии — курс от специалистов Яндекса и Сбербанка, после которого в портфолио появятся сразу 6 готовых проектов.

  2. Профессия Data Engineer от Skillbox — программа с вечным доступом, в формате для гуманитариев и с разными дополнительными курсами в подарок.

  3. Инженерия данных от Нетологии и НИУ ВШЭ — направление для специалистов, уже получивших высшее образование в любой математической области.

  4. Инженер данных с нуля от Яндекс Практикума — программа профессиональной переподготовки с поддержкой наставников и free-доступом к Yandex GPT.

  5. Инженер данных от Хекслета — курс со стажировкой на реальных проектах, 80% практики и карьерным сопровождением после окончания учебы.

  6. Инженер данных от Karpov.Courses — еще один курс с помощью в устройстве на работу, который даже включает в себя симуляторы собеседований.

  7. Data Engineer от Otus — на программе вебинары всегда проходят в прямом эфире, а всем студентам дарят стартовый курс по Python.

  8. Data-инженер от Слёрм — курс с бесплатным доступом на 3 дня, в течение которых студенты успевают выполнить собственный реальный проект.

  9. Профессиональная переподготовка Инженер данных от АПОК — несмотря на свое название, проходит «с нуля» и наличия профессионального опыта не требует.

  10. Инженер больших данных (Big Data Engineer) от Специалист.ru — комплексная учебная программа из 11 отдельных курсов и с гибким графиком обучения.

Онлайн-курсы Data Engineer

1. Дата-инженер | Нетология

Используйте промокод kursfinder, чтобы получить скидку 7%

Получить скидку >>>

Обучение Data Engineer с free-доступом к Yandex Cloud, в рамках которого студенты учат особенности проектирования хранилищ данных, а также узнают правила выбора DWH на основе конкретных задач и бюджетов бизнеса. Также на курсе проходят разные процессы обработки данных, обучаются работе со Spark SQL, DataFrame и т. д. И, что немаловажно, изучают, как эффективнее презентовать важные для компании данные, и получать отдачу.

Кроме того, участники курса выполняют шесть проектов для своего личного портфолио и учатся трансформации в Pentaho. А также разрабатывают запросы SQL под аналитические задачи и не только запускают базу данных, но и наполняют ее с помощью ETL-процессов.

  • Стоимость: от 4 083 руб. в месяц

  • Длительность: от 1 года

  • Формат обучения: вебинары, записи лекций, практические работы, задания на дом

  • Сертификат: есть

Кому подойдет: и начинающим, и опытным специалистам (есть 3 уровня сложности).

Преимущества:

  • гибкий график обучения и бесплатный доступ к Yandex Cloud в процессе обучения, плюс постоянная поддержка кураторов в чате;

  • шанс учиться у преподавателей с большим профессиональным опытом — среди них есть бизнес-архитекторы и аналитики, специалисты Сбербанка, Яндекса и др.;

  • опция возврата денег в том случае, если курс по каким-то причинам не подойдет, а также возможность оформить за обучение бонусный вычет;

  • бонусные курсы по облачной инфраструктуре, Java, визуализации и английскому — в подарок каждому участнику;

  • митапы с экспертами и HR, а также общая практическая направленность обучения и помощь в подготовке к трудоустройству (но не само трудоустройство).

Недостатки:

  • отсутствие подробного разбора домашних заданий — из-за этого может тратиться много времени на самостоятельный поиск дополнительной информации;

  • часть лекция была записана несколько лет назад, хотя IT-рынок уже изменился.

Программа обучения:

  • изучение основ SQL и получения больших данных, проектирование DWH;

  • знакомство с языком Python для анализа данных и Tableau для их визуализации;

  • обучение профессиональной работе с Data Lake & Hadoop;

  • получение навыков работы с потоковыми данными;

  • подробное ознакомление с облачными технологиями в работе с big data.

Ознакомиться с полной программой >>>


2. Профессия Data Engineer | Skillbox

Используйте промокод kursfinder, чтобы получить скидку 50%

Применить промокод>>>

Комплексное обучение Data Engineering позволяет пройти путь от первого шага в области анализа данных до уровня Junior. Причем учиться можно без привязки времени, а все обучающие материалы сохраняются у участников курса в вечном доступе. В процессе обучения уделяется много внимания навыкам программирования на Python, SQL и работе с технологиями big data. А практические занятия строятся на реальных задачах из бизнеса.

Также пользователи учатся применять инструменты для построения Data Lake, и по итогу получают сертификат, с которым могут претендовать на достойные рабочие места. Кроме этого, курс был обновлен в 2025 году, и соответствует современным требованиям индустрии.

  • Стоимость: от 5 848 руб. в месяц

  • Длительность: 9 месяцев

  • Формат обучения: записи лекций, задания на дом, проекты, онлайн-тренажеры

  • Сертификат: есть

Кому подойдет: новичкам и уже опытным программистам или аналитикам.

Преимущества:

  • возможность учиться даже гуманитариям — все темы курса объясняются «с нуля» и максимально подробно;

  • free-доступ к Yandex Cloud в течение всего срока обучения, а также 3 онлайн-курса в подарок плюс шанс на получение дополнительной скидки;

  • добавление в портфолио 3 проектов (в случае хороших успехов в учебе) и помощь в трудоустройстве, включая крупнейшие IT-компании;

  • постоянная поддержка кураторов, а также общение в чате с другими участниками курса — для создания мотивирующей атмосферы;

  • обновленные модули по машинному обучению и аналитике, а также актуальность информации как таковая — все темы были доработаны или изменены.

Недостатки:

  • блоки не синхронизированы, что может приводить к повторениям информации; 

  • нехватка подсказок в некоторых учебных заданиях — из-за этого приходится искать много информации самостоятельно, на что не всегда есть время;

  • не всегда полное раскрытие темы — недостаток теории для выполнения практики.

Программа обучения:

  • введение в само направление Data Science — базовое и более продвинутое;

  • изучение основ статистики, теории вероятностей и математики для Data Science;

  • прохождение специализации по машинному обучению;

  • еще одна специализация, уже по анализу данных;

  • подтверждение навыков через выполнение финального проекта.

Ознакомиться с полной программой >>>


3. Инженерия данных | Нетология и НИУ ВШЭ

Используйте промокод kursfinder, чтобы получить скидку 7%

Получить скидку >>>

Еще одна программа по профессии инженер данных, обучение в которой дает серьезный объем знаний и необходимую для успешной реализации в специальности квалификацию. В ходе курса пользователи изучают сразу 3 актуальных языка программирования, учатся владеть инструментами разработки и проводить аналитику больших баз данных, а также автоматизировать эти процессы и др. По окончании получают диплом с приложением на английском.

Более того, если выбрать это дистанционное обучение в рамках магистратуры, то можно получить отсрочку от армии. К тому же, организаторы предоставляют всем возможность сначала ознакомиться с курсом бесплатно — чтобы заранее понять специфику профессии.

  • Стоимость: 200 000 руб. за семестр

  • Длительность: 2 года

  • Формат обучения: видеолекции, онлайн-семинары, практические занятия на дом

  • Сертификат: есть

Кому подойдет: выпускникам технических и естественно-научных факультетов.

Преимущества:

  • онлайн-формат с вебинарами, хакатонами и практикой — это позволяет соединять обучение на курсе с работой (или учиться в ВШЭ из любой точки страны); 

  • преподавательский состав — практикующие специалисты, которые делятся своим реальным опытом и говорят о действительно актуальных сегодня задачах;

  • поддержка от кураторов и активная обратная связь на протяжении всего периода обучения — по любым вопросам, связанным с учебным процессом;

  • акцент на практику — участники курса работают с настоящими данными и только теми задачами, которые предлагают компании-партнеры;

  • обязательные стажировки в крупных компаниях и помощь в трудоустройстве — в рамках программы даже есть спецкурс по успешному выходу на рынок труда.

Недостатки:

  • достаточно высокая стоимость обучения — 2 года по 200 тыс. за семестр;

  • необходимость иметь диплом бакалавра по любой технической специальности — со средне-специальным или гуманитарным образованием на курс не принимают;

  • сложные задания — иногда для них нужна та информация, что не было в лекции.

Программа обучения:

  • освоение работы с такими важными для инженера данных инструментами как SQL, PostgreSQL, Airflow, Yandex Cloud, ClickHouse, CI/CD и др.;

  • обучение более глубокому владению языками Python, SQL и Java, а также сбору big data, трансформации и обработке данных и т. д.;

  • знакомство с главными рабочими задачами дата-инженера и методами их решения;

  • семинары с подготовкой проектов по программной и системной инженерии;

  • участие в хакатоне с демонстрацией навыков командного взаимодействия.

Ознакомиться с полной программой >>>


4. Инженер данных с нуля | Яндекс Практикум

Купите курс с выгодой до 20% при оплате сразу

Купить курс>>>

Программа для тех, кто понимает, что пройти Data Engineering курс бесплатно и получить при этом необходимый для работы практический опыт не получится. И поэтому выбирает изучить навыки программирования на Python и SQL, а также работу с big data, Data Lake и хранилищами в рамках полноценной программы обучения — для всех желающих, включая гуманитариев. Она предлагает интенсивное погружение в темы и решение реальных задач.

Курс ориентирован на практику и применение современных инструментов, включая Spark, Airflow и др. А самые сложные модули успешно проходятся с помощью кураторов. Кроме того, по завершению учебы все участники получают поддержку при устройстве на работу.

  • Стоимость: от 6 899 руб. в месяц

  • Длительность: 11 месяцев

  • Формат обучения: видеолекции в записи, онлайн-тренажеры, воркшопы

  • Сертификат: есть

Кому подойдет: всем, кто хочет освоить новую профессию без опыта в IT.

Преимущества:

  • можно дойти до уровня Junior Data Scientist со статуса абсолютного новичка, а также получать помощь от карьерного центра компании;

  • доступ к учебным материалам в любое время и поддержка экспертов и кураторов в течение всего срока обучения;

  • выполнение 10+ проектов, которые можно добавить в персональное портфолио — с ним диплом государственного образца обычно оценивается лучше; 

  • ставка не на теорию, а на практическую работу — обучение на курсе выстраивается по так называемой спринтовой модели;

  • изучение самых востребованных сегодня технологий и периодически обновляемая программа — для достижения максимальной актуальности.

Недостатки:

  • по отзывам, практических воркшопов меньше, чем этого бы хотелось студентам;

  • часть заданий похожи на работу тестировщика — поиск и отлов багов, ошибок и др., что тоже полезно для студентов, но не входит в саму специальность;

  • материалов лекций мало для выполнения заданий на дом без поиска информации.

Программа обучения:

  • базовое и углубленное изучения языка Python, инструментов разработчика, работы с HTTP-запросами;

  • знакомство с алгоритмами и структурами данных, основами SQL и PostgreSQL, а также продвинутым SQL;

  • проектирование хранилища данных и работа с их витринами, проверка качества и интеграция данных сразу из нескольких источников;

  • создание аналитической базы и Data Lake, реализация потоковой обработки;

  • работа с облачными технологиями и подготовка выпускного проекта.

Ознакомиться с полной программой >>>


5. Инженер данных | Хекслет

Программа, которая попала в лучшие курсы по Data Engineer потому, что делает ставку на практику — на решение реальных рабочих задач и проекты в ней отведено почти 80%. При этом участники сразу получают доступ к коммерческим, а не умозрительным IT-проектам, и учатся работать в командах. Однако в процессе это не так пугающе, как кажется, потому что студентов сопровождают наставники, которые подробно разбирают с ними код, и т. д.

Помимо этого, обучение идет без жестких дедлайнов, а учебные материалы сохраняются у пользователей навсегда. Плюс отдельное внимание уделяется трудоустройству и будущим собеседованиям, включая их имитацию и отработку самых правильных ответов и реакций.

  • Стоимость: от 5 651 руб. в месяц

  • Длительность: 10 месяцев

  • Формат обучения: видеоуроки, онлайн-тренажеры, домашние задания, тесты

  • Сертификат: есть

Кому подойдет: IT-специалистам без опыта и всем, кто хочет перейти в дата-инжиниринг.

Преимущества:

  • отведение на практику 80% всей программы и работа с реальными коммерческими задачами, результаты которых наиболее наглядные и мотивирующие;

  • стажировка с настоящими релизами и поддержка куратора на каждом шаге — в том числе в течение полугода после окончания курса (в процессе поиска работы);

  • наличие бесплатного модуля — для свободного старта и знакомства с форматом еще до внесения оплаты;

  • помощь в составлении резюме и отработка поведения на будущих собеседованиях — для более успешного их прохождения и возможности выбирать компании;

  • гарантия возврата денег за обучение — если получить должность дата-инженера по каким-либо причинам не получится.

Недостатки:

  • сложность материала — если нет никаких базовых познаний в программировании;

  • отсутствие точных ответов от куратора — они дают скорее направление для поиска;

  • тестовая часть — по отзывам студентам, тесты не помогают усвоению материала, и их прохождение нужно только «для галочки».

Программа обучения:

  • введение в основы Data Engineering, языка Python и программирования;

  • знакомство с инструментами разработки и функциями профессионального Python;

  • освоение навыков работы с базами данных и API, а также администрирования;

  • проработка Soft Skills и прохождение отдельного карьерного модуля;

  • стажировка в крупных партнерских компаниях и выполнение выпускного проекта.

Ознакомиться с полной программой >>>


6. Инженер данных | Karpov.Courses

Курс для тех, кому хочется освоить эту профессию с нуля и уверенно приступить к работе сразу после окончания учебы. В ходе программы студенты выполняют более 230 заданий, работают над практическими кейсами и получают максимально приближенный к реалиям опыт. Для этого они развивают навыки программирования, построения хранилищ данных, а также использования SQL, Python, Spark и других инструментов обработки информации.

Причем процесс обучения разработан самой школой и является авторским, а весь учебный материал остается доступным для учеников даже после выпуска. Также они проходят ряд тестовых заданий и формируют профессиональное портфолио из выполненных проектов.

  • Стоимость: 80 750 руб.

  • Длительность: 6 месяцев

  • Формат обучения: видеоуроки, текстовые конспекты, симуляторы, задания на дом

  • Сертификат: есть

Кому подойдет: всем новичкам в IT, а также начинающим дата-инженерам без опыта.

Преимущества:

  • множество практических и тестовых заданий, а также наличие симуляторов для тренировок собеседований;

  • персональная обратная связь от кураторов проекта плюс приоритетный доступ к вакансиям партнерских компаний;

  • создание полноценного профессионального портфолио Junior Data Engineer — с проверкой и рекомендациями от экспертов;

  • прохождение курса на собственной платформе компании — с комментариями по каждому домашнему заданию и доступом к материалам в любое время;

  • гарантия возврата денег в течение 2 недель после старта обучения — если станет ясно, что программа (или сама профессия) не подходит.

Недостатки:

  • чересчур академическая подача материала, которая устраивает не всех студентов;

  • неравномерное соотношение теоретической и практической части в ряде модулей — это создает трудности в усвоении программы;

  • задержки при проверке домашних заданий — из-за большого потока пользователей.

Программа обучения:

  • изучение основ обработки данных — от архитектур систем и до выбора нужных для решения конкретных задач инструментов;

  • работа с базами данных — построение хранилищ, оптимизация запросов и т. д.;

  • создание пайплайнов — начиная со сбора и трансформации данных и заканчивая их правильной загрузкой;

  • приобретение навыков работы с облачными решениями и обучение развертыванию инфраструктуры;

  • разработка идеи финального проекта, его реализация и презентация.

Ознакомиться с полной программой >>>


7. Data Engineer | Otus

Очередная программа, попавшая в топовые курсы по Data Engineering из-за значительного количества практики. Она проходит в Yandex Cloud, где пользователи поэтапно осваивают главные профессиональные инструменты и основы работы с хранилищем данных. Также в процессе уделяется внимание потоковому и пакетному режиму обработки, а в завершении обучения участники могут сами проектировать пайплайны, работать с Apache Spark и т. д.

Также студенты курса получают бесплатный доступ к целому ряду ресурсам и находятся в активном диалоге с преподавателями и кураторами. Отдельно нужно отметить комьюнити платформы — оно большое, быстро развивается и поддерживает всех новых пользователей.

  • Стоимость: 114 000 руб.

  • Длительность: 5 месяцев

  • Формат обучения: вебинары, текстовые материалы, практические задания на дом

  • Сертификат: есть

Кому подойдет: начинающим дата-инженерам, аналитикам и другим IT-специалистам.

Преимущества:

  • учеба в любое удобное время (все лекции можно смотреть в записи) и пожизненный доступ к обучающим материалам;

  • вводный курс по Python в подарок, а также практика в Yandex Cloud — для навыков работы с облачными технологиями в целом;

  • поддержка преподавательского состава по любым вопросам, связанным с учебным процессом, а также добавление во внутреннее Telegram-сообщество;

  • работа на комфортной и аккредитованной платформе, которая включена в реестр отечественного программного обеспечения;

  • создание профессионального портфолио из реальных коммерческих проектов — на базе задач от компаний-партнеров проекта.

Недостатки:

  • несогласованность в работе преподавателей — они могут повторяться по темам;

  • ошибки в раздаточных материалах — например, там встречается устаревший код.

Программа обучения:

  • знакомство с основами дата-инжиниринга и архитектурой систем данных;

  • углубленное изучение программирования на Python, а также продвинутого SQL;

  • работа с облачными платформами, обработка big data с применением Apache Spark;

  • постройка, оптимизация ETL/ELT, работа с разными СУБД и системами хранения;

  • использование функций Docker, разработка и защита выпускного проекта.

Ознакомиться с полной программой >>>


8. Data-инженер | Слёрм

Курс позволяет освоить профессию дата-инженера от А до Я, начиная с базовых знаний и заканчивая участием в проектах крупных компаний. Причем обучение проходит в комфортном для студентов темпе, и после каждого его модуля они выполняют задания на виртуальных стендах — с подробным разбором их решений экспертами. Цель программы — сформировать у аудитории прикладные навыки применения актуального инструментария.

При этом учащиеся могут использовать не только открытые источники, но и свои данные, а итоговый проект становится частью их портфолио. Программа максимально практична и нацелена на бизнес-задачи, а также регулярно обновляется — вместе с изменениями рынка.

  • Стоимость: от 4 735 руб. в месяц

  • Длительность: 120 часов (без дедлайнов)

  • Формат обучения: видеоуроки, работа на онлайн-стендах, практические задания

  • Сертификат: есть

Кому подойдет: начинающим аналитикам баз данных, другим IT-специалистам без опыта.

Преимущества:

  • ориентация на практику — из 120 часов учебной программы на решение реальных задач бизнеса отводится 88;

  • двухгодичный доступ к материалам курса после его завершения, а также получение постоянной менторской поддержки и разбора заданий от специалистов;

  • возможность учиться без привязки не только к месту, но и ко времени — участники курса могут пройти 120 часов за любое удобное им количество недель или месяцев;

  • гарантия актуальности информации и инструментов — после каждого обновления в программе остаются только действительно нужные в моменте технологии;

  • шанс получить корпоративную скидку и оформить налоговый вычет — что делает стоимость обучения еще более выгодной.

Недостатки:

  • недостаточная проработанность материалов, по мнению ряда пользователей;

  • несмотря на обновления, в части тем так и проскакивают уже устаревшие сведения.

Программа обучения:

  • изучение языка программирования Python и терминала задач Data Engineering;

  • знакомство с Hadoop, распределенными файловыми системами и реляционными базами данных;

  • методология и архитектура хранилищ big data, их процессинг и перекладка;

  • обучение обращению с оркестраторами и шинами данных, потоковой аналитикой;

  • обретение навыка работы с ETL-инструментом, изучение оценки качества данных;

  • разработка, выполнение и защита финального проекта.

Ознакомиться с полной программой >>>


9. Профессиональная переподготовка Инженер данных | АПОК

Курс готовит специалистов по работе с большими объемами данных и позволяет им освоить все необходимые инструменты в достаточно сжатые сроки. Студенты изучают особенности хранилищ big data, способы их обработки и подготовки для ML-инженеров и других отделов и т. д. Таким образом, программа рассчитана на то, чтобы они приобрели фундаментальные навыки работы в дата-инженерии, и быстро нашли работу в этой сфере.

Однако так как это программа профессиональной переподготовки, то для поступления на курс надо уметь уже законченное высшее или средне-специальное образование. И желательно математического плана — точных ограничений по профессиям нет, но это упростит учебу.

  • Стоимость: 29 980 руб.

  • Длительность: 1 месяц (250 часов)

  • Формат обучения: вебинары, текстовые конспекты, онлайн-тесты, задания на дом

  • Сертификат: есть

Кому подойдет: всем, кто хочет поменять свою специальность на работу дата-инженера.

Преимущества:

  • отсутствие четкого расписания — учеба в любое удобное время, а также совмещать обучение с работой;

  • высокое качество учебных материалов — структурированная и понятная подача информации, подкрепление теории практическими примерами и т. д.;

  • активная поддержка студентов — преподаватели и методисты отвечают на вопросы и помогают решать разные вопросы в течение всего срока обучения;

  • возможность оформить оплату обучения в рассрочку, а также получить налоговый вычет за эту сумму;

  • при необходимости готовый диплом о профессиональной переподготовке может быть отправлен выпускнику курса по почте (бесплатно).

Недостатки:

  • технические проблемы с учебной платформы — иногда не сохраняются тесты и др.;

  • недостаток практических заданий — по сравнению с остальными программами;

  • высокая интенсивность — освоить 250 часов в течение месяца может быть сложно, особенно если процесс учебы сочетается с работой.

Программа обучения:

  • введение в само направление Data Science, а также работу с данными и основными инструментами дата-инженера;

  • изучение основ статистики для анализа данных и технологий машинного обучения;

  • знакомство с анализом временных рядов и прогнозированием;

  • работа над реальными бизнес-кейсами и настоящими коммерческими задачами;

  • разработка итогового проекта, создание портфолио, подготовка к собеседованиям.

Ознакомиться с полной программой >>>


10. Инженер больших данных (Big Data Engineer) | Специалист.ru

Комплексный курс включает в себя 11 отдельных модулей обучения. Учащиеся начинают освоение специальности с изучения специализированных инструментов Excel, и потом приступают к формированию SQL-запросов и использованию базовых конструкций Python. После этого стартует обучение построению диаграмм и разнообразных графиков, а также знакомство с тем, каким образом big data можно соединять и переформатировать.

Учиться по программе можно в свободном графике — записи лекций и семинаров доступны в любое время и к ним разрешается возвращаться еще в течение полугода после финала обучения. А другие учебные материалы (не видео) остаются у студентов навсегда.

  • Стоимость: 285 290 руб.

  • Длительность: от 4 месяцев

  • Формат обучения: записи лекций, семинары с преподавателями, занятия на дом

  • Сертификат: есть

Кому подойдет: уже подготовленным специалистам с базовыми знаниями по сетевым ОС.

Преимущества:

  • опытный преподавательский состав — не только практикующие программисты или инженеры, но и доктора наук, а также научные сотрудники РАН;

  • подарок за успешное окончание курса (на практике его получают все пользователи) — 3 бесплатные персональные консультации по пройденным темам;

  • участие в «живых» онлайн-семинарах с преподавателями, в ходе которых можно задавать вопросы и получать разбор своих ошибок;

  • обретение не только теоретических знаний, но и практических навыков в решении стандартных рабочих задач современного дата-инженера;

  • гарантированная помощь в трудоустройстве (вплоть до подбора самых подходящих вакансий) и возможность получить налоговый вычет за внесенную оплату.

Недостатки:

  • бессрочный доступ предоставляется только к некоторым материалам курса;

  • большой объем материала — часть лекций растягивается на 3–4 часа без перерывов, и в отзывах можно найти множество предложений разбивать их на куски.

Программа обучения:

  • изучение основ работы с большими данными и анализа данных на языке SQL;

  • программирование на Python и Java — базовые курсы с дополнениями по теме;

  • знакомство с Apache Kafka для разработчиков и основами Apache Hadoop, а также такими инструментами как MapReduce, Hive, Spark и Cassandra;

  • обучение автоматизации рабочих процессов при помощи Airflow;

  • построение пайплайнов — процессов доставки данных из одного места в другое.

Ознакомиться с полной программой >>>


Еще 6 курсов Data Engineer

Так как сегодня это очень востребованное направление, на перечисленных программах по профессии инженер данных курсы в интернете не кончаются. Более того, в предложениях есть и полностью бесплатные варианты — они прекрасно подойдут для знакомства с темой.

  • Прикладной анализ данных и машинное обучение от Skillfactory — программа для всех, кто хочет получить более фундаментальные знания в сфере анализа больших данных. Техническое образование для поступления на курс не требуется, учиться можно с нуля.

  • Инженер данных от Компьютерной Академии ТОП — на курсе студенты могут получить все необходимые для освоения новой профессии знания и навыки. В частности, их обучают управлению потоками big data, работе с базами, обработке больших объемов данных при помощи Apache Airflow и проектировке архитектуры хранилищ.

  • Симулятор «Инженер данных» от Simulative — интерактивный курс с настоящими бизнес-проектами, который подойдет пользователям, предпочитающим практико-ориентированный подход и желающим получить реальный опыт работы с big data.

  • Big Data Engineer от TopTrening — полноценный курс продолжительностью 1 год, который подходит специалистам, уже работающим в сфере big data или в смежных IT-специальностях.

  • Data Engineer от NewProlab — обучающая программа с упором на практику, причем максимально приближенную к реальной работе дата-инженеров.

  • Data Engineer от МФТИ — бесплатное обучение на инженера данных, состоящее из комплекта материалов от преподавателей крупного российского института. По ним пользователи могут освоить работу с Python и SQL, ознакомиться с особенностями Hadoop и Spark, а также разобраться в Apache Kafka, Hive и Git.


Часто задаваемые вопросы

Чем занимается на работе Data Engineer?

Дата-инженеры занимаются созданием и обновлением инфраструктуры данных, а также поддержанием ее работоспособности. Плюс в их обязанности входит разработка и оптимизация процессов загрузки и трансформации big data и их последующего хранения.

Какие навыки нужны, чтобы стать дата-инженером?

Это навыки программирования (Python, SQL), знание баз данных и инструментов для их обработки (Apache Spark, Hadoop и др.), а также облачных технологий и принципов big data. Однако необязательно знать их заранее – множество курсов обучают этому с нуля.

Какие технологические тренды влияют на Data Engineering?

Прежде всего, это распределенные системы обработки данных и облачные технологии для их хранения и анализа. Плюс нельзя не отметить влияние автоматизации процессов ETL и внедрение машинного обучения для анализа информации: всему этому обучают на курсах.

Как в области Data Engineering можно вырасти?

Для этого надо продолжать обучение новым технологиям и методикам обработки данных, а также не отказываться от участия в профессиональных конференциях, вебинарах и т. п. Еще один путь развития — регулярное прохождение курсов для повышения квалификации.

Если я специалист в бизнес-процессах, что мне даст Data Engineering?

В таком случае учеба в этом направлении поможет создавать более эффективные решения для обработки больших данных. Причем именно такие решения, которые будут подходить потребностям определенного бизнеса и, как следствие, повышать показатели его прибыли.

Если обучение Data Engineer уже было, надо ли учиться сейчас? Или сразу идти работать?

Технологий и тенденции в области инженерии данных и IT-сферы постоянно меняются, и поэтому свои знания все же стоит обновить. Это даст возможность эффективнее работать с большими данными, выбирать оптимальные инструменты и двигаться в карьере дальше.


Чтобы пройти любые Data Engineer курсы успешно, нужно заранее оценить свои навыки и уже имеющийся опыт, выбрать подходящую к ним учебную программу, и подключиться к профессиональным сообществам еще на этапе обучения. Это позволит не только влиться в среду и быстрее найти стажировку, но и не потерять мотивацию. Также важно создавать портфолио из выполненных проектов, которое станет важным дополнением к резюме. А с вакансиями проблемы не будет — из-за стремительной цифровизации компаний профессия инженера данных становится ключевой, и бизнес крайне нуждается в таких специалистах.

Показать полностью 12
Обучение Курсы SQL Python Онлайн-курсы Большие данные База данных Блоги компаний Длиннопост
3
tobotsp
tobotsp

Wikimedia Deutschland объявила о запуске проекта Wikidata Embedding⁠⁠

2 месяца назад
Wikimedia Deutschland объявила о запуске проекта Wikidata Embedding

В среду Wikimedia Deutschland представила новую базу данных, призванную сделать огромный массив знаний Википедии более доступным для моделей искусственного интеллекта. Проект получил название Wikidata Embedding Project и использует векторный семантический поиск — метод, позволяющий компьютерам понимать смысл и взаимосвязи между словами — применяя его к существующим данным Википедии и её дочерних платформ, охватывающим почти 120 млн записей.

Технические детали

Система объединена с поддержкой Model Context Protocol (MCP), стандарта, упрощающего взаимодействие ИИ‑систем с источниками данных, что делает информацию более доступной для естественноязыковых запросов больших языковых моделей (LLM). Проект реализован совместно с компанией Jina.AI, специализирующейся на нейронном поиске, и DataStax, поставщиком данных в реальном времени, принадлежащей IBM.

Ранее Wikidata предоставляла машинно‑читаемые данные через свойства Wikimedia, но инструменты ограничивались поиском по ключевым словам и запросами SPARQL. Новая система лучше подходит для retrieval‑augmented generation (RAG)‑моделей, позволяя ИИ‑моделям привлекать внешнюю информацию и опираться на знания, проверенные редакторами Википедии.

Примеры запросов

База данных структурирована так, чтобы предоставлять важный семантический контекст. При запросе слова «scientist» (учёный) система выдаёт списки известных ядерных учёных, учёных, работавших в Bell Labs, переводы термина на разные языки, изображение учёных, одобренное Wikimedia, а также связанные понятия, такие как «researcher» и «scholar».

База открыто доступна через платформу Toolforge. Wikidata также планирует провести вебинар для разработчиков, посвящённый проекту, который состоится 9 октября.

Контекст в индустрии ИИ

Новый проект появился в момент, когда разработчики ИИ активно ищут высококачественные источники данных для дообучения моделей. Современные тренировочные системы становятся всё более сложными, часто представляя собой комплексные обучающие среды, однако им всё равно требуются тщательно отобранные данные. По сравнению с массовыми наборами, такими как Common Crawl, данные Википедии более ориентированы на факты.

“Запуск Embedding Project показывает, что мощный ИИ не обязан контролироваться узким кругом компаний. Он может быть открытым, совместным и служить всем.”
Philippe Saadé, менеджер проекта Wikidata AI

Больше материалов на канале РобоТок: https://t.me/tobotsp

Показать полностью 1
[моё] Нейронные сети Искусственный интеллект Википедия База данных
1
3
VelStyling
VelStyling
Серия SQL: знакомство

Псевдонимы в SQL⁠⁠

2 месяца назад

Псевдонимы в SQL (алиасы) кажутся «косметикой», но у них есть подводные камни и тонкости, которые реально влияют на запросы.

Псевдонимы - это временные имена для таблиц или столбцов внутри запроса.

Псевдонимы в SQL

В моем канале На связи: SQL уже есть про это посты: вот этот. Канал я веду с нуля подписчиков. Чтобы показать, что аналитика и SQL это не страшно, а интересно. Присоединяйся, если ты тоже хочешь начать изучать SQL или вспомнить и осознать некоторые нюансы.

SELECT c.name AS customer_name

FROM customers c;

  • c — алиас таблицы customers

  • customer_name — алиас для колонки c.name

Внутри результата ты видишь только customer_name.

Где применяются

Сокращение длинных имён

SELECT o.id, c.name

FROM orders o

JOIN customers c ON o.customer_id = c.id;

- читабельнее, чем всё время писать orders.id, customers.name

JOIN и self-join
Без алиасов нельзя отличить таблицы при самосоединении:

SELECT e1.name, e2.name
FROM employees e1
JOIN employees e2 ON e1.manager_id = e2.id;

Агрегация и подзапросы
Алиас часто обязателен:

SELECT avg(salary) AS avg_salary

FROM employees;

Derived tables (подзапросы в FROM)
Тут алиас обязателен:

SELECT sub.department, sub.cnt

FROM ( SELECT department, count(*) cnt

FROM employees

GROUP BY department

) sub;

Где их нельзя применять / ограничения

В том же уровне WHERE

SELECT salary * 1.2 AS new_salary

FROM employees

WHERE new_salary > 5000; -- ❌ Ошибка

  • Алиасы доступны только в SELECT/ORDER BY, но не в WHERE или GROUP BY.
    → нужно повторно писать выражение или завернуть в CTE.

    Порядок обработки
    SQL выполняется в порядке: FROM → JOIN → WHERE → GROUP BY → HAVING → SELECT → ORDER BY → LIMIT.
    Алиасы появляются только после SELECT.
    Поэтому:

    • в WHERE и GROUP BY алиасы ещё не видны;

    • в ORDER BY алиасы уже можно использоват

Нюансы, которые часто забывают

  1. Алиасы влияют только на внешний уровень запроса
    Они не меняют структуру таблицы.
    В EXPLAIN ты увидишь исходные имена столбцов, а не алиасы.

  2. В подзапросах алиас обязателен для таблицы
    Даже если кажется, что можно без него.

SELECT *

FROM (SELECT 1) -- ❌ Ошибка

SELECT *

FROM (SELECT 1) AS t;

  1. ORDER BY может использовать алиас
    Ускоряет жизнь:

    SELECT salary * 1.2 AS new_salary
    FROM employees
    ORDER BY new_salary DESC;

  2. CTE против алиасов
    Если выражение слишком длинное (например, CASE WHEN …), лучше вынести его в CTE вместо алиаса в SELECT → так его можно переиспользовать и в WHERE, и в ORDER BY.

  3. Алиасы могут влиять на читаемость, но и запутывать
    Пример анти-паттерна:

    SELECT u.id AS order_id -- ❌ псевдоним вводит в заблуждение
    FROM users u;

    → плохая идея, потому что вводит читателя в ошибку.

Итог: алиасы — не просто косметика. Это инструмент:

  • для читаемости;

  • для самосоединений и подзапросов;

  • для управления порядком сортировки.

Но они не живут дольше SELECT-а

Подписывайся на мой канал На связи SQL и давай изучать особенности вместе!

Показать полностью 1
[моё] Анализ Аналитика Анализ данных Аналитик SQL Microsoft Excel База данных Запросы Саморазвитие Длиннопост
0
4
VelStyling
VelStyling
Серия SQL: знакомство

Неочевидные факты про JOIN⁠⁠

2 месяца назад

Про JOIN обычно пишут общую теоретическую информацию. Всегда упоминают виды JOIN-ов: INNER, LEFT, RIGHT, FULL, CROSS, а за кулисами могут остаться интересные факты, подводные камни и тонкости, которые редко упоминаются, но которые могут реально пригодиться.

Неочевидные факты про JOIN

В моем канале На связи: SQL уже есть про это посты: вот этот и вот этот. Канал я веду с нуля подписчиков. Чтобы показать, что аналитика и SQL это не страшно, а интересно. Присоединяйся, если ты тоже хочешь начать изучать SQL или вспомнить и осознать некоторые нюансы.

Неочевидные факты про JOIN

Условие в ON vs WHERE

  • Для INNER JOIN — разницы нет, фильтрация в ON или в WHERE даст одинаковый результат.

  • Но для LEFT JOIN это уже не так:

    • ON фильтрует при объединении (строка может остаться с NULL в правой таблице).

    • WHERE фильтрует после — и может "выбросить" строки, ради которых делался LEFT JOIN.

👉 Классический баг у новичков: пишут условие в WHERE и не понимают, почему LEFT превратился в INNER.

Предположим, у нас есть две таблицы:

orders (таблица заказов):

order_id | customer_id | amount

---------|-------------|--------

1 | 1 | 100

2 | 2 | 200

3 | 1 | 150

customers (таблица клиентов):

customer_id | country

------------|---------

1 | USA

2 | UK

3 | USA

И есть два запроса:

SELECT o.order_id, c.customer_id, c.country

FROM orders o

LEFT JOIN customers c ON o.customer_id = c.customer_id

AND c.country = 'USA';

SELECT o.order_id, c.customer_id, c.country

FROM orders o

LEFT JOIN customers c ON o.customer_id = c.customer_id

WHERE c.country = 'USA';

Результаты этих запросов будут одинаковы?

Можно писать свои рассуждения в комментариях.

JOIN на неравенстве

Обычно мы пишем ON a.id = b.id, но можно и:

SELECT *

FROM a

JOIN b ON a.value BETWEEN b.min AND b.max;

Это называется non-equi join (неравенственный джойн).
👉 В BI и аналитике это часто используют для «поиска диапазона» (например, попадает ли дата заказа в акцию).
Но! Такой JOIN почти всегда тяжелее, потому что индексы плохо помогают.

FULL JOIN в проде почти не используют

Многие базы его поддерживают, но реально на проектах встречается редко. Почему?

  • Почти всегда можно заменить комбинацией LEFT JOIN UNION RIGHT JOIN.

  • А оптимизаторы некоторых СУБД работают с FULL OUTER JOIN медленнее.
    👉 Часто факт наличия FULL JOIN в запросе сигнализирует, что "что-то не так со схемой данных".

CROSS JOIN — не только для Декарта

Все думают, что CROSS JOIN = "перемножить всё на всё". Но он используется:

  • для генерации тестовых данных:

SELECT d::date

FROM generate_series('2025-01-01', '2025-01-31', interval '1 day') d

CROSS JOIN users;

для построения матриц, календарей, отчетов с дырками.
👉 То есть CROSS JOIN часто — инструмент BI-разработчика

JOIN и NULL — подстава

  • NULL = NULL → всегда FALSE.
    Поэтому если соединяешь таблицы по колонке с NULL, то такие строки просто теряются.
    👉 В проде это часто ломает аналитику: ожидали, что будет связь «пустое с пустым», а SQL этого не понимает.

Производительность JOIN-ов

  • Много JOIN-ов (10+) ≠ всегда медленно. Оптимизаторы умеют работать с огромными планами.

  • Но JOIN + функции (ON lower(a.name) = lower(b.name)) почти всегда убивает индекс → дорого.
    👉 Лучшее решение — хранить данные в нормализованном виде (например, имена в нижнем регистре).

ANTI JOIN

Вместо NOT IN или NOT EXISTS можно писать LEFT JOIN ... WHERE b.id IS NULL.
Это часто быстрее, особенно в старых версиях MySQL.
👉 Но не забывай: NOT IN (NULL, ...) ведет себя неожиданно (возвращает пустой набор).

JOIN ≠ JOIN ORDER

SQL — декларативный язык. Ты пишешь JOIN-ы в любом порядке, но оптимизатор сам решает, какую таблицу читать первой, как переставить местами соединения. Поэтому писать «самую маленькую таблицу первой» часто не имеет смысла. Но иногда хинты (JOIN ORDER, FORCE JOIN, USE INDEX) всё же нужны, когда оптимизатор ошибается.

Когда мы пишем:

SELECT *

FROM orders o

JOIN customers c ON o.customer_id = c.id

JOIN regions r ON c.region_id = r.id;

мы как бы говорим:
👉 «Дай мне все заказы, вместе с клиентами и регионами».

НО! Мы не указываем порядок, в котором эти таблицы реально будут соединяться.
Оптимизатор (query planner) сам решает:

  • какую таблицу читать первой;

  • по какому индексу идти;

  • в каком порядке выполнять JOIN-ы.

И этот порядок почти всегда ≠ порядок в SQL-запросе.

Как это работает на практике

  • Оптимизатор строит граф зависимостей между таблицами и условиями.

  • Считает «стоимость» разных стратегий (в PostgreSQL это cost-based optimizer).

  • Выбирает план с минимальной стоимостью: например, начать с маленькой таблицы, потом по индексу сходить в большую.

OIN ORDER hints

Иногда оптимизатор ошибается. Причины:

  • Неправильная статистика (например, таблица только что обновилась).

  • Очень сложный запрос (10+ JOIN-ов, подзапросы).

  • Особенности движка (MySQL раньше любил «сначала левую таблицу»).

Тогда СУБД позволяют подсказать оптимизатору:

  • FORCE ORDER (SQL Server, Oracle) → использовать JOIN-ы в том порядке, как написаны.

  • LEADING (Oracle) → указать, с какой таблицы начать.

  • USE INDEX (MySQL) → подсказать, какой индекс использовать.

  • PostgreSQL не имеет FORCE JOIN, но можно:

    • отключить конкретные алгоритмы (SET enable_hashjoin = off;)

    • использовать LATERAL, JOIN LATERAL, CROSS JOIN чтобы «подсказать» порядок.


🔹 Когда порядок JOIN реально важен

  1. Суперсложные запросы (20+ таблиц).
    Оптимизатор может выбрать очень дорогой план → запрос работает минуты/часы.
    Иногда правильный хинт → ускорение в десятки раз.

  2. Необновлённая статистика.
    Оптимизатор думает: «таблица маленькая», но на самом деле она разрослась. → выбирает плохой порядок JOIN.

  3. LIMIT + ORDER BY.
    Тут реально важно, с чего начать — иногда оптимизатор «тянет» всю таблицу, хотя мог бы остановиться раньше.


🔹 Лайфхак для практики

  • В PostgreSQL можно посмотреть план:

    EXPLAIN (ANALYZE, BUFFERS) SELECT ...

    → увидишь реальный JOIN order.

  • Не доверяй слепо «писать маленькую таблицу первой» — это миф, из старых времён MySQL.

  • Иногда лучше переписать запрос так, чтобы оптимизатору нечего было гадать. Например, вынести фильтрацию в CTE или subquery.

JOIN — это не только "соединить таблицы", а целый набор особенностей: от NULL и порядка фильтрации до генерации календарей через CROSS JOIN.

Подписывайся на мой канал На связи SQL и давай изучать особенности вместе!

Показать полностью 1
[моё] SQL Join Анализ Аналитик Аналитика Анализ данных Microsoft Excel База данных Саморазвитие Длиннопост
0
Sygrom
Sygrom
Лига Сисадминов

Мониторинг действий юзеров⁠⁠

2 месяца назад

Доброго всем времени суток
Есть сервак под Win 2022. Без доступа в интернет. На сервере поднят RDP, установлен офис и т.д.

Есть куча юзеров (около 50) которые подключаются к серваку по RDP и работают (создают, редактируют, копируют, удаляют) там с файлами офиса.

Нужно:
а) какую-нибудь программу, для записи действий каждого пользователя. Родной журнал событий показывает только параметры сессий. То есть время подключения\отключения и т.д. Но не показывает какие действия и с какими НЕсистемными файлами производил пользователь. А нужно, именно знать с какими конкретно документами, что, сколько раз, когда (по дате и времени) делал каждый пользователь.
б) поскольку число файлов плавно перевалило за тысячу, понадобилось что-то вроде СУБД для хранения, разграничения доступа и номинального редактирования офисных документов.
Доступа к интернету - нет, поэтому никакие онлайн или облачные решения, тут не годятся.

Прошу совета опытных и знающих.
Заранее всем благодарен за подсказки и помощь.

Показать полностью
Windows Сервер Офис Субд Документы Редактирование База данных Мониторинг Текст
26
3
VelStyling
VelStyling
Серия SQL: знакомство

NULL, Но(у)ль, Неизвестно, Пусто... Что это все такое⁠⁠

2 месяца назад

NULL — это специальное значение в SQL, которое означает отсутствие данных или неизвестное значение. Важно понимать, что NULL ≠ 0 и NULL ≠ пустая строка (‘’).

А пока подписывайся на мой канал На связи: SQL Там я публикую посты про особенности и нюансы SQL. Этот канал про то, как не бояться баз данных, понимать, что такое JOIN, GROUP BY и почему NULL ≠ 0. Его я веду с нуля подписчиков. И пост про NULL уже ждет тебя! Присоединяйся!

NULL, Но(у)ль, Неизвестно, Пусто... Что это все такое

NULL не равен ничему, даже самому себе. Не является числом, строкой или другим типом данных.

И это надо запомнить при работе с данными.

Все что вы будете сравнивать с NULL будет возвращаться как UNKNOWN.

Для работы с NULL есть специальные операторы.

-- Проверка на NULL

SELECT *

FROM table

WHERE column IS NULL;

-- Проверка на НЕ NULL

SELECT *

FROM table

WHERE column IS NOT NULL;

-- Замена NULL на значение

SELECT COALESCE(column, 'значение_по_умолчанию')

FROM table;

NULL появляется там, где есть необязательные поля для заполнения, при отсутствии связей между сущностями, при ошибках ввода, когда данные неизвесты.

Вообще, понятие NULL появилось в начале 1970-х годов. Разработчики реляционных БД специально создали такое значение для обозначения отсутствия данных. Это было революционным решением, позволившим хранить информацию более гибко.

Математические фокусы с NULL:

  • Любое число + NULL = NULL

  • NULL * 100 = NULL

  • NULL / 2 = NULL

  • Индексы могут работать медленнее при наличии NULL

  • Некоторые типы индексов вообще не поддерживают NULL

  • Агрегатные функции игнорируют NULL по умолчанию

Ну и коротко про то что такое Но(у)ль:
Ноль — это чётко определённое значение:

  • Числовое значение

  • Имеет математический смысл

  • Участвует в вычислениях

  • Равно самому себе

А теперь про пусто:
Пустота — отсутствие содержимого

Пустое значение может быть:

  • Пустой строкой (‘’ или “”)

  • Пустым массивом

  • Пустым объектом

  • Имеет конкретный тип данных

Рекомендации:

  • Используйте NULL для неизвестных данных

  • Применяйте 0 для числовых значений по умолчанию

  • Используйте пустые строки для незаполненных текстовых полей

Заключение

Помните: каждое из этих значений несёт свой смысл. Неправильное использование может привести к:

  • Ошибочным расчётам

  • Некорректной логике

  • Потерям данных

  • Системным ошибкам

А как вы работаете с этими значениями в своих проектах? Поделитесь опытом в комментариях!

Показать полностью 1
[моё] Null База данных Анализ данных Аналитика Аналитик SQL Microsoft Excel Большие данные Самообразование Длиннопост
1
VelStyling
VelStyling
Серия SQL: знакомство

DELETE в SQL: когда одно слово может стереть ваши данные⁠⁠

2 месяца назад

DELETE — инструменте, который может как спасти вашу базу данных от хлама, так и превратить её в пустыню за считанные секунды.

DELETE как цифровой пылесос**, который может убрать всё, что вы ему скажете. Только вот вернуть обратно будет ой как непросто!

DELETE в SQL: когда одно слово может стереть ваши данные

А пока подписывайся на мой канал На связи: SQL Там я публикую посты про особенности и нюансы SQL. Этот канал про то, как не бояться баз данных, понимать, что такое JOIN, GROUP BY и почему NULL ≠ 0. Его я веду с нуля подписчиков. Присоединяйся!

Базовый синтаксис:

DELETE FROM таблица
WHERE условие;

Можно использовать EXISTS с подзапросами

DELETE FROM orders

WHERE EXISTS (

SELECT 1

FROM customers

WHERE customers.id = orders.customer_id

AND customers.status = 'deleted' );

Удаляет заказы неактивных клиентов.

Можно использовать JOIN

DELETE o

FROM orders o

INNER JOIN customers c ON o.customer_id = c.id

WHERE c.registration_date < '2020-01-01';

Удаляет заказы клиентов, зарегистрированных до 2020 года.

Как происходит удаление записей?

Физическое удаление в SQL — это не мгновенное стирание данных с диска. Когда вы выполняете DELETE:

  • Система записывает операцию в журнал транзакций

  • Помечает удалённые строки как свободные

  • Физическое место может быть использовано для новых данных

  • Сами данные остаются в файле некоторое время

Формируется основной файл .mdf (или аналогичный). Также информация записывается в журнал транзакций. Сроки хранения удаленных данных зависят от:
- модели восстановления базы данных
- активности базы данных
- настроек резервного копирования
- объема свободного места

Удаленные данные могут храниться до следующего бэкапа или до перезаписи журнала.

Способы восстановления данных после DELETE

  1. Восстановление из резервной копии

    RESTORE DATABASE имя_базы FROM DISK = 'путь_к_бэкапу'

  2. Использование моментальных снимков (Snapshot)

    CREATE DATABASE имя_снимка

    ON (NAME = имя_файла, FILENAME = 'путь_к_файлу')

    AS SNAPSHOT OF исходная_база;

    Восстановление данных из снимка:

    INSERT INTO исходная_таблица

    SELECT * FROM снимок.dbo.таблица

  3. Восстановление через LSN (Log Sequence Number)

    Если есть журналы транзакций:

    BACKUP LOG имя_базы TO DISK = 'путь_к_журналу'

    Поиск удалённых записей:
    SELECT [Current LSN], [Transaction ID]

    FROM fn_dblog(NULL, NULL)

    WHERE Operation = 'LOP_DELETE_ROWS'

  4. Либо использовать специальные посторонние программы для восстановления БД

Чтобы предотвратить потерю данных:

  • Регулярно создавайте резервные копии

  • Используйте транзакции (BEGIN TRANSACTION / ROLLBACK)

  • Тестируйте DELETE-запросы на тестовой базе

  • Применяйте WHERE с осторожностью

  • Настройте политики резервного копирования

DELETE vs TRUNCATE

Многие думают, что TRUNCATE и DELETE — это одно и то же. На самом деле:

  • DELETE удаляет строки по одной и записывает каждую операцию в журнал транзакций

  • TRUNCATE мгновенно очищает таблицу, минуя журнал (кроме некоторых случаев)

При выполнении DELETE:

  • Блокируются только удаляемые строки

  • Другие транзакции могут читать незаблокированные данные

  • В некоторых СУБД возможна эскалация блокировок до уровня таблицы

  • Не затрагивает структуру индексов

  • Индексы остаются в прежнем состоянии

  • Это ускоряет процесс удаления

  • Не сбрасывает счётчики автоинкремента

  • Сохраняет текущее значение последовательности

  • Важно при работе с первичными ключами

  • Активируются триггеры AFTER DELETE

  • Можно отслеживать удалённые строки через виртуальную таблицу deleted

  • Триггеры могут отменить операцию удаления

Чтобы сохранить целостность данных можно использовать ON DELETE CASCADE
Это позволит там, где есть зависимость по внешним ключам произвести удаление зависимых строк.

Показать полностью 1
[моё] SQL Аналитик Аналитика Большие данные Microsoft Excel Анализ данных Эмоциональное выгорание Самообразование База данных Длиннопост
6
4
VladLoop
VladLoop
Web-технологии

Гайд по Coolify: Как развернуть n8n и Supabase на одном VPS за вечер⁠⁠

2 месяца назад

Современная разработка и автоматизация — это жонглирование десятком вкладок и сервисов. Ваш n8n работает в одном месте, база данных Supabase — в другом, фронтенд — в третьем. Даже если вы используете бесплатные тарифы, вы постоянно сталкиваетесь с их ограничениями: то база данных "засыпает" из-за неактивности, то ваш воркфлоу отключается, а главное — ваши данные и логика разбросаны по чужим платформам.

Мне захотелось вернуть контроль. Чтобы все мои сервисы жили на моем (тут конечно можно поспорить) железе, управлялись из единой панели и не требовали от меня быть DevOps-гуру. Так я пришел к Coolify — open-source PaaS-платформе, которая превращает ваш VPS в удобный инструмент управления для всех ваших проектов.

В этом гайде я по шагам покажу, как я развернул на одном сервере полный стек для своих AI-проектов: n8n для автоматизации, Supabase для данных (включая векторные) и как всем этим управляет Coolify.

Что такое Coolify и зачем он нужен

Если вы когда-либо пытались запустить что-то на "голом" VPS, вы возможно знаете эту боль: Docker, Nginx, SSL-сертификаты, переменные окружения, CI/CD... Coolify берет все это на себя, выступая в роли вашего личного DevOps-ассистента.

Что это дает на практике:

Полный контроль и владение данными. Все ваши данные, код и воркфлоу находятся на вашем сервере. Вы не зависите от чужих тарифных планов, политики конфиденциальности или внезапных изменений в работе сервиса.

Для легальной автоматизации, интеграций и сбора пользовательских данных российским проектам и разработчикам нельзя хранить и обрабатывать любые пользовательские базы вне России — только на VPS или выделенном сервере, физически размещённом в РФ.

Надежность и работа 24/7. Self-host n8n гарантирует, что ваши автоматизации работают круглосуточно.

Простота управления. Вы подключаете свой GitHub-репозиторий или выбираете сервис из каталога, нажимаете "Deploy", и Coolify делает все остальное: собирает Docker-образ, настраивает прокси, выпускает SSL-сертификат и запускает приложение.

Разумная экономия. Когда ваши проекты растут, один мощный VPS часто оказывается выгоднее, чем несколько облачных сервисов с аналогичными ресурсам

Когда аренда VPS оправдана? Мой стек: n8n + Supabase

Покупать сервер ради одного Telegram-бота — избыточно. Но как только ваши амбиции растут, self-host становится единственным верным решением. Мой ключевой сценарий — создание продвинутых AI-автоматизаций.

  • n8n — это мозг. Он будет обрабатывать логику, общаться с AI-моделями и внешними API. На своем сервере он работает 24/7, что критично для вебхуков и фоновых задач.

  • Supabase — это память. Он будет хранить данные пользователей, логи, а главное — векторные представления для RAG-сценариев. Вы избавляетесь от ограничений бесплатного облачного тарифа (вроде «засыпания» базы данных) и получаете полный контроль над своей информацией.

Self-host версия Supabase уже содержит расширение pgvector. Это значит, что вы можете хранить и обычные, и векторные данные в одной и той же PostgreSQL базе! Вам не нужен отдельный сервис вроде Qdrant или Pinecone для большинства задач.

Минимальные требования к VPS для такого стека:
Для комфортной работы Coolify, n8n и Supabase на одном сервере я рекомендую начинать с конфигурации:

  • CPU: 2 CPU

  • RAM: 4 ГБ

  • Диск: 30 ГБ NVMe SSD

Этого хватит для стабильной работы и небольших RAG-проектов.

Шаг 1: Установка Coolify

Процесс до смешного прост. Берем чистый VPS с Ubuntu 22.04 LTS и root-доступом.

1. Подключаемся по SSH и запускаем одну команду:

curl -fsSL https://cdn.coollabs.io/coolify/install.sh | bash

Этот скрипт сделает все за вас: установит Docker, создаст необходимые директории и запустит контейнеры с Coolify.

2. Первый вход и настройка домена.

После установки перейдите по адресу

http://ВАШ_IP:8000

Сразу же создайте аккаунт администратора. Затем в настройках укажите ваш домен (например, coolify.yourdomain.com), и Coolify автоматически выпустит для него SSL-сертификат.

3. Настройка уведомлений.

Идем в Notifications → Telegram и подключаем своего бота. Теперь Coolify будет присылать вам уведомления о статусе деплоя, падениях сервисов и других важных событиях. Вы всегда будете в курсе, что происходит с вашими проектами.

Шаг 2: Деплоим сервисы в один клик

Установка n8n

  1. В Coolify создаем новый проект.

  2. Нажимаем "Add Resource" и в каталоге находим готовый шаблон "n8n with PostgreSQL". Это важно — n8n будет хранить свои воркфлоу в надежной базе данных, а не в SQLite (менее надёжная штука в долгосрочной перспективе).

  3. В настройках ресурса переходим в Configuration → General и указываем домен, например n8n.yourdomain.com.

  4. Важный момент — управление версией. По умолчанию n8n установится с тегом latest. Это рискованно для прода. Чтобы зафиксировать стабильную версию, перейдите в настройки и измените Docker Image Tag с n8nio/n8n:latest на конкретную версию, например, n8nio/n8n:1.110.1.

  5. Нажимаем Deploy. Через пару минут ваш личный n8n будет доступен по указанному домену.

  6. Создаем админскую учётную запись уже внутри самого n8n.

Готово. Ваш n8n работает и готов к созданию воркфлоу. Но здесь важно сделать шаг назад и поговорить о границах применимости этого инструмента.

n8n — это гениальный инструмент для MVP и внутренних автоматизаций, но он может стать источником боли в критически важных production-системах. Я подробно разбирал эту дилемму ранее, собрал основные проблемы (от "засыпающих" вебхуков до отладки сложных сценариев) и четко разграничил, когда n8n — идеальный выбор, а когда нужно сразу смотреть в сторону кода. Почитайте, это сэкономит вам кучу нервов в будущем: n8n — это лучший MVP и худший продакшн.

Установка Supabase

Здесь все еще проще.

  1. В том же проекте нажимаем "Add Resource".

  2. В каталоге выбираем "Supabase". Это готовый стек из десятка контейнеров (база данных, API-шлюз, аутентификация и т.д.), который Coolify развернет и свяжет за вас.

  3. Указываете домен для панели управления Supabase, жмете Deploy.

  4. После деплоя, вам нужно будет лишь зайти в переменные окружения и запомнить SERVICE_SUPABASESERVICE_KEY (пригодится потом при подключении Credentials).

  5. Логин и пароль для входа в панель управления Supabase: Admin User & Password.

Готово. У вас есть свой собственный, полностью независимый Supabase с pgvector на борту.

Пример добавления Credentials в n8n

Credentials в n8n — это безопасно сохраненные данные аутентификации, которые используются для подключения к внешним сервисам. Они защищают конфиденциальную информацию (API-ключи, токены, пароли) и позволяют переиспользовать их в разных workflows.

  1. Откройте n8n и в левом меню выберите Credentials

  2. Нажмите кнопку Create в верхнем левом углу

  3. Выберите credential из выпадающего списка

  4. В поиске найдите и выберите Supabase

  5. Укажите Host и Service Role Secret (его можно найти в переменных окружения в самом Coolify, см раздел выше)

Вы — хозяин своей инфраструктуры

Coolify — для меня оказался интересным инструментом. Он возвращает вам, разработчику или энтузиасту, контроль над своими проектами, не требуя взамен глубоких знаний DevOps.

За один вечер вы можете развернуть на относительно недорогом VPS мощнейший стек, который раньше потребовал бы нескольких облачных сервисов и сложной настройки:

  • Управляемая PaaS-платформа (Coolify)

  • Сервис автоматизации, работающий 24/7 (n8n)

  • Полноценная база данных с поддержкой векторного хранения (Supabase)

Это идеальная песочница для экспериментов, надежная база для ваших pet-проектов.

А вы уже пробовали подобные решения? Какие инструменты используете для управления своими серверами? Поделитесь опытом в комментариях!

Показать полностью 3
[моё] Искусственный интеллект Опыт Digital База данных DevOps Инструкция VPS Хостинг Длиннопост
7
Посты не найдены
О нас
О Пикабу Контакты Реклама Сообщить об ошибке Сообщить о нарушении законодательства Отзывы и предложения Новости Пикабу Мобильное приложение RSS
Информация
Помощь Кодекс Пикабу Команда Пикабу Конфиденциальность Правила соцсети О рекомендациях О компании
Наши проекты
Блоги Работа Промокоды Игры Курсы
Партнёры
Промокоды Биг Гик Промокоды Lamoda Промокоды Мвидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Промокоды Яндекс Еда Постила Футбол сегодня
На информационном ресурсе Pikabu.ru применяются рекомендательные технологии