Сейчас иностранных артистов слушают только 15% пользователей. И тренд на отечественную музыку сохранится в 2024. Но, возможно, рынок пополнится не англоязычными зарубежными треками, полагает главный редактор информационного агентства InterMedia Евгений Сафронов:
Не столько за счет российских, но, например, латиноамериканских музыкантов, которые не сильно связаны договорами с мировой олигархией. На Китай, конечно, надежды нет, потому что слишком различные культурные коды. Что касается основного мирового контента, то здесь все зависит только от политики. Если что-то изменится, то западные исполнители начнут возвращаться, причем очень быстро.
Музыка играет значительную роль в политическом контексте, поскольку она способна мобилизовать массы, подавлять или пробуждать национальные чувства и даже изменять политическую атмосферу.
С помощью музыки можно передавать определенные политические послания и воздействовать на сознание людей. И в этом плане, увеличение популярности отечественных платформ и прослушиваний российской музыки могут сыграть на руку властям при условии, если борьба (без перегибов) с упоминанием в песнях наших исполнителей наркотиков и откровенной пошлятины будет дальше вестись РКН и ЛБИ.
Благодаря своему влиянию и своей доступности, музыка становится мощным инструментом для выражения и распространения политических идей.
Именно поэтому кандидатам, партиям и другим политическим силам нужно учитывать также и этот тренд в потреблении контента и пытаться набрать политических очков за счёт этого.
Всем привет, в последнее время в сети завирусились вот такие каверы:
Поэтому сегодня покажу, как делать такие же с помощью новенькой нейросети в Discord - SUNO.AI. Несмотря на то, что эта нейронка сейчас в бета-тесте, она генерирует очень интересные треки, ещё и бесплатно. Давайте подробнее.
Заходим на Discord-сервер SUNO.AI, проваливаемся в любую комнату chirp-beta.
Чтобы сгенерировать, вводим /chirp(обязательно кликаем на подсказку) и видим следующее окно:
Describe the type of music - тип/стиль музыки, которую хотим получить
Enter your own lyrics(4-8 lines work best) - сюда вводим наш текст(от 4 до 8 строк - идеальный результат)
Or have ChatGPT make lyrics about - как я понял, если ничего не вводить во второе окошко, то gpt сам напишет текст, сюда нужно вводить что-то по типу ключевых слов.
Дальше просто ждём результата, а пока вы ждёте, ниже я покажу примеры того, что получилось у меня. Либо можете заглянуть в моё сообщество Создание музыки, там много чего интересного!
Возьмём небезызвестный трек из мультфильма "Смешарики" и сделаем ретровейв-версию, получилось забавно:
Повторим успех первого примера и используем текст из нашумевшого трека исполнителя SHAMAN - Я Русский, и сделаем джаз-кавер:
Ну и напоследок - Виктор Цой - Лоу-Фай Группа Крови:
Инструмент очень прост в использовании и точно пригодится вам, если вы делаете контент. Так же в этой же нейронке можно генерировать и музыку без слов.
Понравилось? Тогда милости прошу в мой телеграм канал, буду ждать тебя там!🔥
Интересна тема генерации музыки с помощью нейросетей? Добро пожаловать в Нейро-Звук🔉
Всем привет, сегодня на небольшом обзоре обзоре сайт samplette.io - ИИ сервис для саунд-продюсеров и музыкантов, который поможет вам быстро найти подходящую мелодию для вашего трека. Вы сможете с помощью искусственного интеллекта подобрать вам сэмпл (спойлер: он будет не совсем случайным, но об этом ниже:D) с YouTube.
Вот так выглядит главная страница сайта:
В левой части непосредственно видео(сэмпл), справа история подобранных сэмплов. Красная кнопка внизу - следующая композиция. Если ничего не настраивать, то ИИ будет подбирать всевозможные сэмплы, но можно настроить поиск под наши предпочтения с помощью фильтров, рассмотрим их подробнее:
Довольно много фильтров и параметров, начнём по порядку, самое простое - подбор по жанрам, выбираем из предложенных ниже:
Так же есть тумблер "Подбирать выбранные жанры точно", как мне кажется он просто будет подбирать такие сэмплы, которые больше подходят под выбранный(-е) жанр(-ы).
Следующая вкладка - стили, и здесь их о-о-очень много: от баллады и брейкбита до диско и евродэнса(даже музыка из барбершопов есть)
Следующий параметр прост и понятен - страна происхождения
Как минимум уже за ТАКОЕ количество функций подбора сэмплов сервис отправляется в мой личный топ нейросетей для работы со звуком, он ещё и бесплатен, а мы идём далее.
А дальше всем давно привычные параметры: Key(тональность), Tempo(темп, bpm), Views(количество просмотров), Year(Год создания/публикации), за исключением Vocality(как написано в самом сервисе, это параметр, "предсказывающий, будет ли вокал в треке", но я пока не до конца понял, как он работает)
Так же есть вкладка дополнительных настроек плеера, но думаю здесь всё довольно просто.
Итак, представим, что я ищу сэмпл для Лоу-Фая, я выставил вот такие параметры:
Спустя буквально пару попыток, я нашёл более-менее подходящий сэмпл, вот как он звучит:
Далее я скачал сэмпл с помощью Y2mate уже сразу в Mp3. Попробовал накидать демку трека, вот что вышло:
Ну и пока рендерился мой проект, я нашёл ещё интересный эмбиент сэмпл, берите и используйте!
Вот такой получился гайд, жду ваши комментарии и результаты использования!
Больше подобных статей в моём сообществе - Создание Музыки 🎧
Интересна тема генерации музыки с помощью нейросетей? Добро пожаловать в Нейро-Звук🔉
Понравилось? Тогда милости прошу в мой телеграм канал, буду ждать тебя там!🔥
Всем привет, давно не было статей, время камбекать, поехали к обзору!
Сервис основан на Runway и Midjourney.
На бесплатном тарифе доступно 10 треков в месяц. Интерфейс максимально прост и понятен: выбираем жанр, либо настроение. Я выберу, к примеру, breakbeat, длительность 30 секунд и формат MP3.
Слушаем результат:
Теперь попробуем сгенерировать эмбиент для саунд-дизайна
Выберем какое-нибудь настроение, хочу Dreamy, выбираем так же длительность, формат и ждём
Как итог, сервис очень интересный, генерирует довольно необычные и не шакальные отрывочки, пробуем по ссылке ниже!
Пару недель назад я захотел сделать кавер с одним определённым голосом на какую-нибудь популярную песню. tl;dr всё получилось и ниже вы узнаете, как повторить такой результат:
Быстрое гугление выдаёт несколько онлайновых сервисов, в которых либо можно выбрать из списка уже обученных моделей, либо это дорого, долго и вне моего контроля над генерацией.
платно
Если допустить немного пердолинга, то есть инструмент для локальной установки с простым веб-интерфейсом и кнопкой "Generate".
Но для полноценной работы ему требуются обученные голосовые модели в формате RVC (об этом ниже), функционала обучения в нём нет.
Ещё немного поисков выдают вариации такого колаба.
Для обучения нужно оплатить подписку Colab Pro, иначе процесс будет прибит сервером с ошибкой "недопустимая инструкция для бесплатного аккаунта".
Этого уже достаточно для создания каверов со своими голосовыми моделями. Первые каверы я делал именно так. Если хотите улучшить качество генерации или оптимизировать сам процесс, то переходите к следующему пункту.
Как это работает
Realistic Voice Cloning (реалистичное копирование голоса) или RVC работает по вполне понимаемому алгоритму.
При обучении:
дорожка с голосом, который нужно скопировать, нарезается на короткие отрезки
эти отрезки сортируются по высоте тона, тембру и эмоциям или настроению (используется нейросетевой инструмент оценки эмоциональности)
результат собирается в базу данных и индексируется
При копировании голоса:
заменяемая звуковая дорожка тоже нарезается на короткие отрезки
эти куски анализируются и подбирается наиболее подходящий аналог из базы данных (модели) обученного голоса
подобранному кусочку меняется высота тона, скорость воспроизведения и, если точного аналога не найдено, накладывается "акцент" для создания похожего звука
результат сшивается в цельную звуковую дорожку
Конечно "под капотом" всё устроено значительно сложнее, но принцип понятен.
Если умеете пользоваться гитом и командной строкой, то можете сразу перейти к пункту про обучение модели. Ниже будет подробная инструкция по установке.
Требования к железу:
компьютер с Windows или Linux
дискретная видеокарта с 8 ГБ памяти или больше (поддерживаются NVIDIA, AMD и Intel)
И распаковываем в любую папку. В моём случае C:\ffmpeg и файл ffmpeg.exe находится по адресу C:\ffmpeg\bin\ffmpeg.exe
Почти готово, нужно только добавить путь к ffmpeg в переменную path.
Нажимаем Win и начинаем вводить "изменение переменных среды":
выбираем этот пункт
В системных переменных выбираем Path и нажимаем "Изменить..."
Создаём новую переменную с путём до файла ffmpeg.exe
Опять открываем командную строку и проверяем правильность установки:
ffmpeg
Непосредственно установка
Создайте на диске папку, где будет размещаться софт для обучения модели. У меня это C:\AIcovers (обойдитесь без пробелов в именах папок, это упростит работу в будущем).
Откройте командную строку и перейдите в только что созданную папку.
cd C:\AIcovers
Клонируем этот репозиторий в папку train командой:
Осталось скачать предобученные модели для обработки звука. В основном репозитории нет скрипта для автоматического скачивания этих файлов, поэтому я набросал нечто корявое, но рабочее и отправил PR в основной репозиторий. После мержа курсивный текст будет неактуален.
Скачайте и сохраните у себя файл download_models.py в папке train/tools, куда мы клонировали репозиторий. Затем выполните команду:
И у нас автоматически должно открыться окно браузера с интерфейсом
Если видите это — поздравляю, вы всё сделали правильно. Читайте дальше, чтобы понять, как этим пользоваться.
Обучаем голосовую модель
В интерфейсе переходим на вкладку "Обучение модели":
Нужно подготовить данные для обучения модели.
Задайте название для модели голоса в соответствующем поле.
Создайте на диске папку и положите в неё один или несколько файлов с записью голоса. Это должны быть аудиофайлы почти в любом формате. Точно поддерживаются wav, mp3 и m4a.
Голос должен быть максимально очищен от шумов и фоновой музыки. Не должно быть посторонних звуков, которые человек не может издавать ртом.
Для редактирования звука можно воспользоваться бесплатным редактором Audacity.
Введите адрес к папке с аудиозаписями в это поле:
Если в пути к этой папке есть пробелы, то добавьте кавычки.
Нажмите кнопку "Обработать данные" и дождитесь сообщения "end preprocess" в поле справа от кнопки.
Следующая операция выполняется немного дольше. Сперва выберите алгоритм обработки данных (извлечения черт):
Лучшее качество дают rmvpe и rmvpe_gpu. Они по-разному нагружают видеокарту и центральный процессор. Я так и не понял, какой лучше, поэтому выбираю второй.
Нажмите кнопку "Извлечь черты" и дождитесь сообщения "all-feature-done" в поле справа от кнопки.
• 20-30 для исходника низкого качества с высоким уровнем шума, большее число не улучшит качества обучения
• ~200 для датасета высокого качества, с низким уровнем фонового шума и достаточной продолжительностью (10 минут и более)
Этот параметр влияет на использование видеопамяти:
Рекомендаций по оптимальному значению не дам, подбирайте экспериментально для каждого датасета, чтобы расход видеопамяти не вылезал за общий её объём, иначе будет использована системная ОЗУ (та самая DDR на материнской плате) и вместо ускорения обучения вы получите замедление.
использовано 3.9 ГБ более медленной системной памяти
Нажимайте кнопку "Обучить модель" и ждите окончания процесса. Как и в предыдущих этапах в правом поле будет отображаться результат. В консоли можете следить за ходом процесса.
Дожидаемся окончания обучения и нажимаем кнопку "Обучить индекс черт" и ждём ещё немного.
Заходим в папку с нажим скриптом и по пути assets\weights находим файл *имя-модели*.pth (в моём случае my-voice.pth) и копируем его в отдельную папку.
Теперь по пути logs\*имя-модели* (в моём случае logs\my-voice) находим файл с именем формата added_IVFxxx_Flat_nprobe_1_*имя-модели*_v2.index (у меня это added_IVF2050_Flat_nprobe_1_my-voice_v2.index) и копируем его в папку к файлу .pth из предыдущего пункта.
Запакуйте оба файла в архив zip с любым именем. Можно использовать встроенный инструмент Windows из контекстного меню Отправить > Сжатая zip-папка.
Поздравляю, этот архив и есть нужная голосовая модель в формате RVC.
В этом места закончился лимит на картинки. Все иллюстрации можете посмотреть в статье на телеграфе.
Замена голоса в треках
Предыдущий инструмент, который мы использовали для тренировки модели, вполне подходит для генерации новых треков, но удобство использования у него на очень низком уровне. Обещаю внести свой вклад в исправление этого недостатка. А пока установим намного более дружелюбный инструмент.
В консоли после запуска будет ссылка, по которой открывается веб-интерфейс.
Для задания другого сетевого порта добавьте параметр --listen-port *номер порта*, а для доступности интерфейса с других компьютеров в локальной сети добавьте параметр --listen.
Для доступности из интернета можно добавить параметр --share.
Использование
Откроем интерфейс и перейдём на вкладку "Upload model", чтобы добавить обученную на предыдущем этапе модель голоса.
Выберите файл для загрузки, задайте имя модели в поле "Model name" и нажмите кнопку "Upload model".
Если всё правильно, то в поле "Output message" вы увидите сообщение "model successfully uploaded!".
Теперь переходите на вкладку "Generate" и нажимайте кнопку "Refresh models". В списке "Voice models" появится загруженная вами модель. Выберите её.
В поле "Song input" можно либо вставить ссылку на ролик на YouTube, либо загрузить файл, выбрать вариант "Upload file instead". Рекомендую начать эксперименты с песни Джонни Кэша, у неё хорошо отделяется вокал и достаточно разборчивый голос для замены.
Нажимайте кнопку "Generate" и ждите результата. Подбирайте параметры, пока не получится что-то хорошее. Делитесь получившимися шедеврами.
Если будут вопросы, то можете задать их мне в телеграме.
Подписывайтесь на канал, ставьте лайки, жмите на колокольчик и всё такое. Всех люблю и обнимаю.