Как исправить перегруз звука
В первую очередь нейросети
Во вторую очередь старый дедовский способ:
- iZotope De-crackle
- iZotope De-clip
В первую очередь нейросети
Во вторую очередь старый дедовский способ:
- iZotope De-crackle
- iZotope De-clip
Окей, ребят, хочу поделиться с вами своим опытом, который меня просто потряс! Как-то я подумала: «А что если попробовать создать музыку через ИИ?» 😳
Я пишу свои стихи (да, я поэт, да 😂), а потом кидаю их в бота, который создаёт для меня трек. И знаете, что? Всё это звучит как настоящий хит! 😱 Я была в шоке, честно. Сначала думала, ну ладно, попробую для прикола, а потом такая: «Йо, это реально классно!». И теперь у меня почти весь альбом через бота сделан. А ведь, по сути, три года назад даже мысли такой не было, что это вообще возможно! Это ж просто будущее, которое наступило прямо сейчас.
А сейчас я вообще думаю, что все удобно сделать в Телеграме, чтобы и все другие люди могли создавать свои треки, как я. Специально для этого я и сделала бота. Чтобы тоже могли бы почувствовать себя как суперзвезда, у которой всё есть, но только без студий и долгих месяцев работы. Это такой прикол! Вы пишете пару строк, выбираете стиль, и вот у вас уже трек. Просто. Легко. И, честно, ничего сложного. 🙃
А что если уже существуют всякие Suno и Udio прочие аналоги, которые тоже генерируют музыку? 🤷♀️ Ну да, конечно, они тоже могут делать крутые вещи, но знаете, чем мой бот круче? Он максимально адаптирован под простого человека, который не хочет заморачиваться, чтобы сделать свою песню. В отличие от других ботов, где нужно разбираться в тоннах настроек, мой бот просто берёт текст и превращает его в трек, который звучит как настоящий хит, не затрудняя пользователя. Всё интуитивно понятно и быстро, без лишних проблем. То есть, всё для людей! 😎 Без VPN, без подписок, без знания английского языка. А еще и с релизом на площадках бот помогает. Ну не мечта ли?
Но вот тут задумалась: а ведь это действительно так — ИИ может заменить настоящих музыкантов? Или всё-таки нам не хватает той самой «души», которую может вложить человек? 🤔 Я, наверное, склоняюсь к тому, что ИИ — это классная штука, но живым музыкантам всё-таки есть место. Потому что, хоть мы и можем сгенерировать музыку, но она всё равно будет как «песок», а вот музыка, что сделана с переживаниями, с эмоциями, — это уже «золото». 💎
Но как вы думаете? Что, если через пару лет, ИИ просто будет писать альбомы, а музыканты будут только обрабатывать их? Хммм... короче, что думаете, это реально или фантазии? 🤷♀️
1. #Ищу_даббера #ищу_даббера_парня #ищу_даббера_девушку #Ищу_войсера #Ищу_войсера_парня #Ищу_войсера_девушку #Ищу_вокалистку #ищу_актера_озвучки #Ищу_звукаря #Ищу_звукорежиссёра #Ищу_таймера #Ищу_технаря #Ищу_переводчика #ищу_оформителя #Ищу_дизайнера #Ищу_релизера
2. Направление- аниме,дорамы,сериалы.
3. Нагрузка- 1-2 серии в неделю.
4. TO Bamboo - озвучка и перевод
5. Панды общий сбор.
В нашу команду нужны ребята которые хотят заниматся фандаббом и привносить что то свое.
Кого мы ищем?
Дабберы(Дикторы)( парни и девушки)
Таймеры-звукари(Очень сильно их ищем и нуждаемся)
Переводчки
Релизеры на сайт
Дизайнеров
Что нужно?
ПК или ноут для всех
Возраст от 18 лет для всех
Свободное время для всех
Дабберам(Дикторы) конденсаторный микрофон, программы Reaper и Aegisubs
Таймерам-звукарям владение плагинами и программа Reaper
Переводчики программа Aegisubs и владением языком от B1-2
Релизерам свободное место на ЖД или ССД и скоростной интернет
Дизайнерам программа Photoshop или аналог, графический планшет(опционально)
Проект некомерческий.
Все анкеты можно присылать либо в лс группы TO Bamboo - озвучка и перевод либо в обсуждении группы в спецтеме.
vk.com/bambooteam
Пусть Бамбук приведет нас к лучшему.
Всем Бу.
Для интересующихся #Linux 'ом и #DAW для него. В общем так:
Ardour - 1 серьёзный вылет с потерей проекта + мелкие, но не периодические косяки. Опыт около 10 лет. От обновления к обновлению ошибки и вылеты уменьшаются.
Reaper - регулярные вылеты, не все плагины для Linux поддерживаются. Но ни одного проекта не потеряно (стоит оговориться, что в нём была только 1 серьёзная работа - Москва 2078). Опыт в линухе - около полугода. От обновления к обновлению качество работы не меняется.
По удобству интерфейса секвенсоры для меня ± одинаковые.
Ardour, наверное, в итоге выигрывает.
Спасибоу за внимание.
Я прекрасно понимаю: перепеть Земфиру — невозможно.
И не в этом была цель.
Хотела спеть по-своему. Пройти через себя.
С гитарой, с живым голосом, с лёгким добавлением своих битов, синтов и жирного баса.
Для меня это не просто песня.
Это память о своём пути.
Родная Уфа. Родная Земфира. Родное чувство, что искала — и нашла.
Если вам захочется услышать, как мы чувствуем музыку сейчас —
загляните в нашу песню «Миражи».
Сейчас я поделюсь с вами способом,
которым я делаю из записей плохого качества чёткое звучание.
Для ЛЛ: компрессор/лимитер + добавление высоких частот + вырезание лишних звуков.
Итак, погнали.
Я это делаю в программе Audacity 3.4.2. Но вы можете использовать любую другую на ваш выбор.
Примечание: если запись сделана издалека, если на фоне много шума, если в микрофон попадает воздух - это вам не поможет.
Это применимо для относительно чистых записей.
1. Открываем какую-нибудь запись в аудио редакторе, можете для примера взять голосовое сообщение из Telegram или VK.
2. Меню Эффекты, НЧ/ВЧ.
3. Добавляем ВЧ на 15 - 25 % (по вкусу) и уже получаем намного бОльшую чёткость.
Отлично, с этим разобрались.
Что делать, если запись звучит тихо, а обычное усиление или компрессор не дают желаемого результата?
Раньше это было огромной проблемой. Но сейчас...
Появился такой VST плагин, под названием LoudMax. Это находка, меняющая всю жизнь!
Итак. Качаем его отсюда выбирайте свою ОС, скорее всего Windows).
Кладите DLL-ку в вашу папку, где находятся VST. Обычно это одно из:
- "C:\Program Files\Vstplugins"
- "C:\Program Files\Common Files\VST3"
Если таких папок нет - значит ни одного плагина в системе не установлено. Можете или создать такую папку, положить туда DLL-ку, затем вручную в настройках редактора указать путь, где искать, ведь записей в реестре не будет об этом, либо положить сразу в папку plugin самого редактора, например: "C:\Program Files\Audacity\Plug-Ins"
.
Надеюсь, с установкой разобрались.
Ну тогда открываем нашу запись, выделяем всё и включаем этот эффект. Порог около 25, выход около -3, подбирайте сами.
Теперь, что делать с дыханием и лишними звуками?
До компрессии, в самом начале Можете воспользоваться шлюзом шума (noise gate), в Audacity он встроен, а если вы пользуйтесь чем-то другим, то возьмите, например, отсюда.
Но он может съедать тихие окончания, например, однажды я так сделал и из слова "eyes" он вырезал букву "s", получилось "eye".
И эти вырезки могут быть резкими.
Я выделяю вручную.
Аккуратно по милли секундам (если что, поменяйте масштаб в меню Вид) выделяем промежутки тишины между словами и в меню Правка нажимаем пункт "Заменить тишиной". Сочетание CTRL+L. Если тишина не нужна, то удалить звук CTRL+K. Тогда будет сдвиг по времени.
Важно, если сводите инструментал с вокалом. Чтобы сдвига по времени не было используйте "Заменить тишиной".
Можете комбинировать нойс гейт + ручная вырезка.
По краям можете добавить фейды, чтобы было мягче.
И всё, готово.
Получите, распишитесь,
вы сделали почти студийную запись.
P.S. Я не профессионал, ни где этому не учился, ни на каких курсах, чисто сам, лично один до этого дошёл.
У вас может быть другое мнение, я лишь написал, как делаю сам и это нравится тем, кому я делаю.
А теперь покажу разницу в звучании:
И ещё. 1 - ВЧ есть, 2 - нет.
Здравствуйте, дамы и господа, моя проблема может показаться для кого-то банальной, но все же хотелось услышать ваши советы по решению вопроса, не так давно я записал несколько видео с прохождением одной игры (Devour если кому интересно) и хотел бы из всего записанного материала сделать нарезку, но столкнулся с одной проблемой, а именно рассинхронизация аудио и видео дорожек.
В чем дело я понял, причиной этого стало то, что видеоряд имеет не постоянный ФПС, который бывал варьировался в разных диапазонах, что можно наглядно увидеть в свойствах самих видео.
Для решения этой проблемы я использовал конвертер, чтобы задать постоянный ФПС своему видео, но столкнулся со следующей проблемой - потеря качества видеоряда.
Видео после конвертации. Видны резкие переходы черного цвета, а сама картинка стала слегка размытым.
Теперь стоит вопрос, какой конвертер лучше использовать? Я перепробовал HandBrake, Convertilla, Movavi (самое лучшее из списка, но сейчас в триале ставится водяной знак) и Adobe Media Encoder. Может конечно, всем дело во мне и я не разобрался в настройках, поэтому и получается на выходе такая каша, но все же, хотелось слушать ваши варианты.
По возможности, чтобы в программе можно было бы конвертировать видео с разделенными аудио дорожками.
Заранее благодарю за помощь!
:D
Озвучка диалогов из текста может сильно упростить и ускорить работу во многих ситуациях: подкасты, аудиокниги, обучающие материалы, рекламные ролики, создание игр, reels и даже фильмов.
Часто записать аудио крайне трудно: нет доступа к микрофону, шумная обстановка или ограниченные временные рамки. Или просто лень.
Поэтому сегодня на обзоре нейросеть Fishspeech, которая реалистично озвучит текст, сохраняя интонации и эмоциональную окраску. Так ещё можно добавлять свои голоса или использовать уже готовые 50+ голосов от сообщества Нейро-Софт. Вообще сказка! Давайте к обзору.
Fish Speech Dialogue — современный инструмент для озвучивания диалогов и реплик с использованием разнообразных голосов.
Благодаря портативной версии не нужна установка базового Fish Speech MOD, а функциональность доступна «из коробки»:
Поддержка до 10 говорящих. Идеально для одиночных реплик и сложных диалогов.
Автоматическое распределение голосов. Экономит время, подбирая подходящие голоса для каждого персонажа.
Библиотека из 50+ голосов от сообщества. От Жириновского до Яндекс Алисы.
Форматирование диалогов. Автоматическое оформление в формате «Говорящий: текст».
Различные форматы сохранения. Поддерживаются WAV, MP3 и FLAC.
Мультиязычный интерфейс. Доступны русский и английский.
Автообновления и интеграция с GitHub.
Нас встречает такой интерфейс. В самой верхней строке можно выбрать язык интерфейса, изначально будет английский.
Левое окно «Статистика диалога» — основное рабочее поле. В верхней части окна отображается количество говорящих, число реплик и общее количество символов. Нижняя часть содержит текст диалога.
Диалоги необходимо оформлять так: каждая реплика должна начинаться с имени говорящего и двоеточия. Пример видно на скриншоте выше.
В правой части интерфейса находится блок с итоговым результатом и кнопка «Сгенерировать диалог».
Плавно спускаемся ниже.
Количество говорящих — это автоматический параметр, который определяется системой в зависимости от структуры диалога.
Для каждого говорящего доступна отдельная панель настроек. Здесь можно:
Указать имя говорящего, которое должно совпадать с именем в тексте диалога.
Выбрать референсный голос из доступных вариантов.
Загрузить собственную аудиодорожку и использовать голос из неё. Также необходимо подписать транскрипцию. В этом случае нейросеть будет использовать загруженный голос для генерации диалога. Транскрипцию пишем сплошным текстом.
Последняя функция очень полезна. Когда ваш профессиональный диктор заболел, можно чуть схитрить и продолжить процесс записи и озвучки :D
В самом низу находятся расширенные настройки:
Честно, расширенные параметры я не щупал, меня интересовал лишь принцип работы и результаты. Но я попросил ассистента Perplexity пояснить, что это, кому интересно, вот выжимка:
В общем, всё до безумия просто. Пишем или генерируем диалог, выбираем голоса и получаем озвучку. Давайте посмотрим на неё в деле.
Начнём с простого — рассуждения Винни-Пуха.
Давайте усложним и представим миниатюру: бытовой диалог Джонни Сильверхенда и Яндекс Алисы.
Сгенерируем диалог с тремя участниками - Шерлок Холмс, Сергей Дружко и Кот Матроскин. Такого вы ещё не слышали.
Далее я решил попробовать сгенерировать что-нибудь на английском с голосом Матроскина. И вышло очень даже неплохо и похоже.
Дмитрий Нагиев и Чебурашка:
Ну и напоследок я попросил свою знакомую записать пару голосовых для теста. Дальше скачал их в формате .ogg, конвертировал в .mp3 и загрузил в нейросеть. Для транскрипции я использую крутую нейронку Whisper, скачать её можно на GitHub. Там всё интуитивно понятно, думаю, разберётесь. Вот что получилось.
Ещё пара примеров:
Как итог, FishSpeech — удобный инструмент, который помогает озвучивать тексты даже в ситуациях, когда запись голоса невозможна. Простота и гибкость делают его отличным решением для создания игр, подкастов, аудиокниг и других проектов, где важна качественная озвучка.
Скачать портативную версию FishSpeech с установкой в один клик для самых ленивых вы можете тут.
Подписывайтесь на 👾Нейро-Софт, канал с портативными версиями ваших любимых нейросетей!