какчество конвертации в мр3 имеет значение...правильно понимаю?...Студийка будет получше?
какчество конвертации в мр3 имеет значение...правильно понимаю?...Студийка будет получше?
Если Вы впервые на нашем Форуме:
- Обратите внимание на список полезных тем в первом сообщении.
- Термины и наиболее популярные модели в сообщениях подсвечиваются быстрыми подсказками и ссылками на соответствующие статьи в МагВикипедии и Каталоге.
- Для изучения Форума не обязательно регистрироваться - практически весь профильный контент, включая файлы, картинки и видео, открыты для гостей.
С наилучшими пожеланиями,
Администрация Форума автозвука Магнитола
Большинство и штатка устраивает. А у тебя не цыкает и кИшки не трясет)
Вопрос на чем сравнивать и понимать в чем разница
Можно еще вспомнить 175млн подписчиков Spotify, слушающих Vorbis (lossy).
Хороший мп3 из оригинала сделанный сложно отличить
Главное,что бы оригинал не был отстойным
чо затихли?
эт - репу пачисать:
...Почему-то исторически принято рассуждать о слухе в частотных терминах. Например, непреложная истина, что диапазон слышимости 20Гц — 20кГц.
Я даже догадываюсь, почему так произошло.
Когда-то давным давно применение частотного подхода позволило весело и просто, а главное, КРАСИВО решить энное кол-во вопросов. Ну и с тех пор стали их применять частотные методы ко всему, чему ни попадя с той или иной долей успеха. Ну и плевать, что больше с "другой". Метод-то КАКОЙ!
Вообще, в науке принято пробовать решать задачи разными методами. Особенно, если привычные не работают. Но только не в психоакустике. В психоакустике дозволено рассуждать только в частотных терминах, иначе рискуешь быть запшыканным.
А терминология, надо сказать, доминирующая вещь. Речь определяет сознание. Мы думаем словами (терминами). Например, немецкий язык очень чёткий. В англо-сакских, наоборот сильно расплывчатые понятия. О русском судить не берусь. "Изнутри" плохо "видно". Лицом к лицу лица не увидать!
Итак, первый термин: синусоидальность мышления — это когда человек не может рассуждать о психоакустике ни в каких терминах, кроме частотных.
Ну, потому, что так повелось. Потому что все так рассуждают. Потому, что "буквари" так написаны, … . Иногда — потому что именно так воспринимает аудиоинформацию.
Хотя терминология периодически противоречит сама себе.
Например, термин "окрас" обычно ассоциируется со словом "тембральный", а "тембр" — это явно частотный термин.
А "окрас" ни к изменению гармоникального наполнения, ни тем более, к изменению АЧХ, не приводит. Но попробуй это кому-нибудь доказать. Просто стена непонимания. А почему? А потому что это — "тембральный окрас", а "тембр" — это тональное наполнение. … . И это — ВСЕ аргументы.
А еще и в "букварях" так написано. А их же умные дядьки писАли!
Т.е. с общепринятым бороться очень тяжело. Если не бесполезно.
Но я попробую.
Итак, осмелюсь утверждать, что наши уши вообще не слышат в терминах частот.
Ну нет в наших ушах ничего, что могло бы как-то выделять частоты. Частоты выделяются резонаторами. Коими являются, например, струны. Ну нет в ушах струн. Не. Ну, может, у кого-то и есть. Я же не знаю. Я не в курсе. Но обычно нету.
Или резонаторы Гельмгольца. Тоже не видел оных в строении слухового аппарата человека.
Ухо целиком, конечно, можно рассматривать, как ЧВР … . Но это скорее рупор.
Что ещё? Барабанная перепонка может быть резонатором. Ок. Интересно было бы почитать о резонансных свойствах барабанных перепонок. Но всё равно, резонансы ВЕСЬМА селективны, а слышим мы аж 10 октав!
Какие еще резонаторы бывают в природе?
Кстати, этого нельзя утверждать о голосе. Вот голос у нас построен на резонаторах. Они там есть. И даже в комбинации и не одного вида.
Вернёмся к ушам.
Смею утверждать, что синусоиды (частоты) — вообще не порождение нашего Мира. Почему? Потому, что они БЕСКОНЕЧНЫ, то есть ВЕЧНЫ. В нашем же Мире всё, как в песне: "есть только миг, ослепительный миг".
Чтобы понять, что синусоида — это синусоида, а не часть какой-то другой кривой, надо хранить историю, т.е. знать, как сигнал шёл в прошлом, а еще желательно знать, как пойдёт в будущем. В природе не много таких конструкций. Вот что касается звукоизвлечения — там, да, сплошные резонаторы. Ну, хотя бы потому, что они эффективны. А в ушах — нет. Уши живут моментом.
Осмелюсь утверждать, что уши воспринимают только моментный (почти) сигнал. А конкретнее — моментальное звуковое давление. Звуковое отличается от обычного (давления) тем, что звуковое давление — это первая производная по времени (скорость изменения) обычного давления. Т.е. ухо воспринимает изменения давления. Основной характеристикой изменения, является СКОРОСТЬ НАРАСТАНИЯ. Вот именно по данному параметру и строится в голове "звуковая картина".
Опять вернемся к слуху. Почему-то принято рассуждать о слухе так же, как мы рассуждаем о микрофоне. Кстати, в микрофоне есть резонатор. Даже два:
1 — мембрана
2 — Резонатор Гельмгольца из микрофонной камеры, мембраны и крышки.
Но наш слух — не микрофон! Микрофон — объективен! А наш слух нам бессовестно и беспардонно врёт! Т.е. доносит до нашего сознания информацию далеко не в первозданном виде. Какая-то информация убирается (фильтруется), какая-то анализируется, и доносится уже в виде "образов", информации о позиции источника звука, … . Вот насчет добавляет — тут не могу утверждать. Хотя у меломанов и добавляет, и весьма эффективно :-).
Наш мозг вообще не работает с "сигналами". Работает только с "образами".
Данные утверждение может показаться … кандидатской на дурку?
Ну ведь как это так это? Рассказывать мне, что я слышу не то, что слышу? Еще будешь рассказывать, что вижу не то, что вижу!
Блин … у меня для вас плохие новости. Изображения, обманывающие зрение, думаю, видели все).
В том, что наши уши доносят до сознания совершенно не то, что слышат сами, убедиться достаточно просто. Достаточно выйти на достаточно оживлённую улицу и закрыть одно ухо. Плотно закрыть.
Я это делал в процессе экспериментов по точности позиционирования источников звука.
То, что я услышал с одним закрытым ухом, меня СИЛЬНО УДИВИЛО.
А конкретнее:
— с одним ухом слышишь больше фонового шума. Т.е. когда 2 уха работают, шум фильтруется.
— с одним ухом стали гораздо более слышны далёкие звуки. У нас тут ж/д ст. Сортировка не очень далеко. Ну как не далеко? Километра три-четыре, наверное. Так вот, двумя ушами ее звуки почти не слышны, а одним — такое ощущение, что она в километре, а не трёх. Почему пример с железной дорогой? Потому что звуки характерные и я чётко знаю, откуда они слышны.
— слышимость одним ухом гораздо ближе к тому, что слышит микрофон. Т.е. я начинал слышать, как где-то свистит чайник, где-то громко работает телевизор, … — в общем, КУЧУ разной и не нужной информации, которая с двумя ушами эффективно отсеивается. Это на улице.
У нас эволюция так сработала: более важны те звуки, что происходят в критическом радиусе. А те, чьи скудные вычислительные ресурсы отвлекались на не_нужные звуки, не дожили до наших дней.
В общем, у нас после ушей стоит неотключаемый "ДСП". Напрямую сознание ничего не слышит. Работает только с тем, что ему поставляет центр слуха.
Так вот, если уши у всех +/- одинаковые, то с настройками этого ДСП всё весьма индивидуально.
За что же отвечает этот "ДСП"? Например он "обрезает" частоты, на которых нет полезной информации.
Именно этим объясняется "снижение" слуха у людей в возрасте. ДСП просто "обучается" в течение жизни, что там полезной информации нет, и нефиг ее доносить до сознания. При этом острота слуха не снижается. Более того, ни разу не видел требовательного аудиофила 20 лет от роду. Все аудиофилы (люди, требовательные к звуку) — это от 30 минимум, а основная масса — 40+. Т.е. люди с "физиологически сниженным слухом". НЕТ. Люди с хорошо "обученным" ДСП!
Еще один, считаю, замечательный пример: "обсчёт помещения": мы почти никогда не слышим (точнее, не воспринимаем) отражений, если только это не совсем "запущенный" вариант. А они есть! Они ТОЧНО есть!
Вот микрофон отражения "слышит" замечательно. И этот записанный звук, будучи записан и воспроизведён, наш ДСП уже "обсчитать" не сможет! Хотя … Просто так еще никто не делал. Может быть, при длительной тренировке ДСП … но это надо постоянно ходить в наушниках и с микрофонами на голове.
А может быть, и делал. Думаю, люди, постоянно находящиеся в гулком помещении, со временем учатся обсчитывать и удалять переотражения, и со временем им помещение уже не кажется таким гулким.
Что ещё? В тех же экспериментах по точности позиционирования источников звука, я получил точность порядка нескольких градусов по горизонтали, если двумя ушами. Простое тригонометрическое упражнение:
2 грд — это 0,69см разницы расстояния до удалённого объекта правого и левого уха.
0,69см — это 20 микросекунд разницы между фронтами, пришедшими в правое и левое ухо.
Аналогичные данные в своё время получили японцы. Они доказывали полезность разных неконвенционных ВЧ-динамиков и выясняли, какая полоса сигнала влияет на слуховое восприятие. Оказалось, что примерно до 40кГц. Естественно, никто — не летучая мышь, и не слышит выше 20кГц напрямую, но данные частоты влияют на такие вещи, как "воздух" (т.е. ощущение пространства), "сцену" (опять-таки, позиционирование), … .
Оказывается, наши уши вполне слышат выше 20кгц и оперируют временами порядка десятка микросекунд. Только эта информация не доходит напрямую до сознания, а используется для других целей. В частности, для позиционирования.
Теперь что и как слышат наши уши, и как это доходит до сознания?
Я сильно подозреваю, что у нас в слуховом центре мозга хранится некая база данных по звукам. Причём, в этой базе не собственно звуки, а их характерные признаки, т.е. "образы".
Если играет гитара, мы поймём, что это — звук гитары (если мы, конечно, уже натренировались различать разные звуки и знаем их) вне зависимости от того, настроена гитара, или, какую струну, на каком ладу и в какой комбинации дёрнули, сколько длится звук, … . Т.е. характеристика звука определяется не самим звуком, а каким-то набором его характерных качеств.
Аналогично с другими инструментами: рояль, клавесин, орган, флейта, труба, саксофон, скрипка, виолончель, … .
Аналогично с голосом.
Например, когда вы слышите "Оу", у вас же нет восприятия этого как "вот тут колеблется быстрее, тут медленнее, … " Вы сразу слышите "Оу". Причём, без разницы по частоте (тембру), времени произнесения, … . Т.е. вы сразу слышите "расшифрованное" "Оу".
Что-то в нашем мозгу уже обработало данный сигнал. И снабдило его важными для выживания признаками, например: произносивший — мужчина, эмоция — такая-то, расстояние и азимут такие-то. И заметьте, это всё происходит моментально и вне вашего сознания. Сознанию достаются только результаты.
Или хрустнула ветка.
Шуршит бумага.
Кстати, позиционирование у нас наиболее острое как раз на подобные звуки. Именно они ответственны за безопасность :-).
А вот "синусоиды" мы фактически не позиционируем. Попробуйте ка поймать комара только по слуху :-). Это уже влияло на выживаемость комаров :-). С мухой, как это ни странно, проще. С позиционированием. Но она и летает и реагирует быстрее. Ей не надо чтобы ее не позиционировали по жужжанию. Она и так успеет свалить :-).
Еще один важный момент. Определение расстояния до источника звука (ИЗ).
Если азимут теоретически определяется по разности времени прихода фронтов, то с расстоянием всё ГОРАЗДО сложнее.
Я думаю, что расстояние до ИЗ определяется по размытию этих фронтов. Причем, происходит это по моделям звуков, хранящихся в слуховом центре.
Простой и доступный пример: чем ближе бьёт молния — тем звук более резкий и "собранный". Далёкие удары же превращаются в некое гудение. И не надо рассказывать, что это просто высокие частоты поглощаются, а низкие доходят. Нет. Как-то молния ударила, может, в сотне метров от меня, может, в нескольких десятках. Так я чуть свой язык не съел и через себя не перепрыгнул. И ничего там несколько секунд не грохотало, как при далёких разрядах. Весь удар уложился в ДОЛИ СЕКУНДЫ.
Мы можем определить, что что-то звучит на таком-то расстоянии, из другой комнаты, через стекло (окно), "накрытое простынёй/покрывалом/одеялом/матрасом", … . Т.е. вот эту всю окружающую обстановку "просчитывает" наш слуховой ДСП. Т.е. есть не только модели собственно звуков, но и модели воздействия на них тех или иных условий.
Если такой обсчёт провернуть на компьютере, думаю, потребуется хороший такой супер-компьютер.
Давайте теперь о "натуральности звучания".
Смею утверждать, что такого понятия вообще не существует. Даже натуральные звуки — они все объективно разные. Очень много чем отличаются.
Натуральность звуков при воспроизведении, нашим "ДСП" воспринимается как соответствие некоторой матрице некоторых критериев. Если звуки определяются и распознаются легко, они воспринимаются как более натуральные. Если ДСП приходится "думать", а что же такое с этими звуками произошло, что их так исказило, то такие звуки не воспринимаются как натуральные.
СТЕРЕО — это некий фокус. Обман ушей. Создание объёмной звуковой картины посредством всего двух источников звука. Так вот, если звук воспроизводится без искажений (если что, я не имею ввиду общепринятое в аудио понятие искажений, измеренных спектральными методами, а имею ввиду более общее понятие, т.е. изменение отн. исходника). Так вот, если звук воспроизводится без искажений, и когерентно, то он воспринимается нашим ДСП как "ага. Этот звук мы знаем: это вот то-то и звучит оттуда-то", а если звук искажён и некогерентен, то он воспринимается как "вон в тех ящиках что-то шумит: в том и в том".
+/-.
Всё. Пока выдохся.
Тема весьма сложная и шаткая. Плюс противоречит сложившемуся мировоззрению.©
атседова:
https://www.drive2.ru/c/638912464079034870
Будем надеяться,что эти заключения автору пришли не после удара молнии,которая его испугала)
Хотя,после удара молнии у некоторых открывается третий глаз и нам двуглазым многое недоступно)
Что бы мозг мог отличать правильные сигнал от кривого в нем должен быт заложен алгоритм от природы на все звуки.
А такого еще не наблюдалось. Мухи,тигры точно заложены,а вот более нам привычное...
Отличить возможно воспитанным ухом. Многим нравится расстроенные инструменты в группах и их мозг не бунтует,т.к не приучен. Типа слаще морковки ничего и не надо)
По поводу старческой частототугоухости вопрос интересный. Как и отметил автор, понимание "аудиофилии" приходит с годами ,когда ухи и мозг натренированы и понимают чем г от пули отличается.И это при том,что вроде как вч уже и не слышат.
По поводу ощущений от вч от 16 000 и выше полностью согласен. Только что сам добавил супертвитеры.Их практически не слышно,но у них большой вклад ,как в ощущение воздуха,обьема,так и влияние на ВЕСЬ диапазон. И это явно слышно.
"натуральности звучания".
Смею утверждать, что такого понятия вообще не существует(C)
А вот здесь опять что то личное)
Натуральностью звучания обладает любой предмет после физ воздействия на него. Будь то пожарный рельс или гитара,если она акустическая,и не в "перегрузе". Да и каждая имеет свой натуральный звук.К тому и стремятся режи при сведении записей и аппаратуру для прослушивания подбирают в соответствии со своими "пониманиями" звучания. А вот испоганить,исказить натуральность легко.Да и профи совсем не с молодыми ушами. Здесь уже работает опыт,слуховая память звучания живых, НАТУРАЛЬНЫХ инструментов и психо факторы.
Имхо. Травм головного мозга не получал
На албанский диалект отвечать не буду,ибо православный)
ну чо? )
ничо особенного, так проявляются различия порогов восприятия и скорости передачи сигналов в сенсорных (по большей части) слуховых зонах головного моска. ети пороги и скорость зависят от массы факторов: температуры тела, гормонального фона, врожденных характеристик цнс, стресса, усталости... и еще туевой хучи факторов. слушаем одно, а слышим разное. эт нормально
Социальные закладки