Так а галлюцинации в чем конкретно состоят ? Вопрос то в чём ? Типа как должно быть ?
Просто люди говорят, что так не может быть. Нужно сформировать техническое объяснение, почему это возможно. Пока в голове только версия о том, что до ушей каналы лево и право доходят с разной громкостью.
Hard N' Heavy, переведи тестовую "монозапись"в монорнжим,объединив каналы в аудиоредакторе или включив "моно"на усилителе.
Потом можно будет и голову поломать.
Локализация источника звука по громкости работает, как принято считать примерно с частоты 1000Гц. Всё что ниже - смешанный режим, ещё ниже - по разности фаз. НЧ диапазон играет тут лишь незначительную роль. Возникает опять вопрос о тональном балансе или разбалансе каналов, что приводит иногда к неожиданным результатам. Посмотрите кривульки из опытов 1988 по локализации пространственного расположения виртуального (мнимого) источника. Изменение тональности одного канала по отношению к другому приводит к смещению КИЗ, что ещё раз подтверждает необходимость качественно нормализовать колонки между собой.
"Причем разность в слышимых частотах возникает на частотах чуть выше 1000 Гц. То есть, если мы слышим звук, то правое и левое уши воспринимают некоторые частоты с разной громкостью. Даже если источник расположен прямо напротив нас, разница существует. Также можно говорить и о разности фаз, возникающих на средних и верхних частотах при ощущениях правого и левого ушей. Именно это и определяет наше восприятие пространственного положения источника звука."
Alextaastrup, благодарствую, но пробовать уже не стоит - можно сказать, я уже подзабыл, как оно звучит у меня. Давно пройденный этап. Хотя на флешке всё это есть, и вот попробовал снова. С центра сцены, который на центре лобового, дядька с тамбурином уходит вдаль на капот. Только не по диагонали, как некоторые считают, а прямо вдоль продольной оси авто.
Подобное собрано, начиная с 21 трека. Если интересно.
foobar2000, AIMP, EZ CD Audio Converter, xrecode II, xrecode III, Exact Audio Copy.
---------- Сообщение добавлено 19.01.2020 в 18:32 ----------
Сообщение от Hard N' Heavy
Просто люди говорят, что так не может быть.
Не может быть, что ... Варианты:
- образ уходить вдоль оси сцены и авто вдаль;
- слушатель может находиться несимметрично источников излучения;
- слушатель может находиться несимметрично источников излучения, и при этом образ уходить вдоль оси сцены и авто вдаль.
Сообщение от Hard N' Heavy
Нужно сформировать техническое объяснение, почему это возможно.
Да собсна, независимо от варианта ответа выше, куда ни плюнь, попадешь или в фазу, или в амплитуду, или в то, и в другое вместе взятое. При необходимости, ещё корректируется АЧХ.
Добрый день уважаемые! Долго думал почему и как возможно воспроизведение стерео акустикой пространственного звука, т.е. полная имитация сцены со всеми образами на ней, с имитацией удаленности звуков по всей глубине сцены, но чтобы при этом расположение слушателя не имело никакого значения. Т.е. если вы сели в концертном зале сбоку от сцены – это же можно воспроизвести на стереокастике, чтобы закрыв глаза вы оказались ровно на той же самой позициий сбоку, с той же расстановкой образов по отношению к вам. Многое никто не объясняет, до многого пришлось изучать и додумываться самому. Поэтому постараюсь описать все как можно подробнее. Рисую не очень хорошо, поэтом, пожалуйста включаейте воображение, читайте каждое предложение внимательно и представляйте это в уме, и даже можете рисовать. Как говорится запасайтесь чаем печеньками, карандашами и бумагой.)
Заблуждение №1. Многие считают, что стерео оно двумерно, и что нельзя создать трехмерную картину звука на стереоакустике.
Заблуждение №2. Многие считают, что на стереоакустике можно создать сцену только с центральным расположением слушателя относительно сцены.
Давайте разберемся почему. Для этого нужно понять природу звука. Каждый отдельный звук имеет две важные для нас переменные характеристики – амплитуду и частоту. Скорость звука константна. Фаза у одиночного звука отсутствует, фаза это лишь условное временное свойство относительно чего-то. А временная функция – это функция частоты. Направление излучения звука задается направлением излучателя, оформлением и отражением, например, дека инструмента или рот исполнителя. Для простоты будет считать каждый звук равнонаправленным в каждую сторону. Т.е. для рассмотрения каждого звука важны его амплитуда и частота. Чем дальше звук от «регистратора звука» - тем меньше амплитуда.
Теперь разберемся с природой «регистрации звуков». Человеческий слух имеет 2 уха, т.е. 2 регистратора. Каждый регистратор, находящийся на «неодинаковом» расстоянии от исходной точки звука зарегистрирует разную амплитуду звука. Кроме того, сигнал придет до каждого регистратора не одновременно, имеем смещение по времени. Именно здесь вводим понятие фазы, как функции запаздывания/опережения по времени.
Что происходит при регистрации человеческим слухом дальше. В дело вступает мозг. Это самый мощный компьютер. Именно он обрабатывает сигналы. По разности амплитуд и фаз мозг определит направление и расстояние до источника звука. Анализ амплитуд и фаз помогает и дополняет друг друга для формирования мозгом картины звука. У мозга есть мощный инструмент по суммированию, как фаз, так и амплитуд. Как суммируются амплитуды. Например, человек одним ухом слышит хуже, чем другим. При этом он слышит звук прямо перед собой. Фазы идентичны, значит мозг воспринимает сигнал равноудаленным от каждого уха, а значит находящемуся прямо между ушей. Но что мозгу делать с разными амплитудами? Для комфорта мозг адаптируется их суммирует, получая среднюю амплитуду. Или если, к примеру, сложение фаз. Для простоты приведем несфазированную аудиосистему, а слушатель это здоровый (по слуху) человек, и в каждое ухо поступает сигнал одинаковой амплитуды, но при этом получается разной фазы – у мозга возникает вопрос, он понимает, что слух здоров, значит при одинаковых амплитудах – звук находится прямо перед ним, но разные фазы говорят о другом и мозг вынужден складывать оба разностных сигнала, выводя суммарный третий, очень плохой и очень размытый. Вывод – для мозга фазовая несогласованность гораздо критичнее амплитудной.
Идем дальше. На живом концерте перед сценой (садимся поближе и не экономим на билете, чем ближе, тем лучше вы почувствуете глубину и удаленные звуки, а также почувствуете ширину сцены и как ее охватывает слух) - слух без проблем локализует в пространстве любой звук, в том числе и удаление до источника каждого звука. При обилии звуков складывается симфония, слитные пятна. Многие не могут вычленить отдельные инструменты и их позиции, но это вопрос тренированности слуха, а не вопрос для анекдота про третью скрипку в пятом ряду. Тренированный слух сможет ее вычленить.
Далее разберемся что такое стерео запись, как записывается и воспроизводится. Для простоты понимания возьмем AB способ стереозапись двумя микрофонами, расположенными на некотором удалении от края сцены, и разнесенным по краям как можно шире, с равным удалением от центра сцены. Микрофон это регистратор звука, который также регистрирует амплитуду и частоту звука, соотносительно времени регистрации. Два разнесенных микрофона – это по аналогии как две базовые станции, которые могут триангулировать сигнал в пространстве. Точно по такому же принципу работает стереозапись. Каждый звук региструется как по горизонтали, как по вертикали, так и по удаленности вглубь сцены. Стереозапись способна воспринять сумашедшее количество звуков и музыкальной информации, точно записывая позиции звуков в пространстве. Как дальше происходит регистрация звуков и запист надеюсь уже понятно, по аналогии со слухом, на каждый регистратор поступает сигнал с разной амплитудой, также регистрируется и разность фаз каждого сигнала. Поэтому в стереозаписи есть вся информация о каждом звуке и местоположении в пространстве. Иными словами, стерео запись есть трехмерная звуковая картина. Дальше осуществляется перенос на носитель и возможно некоторая коррекция звукорежиссером. В этом случает не нужно переоценивать роль звукорежиссера. В данном случае для сохранения достоверности стереокартины и позиций образов он не будет вмешиваться в разность фаз, он не будет вмешиваться в разность амплитуд, полученных от каждого регистратора.
Дальше с носителя можно включать полученную запись на стереосистеме, уровень системы рассматривать не будем, предположим она идеально и способна с абсолютной точностью воспроизвести записанный материал и пространство (напомню оно есть в записи). Почему же мы должны услышать это пространство с двух, предположим идеальных стерео излучателей? Эти два излучателя по сути эти те же самые микрофоны, только наоборот, что микрофон принял – то излучатель и выдал. На этом и основано стерео. И господа, попрошу вас больше не впутывать в эту тему монозаписи и настройку систем по моно. Моно это совершенно другое. У нас стерео системы, и стереомузыка.
Стандартные стереозаписи сделаны для прослушивания в позиции по центру. Поэтому микрофоны располагаются на равном расстоянии от центра сцены. То есть центр принят за идеальную синфазную позицию. Кроме того, это наверное упрощает обработку звука режиссером.
Но что если мы пытаемся настроить стереоситему как будто мы находимся не в центре концертного зала, а смещены к левому краю сцены (как в авто). Некоторые утверждают что так настроить невозможно, раз запись создана для прослушки по центру – значит и надо слушать по центру. Но позвольте, ведь в стереозаписи содержится полная пространственная картина расстановки звуков. Фактически это как карта мира, составленная со спутников, где в отсчета центре оказались мы. Но если мы захотим поехать, например, в Австралию – карта мира мира при этом не поменяется, мир не поменяется, все останется относительно друг друга ровно там где было. Так как же нам изменить свою позицию в концертном зале и добиться того же на своей стереоситеме? Изменять координаты точки отсчета мы все еще можем, для этого у нас есть исходные свойства регистрации, на которые мы можем влиять: временные задержки (для корректировки фазы), а также уровни (для регулировки амплитуды).
До недавнего времени я видел только два пути. Опишу каждый. Дано: позиция слушателя относительно реальной сцены и относительно стереосистемы лево-центр (ваш автомобиль).
Первый путь – настройка микрофоном. Это уравнивание амплитуд каждого канала, вместе с временной коррекцией, для достижения синфазности. Этот путь по своей сути (синфазность и равность амплитуд в стереозаписи справедлива только для центрального образа) - ведет к имитации расположения слушателя на оси центра сцены, который проходит ровно через голову слушателя, с уходом глубины центра сцены по диагонали от нас. Сцена отворачивается от вас. Схема ранее в теме была приведена. Это способ используют приверженцы микрофонной настройки, они делают синфазность центрального образа, микрофоном в точке прослушивания, забывая, что микрофон у них один, а ушей два штуки, и если мы сидим на живом концерте сбоку от сцены, то центральный образ не будет синфазен для каждого уха, мы удалены от него в бок. Можно конечно повернуться находясь сбоку в центр сцены, но тогда еще больше вопросов, ездить с отвернутой по диагонали головой невозможно, а сидеть боком к сцене так себе удовольствие. В жизни, если это реальная сцена – вы поворачиваете голову к центру сцены, но тогда она развернута в другую сторону, как и положено, поворачивается на вас.
Второй путь – в попытке уйти от этого и не отворачивать сцену от нас, помним, что фазовая согласованность важнее амплитудной, принимаем во внимание способность мозгом суммировать амлитуды – выбираем метод «не трогать поканальные уровни». Мы как будто сидим ближе к одному краю и дальше от другого, и ближняя сторона на записи и на воспроизведении в этом случае логично имеет большую амплитуду. Все что мы делаем, это корректируем исходную точку записи, т.е. относим записывающие микрофоны равноудаленно от нашей точки прослушивания сбоку от центра. Но микрофоны не разносим физически, потому что ограничения ширины зала, а также обозначена верная стереобаза сцены. Если физически микрофоны остаются на тех же расстояниях – тогда уровень регистрируемых амплитуд останется прежним для каждой записываемой в пространстве позиции. Для записи относительно условленной (лево-центр) позиции слушателя - микрофоны по времени должны воспринимать все позиции на оси лево-центр в одно и тоже время. Тогда эти позиции (лево-центр) будут синфазны для слушателя при воспроизведении. Но никто так специально для нас записывать не будет, поэтому нам остается только корректировать задержкой наши излучатели, т.е. задерживать ближний, чтобы сигнал записанной позиции лево-центр пришел одновременно для каждого уха, и образ лево-центр спроецировался точно напротив нас (другими словами если мы сидим точно напротив позиции живой сцены лево-центр – задержкой мы можем сформировать эту позицию синфазно, так, чтобы она спроецировалась ровно перед нами). Соответственно остальные позиции встанут там где и должны быть расположены на сцене. Мы инструментально сместили точку стереозаписи.
Но как оказалось, тут есть проблема. С ней я и столкнулся. Заключается она в разных амплитудах. Если позиция лево-центр находится ровно напротив нас, то и амплитуды этой позиции для каждого уха будут идентичными в реальной жизни. Но на стереозаписи при равном удалении микрофоном от центра сцены - амплитуды позциии лево-центр будут записаны с разным уровнем. И выдадутся стереосистемой с разным уровнем. Да, мозг в итоге суммирует, но некая неравномерность и привязка к ближней стороне останется.
Как это решить. Нужно идти третьим путем. Если микрофоны разносить на равное расстояние от выбранной позиции лево-центр мы не можем (объяснено выше), тогда можно скорректировать уровни микрофонов одинаковыми для позиции лево-центр. Тогда при воспроизведении, обе амплитуды обоих излучателей для слушателя смещенного «в лево-центр» от стереосистемы окажутся идентичными. При записи никто этого делать не будет, поэтому нам только остается скорректировать уровни излучателей своей стереосистемы. Итого для верной настройки сцены с сохранением всей картины в точности перед нами, но со смещенной позицией прослушивания – нам нужно одновременно скорректировать фазу сигналов и уровень сигналов. Но делать это нужно не для центрального образа, как это принято. Делать это нужно для той позиции на стереозаписи, напротив которой вы сидите. Условно в леворульном автомобиле следует синфазировать и выровнять амплитуды для образов позиции лево-центр.
Логика рассуждений понятна. Но она натыкается на непреодолимые препятствия в салоне. Да, у нас реально только 2 инструмента (амплитуда и фаза), если не считать поканальную коррекцию фронта. Возможно тут есть еще неизведанные ресурсы, так как слышим мы сидя сбоку на концерте не совсем одинаковый тональный баланс.
Ездил какое-то время, настроив центр сцены прямо перед собой, но чувствовал какой-то некомфорт. так как левый край сцены был ну очень уж покоцанным, сжатым, урезанным. Вернулся назад к образу под зеркалом заднего вида. Небольшой перекос не раздражает.
При установке твиттеров в уголках зеркал передних дверей такой проблемы почти не возникало, но сама сцена была ближе.
Hard N' Heavy,
Как уже здесь говорили, направление на звук определяется по разнице фаз на ушах - примерно до 1000 герц. Примерно с 1000 герц направление на звук определяется по разнице громкости на ушах. Как пишут умные люди: при длине волны, существенно больше расстояния между ушами, фиксируется разница фаз; при длине волны, существенно меньше расстояния между ушами, фиксируется разница громкости.
Думаю, неверно завышать значение фазовой разницы над значением амплитудной разницы на ушах. Тем более, что область наибольшей чувствительности слуха, находится именно выше 1000 герц.
Далее. Для моего интеллекта весьма затруднительно понимание, как два микрофона, расположенных горизонтально, могут фиксировать высоту источника звука? Если принять на веру объяснения тех же умных людей, что в случае определения высоты источника звука ЧЕЛОВЕКОМ, в "аппарат определения высоты" включаются: 1. Размер и форма ушных раковин. 2. Размер, форма, поверхность плеч. 3. Форма и строение(и внутреннее в том числе) черепа.
Иными словами - сложная индивидуальная система отражателей и резонаторов звука. Причём, судя по размерам элементов этой системы, работающая на частотах, существенно выше 1000 герц.
Как это учитывают два горизонтальных микрофона и воспроизводят два горизонтальных динамика - категорически не могу понять.
Палборисыч,
Не совсем так. Свыше 1000 Гц наблюдается лишь более выраженное для слуха увеличение "интенсивности снижения" амплитуды, чем выше частота, тем сильнее снижается амплитуда с расстоянием. Если бы физика слуха была как вы описали - мы бы ловили фазу тем лучше, чем ниже, частота. Но все происходит наоборот - чем ниже частота, тем слух лояльнее к отклонению фазы, чем ниже частота, тем сложнее нам определить источник. Длинны волн в разы больше больше размеров головы и расстояния между ушей. Далее по логике, чем выше частота - тем чувствительнее слух к смещению фазы, и тем лучше локализует слух источник в пространстве. Где-то пишут, что фазовую разницу слух воспринимает примерно до 5000 Гц, а дальше ориентируется по затуханию, я думаю это не совсем корректно, думаю просто слух начинает оринтрироваться на амплитуду, т.к. ее разность становится более выраженным, организм он ленив и энергосберегающ, выбирает то что проще.) Но механизм определения по фазе намного эффективнее, особенно во всем среднечатотном диапазоне, наиболее информативном для нас диапазоне. Плюс, говоря о регистрации звука микрофоном - я подразумеваю прецензионную регистрацию по обоим параметрам, и такую же прецензионную проекцию через излучатели, т.е. особенности слуха уже второстепенны, и каждое индивидуальное восприятие точно определит по своему более чувствительному механизму для той или иной частоты.
Далее во восприятию фазовой разницы. 1000 Гц это лишь условная граница для расстояния полудуги вокруг головы от одного уха до другого. Это примерно 0,7-0,8 мс. Это не значит, что только до этой частоты мы воспринимаем фазовую задержку, это лишь значит, что при прямом боковом сигнале на этой частоте наступит четкое определении сигнала "сбоку", т.к. сигнал не успеет дойти до противоположного уха. Если источник находится перед нами - благодаря фазовой задержки мы может определять смещение вплоть до нескольких сантиметров. Это на порядки более меньшая задержка сигналов. Поэтому те кто говорят о восприятии задержки лишь в 50-100 мс ошибаются о чем речь.
По определению вертикальной координаты - все точно также как для ширины и глубины. Микрофон имеет сферическую направленность. Сфера это сфера. Т.е. триангуляция происходит не по радиусу плоского горизонтального круга, а по радиусу шара. Иначе наверное весь ваш звук в вашей системы был бы по вертикальному размеру - размером с ниточку....
И господа, попрошу вас больше не впутывать в эту тему монозаписи и настройку систем по моно. Моно это совершенно другое. У нас стерео системы, и стереомузыка.
Для настройки центра в системе, самое то - монозапись.
Сообщение от Hard N' Heavy
Условно в леворульном автомобиле следует синфазировать и выровнять амплитуды для образов позиции лево-центр.
В идеальных условиях можно и так. Но кто сказал, что в реальном авто, железо системы и установка излучателей, даст центр записи на геометртический центр системы ?
И как определять угол, на который лево-центр должен отходить от того же лево ?
Социальные закладки