Krótko o tym, jak odbierane są dźwięki. Analizator słuchu. Mechanizm percepcji dźwięków o różnych częstotliwościach. Narządy percepcji dźwięku

Jest to złożony, wyspecjalizowany narząd składający się z trzech części: ucha zewnętrznego, środkowego i wewnętrznego.

Ucho zewnętrzne jest aparatem zbierającym dźwięki. Wibracje dźwiękowe są wychwytywane przez uszy i przekazywane kanałem słuchowym zewnętrznym do błony bębenkowej, która oddziela ucho zewnętrzne od ucha środkowego. Percepcja dźwięku i cały proces słuchania obydwoma uszami, tzw. słuch binuralny, jest ważny dla określenia kierunku dźwięku. Wibracje dźwiękowe dochodzące z boku docierają do najbliższego ucha kilka dziesiętnych ułamków sekundy (0,0006 s) wcześniej niż do drugiego ucha. Ta niezwykle mała różnica w czasie dotarcia dźwięku do obu uszu wystarczy, aby określić jego kierunek.

Ucho środkowe to jama powietrzna, która łączy się z nosogardłem poprzez trąbkę Eustachiusza. Wibracje od błony bębenkowej przez ucho środkowe przenoszone są przez 3 połączone ze sobą kosteczki słuchowe – młotek, kowadełko i strzemiączek, a te ostatnie poprzez błonę okienka owalnego przekazują te drgania do płynu znajdującego się w uchu wewnętrznym – perylimfa. Dzięki kosteczek słuchowych amplituda drgań maleje, a ich siła wzrasta, co pozwala na przemieszczanie się słupa płynu w uchu wewnętrznym. Ucho środkowe posiada specjalny mechanizm adaptacji do zmian natężenia dźwięku. Przy mocnych dźwiękach specjalne mięśnie zwiększają napięcie błony bębenkowej i zmniejszają ruchliwość strzemiączka. Zmniejsza to amplitudę oscylacji i Ucho wewnętrzne chroniony przed uszkodzeniami.

Ucho wewnętrzne wraz ze znajdującym się w nim ślimakiem znajduje się w piramidzie kości skroniowej. Ślimak ludzki tworzy 2,5 spiralnego zwoju. Kanał ślimakowy jest podzielony przez dwie przegrody (błonę główną i błonę przedsionkową) na 3 wąskie kanały: górny (scala westibularis), środkowy (kanał błoniasty) i dolny (scala tympani). W górnej części ślimaka znajduje się otwór łączący kanały górny i dolny w jeden, przechodzący od okienka owalnego do szczytu ślimaka i dalej do okienka okrągłego. Ich jama jest wypełniona cieczą - perylimfą, a jama środkowego kanału błoniastego jest wypełniona cieczą o innym składzie - endolimfą. W kanale środkowym znajduje się aparat odbierający dźwięk – narząd Cortiego, w którym znajdują się receptory wibracji dźwiękowych – komórki rzęsate.

Mechanizm percepcji dźwięku. Mechanizm fizjologiczny Percepcja dźwięku opiera się na dwóch procesach zachodzących w ślimaku: 1) separacji dźwięków o różnych częstotliwościach ze względu na miejsce ich największego oddziaływania na błonę główną ślimaka oraz 2) konwersji drgań mechanicznych na pobudzenie nerwowe przez komórki receptorowe. Wibracje dźwiękowe dostające się do ucha wewnętrznego przez owalne okienko przenoszone są do przychłonki, a drgania tego płynu prowadzą do przemieszczeń błony głównej. Wysokość słupa wibrującej cieczy i odpowiednio miejsce największego przemieszczenia membrany głównej zależą od wysokości dźwięku. Zatem dźwiękami o różnej wysokości pobudzane są różne komórki rzęsate i różne włókna nerwowe. Wzrost natężenia dźwięku prowadzi do wzrostu liczby pobudzonych komórek włoskowatych i włókien nerwowych, co pozwala na rozróżnienie natężenia drgań dźwiękowych.
Przekształcenie drgań w proces wzbudzenia odbywa się za pomocą specjalnych receptorów – komórek rzęsatych. Włosy tych komórek są zanurzone w błonie powłokowej. Wibracje mechaniczne pod wpływem dźwięku prowadzą do przemieszczenia błony powłokowej względem komórek receptorowych i zagięcia włosów. W komórkach receptorowych mechaniczne przemieszczenie włosków powoduje proces wzbudzenia.

Przewodność dźwięku. Istnieje przewodzenie powietrzne i kostne. W normalne warunki U ludzi dominuje przewodzenie powietrzne: fale dźwiękowe są wychwytywane przez ucho zewnętrzne, a wibracje powietrza przenoszone są przez przewód słuchowy zewnętrzny do ucha środkowego i wewnętrznego. W przypadku przewodnictwa kostnego wibracje dźwiękowe przenoszone są przez kości czaszki bezpośrednio do ślimaka. Ten mechanizm przenoszenia wibracji dźwiękowych jest ważny, gdy osoba nurkuje pod wodą.
Osoba zwykle odbiera dźwięki o częstotliwości od 15 do 20 000 Hz (w zakresie 10-11 oktaw). U dzieci górna granica sięga 22 000 Hz, z wiekiem maleje. Największą czułość stwierdzono w zakresie częstotliwości od 1000 do 3000 Hz. Region ten odpowiada najczęstszym częstotliwościom ludzkiej mowy i muzyki.

Proces naszej percepcji dźwięków zależy od jakości napływającej informacji dźwiękowej oraz od stanu naszej psychiki.

O dźwiękach i tym, co słyszymy.

Dźwięk można przedstawić jako zagęszczenie fali ośrodka poruszającego się liniowo od źródła drgań z określoną prędkością. Wraz z odległością fala traci swoją „gęstość”, stopniowo zanikając. Zanik dźwięku jest odwrotnie proporcjonalny do kwadratu odległości od źródła dźwięku. Prędkość rozchodzenia się dźwięku w gazach zależy od rodzaju gazu, gęstości ośrodka, temperatury i statycznego ciśnienia atmosferycznego. Do mediów ciekłych i gazowych - głównie w zależności od charakteru medium. Zatem w powietrzu wartość ta waha się od 330 do 345 m/s przy zmianie temperatury od 0 do 200C, w wodzie – około 1500 m/s, w stali – 6000 m/s.

W artykule na temat budowy analizatora słuchowego opisano podstawowy mechanizm percepcji dźwięków przez narządy słuchu poprzez ucho zewnętrzne i środkowe oraz przemiany fale dźwiękowe na impulsy elektryczne w uchu wewnętrznym. Z wyjątkiem trasa lotnicza przewodzenie dźwięku do komórek receptorowych ucha wewnętrznego, istnieje również ścieżka kostna do percepcji dźwięku, ponieważ fale dźwiękowe nie tylko dostają się do zewnętrznego kanału słuchowego, ale także wibrują kości czaszki. Mechanizm ten jest ważny dla zrozumienia, dlaczego słyszymy zniekształcony dźwięk własnego głosu. Dzięki kostnemu przewodzeniu dźwięku do komórek receptorowych docierają jedynie dźwięki o wysokiej częstotliwości o małej amplitudzie wibracji, dzięki czemu słyszymy nasz głos wyżej niż otaczający nas głos.

Istnieje również mikrofalowy efekt słuchowy, który obejmuje słuchową percepcję promieniowania mikrofalowego. Pod wpływem pulsacyjnego lub modulowanego promieniowania mikrofalowego percepcja dźwięków następuje bezpośrednio w ludzkiej czaszce. Podczas tego procesu generowane są fale uderzeniowe, które są odbierane przez osobę jako informacja dźwiękowa, której nikt inny nie słyszy. Ustalono również, że kiedy właściwy wybór Za pomocą sygnału modulującego możliwe jest przesyłanie do osoby informacji dźwiękowych w postaci pojedynczych słów lub fraz za pomocą promieniowania mikrofalowego.

Selektywność wrażeń słuchowych informacja dźwiękowa.

Dźwięki, które słyszymy, to informacja dźwiękowa dekodowana przez mózg i przekształcana w subiektywne wyobrażenia dźwiękowe lub obrazy. Dźwięki, które do nas docierają, można zmierzyć i obiektywnie opisać, jednak percepcja dźwięku jest indywidualna i selektywna, zależna nie tylko od jakości pracy naszego analizatora słuchowego, ale także stan psychiczny, nastrój, aktualne potrzeby.

Zwykle nie słyszymy tykania zegara ani hałasu pracującego wentylatora; możemy nie słyszeć rozmów osób w pobliżu, jeśli jesteśmy zajęci czymś, co nas interesuje. Ale jeśli słuchamy, możemy usłyszeć nasz własny oddech. Głośne dźwięki, które nas nie irytują, przechodzą „obok naszych uszu”, ale ciekawe i ważne, nawet te bardzo ciche, mogą wywołać poważną reakcję emocjonalną. Nasze aparaty słuchowe są niezwykle selektywne pod względem informacji słuchowych. To subiektywne postrzeganie dźwięków następuje dzięki swoistemu filtrowi wejściowemu mózgu, który hamuje percepcję dźwięków, które są dla nas niepotrzebne. Filtrowanie dźwięku, które odfiltrowuje bezużyteczny spam, pozwala nam wyróżnić informacje, które są w danym momencie naprawdę ważne.

Filtrowanie informacji dźwiękowych bez udziału świadomości ma jednak również wadę. Niektóre wzorce dźwiękowe o niskich częstotliwościach i wolnych rytmach powodują głębokie rozluźnienie mięśni lub umysłu. Percepcja dźwięków takiej muzyki i rytmów może również stworzyć warunki do mobilizacji ciała bez zwykłego wpływu na nie świadomej kontroli. Na przykład od czasów starożytnych wiadomo, że rytm bębna pomaga żołnierzom chodzić głupio, nawet gdy są bardzo zmęczeni. Takie informacje dźwiękowe są wykorzystywane przez szamanów, hipnotyzerów i psychoterapeutów do wzmocnienia efektu sugestii.

Konwersja docierających do nas fal dźwiękowych na informację dźwiękową odbywa się w analizatorze słuchowym, a końcowe przetwarzanie przychodzących sygnałów można przeprowadzić w kilku ośrodki słuchu mózgu, wymieniając informacje z innymi ważnymi ośrodkami, przede wszystkim z ośrodkiem motorycznym i ośrodkiem wzroku. Możliwe jest również wykorzystanie słuchowej percepcji informacji dźwiękowych przechowywanych w pamięci w celu porównania i zidentyfikowania nowej reprezentacji dźwięku.

Wyznaczanie kierunku bodźca dźwiękowego.

Aby zrozumieć, skąd pochodzą informacje dźwiękowe, krokodyl musi obrócić ciało, kot musi tylko odwrócić uszy, a człowiek nie musi w ogóle wykonywać żadnych ruchów.

Osoba ma stereofoniczną percepcję dźwięku, określającą poziomy kierunek dźwięku na dwa główne sposoby: na podstawie opóźnienia czasowego między wejściem dźwięku do jednego ucha a jego wejściem do drugiego oraz na podstawie różnicy natężenia dźwięków w obu uszach. Pierwszy mechanizm percepcji dźwięku działa najlepiej przy częstotliwościach poniżej 3000 herców (Hz), drugi zaś przy wyższych, gdyż głowa w tych częstotliwościach stanowi bardziej znaczącą barierę dla informacji dźwiękowej.

Jeśli osoba patrzy bezpośrednio na źródło dźwięku, informacja dźwiękowa dociera do obu uszu jednocześnie, ale jeśli jedno ucho jest bliżej bodźca niż drugie, sygnały dźwiękowe z pierwszego ucha docierają do mózgu na kilka mikrosekund przed informacją dźwiękową z ucha drugi.

Rozróżnienie, czy źródło dźwięku znajduje się z przodu, z tyłu, nad czy pod osobą, odbywa się głównie poprzez wyrafinowany kształt małżowiny usznej, która zmienia natężenie dźwięku docierającego do ucha w zależności od kierunku, z którego dochodzi.

Psychoakustyka to dziedzina nauki badająca wrażenia słuchowe człowieka, gdy dźwięk oddziałuje na uszy.

Osoby posiadające absolutny (analityczny) słuch muzyczny potrafią dokładnie określić wysokość, głośność i barwę dźwięku, a także potrafią zapamiętać brzmienie instrumentów i po pewnym czasie je rozpoznać. Potrafi poprawnie przeanalizować to, czego słuchał i poprawnie zidentyfikować poszczególne instrumenty.

Osoby nie posiadające wysokości absolutnej potrafią określić rytm, barwę i tonację, jednak trudno jest im poprawnie przeanalizować materiał, którego słuchają.

Podczas słuchania wysokiej jakości sprzętu audio z reguły opinie ekspertów są różne. Niektórzy wolą wysoką przejrzystość i wierność transmisji każdego alikwotu, denerwuje ich brak szczegółów w dźwięku. Inni wolą brzmienie o rozmytym, niejasnym charakterze i szybko męczą się nadmiarem szczegółów w obrazie muzycznym. Niektórzy ludzie skupiają się na harmonii dźwięku, inni na równowadze widmowej, a jeszcze inni na zakresie dynamiki. Okazuje się, że wszystko zależy od typu charakteru jednostki.Typ charakteru ludzi dzieli się na następujące dychotomie (klasy sparowane): zmysłowy i intuicyjny, myślący i odczuwający, ekstrawertyczny i introwertyczny, decydujący i postrzegający.

Osoby z dominacją sensoryczną mają wyraźną dykcję i doskonale dostrzegają wszystkie niuanse mowy lub obrazu muzycznego. Dla nich przejrzystość dźwięku jest niezwykle ważna, gdy wszystkie instrumenty brzmiące wyraźnie się wyróżniają.

Słuchacze z intuicyjną dominującą preferują rozmyty obraz muzyczny i przywiązują szczególną wagę do zrównoważonego brzmienia wszystkich instrumentów muzycznych.

Słuchacze z dominującą myślącą preferują utwory muzyczne o dużej rozpiętości dynamiki, z wyraźnie określoną dominującą i mollową dominującą, o jasnym znaczeniu i strukturze utworu

Osoby z poczuciem dominacji dają bardzo ważne harmonii w utworach muzycznych, preferują utwory z niewielkimi odchyleniami tonacji durowej i molowej od wartości neutralnej, tj. „muzyka dla duszy”.



Słuchacz z dominującą ekstrawertyką skutecznie odróżnia sygnał od szumu, woli słuchać muzyki przy wysokim poziomie głośności, określa durowy lub poboczny charakter utworu muzycznego na podstawie aktualnej pozycji częstotliwościowej obrazu muzycznego.

Osoby z introwertyczną dominującą zwracają dużą uwagę na wewnętrzną strukturę obrazu muzycznego; większość-mniejszość oceniana jest między innymi na podstawie przesunięcia częstotliwości jednej z harmonicznych w powstałych rezonansach; obcy szum utrudnia odbiór informacji audio .

Osoby ze zdecydowaną dominującą wolą w muzyce regularność, obecność wewnętrznej okresowości.

Słuchacze z dominującą spostrzegawczością preferują improwizację w muzyce.

Każdy wie sam, że ta sama muzyka na tym samym sprzęcie i w tym samym pomieszczeniu nie zawsze jest odbierana w ten sam sposób. Prawdopodobnie, w zależności od stanu psycho-emocjonalnego, nasze uczucia stają się przytępione lub nasilone.

Z drugiej strony nadmierna szczegółowość i naturalność dźwięku może zirytować zmęczonego i obciążonego zmysłową dominacją słuchacza, tak że w takim stanie będzie on preferował muzykę rozmytą i miękką, z grubsza mówiąc, będzie wolał słuchać żywych instrumentów w kapeluszu z nausznikami.

W pewnym stopniu na jakość dźwięku wpływa „jakość” napięcia sieciowego, które z kolei zależy zarówno od dnia tygodnia, jak i pory dnia (w godzinach szczytu napięcie sieciowe jest najbardziej „zanieczyszczone” ). Poziom hałasu w pomieszczeniu, a co za tym idzie rzeczywisty zakres dynamiki, zależy również od pory dnia.

Dobrze pamiętam wpływ hałasu otoczenia, jaki miał miejsce w przypadku sprzed 20 lat. Późnym wieczorem, po weselu w wiosce, młodzi ludzie zostali, aby pomóc sprzątnąć stoły i umyć naczynia. Na podwórzu zorganizowano muzykę: akordeon elektryczny z dwukanałowym wzmacniaczem i dwoma głośnikami, czterokanałowy wzmacniacz mocy według schematu Shushurina, do którego wejścia podłączono akordeon elektryczny oraz dwa 3-drożne i dwa 2-drożne Do wyjść podłączono systemy głośnikowe -way. Magnetofon z nagraniami wykonanymi z szybkością 19, z odchyleniem antyrównoległym. Około godziny 2 w nocy, gdy wszyscy byli już wolni, młodzież zebrała się na podwórzu i poprosiła o zagranie czegoś dla duszy. Wyobraźcie sobie zdziwienie obecnych muzyków i melomanów, gdy zabrzmiała składanka tematów Beatlesów w wykonaniu zespołu STARS on 45. Dla uszu przystosowanych do odbioru muzyki w atmosferze wzmożonego hałasu dźwięk w nocnej ciszy stał się zaskakujący jasne i dopracowane.

Percepcja według częstotliwości

Ucho ludzkie odbiera proces oscylacyjny jako dźwięk tylko wtedy, gdy częstotliwość jego drgań mieści się w przedziale od 16...20 Hz do 16...20 kHz. Przy częstotliwości poniżej 20 Hz drgania nazywane są infradźwiękami, powyżej 20 kHz – ultradźwiękowymi. Dźwięki o częstotliwości poniżej 40 Hz są rzadkie w muzyce i w mowa potoczna i są całkowicie nieobecne. Odbiór wysokich częstotliwości dźwięku w dużym stopniu zależy zarówno od indywidualnych cech narządu słuchu, jak i od wieku słuchacza. Przykładowo do 18 roku życia dźwięki o częstotliwości 14 kHz słyszy około 100% słuchaczy, natomiast w wieku 50...60 lat słyszy już tylko 20% słuchaczy. W wieku 18 lat około 60% słuchaczy słyszy dźwięki o częstotliwości 18 kHz, a w wieku 40...50 lat już tylko 10% słuchaczy. Nie oznacza to jednak, że w przypadku osób starszych wymagania dotyczące jakości ścieżki odtwarzania dźwięku są zmniejszone. Ustalono eksperymentalnie, że osoby, które ledwo dostrzegają sygnały o częstotliwości 12 kHz, bardzo łatwo rozpoznają brak wysokich częstotliwości na fonogramie.

Rozdzielczość słyszenia przy zmianie częstotliwości wynosi około 0,3%. Na przykład dwa tony o częstotliwości 1000 i 1003 Hz, następujące jeden po drugim, można rozróżnić bez instrumentów. A na podstawie uderzeń częstotliwości dwóch tonów osoba może wykryć różnicę częstotliwości sięgającą nawet dziesiątych części herca. Jednocześnie trudno na ucho dostrzec odchylenie w szybkości odtwarzania ścieżki dźwiękowej w granicach ±2%.

Subiektywna skala percepcji dźwięku w częstotliwości jest zbliżona do prawa logarytmicznego. Na tej podstawie wszystkie charakterystyki częstotliwościowe urządzeń do transmisji dźwięku są wykreślane w skali logarytmicznej. Stopień dokładności, z jaką dana osoba określa wysokość dźwięku za pomocą ucha, zależy od ostrości, muzykalności i wytrenowania słuchu, a także od intensywności dźwięku. Przy wysokich poziomach głośności dźwięki o większej intensywności wydają się niższe niż dźwięki o mniejszej intensywności.

Przy długotrwałym narażeniu na intensywny dźwięk wrażliwość słuchu stopniowo maleje, tym bardziej, im większa jest głośność dźwięku, co wiąże się z reakcją słuchu na przeciążenie, tj. z jego naturalną adaptacją. Po pewnym czasie wrażliwość zostaje przywrócona. Systematyczne i długotrwałe słuchanie muzyki o dużym natężeniu głośności powoduje nieodwracalne zmiany w narządzie słuchu, zwłaszcza u młodych osób korzystających ze słuchawek (słuchawek).

Ważną cechą dźwięku jest barwa. Zdolność słuchu do rozróżniania jego odcieni pozwala nam rozróżniać różnorodne instrumenty muzyczne i głosy. Dzięki podbarwieniu barwy ich brzmienie staje się wielobarwne i łatwo rozpoznawalne. Warunkiem prawidłowej transmisji barwy jest niezniekształcona transmisja widma sygnału – ogółu składowych sinusoidalnych złożonego sygnału (alikwoty). Alikwoty są wielokrotnościami częstotliwości tonu podstawowego i mają mniejszą amplitudę. Barwa dźwięku zależy od składu alikwotów i ich intensywności.

Barwa dźwięku żywych instrumentów w dużej mierze zależy od intensywności wytwarzania dźwięku. Na przykład ta sama nuta grana na fortepianie lekkim i ostrym naciśnięciem palca ma inny atak i widmo sygnału. Nawet osoba nieprzeszkolona może łatwo dostrzec różnicę emocjonalną pomiędzy dwoma takimi dźwiękami po ich ataku, nawet jeśli są one przekazywane słuchaczowi za pomocą mikrofonu i mają zrównoważoną głośność. Atak dźwięku to etap początkowy, specyficzny proces przejściowy, podczas którego ustalają się stabilne cechy: głośność, barwa, wysokość. Czas trwania ataku dźwięku różnych instrumentów waha się od 0...60 ms. Przykładowo dla instrumentów perkusyjnych mieści się to w przedziale 0...20 ms, dla fagotu - 20...60 ms. Charakterystyka ataku instrumentu w dużej mierze zależy od stylu i techniki gry muzyka. To właśnie te cechy instrumentów pozwalają przekazać emocjonalną treść dzieła muzycznego.

Barwa dźwięku źródła sygnału znajdującego się w odległości mniejszej niż 3 m od słuchacza odbierana jest jako „cięższa”. Usunięcie źródła sygnału z 3 na 10 m towarzyszy proporcjonalnemu zmniejszeniu głośności, a barwa staje się jaśniejsza. W miarę dalszego usuwania źródła sygnału straty energii w powietrzu rosną proporcjonalnie do kwadratu częstotliwości i mają złożoną zależność od wilgotności względnej powietrza. Straty energii komponentów HF są największe przy wilgotności względnej w zakresie od 8 do 30...40%, a minimalne przy 80% (rys. 1.1). Wzrost utraty alikwotu prowadzi do zmniejszenia jasności barwy.

Percepcja amplitudowa

Jednakowe krzywe głośności od progu słyszalności do progu bólu dla słuchania obuusznego i monofonicznego pokazano na ryc. odpowiednio 1.2.a, b. Postrzeganie amplitudy zależy od częstotliwości i ma znaczny rozrzut związany ze zmianami związanymi z wiekiem.

Wrażliwość słuchu na natężenie dźwięku jest dyskretna. Próg odczuwania zmiany natężenia dźwięku zależy zarówno od częstotliwości, jak i głośności dźwięku (przy wysokim i średnim poziomie wynosi 0,2...0,6 dB, przy niskie poziomy osiąga kilka decybeli) i średnio poniżej 1 dB.

Efekt Haasa

Aparat słuchowy, jak każdy inny układ oscylacyjny, charakteryzuje się bezwładnością. Dzięki tej właściwości krótkie dźwięki o czasie trwania do 20 ms są odbierane jako cichsze niż dźwięki o czasie trwania dłuższym niż 150 ms. Jednym z przejawów bezwładności jest

niezdolność człowieka do wykrycia zniekształceń w impulsach trwających krócej niż 20 ms. Jeżeli do uszu dotrą 2 identyczne sygnały w odstępie czasu między nimi 5...40 ms, słuch odbiera je jako jeden sygnał, a w odstępie większym niż 40...50 ms - osobno.

Efekt maskowania

W nocy, w warunkach ciszy, słychać pisk komara, tykanie zegara i inne ciche dźwięki, a w warunkach hałasu trudno jest rozróżnić głośną mowę rozmówcy. W rzeczywistych warunkach sygnał akustyczny nie istnieje w absolutnej ciszy. Szum obcy, nieuchronnie obecny w miejscu odsłuchu, w pewnym stopniu maskuje główny sygnał i utrudnia jego dostrzeżenie. Zwiększanie progu słyszalności jednego tonu (lub sygnału) podczas narażenia na inny ton (szum lub sygnał) nazywa się maskowaniem.

Ustalono eksperymentalnie, że ton o dowolnej częstotliwości jest maskowany przez tony niższe znacznie skuteczniej niż przez tony wyższe, innymi słowy tony o niskiej częstotliwości maskują tony o wysokiej częstotliwości silniej niż odwrotnie. Przykładowo odtwarzając jednocześnie dźwięki o częstotliwości 440 i 1200 Hz z tą samą intensywnością, usłyszymy tylko ton o częstotliwości 440 Hz i dopiero po jego wyłączeniu usłyszymy ton o częstotliwości 1200 Hz. Stopień maskowania zależy od stosunku częstotliwości i ma charakter złożony, związany z krzywymi o jednakowej głośności (rys. 1.3.α i 1.3.6).

Im większy współczynnik częstotliwości, tym mniejszy efekt maskowania. To w dużej mierze wyjaśnia zjawisko dźwięku „tranzystorowego”. Widmo zniekształceń nieliniowych wzmacniaczy tranzystorowych sięga do 11. harmonicznej, natomiast wzmacniaczy lampowych ogranicza się do 3..5. harmonicznej. Wąskopasmowe krzywe maskowania hałasu dla tonów o różnych częstotliwościach i poziomach natężenia mają inny charakter. Wyraźne postrzeganie dźwięku jest możliwe, jeśli jego natężenie przekracza pewien próg słyszalności. Przy częstotliwościach 500 Hz i niższych nadmiar sygnału powinien wynosić około 20 dB, przy częstotliwości 5 kHz - około 30 dB, a

przy częstotliwości 10 kHz - 35 dB. Ta cecha percepcji słuchowej jest brana pod uwagę podczas nagrywania na nośnikach dźwiękowych. Jeśli więc stosunek sygnału do szumu w nagraniu analogowym wynosi około 60...65 dB, wówczas zakres dynamiczny nagranego programu nie może przekraczać 45...48 dB.

Efekt maskowania wpływa na subiektywnie odczuwaną głośność dźwięku. Jeżeli składowe złożonego dźwięku znajdują się blisko siebie pod względem częstotliwości i obserwuje się ich wzajemne maskowanie, wówczas głośność tak złożonego dźwięku będzie mniejsza niż głośność jego składników.

Jeżeli kilka tonów jest tak odległych w częstotliwościach, że można zaniedbać ich wzajemne maskowanie, wówczas ich całkowita głośność będzie równa sumie głośności każdego ze składników.

Uzyskanie „przejrzystości” brzmienia wszystkich instrumentów orkiestry czy zespołu popowego to trudne zadanie, które realizuje inżynier dźwięku – celowo podkreślając najważniejsze instrumenty w danym miejscu utworu i stosując specjalne techniki.

Efekt binauralny

Nazywa się zdolność osoby do określenia kierunku źródła dźwięku (ze względu na obecność dwojga uszu). efekt binauralny. Dźwięk dociera do ucha znajdującego się bliżej źródła dźwięku wcześniej niż do ucha drugiego, co oznacza, że ​​różni się fazą i amplitudą. Podczas słuchania prawdziwego źródła sygnału sygnały binauralne (tj. sygnały dochodzące do prawego i lewego ucha) są ze sobą statystycznie powiązane (skorelowane). Dokładność lokalizacji źródła dźwięku zależy zarówno od częstotliwości, jak i jego umiejscowienia (przed lub za słuchaczem). Narząd słuchu otrzymuje dodatkowe informacje o lokalizacji źródła dźwięku (przód, tył, góra) analizując cechy widma sygnałów binauralnych.

Do 150...300 Hz słuch ludzki ma bardzo małą kierunkowość. Przy częstotliwościach 300...2000 Hz, dla których połowa długości fali sygnału jest proporcjonalna do odległości „międzyzębnej” wynoszącej 20...25 cm, różnice fazowe są znaczne. Począwszy od częstotliwości 2 kHz, kierunkowość słyszenia gwałtownie maleje. Przy wyższych częstotliwościach wyższa wartość rejestruje różnicę w amplitudach sygnału. Kiedy różnica amplitud przekracza wartość progową 1 dB, źródło dźwięku wydaje się znajdować po tej stronie, gdzie amplituda jest większa.

Kiedy słuchacz jest ustawiony asymetrycznie względem głośników, powstają dodatkowe różnice w natężeniu i czasie, które prowadzą do zniekształceń przestrzennych. Co więcej, im dalej KIZ (pozorne źródło dźwięku) znajduje się od środka podstawy (Δ L> 7 dB lub Δτ > 0,8 ms), tym mniej są podatne na zniekształcenia. W Δ L> 20 dB, Δτ > 3...5 ms EQI zamieniają się w rzeczywiste (głośniki) i nie ulegają zniekształceniom przestrzennym.

Ustalono eksperymentalnie, że zniekształcenia przestrzenne są nieobecne (niezauważalne), jeśli pasmo częstotliwości każdego kanału jest ograniczone od góry częstotliwością co najmniej 10 kHz, a częstotliwości wysokie (powyżej 10 kHz) i niskie (poniżej 300 Hz) część widma tych sygnałów jest odtwarzana monofonicznie.

Błąd w oszacowaniu azymutu źródła dźwięku w płaszczyźnie poziomej z przodu wynosi 3...4°, z tyłu i w płaszczyźnie pionowej około 10...15°, co tłumaczy się efektem ekranowania uszu.

Po rozważeniu teorii propagacji i mechanizmów powstawania fal dźwiękowych przydatne jest zrozumienie, w jaki sposób dźwięk jest „interpretowany” lub odbierany przez człowieka. Za percepcję fal dźwiękowych w ludzkim ciele odpowiada sparowany narząd, ucho. Ludzkie ucho- bardzo złożony narząd, który spełnia dwie funkcje: 1) odbiera impulsy dźwiękowe 2) pełni funkcję aparatu przedsionkowego całego ludzkiego ciała, określa położenie ciała w przestrzeni i zapewnia niezbędną zdolność utrzymania równowagi. Przeciętne ludzkie ucho jest w stanie wykryć wibracje o częstotliwości od 20 do 20 000 Hz, ale występują odchylenia w górę lub w dół. Idealnie słyszalny zakres częstotliwości wynosi 16–20 000 Hz, co odpowiada również długości fali 16 m–20 cm. Ucho dzieli się na trzy części: ucho zewnętrzne, środkowe i wewnętrzne. Każdy z tych „podziałów” pełni swoją funkcję, ale wszystkie trzy działy są ze sobą ściśle powiązane i faktycznie przekazują sobie nawzajem fale dźwiękowe.

Ucho zewnętrzne (zewnętrzne).

Ucho zewnętrzne składa się z małżowiny usznej i przewodu słuchowego zewnętrznego. Małżowina uszna jest elastyczną chrząstką o złożonym kształcie, pokrytą skórą. W dolnej części małżowiny usznej znajduje się płat, który składa się z tkanki tłuszczowej i jest również pokryty skórą. Małżowina uszna pełni rolę odbiornika fal dźwiękowych z otaczającej przestrzeni. Specjalny kształt budowy małżowiny usznej pozwala lepiej wychwycić dźwięki, zwłaszcza dźwięki z zakresu średnich częstotliwości, które odpowiadają za przekazywanie informacji mowy. Fakt ten wynika w dużej mierze z konieczności ewolucyjnej, ponieważ człowiek bardzo spędza życie w komunikacji ustnej z przedstawicielami swojego gatunku. Ludzkie małżowiny uszne są praktycznie nieruchome, w przeciwieństwie do dużej liczby przedstawicieli gatunków zwierząt, które wykorzystują ruchy uszu, aby dokładniej dostroić się do źródła dźwięku.

Fałdy małżowiny usznej człowieka są zaprojektowane w taki sposób, że wprowadzają poprawki (niewielkie zniekształcenia) dotyczące pionowego i poziomego położenia źródła dźwięku w przestrzeni. Dzięki tej unikalnej cesze człowiek jest w stanie dość wyraźnie określić położenie obiektu w przestrzeni względem siebie, kierując się wyłącznie dźwiękiem. Ta funkcja jest również dobrze znana pod pojęciem „lokalizacji dźwięku”. Główną funkcją małżowiny usznej jest wychwytywanie jak największej liczby dźwięków w słyszalnym zakresie częstotliwości. O dalszym losie „złapanych” fal dźwiękowych decyduje kanał słuchowy, którego długość wynosi 25-30 mm. W nim chrzęstna część małżowiny usznej zewnętrznej przechodzi do kości, a powierzchnia skóry kanału słuchowego jest wyposażona w gruczoły łojowe i siarkowe. Na końcu przewodu słuchowego znajduje się elastyczna błona bębenkowa, do której docierają drgania fal dźwiękowych, powodując w ten sposób reakcję drganiową. Z kolei błona bębenkowa przenosi powstałe wibracje do ucha środkowego.

Ucho środkowe

Wibracje przenoszone przez błonę bębenkową docierają do obszaru ucha środkowego zwanego „obszarem bębenkowym”. Jest to obszar o objętości około jednego centymetra sześciennego, w którym znajdują się trzy kosteczki słuchowe: młotek, kowadełko i strzemiączek. To właśnie te „pośrednie” elementy działają najważniejszą funkcją: Przesyła fale dźwiękowe do ucha wewnętrznego i jednocześnie je wzmacnia. Kosteczki słuchowe stanowią niezwykle złożony łańcuch transmisji dźwięku. Wszystkie trzy kości są ściśle połączone ze sobą, a także z błoną bębenkową, dzięki czemu wibracje przenoszone są „wzdłuż łańcucha”. Na podejściu do okolicy ucha wewnętrznego znajduje się okno przedsionka, które jest zasłonięte podstawą strzemiączka. Aby wyrównać ciśnienie po obu stronach błony bębenkowej (na przykład w przypadku zmian ciśnienia zewnętrznego), obszar ucha środkowego łączy się z nosogardłem za pomocą trąbki Eustachiusza. Wszyscy znamy efekt zatkanych uszu, który pojawia się właśnie z powodu tak precyzyjnego dostrojenia. Z ucha środkowego wibracje dźwiękowe, już wzmocnione, dostają się do obszaru ucha wewnętrznego, najbardziej złożonego i wrażliwego.

Ucho wewnętrzne

Najbardziej złożoną formą jest ucho wewnętrzne, zwane z tego powodu labiryntem. Labirynt kostny obejmuje: przedsionek, ślimak i kanały półkoliste, a także aparat przedsionkowy, odpowiedzialny za równowagę. W tym kontekście ślimak jest bezpośrednio powiązany ze słuchem. Ślimak jest spiralnym, błoniastym kanałem wypełnionym płynem limfatycznym. Wewnątrz kanał jest podzielony na dwie części kolejną błoniastą przegrodą zwaną „membraną główną”. Membrana ta składa się z włókien o różnej długości (w sumie ponad 24 000), rozciągniętych jak struny, przy czym każda struna rezonuje własnym, specyficznym dźwiękiem. Kanał jest podzielony błoną na górną i dolną łopatkę, łącząc się na wierzchołku ślimaka. Na przeciwległym końcu kanał łączy się z aparatem receptorowym analizatora słuchowego, który jest pokryty maleńkimi komórkami włoskowatymi. To urządzenie do analizy słuchu nazywane jest również „Organami Cortiego”. Kiedy wibracje z ucha środkowego dostają się do ślimaka, płyn limfatyczny wypełniający kanał również zaczyna wibrować, przenosząc wibracje na błonę główną. W tym momencie zaczyna działać aparat analizatora słuchowego, którego komórki rzęsate, umieszczone w kilku rzędach, przekształcają wibracje dźwiękowe w elektryczne impulsy „nerwowe”, które przekazywane są wzdłuż nerwu słuchowego do strefy skroniowej kory mózgowej. W tak złożony i ozdobny sposób osoba ostatecznie usłyszy pożądany dźwięk.

Cechy percepcji i tworzenia mowy

Mechanizm powstawania mowy kształtował się u człowieka na całym etapie ewolucji. Znaczenie tej zdolności polega na przekazywaniu informacji werbalnych i niewerbalnych. Pierwszy niesie ładunek werbalny i semantyczny, drugi odpowiada za przekazanie komponentu emocjonalnego. Na proces tworzenia i postrzegania mowy składa się: sformułowanie przekazu; kodowanie na elementy zgodnie z zasadami obowiązującego języka; przejściowe działania nerwowo-mięśniowe; ruchy strun głosowych; emisja sygnału akustycznego; Następnie do akcji wkracza słuchacz, który dokonuje: analizy widmowej odebranego sygnału akustycznego i selekcji cech akustycznych w obwodowym układzie słuchowym, transmisji wybranych cech poprzez sieci neuronowe, rozpoznania kodu języka (analiza językowa), zrozumienia języka znaczenie wiadomości.
Aparat do generowania sygnałów mowy można porównać do złożonego instrumentu dętego, jednak wszechstronność i elastyczność konfiguracji oraz możliwość odtworzenia najdrobniejszych subtelności i szczegółów nie ma w naturze analogii. Mechanizm tworzenia głosu składa się z trzech nierozerwalnych elementów:

  1. Generator- płuca jako zbiornik objętości powietrza. Energia nadciśnienia magazynowana jest w płucach, następnie poprzez kanał wydalniczy za pomocą układu mięśniowego energia ta jest usuwana poprzez tchawicę połączoną z krtani. Na tym etapie strumień powietrza zostaje przerwany i zmodyfikowany;
  2. Wibrator- składa się ze strun głosowych. Na przepływ wpływają również turbulentne strumienie powietrza (tworzące tony brzegowe) i źródła impulsowe (eksplozje);
  3. Rezonator- zawiera wnęki rezonansowe kompleksu kształt geometryczny(gardło, jama ustna i nos).

Całość indywidualnego układu tych elementów tworzy niepowtarzalną i indywidualną barwę głosu każdej osoby indywidualnie.

Energia słupa powietrza wytwarzana jest w płucach, które wytwarzają pewien przepływ powietrza podczas wdechu i wydechu ze względu na różnicę ciśnienia atmosferycznego i śródpłucnego. Proces akumulacji energii odbywa się poprzez wdech, proces uwalniania charakteryzuje się wydechem. Dzieje się tak w wyniku ucisku i rozszerzenia klatki piersiowej, które odbywa się za pomocą dwóch grup mięśni: międzyżebrowej i przepony, przy głębokim oddychaniu i śpiewie kurczą się również mięśnie brzucha, klatki piersiowej i szyi. Podczas wdechu przepona kurczy się i przesuwa w dół, skurcz zewnętrznych mięśni międzyżebrowych unosi żebra i przesuwa je na boki, a mostek do przodu. Zwiększenie klatki piersiowej prowadzi do spadku ciśnienia w płucach (w stosunku do ciśnienia atmosferycznego), a przestrzeń ta zostaje szybko wypełniona powietrzem. Podczas wydechu mięśnie odpowiednio się rozluźniają i wszystko wraca do poprzedniego stanu ( klatka piersiowa powraca do stanu pierwotnego pod wpływem własnej grawitacji, przepona unosi się, zmniejsza się objętość wcześniej rozszerzonych płuc, wzrasta ciśnienie śródpłucne). Wdychanie można określić jako proces wymagający wydatku energetycznego (aktywny); wydech jest procesem akumulacji energii (biernym). Kontrola procesu oddychania i powstawania mowy odbywa się nieświadomie, ale podczas śpiewu kontrola oddechu wymaga świadomego podejścia i długotrwałego dodatkowego treningu.

Ilość energii, która jest następnie zużywana na tworzenie mowy i głosu, zależy od objętości zmagazynowanego powietrza i od wielkości dodatkowego ciśnienia w płucach. Maksymalne rozwinięte ciśnienie wyszkolonego śpiewaka operowego może osiągnąć 100-112 dB. Modulacja przepływu powietrza poprzez wibracje strun głosowych i wytworzenie nadciśnienia podgardłowego, procesy te zachodzą w krtani, która jest rodzajem zastawki znajdującej się na końcu tchawicy. Zawór pełni podwójną funkcję: chroni płuca przed ciałami obcymi i podporami wysokie ciśnienie. To krtań jest źródłem mowy i śpiewu. Krtań to zbiór chrząstek połączonych mięśniami. Krtań ma dość złożoną strukturę, której głównym elementem jest para strun głosowych. To właśnie struny głosowe są głównym (ale nie jedynym) źródłem produkcji głosu, czyli „wibratora”. Podczas tego procesu struny głosowe zaczynają się poruszać, czemu towarzyszy tarcie. Aby się przed tym zabezpieczyć, wydzielana jest specjalna wydzielina śluzowa, która działa jak środek poślizgowy. Edukacja dźwięki mowy jest określany przez wibracje więzadeł, co prowadzi do powstania przepływu powietrza wydychanego z płuc do pewnego rodzaju charakterystyki amplitudowej. Pomiędzy fałdami głosowymi znajdują się małe wnęki, które w razie potrzeby działają jak filtry akustyczne i rezonatory.

Cechy percepcji słuchowej, bezpieczeństwo słuchania, progi słyszenia, adaptacja, prawidłowy poziom głośności

Jak widać z opisu budowy ucha ludzkiego, narząd ten jest bardzo delikatny i ma dość złożoną budowę. Biorąc ten fakt pod uwagę nietrudno stwierdzić, że to niezwykle delikatne i czułe urządzenie posiada szereg ograniczeń, progów itp. Układ słuchowy człowieka jest przystosowany do odbierania cichych dźwięków, a także dźwięków o średnim natężeniu. Długotrwała ekspozycja głośne dzwięki pociąga za sobą nieodwracalne zmiany progów słyszenia i inne problemy ze słuchem, aż do całkowitej głuchoty. Stopień uszkodzenia jest wprost proporcjonalny do czasu ekspozycji w głośnym otoczeniu. W tym momencie wchodzi w życie także mechanizm adaptacyjny – tj. Pod wpływem długotrwałych głośnych dźwięków wrażliwość stopniowo maleje, odczuwana głośność maleje, a słuch dostosowuje się.

Adaptacja początkowo ma na celu ochronę narządu słuchu przed zbyt głośnymi dźwiękami, jednak to właśnie wpływ tego procesu najczęściej zmusza człowieka do niekontrolowanego zwiększania poziomu głośności systemu audio. Ochrona realizowana jest dzięki pracy mechanizmu ucha środkowego i wewnętrznego: strzemiączek jest cofnięty od okienka owalnego, chroniąc w ten sposób przed nadmiernie głośnymi dźwiękami. Jednak mechanizm zabezpieczający nie jest idealny i ma opóźnienie czasowe, wyzwalając się dopiero 30-40 ms po rozpoczęciu nadejścia dźwięku, a pełna ochrona nie jest osiągnięta nawet po czasie trwania 150 ms. Mechanizm ochronny aktywuje się, gdy poziom głośności przekroczy 85 dB, natomiast sama ochrona wynosi do 20 dB.
Najbardziej niebezpieczny w w tym przypadku, można uznać za zjawisko „przesunięcia progu słyszenia”, które w praktyce zwykle występuje w wyniku długotrwałego narażenia na dźwięki o natężeniu powyżej 90 dB. Proces przywracania układu słuchowego po takim Szkodliwe efekty może trwać do 16 godzin. Przesunięcie progu rozpoczyna się już przy poziomie natężenia 75 dB i wzrasta proporcjonalnie wraz ze wzrostem poziomu sygnału.

Rozważając problem prawidłowego poziomu natężenia dźwięku, najgorszą rzeczą, z jaką można sobie poradzić, jest fakt, że w dobie dość zaawansowanej medycyny problemy (nabyte lub wrodzone) związane ze słuchem są praktycznie nieuleczalne. Wszystko to powinno skłonić każdą rozsądną osobę do zastanowienia się nad dbaniem o swój słuch, jeśli oczywiście planuje jak najdłużej zachować jego nieskazitelną integralność i zdolność słyszenia całego zakresu częstotliwości. Na szczęście wszystko nie jest tak straszne, jak mogłoby się wydawać na pierwszy rzut oka, a stosując się do szeregu środków ostrożności, można łatwo zachować słuch nawet w starszym wieku. Przed rozważeniem tych środków należy o jednym pamiętać ważna cecha percepcja słuchowa człowieka. Aparat słuchowy odbiera dźwięki w sposób nieliniowy. Zjawisko to wygląda następująco: jeśli wyobrazimy sobie jedną częstotliwość czystego tonu, na przykład 300 Hz, to nieliniowość pojawia się, gdy podtony tej częstotliwości podstawowej pojawiają się w małżowinie usznej zgodnie z zasadą logarytmiczną (jeśli przyjąć, że częstotliwość podstawowa wynosi f, wówczas podteksty częstotliwości będą wynosić 2f, 3f itd. w kolejności rosnącej). Ta nieliniowość jest również łatwiejsza do zrozumienia i jest znana wielu osobom pod nazwą „zniekształcenia nieliniowe”. Ponieważ takie harmoniczne (podteksty) nie występują w oryginalnym czystym tonie, okazuje się, że ucho samo dokonuje własnych poprawek i podtekstów do oryginalnego dźwięku, ale można je określić jedynie jako subiektywne zniekształcenia. Przy poziomach intensywności poniżej 40 dB subiektywne zniekształcenia nie występują. Wraz ze wzrostem natężenia od 40 dB poziom subiektywnych harmonicznych zaczyna rosnąć, ale nawet na poziomie 80-90 dB ich negatywny wpływ na dźwięk jest stosunkowo niewielki (dlatego ten poziom natężenia można warunkowo uznać za rodzaj „ złoty środek” w dziedzinie muzyki).

Na podstawie tych informacji można łatwo określić bezpieczny i akceptowalny poziom głośności, który nie zaszkodzi narządom słuchu, a jednocześnie pozwoli usłyszeć absolutnie wszystkie cechy i szczegóły dźwięku, np. praca z systemem „hi-fi”. Poziom „złotego środka” wynosi około 85–90 dB. To właśnie przy takim natężeniu dźwięku można usłyszeć wszystko, co znajduje się w torze audio, a ryzyko przedwczesnego uszkodzenia i utraty słuchu jest zminimalizowane. Poziom głośności wynoszący 85 dB można uznać za niemal całkowicie bezpieczny. Aby zrozumieć, jakie niebezpieczeństwa niesie ze sobą głośne słuchanie i dlaczego zbyt niski poziom głośności nie pozwala usłyszeć wszystkich niuansów dźwięku, przyjrzyjmy się temu zagadnieniu bardziej szczegółowo. Jeśli chodzi o niski poziom głośności, brak celowości (ale częściej subiektywna chęć) słuchania muzyki na niskim poziomie wynika z następujących powodów:

  1. Nieliniowość percepcji słuchowej człowieka;
  2. Cechy percepcji psychoakustycznej, które zostaną omówione osobno.

Omówiona powyżej nieliniowość percepcji słuchowej ma znaczący wpływ przy każdym poziomie głośności poniżej 80 dB. W praktyce wygląda to tak: jeśli włączymy muzykę na cichym poziomie, np. 40 dB, wówczas najlepiej usłyszymy środkową część utworu muzycznego, czy to wokal wykonawcy, czy instrumenty grające w ten zakres. Jednocześnie będzie wyraźny brak niskich i wysokich częstotliwości, właśnie ze względu na nieliniowość percepcji, a także na fakt, że różne częstotliwości brzmią z różną głośnością. Oczywiste jest zatem, że aby w pełni dostrzec całość obrazu, poziom natężenia częstotliwości musi być jak najbardziej wyrównany do jednej wartości. Pomimo tego, że nawet przy poziomie głośności 85-90 dB nie ma idealnego wyrównania głośności różnych częstotliwości, poziom staje się akceptowalny dla normalnego, codziennego słuchania. Im jednocześnie mniejsza głośność, tym wyraźniej odczuje się dla ucha charakterystyczną nieliniowość, czyli wrażenie braku odpowiedniej ilości wysokich i niskich częstotliwości. Jednocześnie okazuje się, że przy takiej nieliniowości nie da się poważnie mówić o odtwarzaniu wysokiej jakości dźwięku „hi-fi”, ponieważ dokładność oryginalnego obrazu dźwiękowego będzie w tej konkretnej sytuacji wyjątkowo niska.

Jeśli zagłębisz się w te ustalenia, stanie się jasne, dlaczego słuchanie muzyki na niskim poziomie głośności, choć najbezpieczniejszym ze zdrowotnego punktu widzenia, jest niezwykle niekorzystne dla ucha ze względu na tworzenie wyraźnie nieprawdopodobnych obrazów instrumentów muzycznych i głosów i brak skali sceny dźwiękowej. Ogólnie rzecz biorąc, ciche odtwarzanie muzyki można stosować jako akompaniament w tle, jednak całkowicie przeciwwskazane jest słuchanie wysokiej jakości „hi-fi” przy małej głośności, z powyższych powodów niemożności stworzenia naturalistycznych obrazów sceny dźwiękowej, która była tworzony przez inżyniera dźwięku w studiu, na etapie nagrywania dźwięku. Ale nie tylko niski poziom głośności wprowadza pewne ograniczenia w odbiorze końcowego dźwięku, sytuacja jest znacznie gorsza przy większym wolumenie. Możliwe i dość proste jest uszkodzenie słuchu i znaczne zmniejszenie czułości, jeśli przez dłuższy czas słuchasz muzyki na poziomie powyżej 90 dB. Dane te opierają się na dużej liczbie badania medyczne, stwierdzając, że dźwięk głośniejszy niż 90 dB powoduje realną i prawie nieodwracalną szkodę dla zdrowia. Mechanizm tego zjawiska leży w percepcji słuchowej i cechach strukturalnych ucha. Kiedy fala dźwiękowa o natężeniu powyżej 90 dB przedostaje się do kanału słuchowego, do akcji wkraczają narządy ucha środkowego, powodując zjawisko zwane adaptacją słuchową.

Zasada działania w tym przypadku jest następująca: strzemiączek jest odsunięty od okienka owalnego i chroni ucho wewnętrzne przed zbyt głośnymi dźwiękami. Proces ten nazywa się odruch akustyczny. Dla ucha jest to odbierane jako krótkotrwałe zmniejszenie wrażliwości, co może być znane każdemu, kto kiedykolwiek był na przykład na koncertach rockowych w klubach. Po takim koncercie następuje krótkotrwały spadek wrażliwości, który po pewnym czasie wraca do poprzedniego poziomu. Jednak przywrócenie wrażliwości nie zawsze nastąpi i zależy bezpośrednio od wieku. Za tym wszystkim kryje się ogromne niebezpieczeństwo słuchania głośnej muzyki i innych dźwięków, których natężenie przekracza 90 dB. Wystąpienie odruchu akustycznego to nie jedyne „widoczne” niebezpieczeństwo utraty wrażliwości słuchowej. Przy długotrwałym narażeniu na zbyt głośne dźwięki włosy znajdujące się w okolicy ucha wewnętrznego (które reagują na wibracje) ulegają silnemu ugięciu. W tym przypadku następuje efekt polegający na tym, że włos odpowiedzialny za percepcję określonej częstotliwości ugina się pod wpływem drgań dźwiękowych o dużej amplitudzie. W pewnym momencie takie włosy mogą zbytnio się odchylić i nie mogą wrócić. Spowoduje to odpowiednią utratę czułości przy określonej częstotliwości!

Najgorsze w tej całej sytuacji jest to, że chorób uszu praktycznie nie da się wyleczyć, nawet najnowocześniejszymi metodami znanymi medycynie. Wszystko to prowadzi do pewnych poważnych wniosków: dźwięk powyżej 90 dB jest niebezpieczny dla zdrowia i niemal na pewno spowoduje przedwczesną utratę słuchu lub znaczny spadek wrażliwości. Jeszcze bardziej nieprzyjemne jest to, że wspomniana wcześniej właściwość adaptacji zaczyna działać z czasem. Proces ten w narządach słuchu człowieka zachodzi niemal niezauważalnie, tj. osoba, która powoli traci wrażliwość, ma niemal 100% szans, że tego nie zauważy, dopóki otaczający ją ludzie nie zwrócą uwagi na stale powtarzające się pytania typu: „Co właśnie powiedziałeś?” Wniosek na koniec jest niezwykle prosty: podczas słuchania muzyki niezwykle ważne jest, aby poziom natężenia dźwięku nie przekraczał 80-85 dB! W tym samym momencie leży pozytywna strona: Poziom głośności 80–85 dB odpowiada w przybliżeniu poziomowi nagrywania muzyki w środowisku studyjnym. Tutaj pojawia się koncepcja „złotego środka”, powyżej którego lepiej nie wspinać się, jeśli kwestie zdrowotne mają jakiekolwiek znaczenie.

Nawet krótkotrwałe słuchanie muzyki na poziomie 110-120 dB może spowodować problemy ze słuchem, np. podczas koncertu na żywo. Oczywiście czasami jest to niemożliwe lub bardzo trudne do uniknięcia, ale niezwykle ważne jest, aby spróbować to zrobić, aby zachować integralność percepcji słuchowej. Teoretycznie krótkotrwałe narażenie na głośne dźwięki (nieprzekraczające 120 dB), jeszcze przed wystąpieniem „zmęczenia słuchowego”, nie prowadzi do poważnych negatywnych konsekwencji. Jednak w praktyce zwykle zdarzają się przypadki długotrwałego narażenia na dźwięk o takim natężeniu. Ludzie ogłuszają się nie zdając sobie sprawy z pełnej skali niebezpieczeństwa w samochodzie słuchając systemu audio, w domu w podobnych warunkach lub w słuchawkach przenośnego odtwarzacza. Dlaczego tak się dzieje i co powoduje, że dźwięk staje się coraz głośniejszy? Na to pytanie istnieją dwie odpowiedzi: 1) Wpływ psychoakustyki, który zostanie omówiony osobno; 2) Ciągła potrzeba „wykrzykiwania” zewnętrznych dźwięków głośnością muzyki. Pierwszy aspekt problemu jest dość interesujący i zostanie omówiony szczegółowo w dalszej części, ale druga strona problemu prowadzi bardziej do negatywnych myśli i wniosków na temat błędnego zrozumienia prawdziwych podstaw prawidłowego odsłuchu dźwięku klasy hi-fi.

Nie wchodząc w szczegóły, ogólny wniosek dotyczący słuchania muzyki i prawidłowego poziomu głośności jest następujący: słuchanie muzyki powinno odbywać się przy poziomach natężenia dźwięku nie wyższych niż 90 dB, nie niższych niż 80 dB w pomieszczeniu, w którym występują dźwięki obce z zewnątrz. źródeł (takich jak: rozmowy sąsiadów i inne hałasy za ścianą mieszkania, hałas uliczny i hałas techniczny, jeśli jesteś w samochodzie itp.). Chciałbym raz na zawsze podkreślić, że właśnie przy spełnieniu tak zapewne rygorystycznych wymagań można osiągnąć długo oczekiwany balans głośności, który nie spowoduje przedwczesnego, niechcianego uszkodzenia narządów słuchowych, a przy tym przyniesie prawdziwą przyjemność od słuchania ulubionych utworów muzycznych z najdrobniejszymi szczegółami dźwiękowymi przy wysokich i niskich częstotliwościach oraz precyzją, do której dąży sama koncepcja dźwięku „hi-fi”.

Psychoakustyka i cechy percepcji

Aby jak najpełniej odpowiedzieć na kilka ważnych pytań dotyczących ostatecznego odbioru informacji dźwiękowej przez człowieka, istnieje cała dziedzina nauki badająca ogromną różnorodność takich aspektów. Ta sekcja nazywa się „psychoakustyką”. Fakt jest taki percepcja słuchowa nie kończy się tylko na funkcjonowaniu narządu słuchu. Po bezpośrednim odbiorze dźwięku przez narząd słuchu (ucho) wchodzi w grę najbardziej złożony i mało zbadany mechanizm analizy otrzymanych informacji, za który w całości odpowiedzialny jest ludzki mózg, który jest tak zaprojektowany że podczas pracy generuje fale o określonej częstotliwości i są one również wyrażane w hercach (Hz). Różne częstotliwości fal mózgowych odpowiadają pewnym stanom człowieka. Okazuje się zatem, że słuchanie muzyki pomaga zmienić dostrojenie częstotliwości mózgu, co należy wziąć pod uwagę podczas słuchania kompozycji muzycznych. W oparciu o tę teorię istnieje również metoda terapii dźwiękiem poprzez bezpośrednie oddziaływanie na stan psychiczny człowieka. Istnieje pięć rodzajów fal mózgowych:

  1. Fale delta (fale poniżej 4 Hz). Odpowiada stanowi głębokiego snu bez snów, przy całkowitym braku wrażeń cielesnych.
  2. Fale Theta (fale 4-7 Hz). Stan snu lub głębokiej medytacji.
  3. Fale alfa (fale 7-13 Hz). Stan odprężenia i odprężenia w czasie czuwania, senności.
  4. Fale beta (fale 13-40 Hz). Stan aktywności, codzienne myślenie i aktywność umysłowa, podniecenie i poznanie.
  5. Fale gamma (fale powyżej 40 Hz). Stan intensywnej aktywności umysłowej, strachu, podniecenia i świadomości.

Psychoakustyka, jako dziedzina nauki, poszukuje odpowiedzi na najciekawsze pytania dotyczące ostatecznego odbioru informacji dźwiękowej przez człowieka. W procesie badania tego procesu ujawnia się ogromna liczba czynników, których wpływ niezmiennie występuje zarówno w procesie słuchania muzyki, jak i w każdym innym przypadku przetwarzania i analizowania wszelkich informacji dźwiękowych. Psychoakustyk bada prawie całą gamę możliwych wpływów, zaczynając od stanu emocjonalnego i psychicznego osoby w momencie słuchania, a kończąc na cechach strukturalnych strun głosowych (jeśli mówimy o osobliwościach postrzegania wszystkich subtelności wokal) oraz mechanizm przetwarzania dźwięku na impulsy elektryczne mózgu. Najciekawsze i najważniejsze czynniki (które koniecznie należy wziąć pod uwagę za każdym razem, gdy słuchasz ulubionych utworów muzycznych, a także budując profesjonalny system audio) zostaną omówione dalej.

Pojęcie współbrzmienia, współbrzmienie muzyczne

Budowa układu słuchowego człowieka jest wyjątkowa przede wszystkim mechanizmem percepcji dźwięków, nieliniowością narządu słuchowego oraz możliwością grupowania dźwięków według wysokości z dość dużą dokładnością. Bardzo interesująca funkcja W percepcji można zauważyć nieliniowość układu słuchowego, która objawia się pojawieniem się dodatkowych, nieistniejących (w tonie podstawowym) harmonicznych, szczególnie często objawiających się u osób o tonie muzycznym lub absolutnym. Jeśli zatrzymamy się bardziej szczegółowo i przeanalizujemy wszystkie subtelności percepcji dźwięku muzycznego, wówczas można łatwo rozróżnić pojęcie „współbrzmienia” i „dysonansu” różnych akordów i interwałów dźwiękowych. Pojęcie "współbrzmienie" zdefiniowana jako spółgłoska (od Francuskie słowo„umowa”) brzmią i odpowiednio odwrotnie, "dysonans"- niezgodny, niezgodny dźwięk. Pomimo różnorodności różne interpretacje Pojęcia te są charakterystyką interwałów muzycznych, najwygodniej jest zastosować dekodowanie „muzyczno-psychologiczne” terminów: współbrzmienie jest definiowany i odczuwany przez osobę jako przyjemny i wygodny, miękki dźwięk; dysonans z drugiej strony można go scharakteryzować jako dźwięk wywołujący irytację, niepokój i napięcie. Taka terminologia ma charakter nieco subiektywny, a ponadto w całej historii rozwoju muzyki za „spółgłoskę” przyjmowano zupełnie inne interwały i odwrotnie.

Współcześnie również te pojęcia są trudne do jednoznacznego postrzegania, gdyż istnieją różnice między ludźmi o różnych preferencjach i gustach muzycznych, a także nie ma ogólnie przyjętej i uzgodnionej koncepcji harmonii. Psychoakustyczne podstawy postrzegania różnych interwałów muzycznych jako spółgłoskowych lub dysonansowych zależą bezpośrednio od koncepcji „pasma krytycznego”. Zespół krytyczny- jest to pewne pasmo, w którym wrażenia słuchowe zmieniają się radykalnie. Szerokość pasm krytycznych zwiększa się proporcjonalnie wraz ze wzrostem częstotliwości. Zatem odczucie współbrzmień i dysonansów jest bezpośrednio związane z obecnością pasm krytycznych. Narząd słuchu człowieka (ucho), jak wspomniano wcześniej, na pewnym etapie analizy fal dźwiękowych pełni rolę filtra środkowoprzepustowego. Rolę tę przypisuje się błonie podstawnej, na której zlokalizowane są 24 pasma krytyczne o szerokościach zależnych od częstotliwości.

Zatem współbrzmienie i niespójność (konsonans i dysonans) zależą bezpośrednio od rozdzielczości układu słuchowego. Okazuje się, że jeśli dwa różne tony brzmią zgodnie lub różnica częstotliwości wynosi zero, to jest to idealna współbrzmienie. Ta sama współbrzmienie występuje, jeśli różnica częstotliwości jest większa niż pasmo krytyczne. Dysonans występuje tylko wtedy, gdy różnica częstotliwości wynosi od 5% do 50% pasma krytycznego. Najwyższy stopień dysonansu w danym segmencie słychać, gdy różnica wynosi jedną czwartą szerokości pasma krytycznego. Na tej podstawie łatwo jest przeanalizować dowolne mieszane nagranie muzyczne i kombinację instrumentów pod kątem współbrzmienia lub dysonansu dźwięku. Nietrudno zgadnąć, jak dużą rolę odgrywają w tym przypadku inżynier dźwięku, studio nagraniowe i inne elementy finalnej ścieżki dźwiękowej, cyfrowej lub analogowej, a to wszystko jeszcze przed próbą odtworzenia jej na sprzęcie odtwarzającym dźwięk.

Lokalizacja dźwięku

System obuusznego słyszenia i lokalizacji przestrzennej pomaga człowiekowi dostrzec pełnię przestrzennego obrazu dźwiękowego. Ten mechanizm percepcji realizowany jest poprzez dwa odbiorniki słuchowe i dwa kanały słuchowe. Informacje dźwiękowe docierające tymi kanałami są następnie przetwarzane w peryferyjnej części układu słuchowego i poddawane analizie widmowo-czasowej. Ponadto informacje te są przekazywane do wyższych części mózgu, gdzie porównuje się różnicę między lewym i prawym sygnałem dźwiękowym i powstaje pojedynczy obraz dźwiękowy. Opisany mechanizm nazywa się słuch obuuszny. Dzięki temu osoba ma następujące unikalne zdolności:

1) lokalizacja sygnałów dźwiękowych z jednego lub więcej źródeł, tworząc w ten sposób przestrzenny obraz percepcji pola dźwiękowego
2) separacja sygnałów pochodzących z różnych źródeł
3) wyróżnianie jednych sygnałów na tle innych (np. izolowanie mowy i głosu od hałasu lub brzmienia instrumentów)

Lokalizacja przestrzenna jest łatwa do obserwacji prosty przykład. Na koncercie, na którym scena i określona liczba muzyków znajdują się w określonej odległości od siebie, można łatwo (w razie potrzeby, nawet zamykając oczy) określić kierunek dochodzenia sygnału dźwiękowego każdego instrumentu, ocenić głębokość i przestrzenność pola dźwiękowego. W ten sam sposób ceniony jest dobry system hi-fi, który jest w stanie niezawodnie „odtworzyć” takie efekty przestrzenności i lokalizacji, w ten sposób faktycznie „oszukując” mózg, aby poczuł pełną obecność podczas występu ulubionego wykonawcy na żywo. O lokalizacji źródła dźwięku decydują zwykle trzy główne czynniki: czas, intensywność i widmo. Niezależnie od tych czynników istnieje wiele wzorców, które można wykorzystać do zrozumienia podstaw dotyczących lokalizacji dźwięku.

Największy efekt lokalizacji odbierany przez ludzki słuch występuje w obszarze średnich częstotliwości. Jednocześnie prawie niemożliwe jest określenie kierunku dźwięków o częstotliwościach powyżej 8000 Hz i poniżej 150 Hz. Ten ostatni fakt jest szczególnie szeroko stosowany w systemach hi-fi i kinie domowym przy wyborze lokalizacji subwoofera (sekcji niskich częstotliwości), którego lokalizacja w pomieszczeniu, ze względu na brak lokalizacji częstotliwości poniżej 150 Hz, jest praktycznie nieistotne, a słuchacz i tak ma całościowy obraz sceny dźwiękowej. Dokładność lokalizacji zależy od lokalizacji źródła promieniowania fali dźwiękowej w przestrzeni. Zatem największą dokładność lokalizacji dźwięku obserwuje się w płaszczyźnie poziomej, osiągając wartość 3°. W płaszczyźnie pionowej ludzki układ słuchowy znacznie gorzej określa kierunek źródła, dokładność w tym przypadku wynosi 10-15° (ze względu na specyficzną budowę uszu i skomplikowaną geometrię). Dokładność lokalizacji różni się nieznacznie w zależności od kąta ustawienia obiektów emitujących dźwięk w przestrzeni względem słuchacza, a na efekt końcowy wpływa także stopień dyfrakcji fal dźwiękowych od głowy słuchacza. Należy również zauważyć, że sygnały szerokopasmowe są lokalizowane lepiej niż szum wąskopasmowy.

Znacznie ciekawsza jest sytuacja z określeniem głębi dźwięku kierunkowego. Na przykład osoba może określić odległość do obiektu za pomocą dźwięku, jednak dzieje się tak w większym stopniu ze względu na zmiany ciśnienia akustycznego w przestrzeni. Zazwyczaj im dalej obiekt znajduje się od słuchacza, tym bardziej fale dźwiękowe w wolnej przestrzeni są tłumione (w pomieszczeniu dodawany jest wpływ odbitych fal dźwiękowych). Można zatem stwierdzić, że dokładność lokalizacji jest większa w zamkniętym pomieszczeniu właśnie ze względu na występowanie pogłosu. Fale odbite powstające w zamkniętych przestrzeniach pozwalają na uzyskanie tak ciekawych efektów jak poszerzenie sceny dźwiękowej, obwiedzenie itp. Zjawiska te są możliwe właśnie dzięki czułości trójwymiarowej lokalizacji dźwięku. Główne zależności określające poziomą lokalizację dźwięku: 1) różnica w czasie przybycia fali dźwiękowej do lewego i prawego ucha; 2) różnice w natężeniu spowodowane dyfrakcją na głowie słuchacza. Aby określić głębokość dźwięku, ważna jest różnica poziomu ciśnienia akustycznego i różnica w składzie widmowym. Lokalizacja w płaszczyźnie pionowej jest również silnie zależna od dyfrakcji w małżowinie usznej.

Sytuacja jest bardziej skomplikowana w przypadku nowoczesnych systemów dźwięku przestrzennego opartych na technologii Dolby surround i analogach. Wydawać by się mogło, że zasady konstruowania systemów kina domowego jasno regulują sposób odtworzenia dość naturalistycznego obrazu przestrzennego dźwięku 3D z nieodłączną wolumenem i lokalizacją źródeł pozornych w przestrzeni. Jednak nie wszystko jest tak trywialne, ponieważ zwykle nie bierze się pod uwagę samych mechanizmów percepcji i lokalizacji dużej liczby źródeł dźwięku. Przetwarzanie dźwięku przez narządy słuchu polega na procesie dodawania sygnałów z różnych źródeł docierających do różnych uszu. Co więcej, jeśli struktura fazowa różnych dźwięków jest mniej więcej synchroniczna, proces taki jest odbierany przez ucho jako dźwięk pochodzący z jednego źródła. Istnieje również szereg trudności, w tym specyfika mechanizmu lokalizacji, która utrudnia dokładne określenie kierunku źródła w przestrzeni.

W związku z powyższym najtrudniejszym zadaniem staje się oddzielenie dźwięków pochodzących z różnych źródeł, szczególnie jeśli te różne źródła odtwarzają sygnał o podobnej amplitudzie i częstotliwości. I tak właśnie dzieje się w praktyce w każdym nowoczesnym systemie dźwięku przestrzennego, a nawet w konwencjonalnym systemie stereo. Kiedy dana osoba słucha dużej liczby dźwięków pochodzących z różnych źródeł, pierwszym krokiem jest ustalenie, czy każdy konkretny dźwięk należy do źródła, które je tworzy (grupowanie według częstotliwości, wysokości, barwy). I dopiero w drugim etapie słuch próbuje zlokalizować źródło. Następnie przychodzące dźwięki dzielone są na strumienie w oparciu o charakterystykę przestrzenną (różnica w czasie dotarcia sygnałów, różnica w amplitudzie). Na podstawie otrzymanych informacji powstaje mniej lub bardziej statyczny i utrwalony obraz słuchowy, na podstawie którego można określić, skąd pochodzi dany konkretny dźwięk.

Bardzo wygodnie jest prześledzić te procesy na przykładzie zwykłej sceny, na której na stałe rozmieszczeni są muzycy. Jednocześnie bardzo ciekawe jest to, że jeśli wokalista/wykonawca, zajmujący początkowo określoną pozycję na scenie, zacznie płynnie poruszać się po scenie w dowolnym kierunku, wcześniej utworzony obraz słuchowy nie ulegnie zmianie! Określenie kierunku dźwięku wydobywającego się z wokalisty pozostanie subiektywnie takie samo, jakby stał w tym samym miejscu, w którym stał przed wykonaniem ruchu. Dopiero w przypadku nagłej zmiany miejsca wykonawcy na scenie, powstały obraz dźwiękowy ulegnie rozszczepieniu. Oprócz omawianej problematyki i złożoności procesów lokalizacji dźwięków w przestrzeni, w przypadku wielokanałowych systemów surround, dość dużą rolę odgrywa proces pogłosu w końcowym pomieszczeniu odsłuchowym. Zależność tę najwyraźniej widać, gdy duża liczba odbite dźwięki dochodzą ze wszystkich stron – dokładność lokalizacji znacznie się pogarsza. Jeżeli nasycenie energią fal odbitych jest większe (przeważające) od dźwięków bezpośrednich, kryterium lokalizacji w takim pomieszczeniu staje się niezwykle niejasne i niezwykle trudno (jeśli nie niemożliwe) jest mówić o dokładności określenia takich źródeł.

Natomiast w pomieszczeniu silnie pogłosowym teoretycznie występuje lokalizacja, w przypadku sygnałów szerokopasmowych słuchem kieruje się parametrem różnicy intensywności. W tym przypadku kierunek określa się za pomocą składowej widma o wysokiej częstotliwości. W każdym pomieszczeniu dokładność lokalizacji będzie zależała od czasu dotarcia dźwięków odbitych po dźwiękach bezpośrednich. Jeśli odstęp między tymi sygnałami dźwiękowymi jest zbyt mały, „prawo fali bezpośredniej” zaczyna działać, aby pomóc systemowi słuchowemu. Istota tego zjawiska: jeśli dźwięki o krótkim czasie opóźnienia dochodzą z różnych kierunków, to lokalizacja całego dźwięku następuje według pierwszego dochodzącego dźwięku, tj. ucho w pewnym stopniu ignoruje dźwięk odbity, jeśli pojawia się zbyt wcześnie po dźwięku bezpośrednim. Podobny efekt pojawia się także przy określeniu kierunku dochodzenia dźwięku w płaszczyźnie pionowej, jednak w tym przypadku jest on znacznie słabszy (ze względu na zauważalnie większą wrażliwość układu słuchowego na lokalizację w płaszczyźnie pionowej).

Istota efektu pierwszeństwa jest znacznie głębsza i ma raczej charakter psychologiczny niż fizjologiczny. Przeprowadzono dużą liczbę eksperymentów, na podstawie których ustalono zależność. Efekt ten występuje przede wszystkim wtedy, gdy czas wystąpienia echa, jego amplituda i kierunek pokrywają się z niektórymi „oczekiwaniami” słuchacza co do tego, jak akustyka danego pomieszczenia kształtuje obraz dźwiękowy. Być może dana osoba miała już doświadczenie słuchowe w tym lub podobnym pomieszczeniu, co predysponuje narząd słuchowy do wystąpienia „oczekiwanego” efektu pierwszeństwa. Aby ominąć te ograniczenia tkwiące w ludzkim słuchu, w przypadku kilku źródeł dźwięku stosuje się różne triki i triki, za pomocą których ostatecznie kształtuje się mniej lub bardziej wiarygodna lokalizacja instrumentów muzycznych/innych źródeł dźwięku w przestrzeni. Ogólnie rzecz biorąc, reprodukcja obrazów dźwiękowych stereo i wielokanałowych opiera się na wielkim oszustwie i tworzeniu iluzji słuchowej.

Kiedy dwa lub większa liczba Systemy głośnikowe (na przykład 5.1 lub 7.1, a nawet 9.1) odtwarzają dźwięk z różnych punktów pomieszczenia, podczas gdy słuchacz słyszy dźwięki dochodzące z nieistniejących lub wyimaginowanych źródeł, dostrzegając pewną panoramę dźwiękową. Możliwość tego oszustwa leży w biologicznych cechach ludzkiego ciała. Najprawdopodobniej dana osoba nie miała czasu przyzwyczaić się do rozpoznania takiego oszustwa, ponieważ zasady „sztucznego” odtwarzania dźwięku pojawiły się stosunkowo niedawno. Ale choć proces tworzenia wyimaginowanej lokalizacji okazał się możliwy, realizacja nadal jest daleka od doskonałości. Faktem jest, że ucho tak naprawdę odbiera źródło dźwięku tam, gdzie tak naprawdę go nie ma, jednak dużym pytaniem jest poprawność i dokładność przekazania informacji dźwiękowej (w szczególności barwy). Poprzez liczne eksperymenty w rzeczywistych komorach pogłosowych i komorach bezechowych ustalono, że barwa fal dźwiękowych pochodzących ze źródeł rzeczywistych i urojonych jest inna. Wpływa to głównie na subiektywne postrzeganie głośności widmowej, w tym przypadku barwa zmienia się w sposób znaczący i zauważalny (w porównaniu z podobnym dźwiękiem odtwarzanym przez prawdziwe źródło).

W przypadku wielokanałowych systemów kina domowego poziom zniekształceń jest zauważalnie wyższy z kilku powodów: 1) Wiele sygnałów dźwiękowych o podobnych charakterystykach amplitudowo-częstotliwościowych i fazowych dociera jednocześnie z różnych źródeł i kierunków (w tym fal odbitych) do każdego ucha kanał. Prowadzi to do zwiększonych zniekształceń i pojawienia się filtracji grzebieniowej. 2) Silna separacja głośników w przestrzeni (względem siebie; w systemach wielokanałowych odległość ta może wynosić kilka metrów lub więcej) przyczynia się do wzrostu zniekształceń barwy i podbarwień dźwięku w obszarze urojonego źródła. W rezultacie można powiedzieć, że podbarwienie barwy w systemach wielokanałowych i surround w praktyce zachodzi z dwóch powodów: zjawiska filtracji grzebieniowej oraz wpływu procesów pogłosowych w konkretnym pomieszczeniu. Jeżeli za reprodukcję informacji dźwiękowej odpowiada więcej niż jedno źródło (dotyczy to również zestawu stereo z 2 źródłami), pojawienie się efektu „filtru grzebieniowego” spowodowanego w innych czasach pojawienie się fal dźwiękowych w każdym kanale słuchowym. Szczególne nierówności obserwujemy w zakresie wyższej średnicy 1-4 kHz.

Analizator słuchu Ludzki mózg to wyspecjalizowany system percepcji wibracji dźwiękowych, tworzenia wrażeń słuchowych i rozpoznawania obrazów dźwiękowych. Aparatem pomocniczym części peryferyjnej analizatora jest ucho (ryc. 15).

Istnieje ucho zewnętrzne, które obejmuje małżowinę uszną, kanał słuchowy zewnętrzny i błonę bębenkową; ucho środkowe, składające się z układu połączonych ze sobą kosteczek słuchowych - młotek, kowadło i strzemiączek oraz ucho wewnętrzne, do którego zalicza się ślimak, w którym zlokalizowane są receptory odbierające wibracje dźwiękowe, a także przedsionek i kanały półkoliste. Kanały półkoliste reprezentują obwodową część receptorową analizatora przedsionkowego, co zostanie omówione osobno.

Ucho zewnętrzne jest zaprojektowane w taki sposób, że dostarcza energię dźwiękową do błony bębenkowej. Za pomocą małżowiny usznej następuje stosunkowo niewielka koncentracja tej energii, a przewód słuchowy zewnętrzny zapewnia utrzymanie stałej temperatury i wilgotności, jako czynników decydujących o stabilności aparatu przekazującego dźwięk.

Błona bębenkowa to cienka membrana o grubości około 0,1 milimetra, zbudowana z włókien biegnących w różnych kierunkach. Funkcję błony bębenkowej dobrze odzwierciedla jej nazwa - zaczyna ona wibrować, gdy spadną na nią wibracje dźwiękowe powietrza z zewnętrznego przewodu słuchowego. Jednocześnie jego konstrukcja pozwala na transmisję niemal bez zniekształceń wszystkich częstotliwości zakresu audio. Układ kosteczek słuchowych zapewnia przenoszenie wibracji z błony bębenkowej do ślimaka.

Receptory zapewniające percepcję drgań dźwiękowych znajdują się w uchu wewnętrznym – w ślimaku (ryc. 16). Nazwa ta związana jest ze spiralnym kształtem tej formacji, składającym się z 2,5 zwojów.

W kanale środkowym ślimaka, na błonie głównej, znajduje się narząd Cortiego (nazwany na cześć włoskiego anatoma Cortiego, 1822-1888). W tym narządzie znajduje się aparat receptorowy analizatora słuchowego (ryc. 17).

Jak powstaje wrażenie dźwięku? Pytanie, które wciąż przyciąga szczególną uwagę badaczy. Po raz pierwszy (1863) bardzo przekonującą interpretację procesów zachodzących w uchu wewnętrznym przedstawił niemiecki fizjolog Hermann Ludwig Ferdinand Helmholtz, który opracował tzw. Teorię rezonansu. Zauważył, że błonę główną ślimaka tworzą włókna biegnące w kierunku poprzecznym. Długość takich włókien zwiększa się w kierunku wierzchołka ślimaka. Ukazuje to analogię pomiędzy pracą tych organów a harfą, w której różną tonację uzyskuje się za pomocą różnej długości strun. Według Helmholtza pod wpływem wibracji dźwiękowych specyficzne włókno odpowiedzialne za odbiór danej częstotliwości wchodzi w rezonans. Teoria bardzo urzekająca w swojej prostocie i kompletności, ale z której niestety trzeba było porzucić, gdyż okazało się, że w membranie głównej było za mało strun – włókien, aby odtworzyć wszystkie częstotliwości słyszalne dla człowieka, struny te też były rozciągnięte luźno, a poza tym były izolowane wahania nie są możliwe. Trudności te dla teorii rezonansu okazały się nie do pokonania, ale stały się impulsem do dalszych badań.

Według współczesnych koncepcji przenoszenie i odtwarzanie wibracji dźwiękowych są zdeterminowane właściwościami rezonansowymi częstotliwości wszystkich ośrodków ślimaka. Za pomocą bardzo pomysłowych eksperymentów odkryto, że przy niskich częstotliwościach oscylacji (100-150 herców, może nieco wyższych, ale nie większych niż 1000 herców) proces falowy obejmuje całą błonę główną, wszystkie receptory narządu Cortiego znajdujące się na tej membranie są wzbudzone. Wraz ze wzrostem częstotliwości fal dźwiękowych w procesie oscylacyjnym bierze udział tylko część głównej membrany, a im mniej, tym wyższy dźwięk. W tym przypadku maksimum rezonansu przesuwa się w stronę podstawy ślimaka.

Nie zastanawialiśmy się jednak jeszcze nad tym, w jaki sposób energia drgań mechanicznych przekształca się w proces pobudzenia nerwowego. Aparat receptorowy analizatora słuchowego reprezentowany jest przez swoiste komórki rzęsate, które są typowymi mechanoreceptorami, czyli dla których energia mechaniczna, w tym przypadku ruchy oscylacyjne, służy jako odpowiedni bodziec. Specyficzną cechą komórek rzęsatych jest obecność na ich wierzchołku włosków, które mają bezpośredni kontakt z błoną powłokową. W narządzie Cortiego znajduje się jeden rząd (3,5 tys.) wewnętrznych i 3 rzędy (12 tys.) zewnętrznych komórek rzęsatych, które różnią się stopniem wrażliwości. Do pobudzenia komórek wewnętrznych potrzeba więcej energii i jest to jeden z mechanizmów narządu słuchu pozwalający na odbieranie bodźców dźwiękowych w szerokim zakresie natężeń.

Kiedy w ślimaku zachodzi proces oscylacyjny w wyniku ruchów błony głównej, a wraz z nią narządu Cortiego, następuje deformacja włosów przylegających do błony powłokowej. Odkształcenie to stanowi punkt wyjścia w łańcuchu zjawisk prowadzących do pobudzenia komórek receptorowych. W specjalnym eksperymencie odkryto, że jeśli podczas prezentacji sygnału dźwiękowego bioprądy zostaną odwrócone od powierzchni komórek rzęsatych, a następnie, wzmacniając je, doprowadzone do głośnika, znajdziemy dość dokładne odwzorowanie dźwięku sygnał. Ta reprodukcja dotyczy wszystkich częstotliwości, w tym ludzki głos. Czy nie jest to dość bliskie porównanie z mikrofonem? Stąd wzięła się nazwa – potencjał mikrofonu. Udowodniono, że to zjawisko bioelektryczne reprezentuje potencjał receptorowy. Wynika z tego, że komórka receptora włosa dość dokładnie (do pewnej granicy natężenia) poprzez parametry potencjału receptora oddaje parametry ekspozycji na dźwięk – częstotliwość, amplitudę i kształt.

Podczas badania elektrofizjologicznego włókien nerwu słuchowego, które bezpośrednio zbliżają się do struktur narządu Cortiego, rejestrowane są impulsy nerwowe. Warto zauważyć, że częstotliwość takich impulsów zależy od częstotliwości działających drgań dźwiękowych. Jednocześnie do 1000 herców praktycznie się pokrywają. Chociaż wyższe częstotliwości nie są rejestrowane w nerwie, pozostaje pewna ilościowa zależność pomiędzy częstotliwościami bodźca dźwiękowego i impulsów doprowadzających.

Zapoznaliśmy się więc z właściwościami ucha ludzkiego i mechanizmami działania receptorów analizatora słuchowego pod wpływem drgań dźwiękowych w powietrzu. Ale transmisja jest możliwa nie tylko drogą powietrzną, ale poprzez tzw. przewodnictwo kostne. W tym drugim przypadku drgania (np. kamerton) przenoszone są przez kości czaszki i następnie, omijając ucho środkowe, przedostają się bezpośrednio do ślimaka. Choć w tym przypadku sposób dostarczania energii akustycznej jest inny, mechanizm jej oddziaływania z komórkami receptorowymi pozostaje ten sam. To prawda, że ​​relacje ilościowe są również nieco inne. Ale w obu przypadkach pobudzenie, które początkowo powstało w receptorze i niesie pewne informacje, jest przekazywane wzdłuż struktur nerwowych do wyższych ośrodków słuchowych.

W jaki sposób kodowana jest informacja o takich parametrach drgań dźwięku, jak częstotliwość i amplituda? Po pierwsze, o częstotliwości. Najwyraźniej zwróciłeś uwagę na osobliwe zjawisko bioelektryczne - potencjał mikrofonowy ślimaka. Przecież zasadniczo wskazuje, że w znacznym zakresie wahania potencjału receptora (i odzwierciedlają pracę receptora zarówno w percepcji, jak i późniejszej transmisji) prawie dokładnie odpowiadają częstotliwości wibracje dźwiękowe. Jednak, jak już wspomniano, we włóknach nerwu słuchowego, czyli we włóknach odbierających informacje z receptorów, częstotliwość impulsów nerwowych nie przekracza 1000 wibracji na sekundę. A to znacznie mniej niż częstotliwości odbieranych dźwięków w rzeczywistych warunkach. Jak rozwiązuje się ten problem w układzie słuchowym? Wcześniej, przyglądając się pracy organu Cortiego, zauważyliśmy, że przy niskich częstotliwościach ekspozycji na dźwięk wibruje cała główna membrana. W rezultacie wszystkie receptory zostają pobudzone, a częstotliwość wibracji przekazywana jest w niezmienionej postaci do włókien nerwu słuchowego. Przy wysokich częstotliwościach w procesie oscylacyjnym bierze udział tylko część błony głównej, a co za tym idzie, tylko część receptorów. Przekazują wzbudzenie do odpowiedniej części włókien nerwowych, ale z transformacją rytmu. W tym przypadku pewna część włókien odpowiada określonej częstotliwości. Zasada ta nazywana jest metodą kodowania przestrzennego. Zatem informacja o częstotliwości jest dostarczana poprzez kodowanie częstotliwościowo-przestrzenne.

Wiadomo jednak, że zdecydowana większość prawdziwe dźwięki odbierane przez nas, w tym sygnały mowy, nie są regularnymi oscylacjami sinusoidalnymi, ale procesami, które mają znacznie bardziej złożoną postać. Jak w tym przypadku zapewniony jest transfer informacji? Na początku XIX wieku wybitny francuski matematyk Jean Baptiste Fourier opracował oryginalną metodę matematyczną, która pozwala przedstawić dowolną funkcję okresową jako sumę wielu składowych sinusoidalnych (szereg Fouriera). Za pomocą rygorystycznych metod matematycznych udowodniono, że składowe te mają okresy równe T, T/2, T/3 itd., czyli innymi słowy, mają częstotliwości będące wielokrotnościami częstotliwości podstawowej. A niemiecki fizyk Georg Simon Ohm (którego wszyscy bardzo dobrze znają ze swojego prawa w elektrotechnice) w 1847 roku wysunął pogląd, że właśnie taki rozkład zachodzi w narządzie Cortiego. Tak pojawiło się kolejne prawo Ohma, które odzwierciedla bardzo ważny mechanizm percepcji dźwięku. Dzięki swoim właściwościom rezonansowym główna membrana rozkłada złożony dźwięk na jego składowe, z których każdy jest odbierany przez odpowiedni aparat neuroreceptorowy. Zatem przestrzenny wzór wzbudzenia niesie informację o widmie częstotliwości złożonych wibracji dźwiękowych.

Do przekazywania informacji o natężeniu dźwięku, czyli amplitudzie drgań, analizator słuchowy posiada mechanizm, który również różni się od działania innych układów doprowadzających. Najczęściej informację o natężeniu przekazuje częstotliwość impulsów nerwowych. Jednak w układzie słuchowym, jak wynika z omówionych procesów, metoda ta jest niemożliwa. Okazuje się, że w tym przypadku stosowana jest zasada kodowania przestrzennego. Jak już wspomniano, wewnętrzne komórki rzęsate mają niższą czułość niż zewnętrzne komórki rzęsate. Zatem różne natężenia dźwięku odpowiadają różnym kombinacjom wzbudzonych receptorów tych dwóch typów, czyli specyficznej formie przestrzennego wzorca wzbudzenia.

W analizatorze słuchowym kwestia konkretnych detektorów (co dobrze wyraża się w systemie wzrokowym) pozostaje nadal otwarta, jednak i tutaj istnieją mechanizmy, które pozwalają wyodrębnić coraz bardziej złożone cechy, co ostatecznie kończy się powstaniem taki wzór wzbudzenia, który odpowiada pewnemu subiektywnemu obrazowi, identyfikowanemu przez odpowiedni „standard”.