„Mogliśmy zupełnie inaczej pracować z instrumentami i mikrofonami, a było ich na scenie prawie sto. Ta produkcja wymagała nieporównywalnie większego przygotowania, niż gdyby nagłośnienie było standardowe, ale efekt był tego wart. Publiczność słuchała w pełnym skupieniu, a artysta był zadowolony z brzmienia. Smutno będzie teraz zrealizować jakiś koncert w normalnym systemie lewo-prawo…”.
Przemysław Naguszewski, odpowiedzialny za realizację dźwięku podczas koncertu jubileuszowego Zbigniewa Presinera w Krakowie
Słuchacz biorący udział w koncercie czy innym wydarzeniu, w którym muzyka odgrywa istotną rolę, jest nie tylko słuchaczem, ale też widzem. Pragniemy odbierać wydarzenie wszystkimi zmysłami, lub chociaż dwoma najważniejszymi – wzrokiem i słuchem. Technologia wykorzystywana w produkcji koncertów powinna nam na to pozwalać. Dotychczas nie było to możliwe, ale za rozrostem scen, efektów wizualnych, skuteczności systemów nagłośnieniowych, poszedł wreszcie rozrost technologii pozwalającej na bardziej subtelną produkcję muzyczną.
Temat identyfikacji źródła fizycznego, na przykład na scenie, lub wirtualnego gdzieś w przestrzeni, zaczął się, gdy źródła te mogły być przetwarzane do zapisu czy edytowane w postprodukcji. Źródło zarejestrowane przy pomocy jednego mikrofonu, w czasie, gdy jedynym dostępnym sposobem zapisu był zapis mono, nie uwierał jego twórców ani użytkowników, ponieważ nikt nie wiedział, że powstanie technologia stereo. Z każdym aspektem naszego życia jest dokładnie tak samo – nie brakowało nam kolorowych wyświetlaczy do czasu, gdy pojawiły się pierwsze z nich. Nie brakowało nam dotykowych wyświetlaczy do czasu, gdy się pojawiły. Jak większość technologii, które hucznie wchodzą do codziennego używania, technologia stereo w rozwiązaniach koncertowych szybko została zweryfikowana z takim wynikiem, jak technologia 3D w telewizorach, gdzie kosztem miernego efektu jest konieczność zakładania niewygodnych okularów i oglądanie materiału w mało komfortowej skali barw. Nie brakuje nam zatem technologii, która pozwalałaby uczestnikowi dużego koncertu precyzyjnie zlokalizować źródło dźwięku (na przykład grającego solówkę Keitha Richardsa) „na ucho”. I nie będzie nam jej brakować, dopóki się ona nie pojawi. Otóż wszystko wskazuje na to, że właśnie się pojawiła.
Wyobraźmy sobie standardowy koncert z systemem nagłośnieniowym o kącie propagacji horyzontalnej od 90 do 100 stopni. Doznania stereo w przypadku takiej konfiguracji odbierze jedynie ta część widowni, dla której płaszczyzna propagacji systemu przetnie się z płaszczyzną widowni na wysokości ucha (tzw. sweet spot). Przy bardzo sprzyjających okolicznościach obszar ten nie będzie zawierał więcej niż jedną trzecią widowni. Ludzie przebywający poza tym obszarem doświadczą dwóch różnych miksów mono – jednego naprzeciw lewej strony systemu i drugiego naprzeciw prawej strony. Ostatecznie bardzo często realizatorzy serwują nam w ramach demokracji miks prawie mono ze stereofonicznymi efektami, lecz bez skrajnych panoram dla głównych instrumentów. Następstwem miksu „prawie mono” jest jego emisja wszystkimi elementami systemu. Nasze uszy rozłożone są w płaszczyźnie poziomej, dzięki czemu mamy dość dużą rozdzielczość identyfikacji kierunku, z którego dociera dźwięk. Nasz mózg jest dość zdezorientowany widząc na przykład gitarzystę grającego solo na środku sceny, a słysząc to solo z tej strony systemu, którą mamy fizycznie bliżej siebie.
Po tym jak format stereo wszedł na całego do nośników, przetworników, domowych systemów Hi-Fi oraz systemów nagłośnieniowych, naturalnym następstwem stało się kreatywne korzystanie z dobrodziejstw tej technologii. Inżynierowie rozpoczęli eksperymenty z obejmowaniem publiczności przy pomocy dźwięku, co wydało na świat rozwiązania takie jak quadro czy surround, przy pomocy których można kreować przestrzeń głownie pod względem efektów dynamicznych, jak przeloty źródeł dookoła nas, lub efektów imitujących akustykę słuchanego koncertu czy sceny w oglądanym filmie. W rozwiązaniach koncertowych do całości dochodzą problemy takie jak opóźnienie wynikające z czasu propagacji dźwięku w powietrzu czy precedens wyprzedzenia sygnału bezpośredniego przez pogłos. Oczywiście niedogodności wspomniane wcześniej przy temacie stereofonii pozostają aktualne dla rozwiązań wielokanałowych typu quadro czy surround niezależnie od ilości kanałów, więc w zależności od rozmiaru sceny wrażenie faktycznego obrazu dźwiękowego będzie wynikało z rozdzielenia tego, co widzimy od tego, co słyszymy.
Jeszcze zanim było wiadome, że technologia stereo nigdy nie odda faktycznego obrazu dźwiękowego dla większej części widowni niż ta, która znajduje się w sweet spocie, A.J. Berkhout opisał technologię umożliwiającą reprodukcję dowolnego obrazu dźwiękowego dla obszaru publiczności, który jest znacznie mniej ograniczony niż wcześniej wspomniany sweet spot. Nazwa tej technologii brzmi równie poważnie jak poważna jest stojąca za nią nauka. Mowa o Syntezie Pola Falowego (ang. Wave Field Synthesis).
Wykorzystanie tej technologii w praktyce zaczęło się kluć kilka lat temu w siedzibie francuskiej firmy L-Acoustics, lidera profesjonalnych systemów nagłośnieniowych dla biznesu rozrywkowego. Pomysłodawcą był twórca firmy, pasjonat dźwięku, fizyk z wykształcenia, Christian Heil. Idea stworzenia systemu L-ISA powstała po tym, jak twórca wybrał się na koncert francuskiej gwiazdy, która po latach wróciła na scenę. Niestety zamiast cieszyć się głosem i widokiem bohatera koncertu, zmagał się z tym, by w ogóle zobaczyć wykonawcę między oślepiającymi strumieniami świateł i rozbudowaną realizacją multimediów. Zawiązał on w swojej firmie zespół, którego odpowiedzialność ograniczała się prostego w teorii celu: stworzenia koncertowego systemu nagłośnieniowego, który pozwoli przekazać dźwięk tak, jak on jest emitowany przez artystów. Tak powstała technologia hiperrealistycznego dźwięku immersyjnego L-Acoustics L-ISA.
Technologia L-ISA oparta jest na zwielokrotnieniu źródeł dźwięku (w uproszczeniu: głośników) oraz dodaniu procesora cyfrowego, który steruje kierowaniem sygnałów do właściwych źródeł. Pozwala ona na tak subtelne i szczegółowe doznania dźwiękowego, jakie do tej pory nie były możliwe. Dzięki niej publivczność może usłyszeć dokładnie to, co widzi na scenie. Technologia ta nie wymaga specjalnego typu urządzeń głośnikowych, lecz specjalnego procesora oraz przede wszystkim certyfikowanych przez L-Acoustics umiejętności z zakresu obsługi systemu i realizacji dźwięku. Autor artykułu inż. Jerzy Kubiak jest pierwszym w Polsce inżynierem certyfikowanym do pracy z L-ISA.
Przeczytaj pełny artykuł Jerzego Kubiaka pt. „Od stereofonii do hiperrealizmu. Koncertowy dźwięk przestrzenny L-Acoustics L-ISA” na stronie audioplus/l-isa.
Autor: Inż. Jerzy Kubiak