Pierwotna wersja tekstu wygłoszona została podczas I Studenckiej Konferencji Naukowej "AM-biwalencja" - Wymiary ciszy i hałasu (26-27.02.2024).
Muzyka i sztuka zaczynają się w tym samym punkcie, tam gdzie zaczyna się cywilizacja, a źródłem tego jest quasimityczna postać Pitagorasa.[1]

1. Wstęp
Niebo od zarania dziejów było obiektem zainteresowania ludzi i zainspirowało wielu uczonych do poczynienia istotnych odkryć. Wszystkie mają swój początek w filozofii Pitagorasa wierzącego, że niebo gra harmonijne dźwięki. Ta z pozoru nieracjonalna koncepcja (gdyż kosmos sam w sobie jest przestrzenią ciszy), badana z wykorzystaniem obecnego stanu wiedzy o wszechświecie, nabiera wielkiego znaczenia i staje się zarodkiem dla rewolucyjnych odkryć, pomagających lepiej zrozumieć jego działanie. Metodą, która umożliwia zmierzyć ciszę animacji kosmicznej jest sonifikacja. Wraz z jej użyciem rodzi się pytanie: czym są produkty takiego procesu i w jakiej zależności pozostają z elementami dzieła muzycznego? Czy hałas wytworzony z niemej animacji kosmosu może zyskać miano utworu muzycznego?
2. Harmonia wszechświata
Pitagoras twierdził, że istnieją trzy typy muzyki: mundana (muzyka tworzona przez kosmos, inaczej nazywana harmonią sfer), humana (muzyka duszy i ciała) i instrumentalis (muzyka, którą słyszymy podczas grania na instrumentach). Uczony był zwolennikiem matematycznego postrzegania świata, uważał liczbę za początek wszystkich rzeczy, a liczba była wyrażana przez proporcję. Liczbą była muzyka, muzyką zaś kosmos. Samo niebo postrzegał jako skalę muzyczną. Ponieważ Pitagoras opierał swoją wiedzę na wnioskach matematycznych, twierdził, że kosmos i piszczałka mogą wydawać te same dźwięki. Prawa muzyki przez niego ustalone regulowały cały zakres tego, co dostrzegalne i niedostrzegalne. Niewątpliwie ważnym osiągnięciem Pitagorasa było ustalenie zależności arytmetycznych między interwałami harmonicznymi. Dowiódł, że najmilej brzmiące interwały (konsonanse) są wyrażane na podstawie najprostszych stosunków: 1:1 (unison), 1:2 (oktawa), 2:3 (kwinta), 3:4 (kwarta).
Pitagoras uznał, że te matematyczne i muzyczne prawa proporcji muszą odnosić się do całego wszechświata. Twierdził, że planety – obracając się – wydają z natury muzyczne i harmonijne dźwięki. Od Pliniusza dowiadujemy się, w jaki dokładnie sposób Pitagorejczycy wyobrażali sobie muzykę sfer. Kosmos był potężną lirą z kryształowymi kulami w miejscu strun. Interwały były liczone zaczynając od Ziemi aż do sfery gwiazd stałych, to znaczy aż poza Saturna: Ziemia - księżyc (sekunda wielka), Księżyc - Merkury (sekunda mała), Merkury - Wenus (sekunda mała), Wenus - Słońce (tercja mała), Słońce - Mars (sekunda wielka), Mars - Jowisz (sekunda mała), Jowisz - Saturn (sekunda mała), Saturn - gwiazdy stałe (tercja mała). Układ Słoneczny wytwarzał następujące dźwięki, nazwane skalą Pitagorejską: c, d, es, e, g, a, b, h, d. Zgodnie z przedstawioną teorią nie możemy ich usłyszeć, bo są w naszych uszach od momentu urodzenia – jesteśmy do nich przyzwyczajeni[2], ale słyszał je podobno sam Pitagoras.

3. Definicja Sonifikacji
Według Gregory'ego Kramera sonifikacja jest przekształcaniem relacji danych w postrzegane relacje w sygnale akustycznym w celu ułatwienia komunikacji lub interpretacji[3], czyli przekształca „suche” dane w dźwięk. Dane wejściowe zazwyczaj są seriami numerycznymi podanymi w arkuszu kalkulacyjnym. Algorytm wejściowy może zostać zaimplementowany w środowiskach graficznych lub językach używanych do programowania. Wynik stanowi zsyntezowany dźwięk (audio lub MIDI), odtwarzany przez syntezator[4]. Wyróżniamy kilka rodzajów sonifikacji: wykresy słuchowe, audification, mapowanie (odwzorowywanie) parametrów, sonifikacje oparte na modelach, sonifikację interaktywną. Sonifikacja została uznana autonomiczną dyscypliną z konferencją inauguracyjną ICAD (International Conference of Auditory Display) w 1992 roku.
4. Ontologia muzyki i sonifikacji
W publikacji Sonification and music, music and sonification Paul Vickers wspomina, że toczono wiele dyskusji na temat tego, czy sonifikacja powinna zostać uznana za metodę / dyscyplinę naukową oraz czy można powiedzieć, że jej produkty są muzyką taką, jak ją postrzegamy obecnie. W tym celu dokonał założenia sonifikacja ↔[5] muzyka, które wynika z dwóch przesłanek: sonifikacja →[6] muzyka, muzyka → sonifikacja. To pytanie o taksonomię obu dziedzin: czy muzyka jest jedynie składnikiem (substratem) dźwięku, czy może to dźwięk jest sztuką muzyczną? Rozważmy te hipotezę na przykładzie projektu naukowego pt. Supernova Sonata autorstwa Alexa T. Parkera i Melissy L. Graham.
Badanie zostało oparte na danych zebranych z czterech rozległych pól (obszarów) na niebie monitorowanych przez Canada France Hawaii Telescope (CFHT) Legacy Survey od kwietnia 2003 do sierpnia 2006 roku ze zwróceniem szczególnej uwagi na 241 supernowych typu Ia. Do każdej supernowej został przyporządkowany dźwięk, którego głośność jest uzależniona od odległości supernowej - im dalszy wybuch, tym cichszy dźwięk, a wysokość zależy od współczynnika rozciągnięcia mierzonego na podstawie tego, jak szybko supernowa zajaśnieje i zaniknie w historii czasu standardowego (wyższy współczynnik oznacza wyższy ton, a niższy współczynnik niższy ton). Każdy dźwięk wybuchu wykonano na instrumencie: dźwięki wybuchów w bardziej masywnych galaktykach zagrał kontrabas, a w tych mniej masywnych fortepian. Wynikiem pracy Parkera i Graham jest powyższa, krótka animacja. Składa się ona z obrazu i dźwięku. Łańcuch tonów skonstruowany przez naturalnie występujące we wszechświecie wybuchy supernowych tworzy coś na kształt utworu muzycznego (sonifikacja → muzyka). Zakładając, że odgłosy wybuchu supernowych są elementem musica mundana, można spróbować wnioskować, że to właśnie wszechświat gra, a ludzkość dopiero niedawno znalazła metodę, by tę grę odtworzyć (muzyka → sonifikacja), zatem implikacje wystosowane przez Vickersa mogą znaleźć tu potwierdzenie.
5. Komunikacja treści
Cechą wspólną muzyki i sonifikacji jest oczywisty fakt, że komunikują jakąś treść. Treścią sonifikacji, jak zostało podane wcześniej, są sygnały akustyczne. Czym więc na płaszczyźnie przekazu informacji jest dzieło muzyczne i gdzie występuje podobieństwo między nim a sonifikacją? W celu odpowiedzi na to pytanie przywołam pracę Allana D. Coopa pt. Sonification, musification and synthesis of absolute program music. Autor w rozważaniach nad mechanizmem przekazu informacji muzyki i sonifikacji przyjął dwa założenia:
Wiadomości w systemie komunikacyjnym są transmitowane przez jeden lub więcej kanałów nadawca (źródło)-odbiorca.
Otrzymywana wiadomość przedstawia dwa aspekty: semantyczny i estetyczny.
Punkt pierwszy nie wymaga głębszych wyjaśnień. Punkt drugi mówi o tym, że dzieło muzyczne posiada dwa aksjomatyczne i (według Coopa) wykluczające się nawzajem składniki, które muszą istnieć równocześnie i nierozłącznie do pełnego zaistnienia, komunikacji i zrozumienia dzieła muzycznego. Aspekt semantyczny jest związany z tym, co jest czysto fizyczne: na zewnątrz, obiektywne kolektywnie, wymierne i określany przez autora, jako absolutny. Aspekt estetyczny jest wewnętrzny, abstrakcyjny, nastawiony na poznawanie, subiektywnie indywidualny, określany jako programowy; jest związany z psychologią i fizjologią, obejmuje całą kreację intelektualną, ideę dzieła, to czego nie dotkniemy. Do niego zaliczane są wszystkie procesy twórcze wykorzystywane do generowania, organizowania, produkowania, później do interpretowania i odtwarzania sygnałów akustycznych w dzieło muzyczne. Aspekt programowy istnieje, dopóki sygnał (czyli idea), jako fizyczna wibracja nie pojawi się „namacalnie”, w świecie zewnętrznym. To właśnie ten sygnał akustyczny formuje ,,coś”, co sprawia, że dzieło muzyczne jest dziełem muzycznym. Pojawia się fala dźwiękowa i wtedy aspekt programowy przekształca się w absolutny. Fala, która powstała jest sekwencją wibracji umieszczoną w czasie w pewnym porządku. Stąd wniosek, że sygnał akustyczny jako dźwięk początkowo składa się z uporządkowanego kompleksu przebiegów okresowych i możemy przyjąć, że muzyka (dzieło muzyczne) jest przebiegiem zorganizowanych dźwięków. Relacje pomiędzy opisanymi składowymi dzieła muzycznego przedstawiają się tak, jak na poniższym schemacie[7]:

Strefa komunikacji została podzielona na trzy części:
A. wewnętrzną/programową,
B. zewnętrzną/absolutną,
C. wewnętrzną/programową.
W strefie A znajduje się źródło przekazywanej treści, która pojawia się pod postacią idei. Następnie jest ona przekazywana przez przekaźnik w postaci sygnału dźwiękowego (fali dźwiękowej) do strefy B, tzn. świata fizycznego. Tam, zgodnie z prawami fizyki, sygnał wędruje do odbiornika i/lub rozprasza się. Odbiornik w strefie C przechwytuje go i rekonstruuje wraz z zebranymi razem z nim zakłóceniami i tworzy nowy składnik programowy, a następnie dociera do kognitywnego celu umiejscowionego w świadomej percepcji. Schemat jest dowodem na to, że proces komunikacji informacji zawartej zarówno w utworze muzycznym, jak i w sonifikacji jest podobny.
W muzyce ważne jest wrażenie zmysłowe, natomiast w sonifikacji prawidłowa transmisja danych. Czy możliwe jest ich połączenie? Prawidłowy przekaz danych sonifikacji konotuje klarowność przekazu. Aby odbiorca mógł prawdziwie zrozumieć treść danych, należy wpasować je w bliską mu estetykę muzyczną. Współczesne społeczeństwo kultury zachodniej od najmłodszych lat jest zapoznawane z równomiernie temperowanym systemem tonalnym, dlatego wyjściowe sygnały akustyczne zostaną najlepiej zrozumiane, gdy uzależni się je od należących do niego dźwięków. Podczas wykonywania takich prac istnieje zagrożenie, że dążenie do umuzykalnienia sonifikacji zaburzy prawidłowy przekaz danych i tym samym zaprzeczy samemu celowi omawianej metody.
6. Umuzykalnianie sonifikacji w kontekście elementów dzieła muzycznego
Rozpatrzmy sonifikacje w kontekście siedmiu elementów dzieła muzycznego: melodyki, harmoniki, rytmiki, dynamiki, artykulacji, agogiki i kolorystyki. Składnik melodyczny pojawia się zawsze tam, gdzie następuje zależność funkcyjna, czyli w tym przypadku, gdy konkretnym danym zostanie przyporządkowana określona częstotliwość. Gdy pojawi się więcej niż jeden sygnał jednocześnie, powstanie współbrzmienie. Kłopotliwa wydaje się być kwestia rytmu, gdyż w utworach, muzycznych jest określany przez np. prozodię tekstu lub określone wzorce rytmiczne, których nie ma w sonifikacjach. Przy korzystaniu z danych nie zawierających wyrażeń semantyczno-lingwistycznych, dźwięki mogą zostać zorganizowane w czasie na podstawie odległości między powtarzającymi się dźwiękami. Jakość istnienia pozostałych elementów dzieła muzycznego zależeć będzie od koncepcji osoby odpowiedzialnej za modelowanie dźwięku wyjściowego procesu oraz wykorzystywanego materiału.
7. Sonifikacja wobec estetyki muzyki XX wieku
Eksperymentując, kompozytorzy współcześni nieraz poszerzyli już znaną definicję muzyki o coś nowego, nieraz wyzbywali się jej dotychczasowej estetyki i nadawali jej nowy „styl”. Pojawiły się dwa ważne pojęcia – aleatoryzm i muzyka stochastyczna, związane z nazwiskami Cage’a i Xenakisa. John Cage mówił, że ceni muzykę za to, jaką ją słychać, nie przywiązywał dużej wagi do jej potencjalnych, pozadźwiękowych znaczeń. Zainspirowany kulturą Dalekiego Wschodu zrewolucjonizował świat muzyki dając początek aleatoryzmowi, metodzie komponowania pozwalającej na zastosowanie świadomej losowości w konstruowaniu utworów. Na ostateczną postać wpływały czynniki tj. rzut kośćmi do gry, losowanie kart. Cage mówił: „Słucham utworu muzycznego Mozarta lub Beethovena i dla mnie zawsze brzmi tak samo. Słucham ruchu ulicznego i on zawsze brzmi inaczej”[8]. Pokazuje to cel jego twórczości – uniknięcie chodzenia utartymi ścieżkami tradycji muzycznej i tym samym powtarzania dotychczasowych schematów.
Domeną Iannisa Xenakisa - twórcy i pioniera muzyki stochastycznej, było postrzeganie muzyki w sposób matematyczny. Podstawą jego działań stanowiło przeświadczenie, że „słuchacz percypujący muzykę serialną doświadcza tylko jej statystycznych aspektów i dlatego lepszą strategią w kształtowaniu struktur muzycznych byłoby posługiwanie się logiką probabilistyczną”[9]. Komponowanie muzyki wykorzystującej narzędzia i logikę matematyczną powinno być związane z „nadrzędną potrzebą rozważania dźwięku/brzmienia i muzyki jako zasobu o ogromnym potencjale, w którym wiedza o prawach myśli oraz strukturowane kreacje myśli mogą znaleźć całkowicie nowe medium materializacji”[10]. Kompozycje stochastyczne charakteryzują się tym, że każdy aspekt dzieła jest rozpatrywany autonomicznie i organizowany poprzez prawdopodobieństwo, a następnie składa się wszystkie aspekty w jedno i formuje konstrukcję muzyczną (podobne procedury zachodzą podczas tworzenia sonifikacji, gdy sygnały z wielu źródeł są sklejane w jedność). Według Xenakisa matematyka jest generatorem surowego materiału, który kompozytor ma wyrzeźbić w muzyczną egzystencję. Tak samo sonifikacje, aby były zrozumiałe w odbiorze, powinny być „rzeźbione” - umuzykalniane na sposób znany ludzkiemu uchu.
Patrząc na sonifikacje w kontekście tego, jak muzykę postrzegają Cage i Xenakis, jest ona zwyczajnie dodaniem kolejnych procedur w tworzeniu muzyki. W przypadku sonifikacji te powiązania pojawiają bezpośrednio między algorytmami przekształcającymi dane w dźwięk. Jako, że XX-wieczne techniki kompozytorskie pozwoliły na zastosowanie i nazywanie muzyką dowolnej aranżacji dźwięków, istnieją przesłanki, by klasyfikować sonifikacje jako jeden z kierunków rozwoju muzyki współczesnej.
8. „Where Parallel Lines Converge”
Niewątpliwie przełomową datą dla rozważań na płaszczyznach muzyka/sonifikacja jest dzień 19 sierpnia 2023 roku. Wtedy został nagrany pierwszy utwór powstały dzięki spisaniu sonifikacji w partyturze. Kompozycja została nagrana przez grupę Ensemble Éclat pod dyrygenturą Charles-Eric'a Fontaine’a w Uniwersytecie McGill w Montrealu. Projekt ufundowany przez Centrum Chandra Xray powstał we współpracy z kompozytorką Sophie Kastner. Podstawę kompozycji stanowią dane zebrane przez teleskopy NASA - Chandra, Hubble i Spitzer. Baza obejmuje około 400 lat świetlnych. Przy tworzeniu utworu dopasowywano różne parametry obrazu do parametrów muzycznych.

Utwór obrazuje złożone centrum Drogi Mlecznej. Kompozytorka zbudowała go w formie tryptyku, aby odbiorca mógł lepiej uchwycić treść. Obiekty astronomiczne/miejsca na obrazie odpowiadające poszczególnym częściom to: „X-ray binary”[11], „the Arched Filaments”, „super masywna czarna dziura Saggitarius A*”. Długość jednej części to ok. 60 sekund. Obsada wykonawcza obejmuje flet, klarnet B, klarnet basowy, fortepian, skrzypce, wiolonczelę oraz szereg instrumentów perkusyjnych (tj. bęben wielki, bęben mały, wibrafon, dzwonki, marimba, żele, krotale). Sophie Kastner mówi o swojej kompozycji tak:
Podeszłam, do tej formy z innej perspektywy niż oryginalne sonifikacje: zamiast skanować obraz horyzontalnie i traktować oś x jako czas, skupiłam się na małych sekcjach obrazu, tworząc krótkie winiety korespondujące ze zdarzeniami, podeszłam do utworu tak, jakbym pisała muzykę akompaniującą obrazowi w filmie. Ponieważ obraz centrum galaktyki był pełen informacji, pełen materiału, chciałam przykuć uwagę słuchacza do mniejszych zdarzeń umieszczonych wewnątrz większego zbioru danych.[12]
Parametry powyżej przedstawionego obrazu pobranego przez teleskopy NASA (Przykład 3.) użyte w kompozycji i ich muzyczne odpowiedniki przyporządkowano w następujący sposób[13]:
Parametry obrazu NASA | Parametry muzyczne |
Długość fali/rodzaj światła (Promieniowanie rentgenowskie, podczerwone, optyczne) | Barwa dźwięku/rejestr
|
Morfologia/struktura
| Rezonans
Ruch dźwięku
|
Intensywność obrazu/jasność | Dynamika
Nuta → widmo hałasu
|
Gęstość cech obrazu | Konsonans→dysonans
|
Pierwsza część tryptyku – „X‑ray Binary” (rentgenowskie układy podwójne) cechuje się kontrastami. Autorka w opisie utworu wyznaje, że zadziwiało ją to, jak ciemność i światło podczerwone otacza niezwykle jasne centrum gwiazd binarnych. Ta rozbieżność została ukazana przez przeciwstawność wysokości dźwięków. Pojawił się najwyższy i najniższy z możliwych do wykonania dźwięk przy użyciu zapisanego w partyturze instrumentarium. Udźwięcznianie animacji centrum galaktyki rozpoczyna się naszkicowaniem pustki kosmicznej przestrzeni poprzez biały szum. Stopniowo wkracza partia klarnetu basowego i wiolonczeli, ich melodie nachodzą na siebie tworząc akordy, reprezentujące otaczające główny obiekt chmury światła podczerwonego o niskim spektrum (widmie). Na przedstawionej fotografii kosmosu widnieją przyćmione (niewyraźne) gwiazdy widoczne jedynie w świetle podczerwonym. Odzwierciedlają je szarpane struny fortepianu, pizzicato na wiolonczeli i fletowe tongue rams / tongue stop (efekt polegający na gwałtownym zatrzymaniu strumienia powietrza przez wykonawcę). Zbliżając się do centrum „X‑ray Binary” pojawiają się coraz wyższe dźwięki w partii fletu i skrzypiec. Akordy stają się jaśniejsze w brzmieniu. Osiągają kulminację na najczystszych i najwyższych dźwiękach każdego instrumentu.
Część druga obrazuje „the Arched Filaments” (Włókna łukowate). Do przedstawienia tych delikatnych struktur zastosowano glissanda imitujące ich połysk w instrumentach smyczkowych (wiolonczeli i skrzypcach). Liczne gwiazdy otaczające obiekt odbijają się w kombinacji partii klarnetu, fletu, dzwonków, fortepianu i wibrafonu z użyciem smyczka. Niektóre z gwiazd świecą jaśniej podczas gdy inne są przyćmione. Poziom jasności odbija się na tle fundamentalnej struktury. Ta część jest bardziej swobodna w warstwie rytmicznej i najłagodniejsza w odbiorze.
W kontraście do obrazu, „the Arched Filaments” krystalizuje się rysunek supermasywnej czarnej dziury „Sagittarius A*”. Środki użyte w partyturze mierzalne gesty muzyczne nachodzące na siebie, mają odzwierciedlić obraz spirali zmierzającej ku centrum obiektu. Dla faktury trzeciej części tryptyku charakterystyczne są szesnastkowe wartości grane staccato w partii dzwonków, marimby, fortepianu i krotali z towarzyszeniem wzmagających się partii fletu, skrzypiec, wiolonczeli i klarnetu. Szesnastki początkowo pojawiają się pojedynczo, jednak zbliżając się stopniowo w kierunku supermasywnej czarnej dziury mnożą się nakreślając coraz większe zagęszczanie się gwiazd.
Kompozycja Where Parallel Lines Converge jest dowodem na to, że hałas wytworzony z niemej animacji kosmosu uległszy specyficznym modyfikacjom może zostać przekształcony w utwór muzyczny. To połączenie sztuki i nauk ścisłych nie tylko otwiera umysły na nowe koncepcje twórcze, ale także pozwala na głębsze zrozumienie otaczającego nas wszechświata.
[1] „Music and science begin at the same point, where civilization itself begins, and standing at the source is the quasimythical figure of Pythagoras.” J. James, The music of the spheres, Copernicus Press, New York, 1995, s. 20.
[2] J. James, The music of the spheres, Copernicus Press, New York, 1995, s. 20-40.
[3] „Sonification is the transformation of data relations into percieved relations in acoustic signal for the purposes of faciliating communication or interpretation”. Gregory Kramer, Bruce Walker, Terri Bonebright, Perry Cook, John H. Flowers, Nadine Miner, John Neuhoff , Sonification Report: Status of the Field and Research Agenda, Faculty Publications, Department of Psychology, 2010, s. 4. <https://digitalcommons.unl.edu/cgi/viewcontent.cgiarticle=1443&context=psychfacpub> (dostęp dnia: 6.01.2024).
[4] P. Lunn, A. Hunt, Listening to the invisible: Sonification as a tool for astronomical doscovery; w: Making visible the invisible: art, design and science in data visualization, 2011, Huddersfield, UK. <https://eprints.hud.ac.uk/id/eprint/15922/2/> (dostęp dnia: 6.01.2024).
[5] ↔ jest znakiem równoważności, czytamy „... wtedy i tylko wtedy, gdy...”.
[6] → jest znakiem implikacji, czytamy „jeżeli … , to, ...”.
[7] A.D. Coop, Sonification, musification, and synthesis of absolute program music, In Proceedings of the 22nd International Conference on Auditory Display, 2016.
[8] „I listen to a music piece by Mozart or Beethoven and it’s always sounds about the same. I listen to traffic and it is always different”. Cytat za: S. Gresham-Lancaster, Relationships of sonification to music and sound art. AI & Soc 27, 207–212 (2012). <https://doi.org/10.1007/s00146-011-0337-3>.
[9] J. Humięcka-Jakubowska, Implementacja strategii twórczych a percepcyjne oczekiwania słuchacza, Sztuka i filozofia”, Tom 40 (2012), Wydział Filozofii i Socjologii Uniwersytetu Warszawskiego, ISSN 1230-0330, s.73.
[10] Ibidem.
[11] „X-ray binary”, [w:]<https://imagine.gsfc.nasa.gov/science/objects/binary_stars1.html> (dostęp dnia: 6.01.2024).
[12] „I approached the form from a different perspective than the original sonifications: rather than scanning the image horizontally and treating the x-axis as time, I instead focused on small sections of the image creating short vignettes corresponding with these occurrences, approaching the piece as if I was writing a film score to accompany the image. Because the Galactic Center image was so full of information, of material, I wanted to draw the listener’s attention to smaller events within the greater data set”. Cytat za: <https://chandra.si.edu/sound/symphony.html> (dostęp dnia: 6.01.2024).
[13] Źródło tabeli: <https://chandra.si.edu/sound/symphony/composer_notes.pdf> (dostęp dnia: 10.03.2024).
Comments