Joachim Adolphi

Struktur als Protokoll des Werdens


4.3.1.4 Musik und Ohr

Wie hört eigentlich unser Ohr? Kann man das einfach verstehen und berechnen?

In der Schule haben wir die Physiologie des menschlichen Ohres als ein wesentliches Sinnesorgan grob kennengelernt.

In der Schule haben wir etwas über musikalische Töne und Grundharmonien gelernt. Vielleicht haben wir sogar Töne elektrisch erzeugt und die Schwingung am Oszilloskop betrachtet.

Aber hat uns jemand erklärt, wieso wir zwei gleichzeitig klingende Musikinstrumente sogar dann gleichzeitig hören und unterscheiden können, wenn sie denselben Ton spielen?

Im Leistungskurs hat man etwas gelernt, wie man Schwingungen analysieren kann: Man kann aus einem Schwingungsvorgang ein „Spektrum“ machen, indem man auf mathematischem oder physikalischem Wege einen durchstimmbaren Resonanzschwinger beobachtet und seine frequanzabhängige Amplitude aufzeichnet.

Dieses Verfahren hat einen Riesen-Nachteil: Es ist phasenunabhängig. Es antwortet mit einem summarischen Misch-Signal, aus dem kein Instrument herauszuhören ist.

Aber das Ohr, ja, das Ohr, das kann das!

Hier noch einmal die Fourier-Analyse einer Quinte zweier Instrumente mit unterschiedlicher Oberton-Energie-Verteilung (also Lautstärke und Klangfarbe) und unterschiedlicher Phase pro Oberton (hier die jeweils ersten beiden Obertöne hinzugefügt):

Schwingungen im Quintenabstand mit unterschiedlicher Obertonverteilung

Spektrum bei Phasengleichheit („errechnet“ heißt mit VBA aus dem im Schwingungs-Diagramm oben angezeigten summierten Verlauf analysiert)


Gleiche Energeiverteilung wie oben, aber andere Phasenlagen: 1 Halbwelle verschoben, Gegentakt

Spektrum dazu: fast Auslöschung in gemeinsamer Oberwelle, da Amplituden fast gleichn Peakhöhe und Satelliten am Peak-Fuß


Gleiche Energeiverteilung, Phasenverschiebung eine halbe Halbwelle

Das Spektrum müsste ja eigentlich quadriert werden, um zub den Intensitäten zu gelangen. Dann gäbe es keine negativen Peaks!


Zum Vergleich noch die Große Terz, ebenfalls Lautstärke und Phase in der  zweiten Einstellung geändert und ein anderer, höherer Oberton gewählt, damit es Überlagerung geben kann:




Zumindest folgt daraus eines: Das Ohr macht es zusammen mit dem trainierten Hirn anders! Denn im Ohr löschen sich zwei Instrumente gegeneinander NICHT aus.

Erkenntnis: Die quasi nulldimensionale Schallquelle (Punktstrahler), die wir hier modelliert haben, kann räumlich ausgedehnte Schallquellen wie physikalische Musikinstrumente NICHT ersetzen, wenn es um die Leistungsfähigkeit des Ohrs geht. (Sie ist höchstens mit den ersten Minitransistor-Taschenradios vor fast 60 Jahren vergleichbar, also ausreichend für einfach Schlager…)

Die Lautsprecher-Konstruktionen der Neuzeit können all das wiedergeben. Unser hier verwendetes Mini-Modell-Programm in EXCEL-VBA kann das nicht.

Und: Beim Ohr-Hirn-System gibt es sogar als Bonbon-Zusatz auch noch eine Richtungserkennung beim Hören von Tönen. Man beobachte mal die Ohren einer Katze… Stereo können wir hören, weshalb wir von der Technik auch erwarten, dass sie stereo senden kann.

Aber wie macht es das menschliche Ohr nun? Muss man wie beim Auge (dort mit Hilfe von Optischer Täuschung) mit Tricks dahinterzukommen versuchen? Was wäre eine adäquate akustische Täuschung?

Habt Ihr Ideen??

Meiner Auffassung nach dürfte die Lösung einfach zu formulieren, aber schwierig zu rechnen sein:

Jedes Instrument erzeugt einen Schwingungszustand im Raum (oder auch auf freiem Felde oder im Extremfall im „schalltoten Raum“), und dort ist eine gegenseitige Auslöschung schon etwas schwieriger. (Es gibt gute Technik, die einen „Anti-Schall“ erzeugen und auf eine ebene Platte übertragen kann, so dass schon vorhandene Schallfelder neutralisiert werden. Aber dazu ist diese günstige Halbraum-Aufteilung durch eine ebene Platte besser.)

Wenn man also begreifen will, womit es unser Ohr zu tun hat, so muss man von Schalleistungen ausgehen und nicht nur von Schwingungszuständen, denn unser Ohr ist kein Punkt-Sensor.

Ein erster Schritt dahin wäre nicht eine Superposition der ein- oder mehrdimensionalen Schwingung, sondern der Leistung. Mathematisch wäre das so, dass wir erst quadrieren und dann addieren.

Probieren wir es aus:

Zuerst fertigen wir die Einzel-Instrument-Ergebnisse an:


Das ist der Grundton, die Prime mit zwei ausgewählten Oberwellen, wie oben schon für die Terz optimiert.



Hier nun die Terz in Phase und mit einer halben Halbwelle verschoben. Man ahnt, dass die Addition mit dem Grundton unterschiedlich ausfallen muss, wenn man nicht vorher quadriert.

Also: Obwohl es beim Quadrieren einen Informationsverlust gibt, steht einigermaßen fest, dass das Ohr nicht die unquadrierten Werte verarbeitet, trotzdem aber besser die Daten analysieren/interpretieren kann als unser Programm.

Wir sind also nicht wirklich weiter gekommen.

Die Summe der quadrierten Einzelspektren und das quadrierte Gesamtspektrum sehen so aus:


Man muss erkennen, dass die Spektren nur auf den ersten Blick gleich aussehen. Dem Gesamtspektrum fehlen die negativen Beträge der phasenverschobenen Terz, während die Summe der quadrierten Teilspektren diese enthält.

Wie sieht es dann also ohne Phasenverschiebung im Vergleich beider Methoden aus?


Die verwunderlich starke Terz im linken Diagramm muss ich mir noch durch den Kopf gehen lassen…

Zwischen-Fazit:

Wir können das Experiment machen und uns ein Ohr zuhalten. Dann hören wir nicht mehr räumlich. Das ist ja wohl einfach zu erklären.

(Ich habe mal irgendwo gelesen, dass auch in einem Raum mit Schall eine Quelle zu orten ist, weil nur die erste Halbwelle eines Signals räumlich geortet wird und die weiteren nur „Zusatzinformationen zur Klangqualität“ liefern. Klingt glaubhaft, aber wie wäre der Algorithmus dieses göttlichen Gehirns im Detail??)

Wir können das Experiment machen und Hörgeräte einstecken. Die haben einen fast punktförmigen Sensor und eine fast punktförmige Quelle. Wir hören trotzdem die Instrumente im Konzert einzeln.

Es ist wohl bewiesen: Da geht in unserem Kopf etwas ab, das weit mehr kann als eine einfache Fourier-Analyse. Die Hörschnecke könnte eigentlich nur Frequenzen sortieren. Da muss im Gehirn noch eine zweite, völlig anders geartete Zeit-Abtastung des Signals stattfinden. Vielleicht wird gar keine Frequenzanalyse im technischen Sinne durchgeführt, sondern eine Formerkennung des Peaks? (Siehe Klangfarben)

Am besten, wir sehen uns einmal zwei verschiedene Instrumente an, die den gleichen Ton spielen, aber andere Obertonintensitäten aufweisen:


Hier sind beide Instrumente in Phase, der peak ist spitz.


Hier ist das „rote“ Instrument eine halbe Halbwelle hinterher. Es ergibt sich eine andere unquadrierte Verteilung auf die einzelnen Frequenzen.

Die quadrierten, die also der Intensität (oder Energieverteilung) besser entsprechen, sehen so aus:

ohne Phasenverschiebung

mit halber Halbwelle Phasenverschiebung


Man erkennt eine veränderte relative Verteilung auf die Einzelfrequenzen, was an den unterschiedlichen Klangfarben der Instrumente liegt. Das könnte man nicht „messen“, aber als Zuordnung „lernen“, indem man die Instrumente lange genug beim Spielen auch gesehen hat: Unser Hirn als lernfähiger Speicher, der auf Assoziationen ausgelegt ist! (Siehe „Erwartungsbaum„!)

Wofür ist unser Ohr überhaupt gebaut worden? Um Musik zu genießen oder um gefährliche Knacklaute im Geäst von ungefährlichen unterscheiden zu können? Und diese Knacklaute haben hochfrequente Anteil und müssen SOFORT richtig erkannt werden! Wir dürfen im Vertrauen auf die Natur also davon ausgehen, dass ein spitzer Peak einer phasenreinen Frequenzmischung in unserem Ohr anders klingt als ein verwaschener, obwohl sie sich in der Fourier-Analyse nicht unterscheiden würden!

Man kann diese superfeine Schwingungs-Analyse übrigens auch bei Insekten beobachten, wenn man als Fotograf keine Geduld hat und den Zweig, der im Winde wackelt und ein Insekt trägt, mit der Hand in seiner Bewegung zu bremsen versucht: Das Insekt erkennt offenbar neue Frequenzanteile (Infraschalltöne!) und fliegt sofort auf oder lässt sich, noch fataler, ins hohe Gras fallen und ist verschwunden.

Auch lassen sich Insekten von einem Elektromotor anlocken, der eine Schleifscheibe antreibt, die im Frequenzbereich ihres Flügelschlags arbeitet (hier spricht der Achate-Schleifer). Sie haben also einen Apparat zur Verfügung, der einen größeren Frequenzbereich überstreicht als der unsere!!

Zurück zur Ausgangsfrage:

Haben wir inzwischen verstanden, wie wir hören? NEIN!

Wir haben bisher lediglich bewiesen, dass die physikalische Analyse zweier auf dem gleichen Ton klingender Musikinstrumente keine Erklärung bieten kann.

Das heißt im Umkehrschluss, dass da etwas anderes als das eingeschwungene Spektrum zur Unterscheidung zweier Instrumente auf dem gleichen Ton führen muss.

Hypothese:

Da wir sowieso auf den Erwartungsbaum (und also einen dynamischen Speicherzugriff) angewiesen sind, könnte es doch sein, dass der unterschiedliche Einschwingvorgang auf den neuen Ton vom System Ohr-Gehirn wahrgenommen und gespeichert wird und als Basis der Differenzierung gilt.

Das müsste sich experimentell untersuchen lassen, indem man Tonaufzeichnungen so manipuliert, dass der Einschwingvorgang der Instrumente wegfällt (und notgedrungen nur der Einschwingvorgang des Wiedergabegeräts übrigbleibt, welcher aber Instrumenten-unabhängig sein sollte, wenn auch frequanzabhängig). Schöne Bastel-Aufgabe…

 

Kommentar abgeben

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert