- 60 -Weyde, Tillman: Lern- und wissensbasierte Analyse von Rhythmen 
  Erste Seite (i) Vorherige Seite (59)Nächste Seite (61) Letzte Seite (247)      Suchen  Nur aktuelle Seite durchsuchen Gesamtes Dokument durchsuchen     Aktuelle Seite drucken Hilfe 

Funktions- und der Stufentheorie bereits Kodierungen gibt, die die Darstellung des harmonischen Geschehens als eine Folge von Symbolen ermöglichen. Dadurch lassen sich Konstrukte aus der Sprache leichter anwenden.

Die Frage, inwieweit Sprache und Musik tatsächlich auf einer gemeinsamen Grundlage beruhen, ist noch nicht endgültig beantwortet worden. Die Untersuchungen von Patel und seinen Mitarbeitern haben aber gezeigt, daß es bei den neurophysiologische Mechanismen der Verarbeitung von Sprache und Musik sowohl Gemeinsamkeiten als auch große Unterschiede gibt.11

Die Beobachtung, daß musikalische Fähigkeiten und sogar Liedtexte auch bei Schädigungen des Sprachvermögens, z.B. durch Krankheit oder Unfall, erhalten bleiben können, zeigt, daß die Verarbeitung von Sprache und Musik in weiten Bereichen voneinander unabhängig ist.12

12 Bruhn (1993, S. 70), Marin (1982).

4.2.  Repräsentation

Der kognitive Ansatz der Musikwissenschaft und Musikpsychologie geht davon aus, daß das Ergebnis der Musikwahrnehmung eine interne Repräsentation der gehörten Musik ist.13

Die Frage, welche Repräsentation der menschlichen Wahrnehmung und Verarbeitung entspricht, ist entscheidend für die Modellierung rhythmischer Prozesse.

Bezüglich der neurophysiologischen Repräsentation musikalischer Sinneseindrücke gibt es viele offene Fragen, die Gegenstand aktueller Forschungen sind. Während die tonotope, d.h. räumlich nach Frequenzen geordnete, Organisation zumindest einer Repräsentation von Reizen im auditiven Cortex als gesichert gelten kann, ist eine ähnliche Organisation für die Lautstärke oder zeitliche Informationen nicht bekannt.14

Die Funktionen und die verschiedenen Ebenen der Verarbeitung und Repräsentation akustischer Informationen sind noch weitgehend ungeklärt. Es gibt auf verschiedenen Ebenen der Verarbeitung unterschiedliche Mechanismen, deren Zusammenspiel bisher kaum geklärt ist.15

15 So z.B. die emotionale Wirkung der Intensität in bestimmten Frequenzbereichen (Todd und Cody, 2000), oder die Erkennung von Ton-Unterschieden auf der aufmerksamkeitsunabhängigen Ebene (Schröger und Winkler, 1995).

Gerade für die zeitliche Informationsverarbeitung im menschlichen Gehirn gibt es noch keine umfassende Theorie, die die Vielzahl verschiedener beobachteter Phänomene erklären könnte.

Aufgrund des Mangels an neurophysiologischen Modellen sind kognitive Modelle, nicht nur in der Musik, meist funktionale Modelle. Sie modellieren Elemente und Strukturen auf einer höheren Verarbeitungsebene basierend auf Beobachtungen und bestehenden Theorien. Die notierten Notendauern und Pausen sind bereits eine Darstellung von Rhythmen, und es gab auch Forscher, die annahmen, daß diese der internen Repräsentation des Hörers entspräche, wie z.B. Longuet-Higgins und Lee.16

Wie bereits in den vorigen Kapiteln erläutert, werden damit aber wesentliche

Erste Seite (i) Vorherige Seite (59)Nächste Seite (61) Letzte Seite (247)      Suchen  Nur aktuelle Seite durchsuchen Gesamtes Dokument durchsuchen     Aktuelle Seite drucken Hilfe 
- 60 -Weyde, Tillman: Lern- und wissensbasierte Analyse von Rhythmen