skip to content

Das Zusammenspiel von Sprache und Musik

Kölner Linguisten erforschen Gemeinsamkeiten

Was haben Sprache und Musik gemeinsam? Diese Frage stellten Linguisten auf einem Symposium zu Thema: „Sounds and Structure in Language and Music.“ Ein Gespräch mit den Komponisten Klarenz Barlow und Roman Pfeifer und dem Kölner Linguisten Aria Adli während der Vorbereitungen zur Aufführung von Werken aus Barlows Oeuvre in der Alten Feuerwache. 

„Ein großes Glück“ nennt Aria Adli seine Kollegen. „Ich bin zu einer wunderbaren Zeit hier in Köln gelandet.“ Gerade in den letzten Jahren hatten die Kolleginnen und Kollegen ihr zentrales Forschungsziel geschärft: Prominenz. Ein vielversprechender Begriff in der Linguistik, mit dem ein wichtiges Ordnungsprinzip erfasst wird: Sprachliche Elemente werden auch nach ihrer strukturellen Wichtigkeit angeordnet. „Wir sind davon überzeugt, dass die Prominenz ein wichtiges, strukturbildendes Merkmal von Sprache ist, das sehr wahrscheinlich auch mit anderen, außersprachlichen Bereichen interagiert. Bislang wurde es aber noch nicht ausreichend analysiert“, erklärt Adli. Einer der außersprachlichen Bereiche, bei denen der Linguist Verbindungen zur Prominenz sieht, ist die Musik. Bereits 2012 veranstaltete die Language Music and Cognition Research Group der Kölner Linguisten einen international besetzten Workshop zu den Schnittstellen zwischen Sprache und Musik. Im Sommer diskutierten Wissenschaftler nun erneut über das Thema, dieses Mal waren auch drei Komponisten dabei, die sich mit Neuer Musik befassen: Klarenz Barlow, Peter Ablinger und Roman Pfeifer. Wo sieht der Linguist die Berührungspunkte zwischen den Welten der Musik und denen der Sprache? „Eine Ebene, auf der man Parallelen sieht, ist die Klangstruktur. Für mich als Linguist ist es sehr interessant zu sehen, wie technisch versiert und präzise Komponisten mit dem Sprachmaterial arbeiten und auch Computerverfahren verwenden, von denen wir Linguisten an einigen Stellen lernen können. Wir verwenden das gleiche Material, aber Zielsetzung und Perspektive sind anders“, sagt Adli 

Lange Tradition der Avantgarde in Musik und Wissenschaft

Kölner Linguisten können an eine lange Tradition anknüpfen. Bereits in den siebziger Jahren hatte der damalige Leiter der Kölner Phonetik, Professor Dr. Georg Heike, mit Karlheinz Stockhausen zusammengearbeitet. Beide waren Schüler des Bonner Wegbereiters der Elektronischen Musik Werner Meyer-Eppler. 2012 griff ein Workshop unter internationaler Besetzung das Thema wieder auf. Inspiration genug für Adli und seine Kollegin, die Phonetikerin PD Dr. Doris Mücke, nun anlässlich des siebzigsten Geburtstags des Komponisten Klarenz Barlow ein Symposium zu organisieren. Barlow, inzwischen Professor im kalifornischen Santa Barbara, ist Köln seit langem verbunden. Er studierte Ende der sechziger Jahre Komposition und elektronische Musik an der Hochschule für Musik und Tanz in Köln, unter anderem bei Bernd Alois Zimmermann und Karlheinz Stockhausen. In seinen Werken, wie zum Beispiel „Im Januar am Nil“ beschäftigt er sich intensiv mit dem Wechselspiel zwischen Musik und Sprache. 

Herr Professor Barlow, ein wichtiges Moment in Ihrer Arbeit ist die Auseinandersetzung mit Sprache. Was interessiert Sie an diesem Thema? 

Barlow: Seit ich die deutsche Sprache erlernt habe, habe ich gemerkt, dass ich eine besondere Vorliebe für Sprachen habe. Ich habe inzwischen auch andere Sprachen erlernt: Niederländisch, Französisch. Ich halte Sprachen für eine phantastische Zusammensetzung von Klängen und melodischen Regeln. Das ist für mich eine einmalige Zusammenstellung von Potenzialen. In meinem Stück „Im Januar am Nil“ für Ensemble habe ich Sätze gedichtet und dann instrumentiert. Diese Technik nenne ich Synthrumentation – Synthese durch Instrumentation. Wenn das Ensemble spielt, ist es hin und wieder möglich, Worte zu erkennen. In einem anderen Stück für Schlagzeug habe ich Sprache kodiert, unter anderem den berühmten Monolog von Hamlet. Das könnte zurückübersetzt werden. 

Welche Rolle spielt dabei Ihre Tätigkeit als Computerprogrammierer? 

Barlow: Zum Glück habe ich hier in Köln 1970 das Programmieren gelernt, als ich meine erste Komposition schrieb, bei der ich die Buchstaben eines Textes den Tasten des Klaviers zuordnete. Programmieren finde ich sehr praktisch. Linguistik interessiert mich sehr. Ich war auch damals drauf und dran, Noam Chomsky zu studieren. Das war mir dann aber zu kompliziert. 

Gab es im Symposium Themen, die Sie besonders interessiert haben? 

Barlow: Auf jeden Fall finde ich das Thema Tonsprache sehr interessant und die Einschränkungen, die damit einhergehen. Denn wenn man schon den Ton benutzt, um Bedeutungen zu übertragen, dann muss man schon sehr umsichtig damit umgehen, wenn man es dann in Musik umsetzt. 

Professor Adli, welche gemeinsamen Strukturen weisen Sprache und Musik auf?

Adli: Das ist jetzt eine sehr offene Frage, die Sie mir stellen und ich würde am liebsten zuerst einmal so antworten: Dass man immer wieder verblüffende Gemeinsamkeiten und Schnittstellen findet, ist schon Grund genug, diese Frage genauer zu stellen. Wir sind nicht die ersten, die das tun. Intuitiv tun das alle Menschen; schon das einfache Lied beginnt damit. 

Welche Forschungsthemen wurden auf dem Symposium angesprochen? Adli: Wir haben fünf Sprecher gehabt – drei Komponisten und zwei Linguisten. James Kirby aus Edinburgh, der zur Schnittstelle von Tonsprachen in der Vertonung gesprochen hat und sich die Frage gestellt hat, ob es Regelkonflikte geben könnte zwischen den phonologischen Regeln, die den Tonsprachen eigen sind, und den tonalen Kompositionsintentionen, die man darüberlegt. Solche Regelkonflikte sind für Linguisten sehr spannend, weil wir dadurch unsere Modelle, wie Sprache funktioniert, präzisieren können. Auch Bodo Winter war da, er ist Kognitionswissenschaftler aus Birmingham. Er hat neue Antworten auf alte Fragen gegeben, darunter eine alte Frage Ferdinand de Saussures, welche Beziehung es zwischen dem Material und der Bedeutung gebe. auch Musikstücke komponiert, bei denen sich der Klang nicht verändert aber die Bewegungen, die ihn produzieren. Mich interessieren viele Bereiche, neben Phonetik und Bewegung zum Beispiel auch Programmierung. Ich gehe dabei nicht so in die Tiefe sondern trete lieber in den Dialog mit Menschen, die sich damit befassen.