zum Hauptinhalt

Auto-Tune & Co.: Wir sind die Roboter

Tiefer legen, höher pitchen, zerhäckseln und loopen: Derzeit wird in der Popmusik wieder intensiv mit der Stimme experimentiert. Ein kleiner Überblick - und eine Rückschau.

Manchmal braucht es ein kleines Genie, das einem Augen und Ohren öffnet. Jemand wie Grimes. Hinter diesem Namen versteckt sich die 24-jährige kanadische Musikerin Claire Boucher. Sie legt in ihrer Musik mühelos den Schalter zwischen Pop und Dance und Electro um. Und dabei fällt einem plötzlich auf: Wie selbstverständlich mittlerweile überall in der Musik an der Stimme manipuliert wird. In Hip-Hop- und R-’n’-B-Produktionen, bei Madonna, Lady Gaga, Daft Punk und all den anderen: Effekte auf den Vocals, wo man hinhört. Eine unbearbeitete Stimme ist eher Ausnahme als Regel.

Wenn Grimes mit ihrer Stimme herumzuspielen beginnt – oder besser: mit den Geräten und Programmen, die ihre Stimme biegen, brechen, zerhacken, in Schleifen abspielen, rückwärts, vorwärts, höher, tiefer, – dann wird noch anderes klar. Es braucht keine aufwendigen Studios und teure Technik mehr, um die menschliche Stimme wie ein kompliziertes Instrument einsetzen zu können. Selbst ohne großartige Gesangskünste sind spektakuläre Klänge möglich.

Also wird Claire Boucher auch am Freitag im Berliner Berghain mit mehreren Mikros jonglieren, auf Tasten herumdrücken, an Knöpfen drehen, auf dem Synthesizer herumhacken. Grimes kann verpeilt sein, der Übergang von Soundcheck zum Konzert gerät bei ihr manchmal fließend. Sie flucht auf der Bühne, wenn etwas nicht klappt, sie unterbricht schon mal Songs mit der Bemerkung, das sei jetzt zwar nicht so toll, aber sie habe noch viele andere gute Stücke auf Lager. Man nimmt ihr das nicht übel, das verhindern Charme und Charisma. Und die Musik.

Grimes ist nicht die Einzige und nicht die Erste, die sich so intensiv mit ihrer Stimme beschäftigt. Der Post-Dubstep-Musiker James Blake schaffte es mit seiner Kombination aus menschlichem Gefühl und digitaler Künstlichkeit bis in die Frauenzeitschriften. Der New Yorker Nicolas Jaar begreift seine Stimme eher als Lego-Baustein. Live spielt er keine Songs mehr im herkömmlichen Sinn, sondern mitunter ein langes, sich ständig veränderndes, aber eingängig klingendes Stück aus Stimmfetzen, Soundschnipseln, Effekten und Geräuschen.

Das noch als Geheimtipp geltende kanadische Mann-Frau-Duo Purity Ring geht noch einen Schritt weiter in Richtung Gesamtkunstwerk. Er hat sich eine Art Lichtorgel gebastelt. Sobald er auf eine der Lampen schlägt, erklingen Töne, die Lampen ändern ihre Farbe, gehen an oder aus. Sie singt dazu, die Stimme wird geloopt, tiefer gelegt, höher gepitcht, in Echtzeit. So einfach sich das anhört, so atmosphärisch dicht ist das Ergebnis, wenn Purity Ring am richtigen Ort auftreten. Einer Kirche zum Beispiel.

Ende der sechziger, Anfang der siebziger Jahre hat die Popmusik den Vocoder für sich entdeckt. Ein Gerät, das ursprünglich von US-Militärs zur Verschlüsselung von Sprache benutzt wurde und gesprochenen oder gesungenen Worten etwas Maschinenhaftes verleiht. Was alles kann man mit der Stimme anfangen, wie sie ver- und entfremden, ihr einen anderen Charakter verleihen? Fragen, die sich mit Aufkommen des Vocoders neu stellten und zum Teil von ihm beantwortet wurden. Kraftwerk setzten die Vocoder-Roboterstimme ausgiebig in ihren Stücken ein. Sie war wichtiges Merkmal des Electro Funks von Africa Bambaataa und Co., wie gemacht für Breakdancer, die zur Musik die abgehackten Bewegungen eines Roboters imitierten.

Zur gleichen Zeit wie der Vocoder tauchte ein entfernter Verwandter auf, die Talk Box: ein Schlauch, der von Gitarre oder Synthesizer in den Mund des Musikers führt und ihm erlaubt, aus künstlich erzeugtem Klang Worte zu formen. Vielleicht liegt es an dieser umgekehrten Arbeitsweise, bei der aus elektrischen Klängen etwas Menschliches wird, dass sich auch die Rockmusik dafür interessierte. Peter Frampton und seine „sprechende Gitarre“ machten die Talk Box bekannt.

Die mit Abstand einflussreichste Errungenschaft in Sachen musikalischer Stimmverfremdung kam vor 15 Jahren über uns und ist seitdem nicht mehr verschwunden: Auto-Tune. Eigentlich ein Programm zur Begradigung von schiefem Gesang und als „Cher-Effekt“ bekannt, seit es in ihrem Hit „Believe“ erstmals in einer kommerziellen Produktion verwendet wurde. Im Hip-Hop- und Dance-Bereich geht es kaum noch ohne Auto-Tune. Produzenten setzen es als echtes Stilmittel ein, um Stimmen mit einer Art metallischem Klangglanz zu überziehen. Hip-Hop-König Jay-Z war so genervt davon, dass er 2009 den „D.O.A.“ besang, den „Death of Auto-Tune“. Paradoxerweise half ihm Kanye West bei der Produktion des Titels: West gehört zu den größten Auto-Tune-Virtuosen.

Es ist kein Zufall, dass sich Hip-Hop, R ’n’ B und elektronische Musik auf alle Arten von Stimmeffekten stürzen: Die Programme und Gerätschaften sind eine Erweiterung des musikalischen Arsenals für einschlägige Produzenten. Im Gegensatz zur Rockmusik, die vom Authentischen lebt, sind Techno, House und Rap Produzentenmusik. Man zeigt, was man draufhat an Knöpfen, Reglern und am Computer. Stücke werden nicht eingespielt, sie werden gebaut: Maschinenmusik, die mit Stolz auf ihre Künstlichkeit verweist.

Produzenten von Rockmusik können all das natürlich auch. Auto-Tune ist hier aber kein Stilmittel, sondern macht nicht getroffene Töne im Nachhinein passend. Die Kunst liegt in der Rockmusik darin, den Eindruck von Künstlichkeit zu vermeiden. Ein Konzept, das einem Wirbelwind wie Grimes fremd ist. Von all den Musikern, die mit Stimme und Electronica experimentieren, ist bei ihr die Verbindung aus Pop, neuen Sounds und Künstlerpersönlichkeit am schlüssigsten – eine echte „Singer-Trackwriterin 2.0.“

Grimes spielt am Freitag, 25. Mai, im Berliner Berghain (20 Uhr, ausverkauft)

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false