zum Hauptinhalt

Interview: "Ich hoffe, ich denke noch"

Miriam Meckel hat mit "Next" eine Mischung aus Sachbuch und Roman geschrieben. Darin entwirft sie eine düstere Zukunft, in der Mensch und Maschine eins sind. Ein Gespräch über Buchempfehlungen, maschinelle Psychotherapeuten und Schachmaschinen.

Von Anna Sauerbrey

Frau Meckel, denken Sie noch eigenständig?

Ich hoffe es! Es wäre schrecklich, wenn sich das ohne mein Wissen verflüchtigt hätte.

Wann haben Sie sich das letzte Mal dabei erwischt, dass Sie etwas getan haben, was Ihnen ein Computer vorgeschlagen hat?
Ich bin ja durch das Schreiben meines Buches sehr sensibilisiert. Bei allem, was im Netz passiert, überlege ich: Moment, was läuft dahinter für ein Prozess ab.

Sie haben nie ein Buch gekauft, dass Amazon Ihnen vorgeschlagen hat?
Doch, natürlich. Meistens habe ich die Bücher schon, die Amazon mir vorschlägt. Aber ich gebe zu: Die Vorschläge sind wirklich gut.

Was ist dann falsch daran?
Es fehlt etwas. Wenn ich mit einem guten Buchhändler ins Gespräch komme, gehe ich mit drei oder vier Büchern nach Hause, die ich nie bei Amazon bestellt hätte und die mir auch nicht vorgeschlagen worden sind. Im Gespräch spielen eben die menschliche Komponente eine Rolle und der Zufall.

Und das können Computer nicht nachahmen?
Es gibt Möglichkeiten, Zufallskomponenten in Algorithmen einzubauen – und damit dem Nutzer eine Weile das Gefühl zu geben, der Zufall spiele eine Rolle. Doch irgendwann wiederholt sich das Ergebnis.

In Ihrem Buch zeichnen Sie eine Zukunftsvision, in der Mensch und Maschine fusioniert sind. Die Menschen denken nicht mehr eigenständig, sie sind in einem weltumfassenden Datennetz aufgegangen. Die Erzähler sind ein Mensch und ein Algorithmus. Wo genau sehen Sie den Bezug zur Gegenwart?

Mein Ausgangspunkt ist das, was wir das personalisierte Internet nennen. Wir alle benutzen es jeden Tag. Wenn man bei Google einen Suchbegriff eingibt, untersucht die Software nicht allgemein, was im Netz wichtig ist. Vielmehr wertet sie auch alles aus, was sie an persönlichen Daten über uns finden kann und sucht dann nach Dingen, die uns persönlich interessieren könnten. Das führt dazu, dass zwei Menschen, die nach demselben Begriff suchen, nicht dieselbe Ergebnisliste erhalten. So bewegen wir uns in einen Tunnel hinein. Wir sitzen irgendwann vor einem Hohlspiegel, in dem wir uns in erster Linie selber betrachten und den Rest der Welt zunehmend aus dem Blick verlieren. In dem Buch ist zu Ende gedacht, wie sich die menschliche Wahrnehmung und Existenz verändern kann, wenn sich diese Entwicklung fortsetzt.

Sie schreiben, dass sich so unsere Geschmäcker angleichen. Warum ist das problematisch?
Mir ist das total egal, solange es sich um Kleidung oder um Lebensmittel handelt. Aber denken Sie einmal darüber nach, was das in sozialen Situationen bedeutet. Nur den Privatschulabsolventen werden die Anzeigen der Eliteunis angezeigt. Derjenige, der aus einem armen, wenig bildungsaffinen Haushalt kommt, kriegt diese Infos gar nicht erst, weil seine Lebensdaten kein Marktpotenzial für eine Eliteuni signalisieren. So kann das personalisierte Internet gesellschaftliche Segmentierung verstärken. Der Harvard-Professor Cass Sunstein hat das Netz deshalb als „Echo-Kammer“ bezeichnet.

Aber ist es nicht ohnehin so, dass das soziale Umfeld bestimmt, welche Medien wir nutzen und welche Informationen wir erhalten?

Das ist richtig. Aber es gibt viele Chancen auszubrechen, weil auch der Zufall eine Rolle spielt. Vielleicht schaue ich in eine Zeitung, die irgendwo auf dem Tisch liegen geblieben ist. Im Netz hingegen werden zufällige Begegnungen und Überraschungen mit zunehmender Personalisierung immer seltener.

Finden Sie nicht auch, dass die Debatte um das Empfehlungswesen im Netz etwas Beleidigtes hat? Wir stellen fest, dass wir ziemlich einfach gestrickt sind. Das verletzt unsere Eitelkeit.
Der Mensch in meinem Buch hadert damit. Und der Algorithmus, der die zweite Hauptrolle spielt, macht sich lustig über die Hybris der Menschen, die glauben, sie seien die Speerspitze der Evolution. Die ist im Szenario meines Buches abgebrochen. Und ich selbst glaube, das könnten wir einmal erleben.

Also sind wir wirklich so simpel?

Durchaus nicht! Der Algorithmus im Buch etwa scheitert daran, menschliches Erzählen zu dekodieren. Er scheitert an der Kreativität, die uns unvorhersagbar macht. Das Problem ist eher, dass wir Gewohnheitstiere sind und gerne nehmen, was wir schon kennen.

Haben wir einen freien Willen?

Ich glaube das schon. Wir können nicht alle menschlichen Prozesse in das lineare Schema „Ursache-Wirkung“ pressen. Da gibt es Varianzen, die wir nicht erklären können. Wären wir als Menschen deterministisch angelegt, dann wäre das Leben ziemlich reizlos.

Sie beschreiben in Ihrem Buch auch, wie sich Mensch und Maschine immer ähnlicher werden. Ich habe mich kürzlich im Netz mit dem Computer „Cleverbot“ unterhalten, der menschliche Konversation imitiert. Er ist ziemlich gut!

Ich habe selbst bei den Recherchen sehr viele Gespräche mit ihm geführt. Manche sind gut, aber manchmal denkt man auch: Dir hat wohl jemand die Platinen vertauscht. Diese Maschinen funktionieren nach dem Prinzip der zustandslosen Kommunikation. Wenn Sie sich länger mit ihm unterhalten, merken Sie, dass der Computer immer nur etwas weiterentwickelt, was Sie selbst gesagt haben. Er stellt die Gegenfrage oder greift ein Wort heraus und sucht dazu eine passende Aussage in seiner Datenbank. Er setzt nie neue Themen.

Dennoch ist das Gespräch angenehm.

Wir sind gerne bereit, uns darauf einzulassen. 1966 programmierte der amerikanische Informatiker Joseph Weizenbaum eine Software namens „Eliza“, die psychotherapeutische Gespräche führte. Die Patientinnen fühlten sich total verstanden, weil der Computer immer genau das aufnahm, was sie sagten und es abwandelte. Sie merkten nicht, dass sie mit einem Computer sprachen.

Bei einem Test mit „Cleverbot“ glaubten neulich 60 Prozent, mit einem Menschen zu sprechen. Finden Sie das viel?

Ich finde es jedenfalls bemerkenswert, dass mehr als die Hälfte der Beteiligten im Gespräch eine Maschine nicht mehr von einem Menschen unterscheiden können. Je größer die Datenbasis für die Auswertungen und Berechnungen, desto schwieriger wird es, Mensch und Maschine zu unterscheiden. Watson, der Computer, der kürzlich in den USA bei der Quizsendung Jeopardy mitgespielt hat, besteht aus 2800 parallel arbeitenden Computern. Er kann riesige Datenmengen verarbeiten und semantische Auswertungen vornehmen. Deshalb hat er einmal fünf Fragezeichen hinter seine Antwort gesetzt. Die Zuschauer dachten: Wie schön, der Computer ist genauso unsicher wie wir. Das ist er nicht. Er hat nur ausgerechnet, was er tun muss, um uns Menschen Zweifel zu suggerieren.

Eine Eigenschaft des Algorithmus in Ihrem Buch ist allerdings ziemlich menschlich: Er hat den Willen zur Macht.
Ich würde nicht sagen, dass den Algorithmus Machtwille auszeichnet. Aber er will jedes Problem eindeutig lösen. Keine Unentschiedenheit, wie sie den Mensch auszeichnet. Ich habe versucht, konsequent in der Logik der Software zu denken. Aber das war beim Schreiben gar nicht leicht, ich habe vieles immer wieder überarbeitet.

In der Wirklichkeit sind es nicht Algorithmen, die uns manipulieren wollen, sondern Unternehmen. Machen Sie uns Angst vor Maschinen, wo wir Angst vor Menschen haben sollten?
Genau das sage ich in dem Buch. Gleich zu Beginn sagt der Algorithmus, dass es die Menschen waren, die ihn zu dem gemacht haben, was er ist. Es geht nicht um den Kampf zwischen Mensch und Maschine. Es geht um den Kampf des Menschen mit sich selbst. Im Buch hat der Mensch die Algorithmen so perfektioniert, dass sie übernehmen konnten.

Ich muss dabei an den „Schachtürken“ denken: Eine vermeintlich mechanische Schachmaschine aus dem 18. Jahrhundert. Alle rätselten, wie er funktionierte, dabei saß darin ein Mensch.

Ja, wir stecken immer selber drin. Aber gerade das gibt uns die Option auszusteigen. Natürlich ist das gegen Google oder Facebook schwieriger durchzusetzen als gegen die Schachmaschine. Aber die Möglichkeit haben wir.

Wie denn?

Wichtig ist, dass wir verstehen, wie das personalisierte Internet funktioniert. Ich will ja gar nicht, dass die Menschen aus dem Netz aussteigen. In vielerlei Hinsicht ist das Internet ja eine tolle Sache, auch die personalisierte Suche kann nützlich sein. Ich möchte, dass wir darüber nachdenken, was der Mechanismus für uns bedeutet und ob wir vielleicht die Möglichkeit brauchen, zwischen generalisierter und personalisierter Internetsuche zu wählen. Dann kann der Mensch entscheiden, was er dem Algorithmus erlauben will.

Miriam Meckel ist Professorin am Institut für Medien- und Kommunikationsmanagement in St. Gallen. Sie war Journalistin und Staatssekretärin in NRW und schrieb zuletzt über ihren Burnout. Ihr neues Buch „Next“ ist bei Rowohlt erschienen (320 Seiten, 19,95 Euro). Das Gespräch führte Anna Sauerbrey.

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false