Warum verzeihen wir KI alles?
Aus irgendeinem Grund sind wir mit generativer künstlicher Intelligenz nachsichtiger als mit jeder anderen Technologie - zum Beispiel mit Waschmaschinen.
Dieser Text ist entstanden, während ich auf das Ende eines Waschgangs gewartet habe. Deswegen hier ein etwas seltsamer Vergleich: Stellen wir uns vor, eine Waschmaschine würde uns als die beste Waschmaschine aller Zeiten verkauft. Sie würde vermarktet mit dem Versprechen, das Wäsche-Geschäft (ach was, unser aller Leben!) für immer zu verändern. Erste Käufer würden berichten, dass die Wäsche in vielen Bereichen okaye Arbeit leistet: Sie wäre schneller fertig, die Bedienung sei kinderleicht, man müsse kaum noch etwas selbst machen, da könne man nicht meckern.
Allerdings: Immer wieder käme es zu unerklärlichen Fehlern, Wäsche wäre nach dem Waschen dreckiger als vorher, die Wäsche wechselt die Farben, manchmal wäre die Waschmaschine plötzlich leer oder es fänden sich andere Klamotten in ihr, als man hineingelegt hat. Außerdem würde die Maschine unfassbar viel Energie benötigen, für ihre Entwicklung wären hunderttausende Menschen im globalen Süden ausgebeutet worden. Und die Entwickler hätten zigfach Patente verletzt und würden das auch gerne weiterhin tun.
Der Waschmaschinen-CEO würde zu all diesen Problemen sagen: “Sorry, aber wir können und konnten nicht anders. Wir mussten die unfertige Waschmaschine auf den Markt bringen, um sie konstant weiterzuentwickeln. Wir stehen in einem Wettkampf mit chinesischen Waschmaschinen-Herstellern, den wir nicht verlieren dürfen. Wir brauchen Waschmaschinen mit demokratischen Werten!” Anstatt sich über die Fehler von heute zu beschweren, solle man solle sich lieber vorstellen, wie gut die Waschmaschine womöglich schon in fünf Jahren waschen könne.
Zugegeben: Dieses Waschmaschinen-Szenario ist ein bisschen wackelig. Was mich allerdings tatsächlich seit Monaten beschäftigt, ist die Frage, warum wir der Technologie “generative künstliche Intelligenz” im Gegensatz zu anderen, etwa Waschmaschinen, so vieles verzeihen. Und mit “wir” meine ich in diesem Fall drei Bereiche: Den medialen Diskurs, die Adaptionsbegeisterung in der Wirtschaft und den mittlerweile alltäglichen Umgang mit ChatGPT als vermeintlicher Suchmaschinen-Alternative.
Fangen wir mal mit letzterem an: Ich höre etwa von Bekannten, die sich Ernährungstipps von generativen Sprachbots holen, obwohl die gerne auch mal empfehlen, Steine zu essen oder sich an an Magersucht grenzende Kalorien-Defizite heranzutasten. Die Bekannten tun das offenbar, weil es vermeintlich schneller geht, als die (zugegeben immer schlechteren) Suchmaschinen zu benutzen oder sich Texte von menschlichen Experten durchzulesen. Da lässt man solche Fehler offenbar durchgehen, obwohl sie die eigene Gesundheit gefährden. Auch ich erwische mich manchmal dabei, schwer googlebare Dinge bei der KI-Suchmaschine perplexity.ai einzugeben – obwohl ich dort verlässlich enttäuscht werde.
Der zweite Punkt, der um sich greifende Druck, auch prototypische KI in so vielen Wirtschaftsbereichen wie möglich einzusetzen, ist mir ebenso ein Rätsel. Auch in meiner Branche, dem Journalismus: Wenn etwa eine überregionale Tageszeitung anlässlich historisch wichtiger Wahlen einen Bot auf ihre Abonnenten loslässt, der ihnen die Wahlentscheidung erleichtern soll. Und wenn diese dann etwa behauptet, CDU und CSU stünden bei der Migrationsfrage für “sichere Fluchtrouten” und “humanitäre Visa” (das ist mir als Nutzer tatsächlich so passiert and I have screenshots to prove it)
Ich hätte gar nichts gegen das Testen solcher Wahl-LLMs oder anderer KI-Anwendungen zu experimentellen Zwecken, etwa im geschützten Backend-Rahmen einer Entwicklungsredaktion. Aber muss man zahlende Abonnenten, die eine Wahlentscheidung treffen wollen, zu Versuchskaninchen eines Quatschbots machen, wenn man eigentlich für seriöse, verlässliche Berichterstattung steht?
Damit stehen wir eigentlich schon im dritten Bereich, bei dem mich die verzeihende Haltung gegenüber KI befremdet: der Berichterstattung über KI. Dieser Newsletter fühlt sich vielleicht manchmal an wie der eines Technologiefeindes, der Künstliche Intelligenz um jeden Preis schlechtreden will. Ich befinde mich da in einem konstanten Konflikt mit mir selbst, weil ich mich nur ungern in der Rolle des “old man yelling at clouds” wiederfinden will. Die mediale Debatte in Deutschland bewegt sich beim Thema KI aber weiterhin erstaunlich verengt zwischen den beiden Polen “KI ist so mächtig, sie wird alles verbessern” und “KI ist so mächtig, sie wird alles verschlimmern”. Als wäre ChatGPT nicht 2022, sondern erst gestern erschienen.
Dass der Großteil der KI-Player aus dem Silicon Valley selten haltbare Prognosen abgibt und antidemokratischen Allmachtsfantasien anhängt, lese ich für meinen Geschmack immer noch zu selten. Oft werden die CEOs nach wie vor wie unabhängige Wissenschaftler befragt, als wäre da nicht ein riesiger Hype und ein Produkt, das es zu verkaufen gilt – im Zweifel eben mit dem Verweis auf den Weltuntergang.
Manchmal würde es mir eigentlich schon reichen, wenn KI für einen Moment als eine “normale Technologie” behandelt würde. Mit weltveränderndem Potenzial, nach heutigem Stand aber weder per se utopisch oder dystopisch. Eine Technologie, die man nicht anhand der Versprechen oder Untergangsfantasien sektenguruartiger CEOs beurteilt. Sondern an dem, was sie derzeit leistet. Oder eben: welchen Schaden sie jetzt und heute anrichtet. Wie eine Waschmaschine zum Beispiel.
Bis nächste Woche!
Quentin