Die Apokalypse als Geschäftsmodell: Warum die Debatte um Superintelligenz von den wahren Gefahren der KI ablenkt

Die Warnungen sind unüberhörbar und stammen aus berufenem Munde: Tech-Visionäre wie Dario Amodei oder Nick Bostrom malen das Bild einer nahenden Superintelligenz an die Wand, einer künstlichen Entität, die die menschliche Kognition in allen Belangen übertreffen und potenziell das Ende unserer Zivilisation einläuten könnte. Diese Erzählung von der existenziellen Bedrohung hat unsere kollektive Vorstellungskraft gekapert und zwingt uns, über die Zukunft der menschlichen Kreativität und die Rolle des Berufskreativen im Angesicht gottgleicher Maschinen nachzudenken. Doch was, wenn diese ganze, mit Ehrfurcht und Schrecken geführte Debatte weniger eine wissenschaftliche Prognose als vielmehr ein raffiniertes Schauspiel ist? Was, wenn die Propheten der Apokalypse die Hauptprofiteure der Angst sind? Der Kultur- und Technikwissenschaftler James O’Sullivan legt genau dies nahe und entlarvt den Diskurs um die Superintelligenz als ein strategisches Manöver, das von den sehr realen und gegenwärtigen Problemen der KI ablenken soll.

Die Architekten der Angst

Das vielleicht frappierendste Paradoxon der aktuellen KI-Debatte ist, dass die lautesten Warner vor der existenziellen Gefahr exakt jene Personen sind, die mit Milliardeninvestitionen an der Verwirklichung ebenjener Technologie arbeiten. Wenn Sam Altman, Chef von OpenAI, vor dem US-Kongress die Risiken einer allgemeinen künstlichen Intelligenz (AGI) beschwört, während sein Unternehmen im selben Atemzug das Wettrennen um ihre Entwicklung anführt, dann ist das kein Zufall, sondern Strategie. O’Sullivan beschreibt dies als einen meisterhaften Taschenspielertrick: Indem die Tech-Elite eine hypothetische Katastrophe in ferner Zukunft zum zentralen Thema macht, verwandelt sie drängende Fragen nach unternehmerischer Verantwortung, nach der Verdrängung von Arbeitskräften, nach algorithmischer Voreingenommenheit und nach demokratischer Kontrolle in abstrakte, philosophische Rätsel.

Sie positionieren sich selbst als die widerwilligen Wächter der Menschheit, als die einzigen, die das schreckliche Wissen und die gewaltige Verantwortung tragen, um uns vor der von ihnen selbst geschaffenen Bedrohung zu schützen. Diese selbst zugeschriebene Rolle als unverzichtbarer Vermittler zwischen der Zivilisation und ihrem potenziellen Zerstörer hat handfeste Vorteile: Sie rechtfertigt gigantische Kapitalinvestitionen, fordert minimale Regulierung und zementiert die Entscheidungsgewalt in den Händen weniger Konzerne. Die Erzählung von der Superintelligenz ist somit weniger eine neutrale Vorhersage als vielmehr ein ausgeklügeltes Machtinstrument, das die politische und ökonomische Landschaft zu Gunsten seiner Schöpfer formt.

Der verlassene Acker der Gegenwart

Während unser Blick gebannt auf die spekulative Götterdämmerung am Horizont gerichtet ist, pflügt die bereits existierende KI tiefe und oft schädliche Furchen durch unsere Gegenwart. Der Diskurs über die Superintelligenz wirkt wie ein Lärmschutzwall, der die Schreie jener übertönt, die schon heute unter den Folgen der Automatisierung leiden. Für uns als Kreativschaffende ist dies von unmittelbarer Relevanz. Die Diskussion darüber, ob eine AGI eines Tages den „Künstler“ ersetzen wird, lenkt davon ab, wie KI-Systeme schon jetzt kreative Arbeit entwerten und prekärer machen.

Denken wir an die Heerscharen von Klickarbeitern im globalen Süden, die für einen Hungerlohn Bilddatensätze verschlagworten oder die verstörendsten Inhalte des Internets sichten, um die „sicheren“ KI-Modelle zu trainieren, mit denen wir dann spielerisch Bilder generieren. Ihr psychisches Leid ist die unsichtbare Grundlage unserer neuen kreativen Werkzeuge. Denken wir an die algorithmische Verwertung von urheberrechtlich geschütztem Material, das ohne Zustimmung oder Vergütung zum Training kommerzieller Modelle verwendet wird. Die spekulative Tyrannei einer zukünftigen Superintelligenz verdeckt die sehr reale Tyrannei des gegenwärtigen Überwachungskapitalismus. Die Angst vor dem Jobverlust in zehn Jahren lässt uns die schleichende Degradierung unserer Arbeit heute übersehen. O’Sullivan nennt dies treffend den „verlassenen Acker der Gegenwart“: Ein Feld voller realer Probleme – von algorithmischer Diskriminierung bei der Jobvergabe über die massive Umweltbelastung durch Rechenzentren bis hin zur Aushöhlung demokratischer Diskurse durch synthetische Propaganda –, das wir brachliegen lassen, weil wir gebannt auf eine Fata Morgana starren.

Die Erschaffung der Unvermeidbarkeit

Die Prophezeiung der Superintelligenz wird durch ständige Wiederholung zu einer sich selbst erfüllenden Prophezeiung. Tech-Führer, Medien und sogar von der Industrie finanzierte akademische Institute wiederholen das Mantra der technologischen Unvermeidbarkeit. „AGI kommt, ob wir wollen oder nicht“, lautet die Botschaft, als wäre technologischer Fortschritt eine Naturgewalt und keine Summe menschlicher Entscheidungen. Doch wie O’Sullivan scharfsinnig anmerkt: „Wenn Tech-Führer sagen, wir können den Fortschritt nicht aufhalten, meinen sie in Wahrheit: Ihr könnt uns nicht aufhalten.“

Diese Rhetorik der Unausweichlichkeit ist zutiefst politisch. Sie entzieht die grundlegenden Entscheidungen über unsere technologische Zukunft der demokratischen Debatte. Indem man die Entwicklung als alternativloses Wettrennen gegen konkurrierende Nationen wie China darstellt, wird jede Forderung nach einer Pause oder nach strengerer Regulierung als naiv oder gar landesverräterisch abgetan. Die Sprache selbst wird zum Werkzeug dieser Strategie. Der Begriff „Compute“ (Rechenleistung) wird wie ein strategischer Rohstoff behandelt, der angehäuft und kontrolliert werden muss. Das Problem der „Alignment“ (die KI auf menschliche Werte auszurichten) wird als zentrale technische Herausforderung dargestellt, wodurch die politische Frage, wessen Werte überhaupt gelten sollen, geschickt umgangen wird. So wird die Zukunft nicht vorhergesagt, sondern aktiv hergestellt – durch die gezielte Lenkung von Kapital, Aufmerksamkeit und Talent in eine einzige, von wenigen Akteuren definierte Richtung.

Jenseits der Götterdämmerung: Die Forderung nach Alternativen

Die Erkenntnis, dass der Superintelligenz-Diskurs ein politisches Konstrukt ist, ist kein Grund zur Resignation, sondern ein Aufruf zum Handeln. Es gibt unzählige alternative Wege, KI zu gestalten, die nicht auf eine hypothetische Apokalypse, sondern auf konkrete menschliche Bedürfnisse ausgerichtet sind.

Für uns Kreative bedeutet dies, den Fokus zu verschieben. Statt darüber zu philosophieren, ob eine Maschine eines Tages Kunst „fühlen“ kann, sollten wir fordern, dass die heutigen KI-Systeme nach demokratischen, fairen und transparenten Regeln spielen. Es geht nicht darum, die Technik zu verteufeln, sondern darum, ihr die Aura des Unvermeidlichen zu nehmen und sie als das zu behandeln, was sie ist: ein Werkzeug, dessen Gestaltung und Anwendung verhandelbar sein muss. Die wirklich drängende Frage ist nicht, ob eine Superintelligenz uns versklaven wird, sondern wer heute die Macht hat zu entscheiden, welche Art von künstlicher Intelligenz wir als Gesellschaft überhaupt entwickeln und wem sie dienen soll. Diese Entscheidung dürfen wir nicht den selbsternannten Propheten in ihren Konzernzentralen überlassen. Die Zukunft der KI ist ein politisches Gestaltungsfeld, und es ist an der Zeit, dass wir es als solches zurückfordern.

Share the Post: