
Zwischen Kaffeetasse und Newsfeed, irgendwo im Zwielicht zwischen Neugier und Überdruss, beginnt der Tag für viele von uns längst nicht mehr mit dem Griff zur Zeitung, sondern mit dem Blick auf einen Bildschirm. Was dort erscheint, wirkt oft wie maßgeschneidert – Nachrichten, Trends, Skandale, alles scheinbar perfekt abgestimmt auf unsere Vorlieben. Doch wer entscheidet eigentlich, was wir zu sehen bekommen? Und wie verändert es uns, wenn Algorithmen, gesteuert von Tech-Firmen, die Regie über unseren Informationsstrom übernehmen? Gerade für Kreative, die sich täglich mit der Auswahl, Bearbeitung und Interpretation von Texten und Bildern beschäftigen, ist diese Frage mehr als ein abstraktes Medienthema – sie berührt das Fundament unserer Wahrnehmung.
Die unsichtbare Hand: Algorithmen als neue Gatekeeper
Die Versuchung, sich von Algorithmen durch das Dickicht der Informationsflut führen zu lassen, ist groß. Sie versprechen Orientierung im Übermaß, Personalisierung statt Beliebigkeit. Und sie formulieren so verdammt überzeugend. Doch wie der aktuelle Guardian-Kommentar zu OpenAI und Sam Altman zeigt, ist diese Bequemlichkeit nicht ohne Schattenseiten. Die Algorithmen, die unsere Feeds und Suchergebnisse sortieren, sind keine neutralen Werkzeuge. Sie sind Produkte von Unternehmen, deren Interessen selten mit unseren übereinstimmen. OpenAI, einst als gemeinnützige Hoffnung gestartet, hat sich seit 2019 in eine hybride Struktur aus Nonprofit und „capped-profit“-Tochter verwandelt, bei der Investoren zwar Gewinne machen dürfen, aber nur bis zu einer festgelegten Grenze. Nach juristischen Auseinandersetzungen und öffentlichem Druck hält die gemeinnützige Muttergesellschaft auch 2026 noch die Zügel in der Hand; zumindest formal. Sam Altman, der CEO, wurde 2023 kurzzeitig abgesetzt und kehrte nach einem beispiellosen Machtkampf zurück. Die Kritik am Führungsstil bleibt: Der Guardian spricht von einer „sektenartigen, kostenblinden“ Führung und warnt, Altman sei „nicht anders als frühere Tech-Größen, nur gefährlicher“.
Filterblasen, Echokammern und die Realität der Vielfalt
Der Begriff „Filterblase“ stammt von Eli Pariser, der 2011 davor warnte, dass Algorithmen uns in personalisierte Informationsblasen einschließen könnten. Doch aktuelle Studien zeichnen ein differenzierteres Bild: Die vielzitierte Filterblase ist weniger allgegenwärtig, als oft behauptet. Wer Nachrichten über Suchmaschinen oder soziale Medien konsumiert, stößt meist auf eine größere Vielfalt an Quellen als jemand, der sich auf wenige Lieblingsmedien verlässt. Die Gefahr, in einer algorithmisch erzeugten Echokammer zu landen, ist real. Aber sie ist kein Naturgesetz. Vielmehr entsteht sie oft durch unser eigenes Verhalten: Wir klicken, was uns bestätigt, und ignorieren, was irritiert. Die Algorithmen verstärken diese Tendenzen, aber sie sind nicht allein verantwortlich.
Von Zeitungsredakteuren zu Algorithmen: Gatekeeping im Wandel
Die Lenkung von Informationsflüssen ist kein Kind der Digitalmoderne. Schon im 20. Jahrhundert entschieden Zeitungsredakteure und Fernsehintendanten, welche Themen auf die Agenda kamen. Walter Lippmann prägte den Begriff des Gatekeepers um zu verdeutlichen, wie Redaktionen Nachrichten auswählen. Heute haben Algorithmen diese Rolle übernommen, mit dem Unterschied, dass ihre Kriterien undurchsichtiger und ihre Reichweite global sind. Man muss sich als Konsument von Informationen fragen: Wer kontrolliert, was sichtbar wird, beeinflusst auch, was als relevant, schön oder wahr gilt.
Das Dilemma der Nutzer: Boykott oder Anpassung?
Soll man ChatGPT boykottieren, weil einem die Firmenpolitik missfällt? Oder ist das angesichts der Allgegenwart solcher Systeme ohnehin ein aussichtsloses Unterfangen? Jeder Klick, jede Suche, jedes Like macht uns zu Mitspielern in einem System, das wir kaum durchschauen. Gleichzeitig profitieren wir von der Bequemlichkeit und der scheinbaren Relevanz der gelieferten Informationen. Es bleibt ein Zielkonflikt: Wir wollen informiert sein, aber nicht manipuliert werden. Wir sehnen uns nach Vielfalt, landen aber oft bei denselben Themen und Meinungen.
Paradoxien der Personalisierung
Je stärker wir uns nach Orientierung sehnen, desto mehr geben wir die Kontrolle ab. Je individueller die Information, desto enger der Tunnelblick. Die eigentliche Ironie: Ausgerechnet die Werkzeuge, die uns befreien sollten, machen uns abhängig. Abhängig von Algorithmen, deren Funktionsweise wir kaum nachvollziehen können.
Was bleibt? Zwischen Skepsis und Neugier
Algorithmen können helfen, relevante Inhalte zu entdecken und neue Perspektiven zu eröffnen. Doch solange ihre Steuerung in den Händen weniger Unternehmen liegt, bleibt Skepsis angebracht. Die Frage ist nicht, ob wir Algorithmen nutzen, sondern wie bewusst wir mit ihrer Macht umgehen. Vielleicht ist es an der Zeit, den eigenen Informationskonsum wieder als Abenteuer zu begreifen: Nicht alles glauben, was der Algorithmus serviert, ab und zu einen Umweg machen, eine unbekannte Quelle anklicken, die Komfortzone verlassen. Denn am Ende sind wir nicht nur Nutzer, sondern auch Gestalter unserer eigenen Informationswelt.
Und wann sprengen Sie die Grenzen Ihrer kreativen Komfortzone? Christoph Künne coacht Kreative dabei, mit KI-Tools ihre gestalterischen Möglichkeiten radikal zu erweitern – und Aufträge anzunehmen, die gestern noch undenkbar waren.