Medienredaktionen lieben einfache Geschichten. Am meisten lieben sie jene Varianten, die fertig serviert aus einer Pressestelle oder Agenturküche kommen, mit eingebautem Dramabogen, zwei Prozentzahlen für den Anschein von Empirie und einem Zitat, das sich ohne Nachdenken ins Content-Management-System kopieren laesst. Wer sich die Behandlung von Künstlicher Intelligenz in den grossen Publikationen ansieht, bekommt derzeit ein besonders lehrreiches Anschauungsbeispiel dafür, wie sich eine ganze Branche freiwillig in ein Selbstbedienungsbuffet von Lobbyverbänden, Beratungsfirmen und interessierten Konzernen verwandelt.
Ich konsumiere diesen Strom an Texten schon lange nicht mehr als Informationsquelle, sondern als Symptom. Man erkennt wunderbar, welche Mechanismen aus der Kommunikationswissenschaft nicht nur in Lehrbüchern vorkommen, sondern als zynisch effiziente Produktionslogik den Alltag bestimmen.
Die klassische Eröffnung: irgendwo erscheint eine Studie. Etwa die TÜV-ChatGPT-Studie, in der eine Forsa-Umfrage präsentiert wird, nach der inzwischen 65 % der Deutschen KI-Tools nutzen, bei den 16- bis 29-Jährigen sogar 91 %, und ChatGPT mit einer Nutzungsrate von 85 % alle anderen Angebote deutlich dominiert. Dazu ein paar Promillepunkte Veränderung gegenüber 2023, fertig ist der Aufhänger.1
Die gleichen Zahlen tauchen dann innert weniger Tage in diversen Medien auf, teilweise sogar mit identischer Reihenfolge der Fakten, identischen Formulierungen und identischen Grafiken. Handelsblatt, Welt, Logistik-Fachportale, IT-Magazine, Jobbörsenblogs, am Ende sogar thematisch völlig randständige Plattformen rezyklieren die Präsentation des Verbands, garniert mit einem Absatz „Einordnung“ und einem Zitat der jeweiligen Redaktion, das genau jene triviale Binsenweisheit wiederholt, die der Pressetext ohnehin schon enthielt.2
Ein paralleler Strang: Bitkom verkündet, dass inzwischen 20 % der Unternehmen KI produktiv nutzen, 57 % sich in irgendeiner Form mit dem Thema beschäftigen und 37 % den Einsatz planen oder diskutieren.3 Auch diese Werte werden dutzendfach nacherzählt, ohne ernsthafte Auseinandersetzung damit, welche Definition von „Nutzung“ hier greift, in welchen Abteilungen, mit welcher Tiefe und mit welchen Risiken. Hauptsache, man hat die Zahl, mit der man die Überschrift anreichern kann.
Wer das Mechanische einmal erkannt hat, sieht nur noch eine Kette: Pressestelle schickt Mitteilung, Agentur baut daraus einen Text, Redaktionen übernehmen ihn. Manchmal leicht gestrafft, manchmal mit einem lokalen Beispiel, fast nie mit echter Recherche.
Besonders aufschlussreich sind jene Textbausteine, in denen nicht nur Nutzungszahlen, sondern Meinungsbilder abgefragt werden. Die TÜV-Studie schreibt sich an dieser Stelle förmlich von selbst. Nur 32 % der Bevölkerung haben überhaupt vom EU AI Act4 gehört. Gleichzeitig befürworten 83 % eine Regulierung von KI, 89 % verlangen eine Kennzeichnungspflicht für KI-Inhalte und 80 % wollen verpflichtende Prüfungen durch „unabhängige Stellen wie die TÜV-Organisationen“.
Der Verband kann dann in aller Ruhe erklären, die Studie zeige „eine klare Erwartungshaltung gegenüber Politik, Unternehmen und Plattformbetreibern“. Die Bevölkerung habe gesprochen, und was sie fordere, sei exakt das Produktportfolio, das der Verband seit Jahren anbietet, jetzt eben mit dem Etikett „KI-Sicherheit“ beklebt.
Edelman liefert parallel sein Trust-Barometer und eine spezielle Blitzumfrage zum Vertrauen in KI. Die Metapher vom „Vertrauen an einer Weggabelung“ passt hervorragend in jede dramatisierende Einleitung. China mit 87 % Vertrauen in KI, Brasilien mit 67 %, Deutschland mit 39 %, USA bei 32 %, dazu ein Narrativ von „Spaltung zwischen den Märkten“ und der Warnung, dass Innovation ohne Vertrauen angeblich nicht funktionieren könne.5
Was nahezu nirgends auftaucht: diese Umfragen sind selbst Geschäftsinstrumente. Edelman verkauft Beratungsleistungen, Kommunikationsstrategien und Reputationsmanagement, TÜV verkauft Zertifizierungen und Prüfungen, Bitkom verkauft politischen Einfluss für seine Mitgliedsunternehmen. Dass die publizierten Studien reibungslos die Notwendigkeit genau der Leistungen belegen, die die Absender wirtschaftlich brauchen, ist kein Zufall, sondern eingebautes Design.
Medien übernehmen das als scheinbar objektive Messung „der Stimmung in der Bevölkerung“ und verwandeln es in moralischen Druck: Wer gegen mehr Regulierung argumentiert, stellt sich angeblich gegen „die Menschen“, die in repräsentativen Befragungen klar signalisiert hätten, was sie möchten.
Sobald eine dieser Studien über Agenturen in den Leitmedien landet, greift der bekannte Agenda-Mechanismus. Die ersten Titel produzieren Überschriften wie
„Zwei Drittel der Deutschen nutzen KI-Anwendungen“,
„Vertrauen in KI in China deutlich höher als im Westen“,
„Bevölkerung fordert strengere Regulierung von KI“.
Andere Häuser sehen Klickzahlen, Social-Media-Echo, Zitate in Morning Briefings und ziehen nach.
Die wenigsten Redaktionen werden ihre Leser transparent darauf hinweisen, dass sie hier die x-te Variation eines Verbandsnarrativs nachdrucken. Stattdessen inszeniert sich jede Plattform so, als hätte sie eigenständig recherchiert, obwohl sie faktisch nur eine Agenturmeldung geringfügig umsortiert hat. Manche schieben einen Kommentarabsatz davor, der exakt jene Bedenken wiederholt, die der Verband ohnehin schon in den Mund gelegt hat.
So entstehen Tage, an denen man von Portal zu Portal springen kann und fast überall die gleichen Zahlen, die gleichen Schlagworte und die gleichen Floskeln findet. Ein wenig Variation im Adjektiv, ein anderes Symbolfoto, vielleicht eine abweichende Reihenfolge der Punkte, sonst nichts. Die Illusion des Pluralismus entsteht aus der Anzahl der Logos, nicht aus der Vielfalt der Perspektiven.
Genau hier zeigt sich am Thema Künstliche Intelligenz, wie dieser Betrieb strukturell angelegt ist.
Auf der einen Seite gibt es unbestreitlich Probleme, zumindest Herausforderungen diese zu mitigieren oder zu unterbinden, wie bei jeder Technologie. Auf der anderen Seite gibt es massive wirtschaftliche und politische Interessen, diesen Befund so zu drehen, dass er nicht zu unbequemen Fragen an Unternehmen, Plattformbetreiber und Aufsichtsbehörden führt, sondern in ein neues Regulierungs- und Zertifizierungsgeschäft mündet.
Die mediale Umsetzung sieht dann in etwa so aus:
Die Schlagzeilen betonen, dass „KI-Chatbots in einem von drei Fällen falsche Informationen verbreiten“. Politiker melden sich zu Wort und verlangen strengere Regeln, Kennzeichnungspflichten, Aufsichtsgremien. Verbände, die von diesen Regeln profitieren, erklären sich zu Anwälten der verunsicherten Bürger.6
Fast niemand stellt die naheliegende Frage, wie es überhaupt dazu kommen konnte, dass Unternehmen solche Systeme ohne robuste Filter, ohne klar definierte Einsatzgrenzen und ohne Haftungsregeln in produktive Kontexte gestellt haben. Noch weniger fragt jemand, weshalb riesige Plattformen, die an anderer Stelle mit minutiösen Richtlinien jeden Halbsatz ihrer Nutzer moderieren, plötzlich sehr gelassen auftreten, wenn ihre eigenen Produkte Falschinformationen streuen.
Statt Problemen der Architektur, des Trainings, der Governance oder der Anreizstruktur werden nebulöse Entitäten wie „die KI“ verantwortlich gemacht, als handele es sich um eine Naturgewalt, die man nur noch politisch einhegen könne.
Parallel dazu existiert eine fast unsichtbare Infrastruktur des Wegfilterns unerwünschter Perspektiven. Wer versucht, differenzierte Gegenargumente anzubieten, landet im digitalen Posteingang von Redaktionen und Influencern, die schon am Betreff erkennen, dass hier Arbeit wartet, die sich nicht in fünf Minuten erledigen lässt.
Eine mailbasierte Kritik, sauber begründet, mit Quellen, methodischen Einwänden und einer Argumentation, welche die Interessen der Studienersteller offenlegt, hat gegen eine Pressemitteilung mit O-Ton, Infografik und fixfertiger Dramaturgie ungefähr so viel Chance, wie ein handgeschriebenes Manuskript gegen einen hollywoodtauglichen Trailer.
Medien orientieren sich reflexhaft an Statussignalen. TÜV, Bitkom, Edelman, „Institut für XY“, das sind Etiketten, die Verlässlichkeit signalisieren, zumindest in der Binnenwahrnehmung. Eine Einzelstimme ohne grosse Organisation im Rücken, dazu vielleicht noch offen systemkritisch, landet automatisch in der Schublade „potentieller Zeitfresser mit erhöhtem Konfliktpotenzial“.
Diese Selektion muss niemand bewusst beschliessen, sie ergibt sich aus Routinen. Wer täglich acht Themen zu bearbeiten hat, klickt instinktiv auf jene Quellen, die versprechen, mit minimalem Aufwand ein sendefähiges Produkt zu liefern. Rückfragen an Verbände und PR-Abteilungen sind erwartbar freundlich, Rückfragen an unabhängige Kritiker können unangenehme Antworten bringen, die weitere Recherche erfordern würden.
Der Internetzweig der Medienlandschaft unterscheidet sich in der Oberfläche, nicht in der Logik. Influencer, die sich als „Aufklärer“ gerieren, sind in Wahrheit genauso algorithmischen Zwängen unterworfen wie klassische Redaktionen der Anzeigenlogik.
Content, der sich entlang der gerade zirkulierenden Narrative bewegt, performt nun einmal besser. „KI ist gefährlich“, „Regulierung rettet uns“, „Demokratie in Gefahr“, das sind Themen, die zugleich Empörung und Selbstgerechtigkeit bedienen. Die Plattformalgorithmen belohnen Interaktion, und nichts produziert mehr Interaktion als moralisch aufgeladene Vereinfachung.
Komplexe, unkomfortable Analysen, die wirtschaftliche Interessen und methodische Schwächen offenlegen, generieren hohe kognitive Belastung, aber wenig Klicks. Sie spalten die eigene Followerschaft, sie ziehen Widerspruch an, sie erfordern Moderation. Kurz gesagt, sie sind betriebswirtschaftlich unattraktiv.
Die Folge: Influencer verbreiten genau die gleichen Studien, die auch die klassischen Medien bespielen, oft mit noch stärkerem Emotionalisierungsgrad. Ihre Selbstinszenierung lautet „kritisch“, ihre faktische Rolle ist die eines Resonanzverstärkers für institutionelle Narrative, nur mit besserem Schnitt und dramatischer Musik im Hintergrund.
All das wäre bloss ein ärgerliches Detail der Medienökonomie, wenn es nicht tiefer in das politische System hineinwirken würde.
Menschen lesen dutzendfach Variationen des gleichen Frames: westliche Industrieländer sind bei KI besonders skeptisch, China und Brasilien dagegen viel aufgeschlossener. Edelman belegt das mit Prozentwerten, die nun überall zitiert werden, vom Techportal bis zur politischen Kolumne.
Parallel dazu berichten dieselben Medien, wiederum auf Basis von Studien, dass zwei Drittel der Deutschen KI nutzen, dass die Mehrheit sie „eher als Chance“ sieht, gleichzeitig aber hohe Risiken wahrnimmt und Regulierung will.
Durch Wiederholung entsteht der Eindruck einer kohärenten Faktenlage: die Menschen seien fasziniert und verunsichert, die Technik sei mächtig und unkontrollierbar, Politik müsse eingreifen. Die Tatsache, dass viele Befragte den EU AI Act nicht einmal dem Namen nach kennen, wenn sie in derselben Umfrage dessen Notwendigkeit bejahen, taucht zwar in den Originaldokumenten auf, wird aber in der medialen Verarbeitung an den Rand geschoben, weil sie die schöne Linie stören würde.
So entsteht eine politische Atmosphäre, in der sich Gesetzgeber auf „die Sorgen der Bevölkerung“ berufen, die sie zuvor selbst mit selektiver Berichterstattung und unausgewogenen Panikbildern angeheizt haben. Medien präsentieren sich als Sprachrohr der Gesellschaft, tatsächlich wirken sie als Transmissionsriemen von Interessengruppen in die Köpfe der Bürger.
Man könnte all dies als Restfehler einer überforderten Branche abtun. Zu wenig Personal, zu viele Themen, zu hoher Druck. Das wäre bequem, und es ist nicht komplett falsch, aber gefährlich unvollständig.
Die Muster sind zu konsistent. Sie treten nicht zufällig hier und da auf, sondern wiederholen sich überall, wo komplexe, politisch aufgeladene Sachverhalte auf grosses Geschäftsinteresse treffen. Finanzkrisen, Gesundheitsmassnahmen, Klimapolitik, Sicherheitspolitik, und jetzt KI. Jedes Mal dieselbe Dramaturgie, dieselben Rollen, dieselben Reflexe.
Medien entscheiden täglich, wessen Stimme verstärkt, wessen Stimme ignoriert wird. Sie entscheiden, ob eine NewsGuard-Studie als Anlass genutzt wird, Systemarchitektur zu hinterfragen, oder als Vorwand, neue Überwachungs- und Zertifizierungsmechanismen skandalfrei einzupflanzen. Sie entscheiden, ob eine Umfrage zitiert wird, um die Vielschichtigkeit der gesellschaftlichen Haltung abzubilden, oder um das gewünschte Narrativ vom verunsicherten Bürger zu stützen, der dringend an die Hand genommen werden müsse.
Wer diesen Mechanismus ernst nimmt, kann sich die naive Hoffnung sparen, dass es ausreicht, Redaktionen einfach mit besseren Argumenten zu beschicken. Das Problem liegt nicht nur im Informationsmangel, sondern im Systemdesign. Dieses System ist nicht darauf optimiert, Wahrheit, Komplexität und Verantwortung zu maximieren, sondern auf Aufmerksamkeit, Reibungsarmut und den Erhalt der eigenen institutionellen Bequemlichkeit.
Künstliche Intelligenz ist in dieser Konstellation kein isoliertes Gefahrenobjekt, sie ist Katalysator. Die Technik beschleunigt, vernetzt, verschiebt, aber der eigentliche Schaden entsteht dort, wo Institutionen, die eigentlich kontrollieren, ordnen und erklären sollten, sich als Kanal für interessengesteuerte Narrative zur Verfügung stellen.
Solange klassische Medien kritische Fragen nicht stellen, sondern lieber das mantrahafte „Studie zeigt“ in immer neuen Varianten wiederkäuen, sind sie kein Korrektiv, sondern ein Teil des Problems.
- https://www.tuev-verband.de/studien/chatgpt-studie-2025-generative-ki-wird-zum-massenphaenomen-aber-sicherheit-und-orientierung-fehlen ↩︎
- https://www.handelsblatt.com/technik/ki/kuenstliche-intelligenz-rund-zwei-drittel-aller-deutschen-nutzen-ki/100178336.html ↩︎
- https://www.bitkom.org/sites/main/files/2024-10/241016-bitkom-charts-ki.pdf ↩︎
- https://www.europarl.europa.eu/topics/en/article/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence ↩︎
- https://www.edelman.com/trust/2025/trust-barometer/flash-poll-trust-artifical-intelligence ↩︎
- https://www.newsguardtech.com/ai-monitor/august-2025-ai-false-claim-monitor ↩︎
