Von der gefährlichen KI, täglich grüsst das Murmeltier

Täglich grüsst die Warnmeldung.

Kaum klärt sich ein hysterischer Staubwirbel um die angeblich „unkontrollierbare“ Künstliche Intelligenz, tauchen schon die nächsten Kurztexte auf, die mit einer Handvoll Zahlen, ein paar Betroffenheitszitaten und einer grosszügigen Portion Alarmismus das geistige Niveau einer Primarschulprojektwoche knapp übertreffen. Dieses Mal sind es ein t3n-Artikel, der KI-Trainer zitiert, die vor Chatbots warnen, und ein Gamestar-Stück, das eine TÜV-Studie zur KI-Nutzung in Deutschland zum Beweis einer angeblich überwältigenden Sehnsucht nach Regulierung stilisiert.

Ich sitze vor diesen Texten, lese von „Gefahr“, „Verunsicherung“, „Regulierungsbedarf“, und denke mir: Natürlich. Wieder einmal wird nicht erklärt, wie Systeme funktionieren, sondern in kurzen, leicht verdaulichen Häppchen die Angst normalisiert. Wissen anstrengend, Furcht bequem.

Der t3n-Beitrag ist nichts Weiter, als die Sekundärverwertung einer Guardian-Geschichte über Menschen, die schlecht informiert Daten für grosse Sprachmodelle labeln und moderieren. Eine Trainerin berichtet, sie nutze nach Jahren in der Branche keine KI-Chatbots mehr und habe ihrer Tochter die Nutzung verboten. Andere „AI-Worker“ hielten die Modelle, die sie selbst trainiert hätten, inzwischen für so unzuverlässig und politisch schief, dass sie Freunden aktiv abraten würden.1

In das gleiche Horn blässt Newsguard: Laut deren AI-False-Claim-Monitor wiederholen die zehn grossen generativen Modelle bei Nachrichtenfragen inzwischen in etwa 35 % der getesteten Fälle bekannte Falschbehauptungen, ein Jahr zuvor lag derselbe Wert bei 18 %.2

Der Text präsentiert diese Aussagen wie ein Naturgesetz, das irgendwo hinter den Kulissen entdeckt und nun feierlich verkündet wird. Kein Wort zu Stichprobengrösse, Auswahl der Fragen, Bewertungsmethode. Kein Interesse daran, dass die Trainerinnen und Trainer in einer strukturell prekären Rolle sitzen, in der schlechte Briefings, vage Vorgaben und ökonomischer Druck praktisch garantieren, dass die Auswertung ihrer Arbeit verzerrt ist. Hauptsache, das Bild steht: Wer tief im Maschinenraum sitzt, sieht das Unheil, warnt und wendet sich angewidert ab.

Diese Dramaturgie ist bequem. Sie verschiebt alles Relevante vom Systemdesign auf das diffuse Etwas namens „die KI“. Ein Leser, der ohnehin nur mit einem Auge über die Seiten scrollt, nimmt mit: Selbst die Insider haben Angst. Das genügt, um Misstrauen gegen grosse Sprachmodelle im Allgemeinen und im Besonderen zu verankern, ohne die Firmen, die diese Modelle entwickeln, mit unangenehmen Fragen nach ihren Incentives, ihren Governance-Strukturen und ihren Geschäftsmodellen zu belasten.

Gamestar macht die Unterhaltungsversion der gleichen Operation. Aufhänger ist die TÜV-ChatGPT-Studie 2025, eine Forsa-Umfrage zu generativer KI in Deutschland.3

Die Zahlen sind zunächst banal und in dieser Form durchaus plausibel. Drei Jahre nach dem Start von ChatGPT nutzen rund 65 % der Befragten KI-Anwendungen, deutlich mehr als 37 % im Jahr 2023.4 ChatGPT dominiert als Tool, ca. 85 % der Nutzer haben es schon ausprobiert, Google Gemini, Microsoft Copilot und andere Dienste holen langsam auf.5

Interessant wird es an der Stelle, an der aus Nutzungsdaten plötzlich politischer Sprengstoff gezimmert wird. Die Studie berichtet, dass 83 % der Befragten eine Regulierung großer Sprachmodelle, Künstlicher Intelligenz, oder was auch immer sich unter Ki subsumieren lässt, befürworten, 89 % verlangen eine Kennzeichnung von KI-Inhalten und 80 % hätten gerne verpflichtende Sicherheitsprüfungen durch „unabhängige“ Stellen wie den TÜV.6

Gamestar macht daraus die Schlagzeile, die mich schmunzeln lässt:

„Wir Deutschen nutzen KI vor allem zum Suchen, Arbeiten und Lernen“,

gleichzeitig wünsche sich eine überwältigende Mehrheit strengere Regeln.7 So entsteht das Bild einer Bevölkerung, die zwischen Bewunderung, oder zumindest Neugierde, und diffusen Ängsten und / oder Vorbehalten schwankt, KI fleissig nutzt und zugleich nach einer elterlichen Instanz ruft, die alles Gefährliche von ihr fernhalten möge.

Dabei wird einfach ignoriert: Der TÜV-Verband ist nicht neutraler Beobachter, sondern klar interessierter Akteur. Die gleichen Strukturen, die die Umfrage finanzieren, leben davon, geprüfte, zertifizierte, „sichere“ Technik zu verkaufen. Wenn die Studie zu dem Ergebnis kommt, dass 80 % im Prinzip von irgendwas verpflichtende Prüfungen durch Organisationen wie den TÜV wollen, spricht da nicht die Stimme eines abstrakten „Bürgers“, sondern ein perfekt designtes Geschäftsmodell, das seine Nachfrage gleich mitliefert.8

Hier fügt sich alles sauber in ein Muster, das sich seit Monaten abzeichnet. Da sind die Berichte über Chatbots, die Falschinformation zu Nachrichten jeder Art und Qualität reproduzieren, mit Fehlerquoten von einem Drittel bis fast zur Hälfte der Antworten, je nach Fragestellung der Untersuchungen.9 Da sind Geschichten über Systeme, die Propaganda narrativ verstärken. Da sind Warnungen von Journalistennetzwerken, Think Tanks und Aufsichtsbehörden, die bei jeder Gelegenheit betonen, dass KI Demokratie, Diskurs und die psychische Gesundheit der Menschen bedrohe.

Parallel dazu tauchen immer neue Anekdoten darüber auf, wie Menschen sich emotional an Chatbots binden, sie als „Coach“ oder „Freund“ wahrnehmen, obwohl die Mehrheit sie laut TÜV weiterhin als Hilfsmittel oder Arbeitserleichterug betrachtet. Einzelbeispiele werden zum kulturellen Leitmotiv ausgeweitet, selbstverständlich ohne saubere Trennung zwischen Einzelfall und strukturellem Phänomen.

Das Ergebnis ist ein Set von kleinen Bausteinen, das sich fast beliebig kombinieren lässt:

KI halluziniert, KI handelt voreingenommen, KI manipuliert, KI kann hassen, lieben, lügen, Kinder verstören, Demokratien destabilisieren. KI-Trainer sind entsetzt, Journalisten sind besorgt, Verbände sind alarmiert, Politiker sind „in Sorge“. Wenn all diese Stimmen nebeneinander positioniert sind, wirkt eine offene Position des nüchternen Gebrauchs sofort kalt, technokratisch und angeblich verantwortungslos.

Wer so gerahmt wird, hat schon verloren, bevor die eigentliche Debatte beginnt.

Am meisten irritiert mich nicht die Richtung der Kritik. Dass grosse Sprachmodelle gravierende Probleme mit Faktenkonsistenz haben, ist trivial. Dass sie bei generischen Anfragen ohne jegliche Randbedingungen in einem nicht unerheblichen Prozentsatz Nonsense ausgeben können, liegt in der Natur der Kombination aus Sprache, Statistik und unklarem Wahrheitsbegriff. Der Punkt ist nicht, dass diese Systeme per se unbedenklich, generell und ausnahmslos ungefährlich seien. Der Punkt ist, wie unterkomplex, vereinfachend und interessengeleitet der Diskurs über ihre Risiken geführt wird.

Die Newsguard-Zahlen zum Anstieg der Prozentsätze der Falschaussagen von 18 auf 35 % werden inzwischen überall wiederholt. In den Artikeln, die diese Angaben zitieren, fehlen aber regelmässig einfache Informationen, ohne die die Prozentsätze kaum interpretierbar sind. Welche Themen wurden abgefragt? Welche Promptvorlagen wurden genutzt, welche Systemeinstellungen? Wer hat die Antworten bewertet, mit welcher Referenzdatenbank? Wurde nur nach bekannten Falschbehauptungen gefragt, oder gab es auch neutrale Wissensfragen als Vergleich?

Wer solche Fragen stellt, nimmt die Methodik ernst. Wer sie konsequent weglässt, will ein Narrativ verkaufen, kein Ergebnis diskutieren.

Die TÜV-Umfrage funktioniert im Grunde genauso. Wenn man jemanden fragt, ob Technik reguliert werden soll, die potenziell gefährlich sein kann, wird die Zustimmung hoch sein, ganz egal, ob es um KI, Gentechnik oder Krypto-Derivate geht. Die interessante Frage lautet daher doch im Wesentlichen: Wie werden die Formulierungen gesetzt, welche Alternativen werden angeboten, über welchen Wissensstand verfügt die befragte Person, wenn sie antwortet.

Die Studie selbst weist darauf hin, dass nur rund 32 % der Befragten den EU-AI-Act überhaupt kennen, während gleichzeitig 83 % Regulierung generell für notwendig halten. Das heisst: Eine Mehrheit votiert für etwas, dessen konkrete Ausgestaltung sie nicht einmal dem Namen nach kennt. Politisch ist das Gold wert, sachlich ist es bestenfalls eine Messung von diffusem Unbehagen und Vertrauen in „den Staat“, die nun als demokratische Weisung an denselben Staat verkauft wird.

Wer sich lange genug mit technisch komplexen Themen auseinandersetzt, diese entwickelt, mit ihnen arbeitet, kennt das Schema. Medien brauchen einfache Geschichten, die Aufmerksamkeit generieren. Ein hinreichend komplexes technisches Expertensystem, das sich aus einer ausgeklügelten Architektur, Trainingsdaten, Optimierungszielen, Governance und emergentem Verhalten zusammensetzt, ist das Gegenteil dessen, was sich in wenigen Wörtern und einer Klickzeile vermarkten lässt.

Ergo wird die technische Komplexität elegant entsorgt. Anstelle von kunstvollen mathematischen Sprachmodellen mit Parametertuning, Einsatzkontexten und juristischer Haftung treten moralisch aufgeladene Rollenfiguren: die besorgte KI-Trainerin, der warnende TÜV, der verunsicherte Nutzer, der verantwortungsvolle Politiker. Jeder spielt seine Funktion. Niemand muss erklären, wie die Systeme wirklich arbeiten oder wie man verantwortliche Nutzung konkret definieren könnte.

Politische Entscheidungsträger lieben diese Kulisse. Man kann sich als Schutzmacht profilieren, als Anwalt des „kleinen Mannes“, der von Silicon-Valley-Konzernen überrollt wird, und parallel dazu ein Regime etablieren, das grosse Player mit eigenen Compliance-Armeen locker einhalten, während kleinere Anbieter unter der Last zusammenbrechen. Dass Zertifizierer und Beratungsfirmen parallel neue Marktsegmente entdecken, ist ein angenehmer Nebeneffekt.

Auf der wirtschaftlichen Ebene entsteht eine Allianz, die keiner offenen Konspiration bedarf. Die Interessen greifen einfach ineinander. Medien verdienen an der Angst, Prüfkonzerne verdienen anhand neuer Regulierungs-, Aufsichts- und Akkreditierungsmodellen, grosse Plattformen entledigen sich lästiger Konkurrent und es kommt zur Marktbereinigung, Politiker profilieren sich durch neue Kontrollstrukturen und verkaufen sich als harte Hunde, als Macher. Heraus kommt eine Diskursstruktur, in der gar nicht die Frage aufkommt, ob das Ganze technisch, gesellschaftlich und überhaupt einem Zweck dient.

Das eigentliche Kunststück dieser Erzählweise liegt in der Verlagerung der Verantwortung.

Nicht Unternehmen stehen im Brennpunkt, die ihre Dienstleistungen ohne robuste Sicherheitsarchitektur in kritische Kontexte werfen, sondern „die KI“, die angeblich „halluziniert“, „lügt“, „manipuliert“. Die performative Sprache entlastet genau jene Akteure, die Architekturentscheidungen treffen. Von interessierte Seite wird grossen Teilen der Bürgerschaft suggeriert, das Problem liege primär in der Natur eines neuen technischen Phänomens, nicht in der Art, in der Menschen dieses Phänomen gestalten, einbetten, kontrollieren und regulieren.

Eine Bank, die ein Sprachmodell als Beratungsinstrument einsetzt, ohne Haftungsregeln, ohne menschliche Kontrolle, ohne Protokollierung, handelt grob fahrlässig. Ein Spital, das Diagnosen halbautomatisch generieren lässt, ohne zertifizierte Prozesse und juristisch abgesicherte Guidelines, bewegt sich jenseits dessen, was man auch nur entfernt als verantwortbar bezeichnen könnte. Trotzdem wird im medialen Diskurs fast nie präzise zwischen den Systemwählern, sprich Institutionen, und dem Werkzeug unterschieden.

Gleichzeitig werden Nutzer infantilisiert. Wenn Studien im gleichen Atemzug berichten, dass ein grosser Teil der Menschen KI vor allem als Werkzeug ohne emotionale Bindung sieht, im Artikel aber genau die Einzelfälle hervorgehoben werden, in denen sich Nutzer an Chatbots klammern, dann ist das kein Zufall, sondern Manipulation. Aus der Vielzahl der Realitäten wird gezielt jene Facette hervorgezogen, die die Erzählung von der verführbaren, hilflosen Masse stützt, die dringend vor sich selbst geschützt werden müsse.

Grosse Sprachmodelle funktionieren nicht als Orakel, nicht als Ersatzreligion, nicht als Ersatzmensch, sondern als statistisch arbeitende Maschinen, die Texte generieren, Strukturen extrahieren, Muster verdichten, Ideen spiegeln. Sie sind vereinfacht ausgedrückt hochdimensionale Vektorräume, was diese nicht minder beeindruckend macht, hilfreich und liegen gelegentlich katastrophal daneben, aber sie sind nie magisch.

Gerade deswegen kann ich die Unterkomplexität dieser Debatten kaum ertragen. Während ich grosse Sprachmodelle mit klaren Eingrenzungen verwende, Antworten gegenprüfe, Risikoarchitekturen mitdenke, lese ich gleichzeitig Artikel, in denen sich Journalisten bar jeder Erfahrung, Vernunft, mit keinerlei technischem Tiefgang als Experten für Gefahreninszenierung verkaufen. Das ist nicht bloss intellektuell beleidigend, das hat handfeste Folgen.

Je mehr der Diskurs sich um generische Angstmotive dreht, desto geringer wird der Druck, dort präzise zu regeln, wo reale Risiken entstehen. Wir bräuchten Regeln, die transparent machen, wann KI in Verwaltungsakten, Urteilen, medizinischen Gutachten oder sicherheitsrelevanten Analysen eingesetzt wird. Wir bräuchten Haftungsregime, die Verantwortlichkeiten den einzelnen Akteuren wie Entwickler, Integratoren, Betreiber, Aufsichtsbehörden sauber zuordnen. Wir bräuchten Vorgaben, welche Trainingsdaten in sensiblen Feldern unzulässig sind.

Stattdessen degeneriert der Disput zu einer Kombination aus Stimmungsumfragen, dramatisierenden Einzelfallberichten und Allgemeinplätzen. Die technische Detailtiefe, die nötig wäre, um sinnvolle Normen zu formulieren, wird systematisch unterdrückt, weil sie nicht ins Schema der schnellen Erregung passt.

Wer sich die letzten Jahre aufmerksam angesehen hat, erlebt hier ein deja-vu. Die Muster gleichen sich mit irritierender Genauigkeit. Ob Corona-Politik, „Kampf gegen Desinformation“, Klimapanik oder jetzt KI-Angst: Die Mechanik wiederholt sich.

Am Anfang wird ein Problem grob und häufig verzerrt beschrieben. Anschließend wird jede Form differenzierter Kritik als verantwortungslos, „verharmlosend“ oder „wissenschaftsfeindlich“ markiert. Anschliessend verschiebt sich das Diskursfenster so weit, dass nur noch darüber gestritten wird, wie hart reguliert werden soll, nicht mehr, ob die Vorschläge überhaupt geeignet und verhältnismässig sind.

Daraus erwächst ein Metanarrativ der Dauerkrise, in der immer gerade irgendein Komplex als dermassen gefährlich markiert wird, dass Grundrechte, Mündigkeit, wissenschaftliche Redlichkeit und institutionelle Selbstkritik zur verzichtbaren Dekoration mutieren.

KI eignet sich perfekt für diese Rolle. Genug Magie, um Sorgen, Ängste, niedere Impulse, einfache Filter anzuregen. Genug Komplexität, um Laien wegzuhalten. Genug reale Risiken, um Kernbegriffe wie Datenschutz, Manipulation, kognitive Belastung ins Spiel zu bringen. Zu guter letzt eine entscheidende politische Zusatzfunktion: Wer die Deutungshoheit über den Diskurs der großen Sprachmodelle besitzt, der gewinnt damit privilegierten Zugriff auf den gesamten Informationsfluss der nächsten Jahrzehnte.

Ich habe mir angewöhnt, bei den KI-Warnartikeln eine simple Kontrollfrage zu stellen: Wird hier primär das Werkzeug problematisiert, oder werden jene, die diese technischen Produkte einsetzen, für die Nutzung verantwortlich gemacht.

Für die besprochenen Beiträge ist die Antwort unzweifelhaft. Es wird fast ausschliesslich über „die KI“ gesprochen, die angeblich immer öfter falsch liegt, Menschen verunsichert, Desinformation verbreitet. Unternehmen, Firmen, Behörden, etc. pp., die diese Produkte in ihre Prozesse einbauen, gelten als Opfer, die Bevölkerung gilt als schutzbedürftige Masse, die Regulierung gilt als naturwüchsige Notwendigkeit.

Genau diese Perspektive verweigere ich. Sobald ein Modell 35 % Unsinn zu Nachrichten ausspuckt, interessiert mich, wer es trotzdem für Nachrichtenberatung freischaltet, nicht die Tatsache, dass ein statistischer Textgenerator statistisch textgeneriert. Wenn eine Mehrheit in Umfragen nach Regulierung ruft, interessiert mich, über welche Informationen die Befragten verfügten, bevor sie antworteten, nicht die Zahl an sich.

Wer so denkt, landet zwangsläufig im Konflikt mit dem dominanten Diskurs. Das ist anstrengend, sozial unkomfortabel und oft ermüdend, die Alternative als bloßes Objekt, als Spielball von Narrativen, Studien, Regelwerken und mediengetriebenen Stimmungen genutzt zu werden, erscheint mir jedoch nicht zielführend.


  1. https://t3n.de/news/ki-trainer-raten-von-chatbots-ab-1718799 ↩︎
  2. https://www.newsguardtech.com/ai-monitor/august-2025-ai-false-claim-monitor ↩︎
  3. https://www.tuev-verband.de/studien/chatgpt-studie-2025-generative-ki-wird-zum-massenphaenomen-aber-sicherheit-und-orientierung-fehlen ↩︎
  4. Siehe Fn. 3 ↩︎
  5. https://www.handelsblatt.com/dpa/tuev-studie-ki-ki-nutzung-in-deutschland-steigt-deutlich-an/100178370.html ↩︎
  6. Siehe Fn. 3 ↩︎
  7. https://www.gamestar.de/artikel/tuev-studie-ki-nutzung-deutschland%2C3443889.html ↩︎
  8. Siehe Fn. 3 ↩︎
  9. https://www.reuters.com/business/media-telecom/ai-assistants-make-widespread-errors-about-news-new-research-shows-2025-10-21 ↩︎

Categories: Deutschland, Digitalisierung, EU, Gesellschaft, IT-Security