Nicht das Verbot ist heute die eigentliche Kunstform der Plattformmacht. Es ist die Verteilung. Wer gesehen wird, wem Anschlussfähigkeit verschafft wird, wessen Beiträge aus Suche, Empfehlungen, Trends, Antworten und Timelines langsam herausgedrückt werden, entscheidet den politischen und publizistischen Effekt oft gründlicher als jede offene Löschung. Gerade darum führt der öffentliche Diskussion über Shadowbanning so häufig in die Irre. Sie ist meist zu grob für ein Feld, das technisch präzise, regulatorisch vermessen und empirisch nur unter Mühen zugänglich ist. Wer wissen will, was zu 𝕏 zwischen 2024 und 2026 tatsächlich belastbar belegt ist, muss zuerst den Nebel lichten.1
Die starke These, 𝕏 betreibe plattformweit eine konsistente, gezielt politische, nicht policy getriebene Unterdrückung dissidenter Narrative als solcher, lässt sich mit dem derzeit öffentlich zugänglichen Material nicht hart belegen. Die schwache, aber substantiell folgenreichere These ist dagegen solide: 𝕏 setzt weiterhin ausdrücklich dokumentierte Mechanismen ein, die Inhalte nicht notwendig löschen, aber ihre Auffindbarkeit, Empfehlbarkeit und Reichweite herabsetzen. Diese Mechanismen heissen nicht zufällig Restricted Reach, Visibility Filtering, Search Delisting oder Downranking. Sie sind Bestandteil der von 𝕏 selbst beschriebenen Durchsetzungsarchitektur.2
Daraus folgt: Löschung, Kennzeichnung, Warnhinweis, Suchentlistung, Reichweitenbeschränkung, Ranking Herabstufung und Kontosperrung sind nicht dasselbe. Eine Löschung entfernt den Inhalt. Ein Label rahmt ihn semantisch. Ein Interstitial baut Reibung ein. Search Delisting lässt einen Account oder Beitrag aus Suchvorschlägen oder Suchergebnissen verschwinden, ohne ihn zu löschen. Restricted Reach und Visibility Filtering verschieben einen Inhalt aus den starken Distributionsflächen heraus. Er bleibt technisch vorhanden, verliert aber die algorithmische Anschlussfähigkeit, die ihn aus dem Profil des Autors hinaus in die Öffentlichkeit tragen würde. Downranking ist die leisere Variante desselben Vorgangs. Was oben stand, rutscht nach unten. Was im Antwortbaum sichtbar war, landet hinter „weitere Antworten“. Was im Feed organisch auftauchte, wird unscheinbar oder gar unsichtbar.
𝕏 selbst liefert für diese Diagnose bereits mehr Material. Im Help Center erklärt die Plattform offen, dass sie die Reichweite von Beiträgen beschränkt, wenn diese gegen Regeln verstossen und für andere Nutzer eine negative Erfahrung schaffen, indem sie „less discoverable“ gemacht werden. Das ist keine Deutung von Kritikern, sondern die Eigenbeschreibung des Unternehmens. Die Plattform nennt auch die praktischen Folgen: Ausschluss aus Suchergebnissen, Trends und empfohlenen Benachrichtigungen, Entfernung aus „For You“ und „Following“, Beschränkung der Auffindbarkeit auf das Autorenprofil und Downranking in Antworten. Parallel beschreibt 𝕏, dass Reichweite auch aus anderen Gründen begrenzt sein kann, etwa wegen Qualitäts und Sicherheitsranking, Experimente, Spam Fehlklassifikationen, technischer Probleme oder anderer Signale, die der Nutzer von aussen kaum sauber isolieren kann. Schon an dieser Stelle fällt die triviale Auslegung in sich zusammen, wonach entweder alles frei oder alles zensiert sei. Was dokumentiert ist, ist ein gestuftes, signalbasiertes System der Sichtbarkeitskontrolle.3
Diese Logik endet nicht bei allgemeinen Hilfetexten. 𝕏s Transparenzunterlagen führen die Philosophie „Freedom of Speech, Not Freedom of Reach“ ausdrücklich als Durchsetzungsprinzip. Der globale Transparenzbericht für das erste Halbjahr 2024 sagt es in bemerkenswerter Klarheit: Beiträge werden „only where appropriate“ in ihrer Reichweite beschränkt, um sie als Alternative zur Entfernung weniger auffindbar zu machen. Der DSA Transparenzbericht vom April 2024 weist für den Zeitraum vom 21. Oktober 2023 bis zum 31. März 2024 insgesamt 502’920 Restricted Reach Labels aus. Im Bericht vom April 2025 und im Bericht vom Oktober 2025 tauchen eigene Kategorien für Restricted Reach Labels, Restricted Reach Complaints und Visibility Filtering Indicators erneut auf. Die Plattform führt die Kategorie selbst, zählt sie selbst und dokumentiert Beschwerden und Aufhebungen selbst.4
Der DSA Kontext macht die Sache nicht kleiner, sondern grösser. Die Europäische Kommission hat 𝕏 seit Ende 2023 fortlaufend unter dem Gesichtspunkt seiner Recommender Systeme, seiner Risikobewertung und seiner algorithmischen Steuerung im Visier. Im Januar 2025 verlangte sie zusätzliche interne Unterlagen zum Recommender System und zur Dokumentation jüngerer Änderungen. Im Januar 2026 weitete sie die Untersuchung auf Grok und zugleich auf 𝕏s Risikomanagementpflichten im Bereich der Recommender Systeme aus. Im Dezember 2025 verhängte sie zudem eine Geldbusse von 120 Millionen Euro gegen 𝕏.5
Der derzeit stärkste belastbare Befund betrifft nicht geheime Listen missliebiger Dissidenten, sondern externe Links. Die NDSS Arbeit von Alessandro Galeazzi und Mitautoren analysiert mehr als 40 Millionen Posts aus Debatten zum Ukraine Krieg und zur US Präsidentschaftswahl 2024. Ihr Kernresultat lautet: Der Algorithmus bestraft Beiträge mit externen Links systematisch, und zwar bis zu einem Faktor acht, unabhängig von ideologischer Ausrichtung oder Quellenglaubwürdigkeit. Zugleich finden die Autoren accountbezogene Unterschiede, etwa zwischen RT und The Kyiv Independent oder zwischen Donald Trump und Kamala Harris. Das spricht für account und signalbasierte Gewichtungen. Es spricht aber gerade nicht für eine einfache These, wonach allein die ideologische Botschaft systematisch sanktioniert würde.6
Die Nature Studie von Germain Gauthier, Roland Hodler, Philine Widmer und Ekaterina Zhuravskaya zwingt die Debatte noch stärker aus dem gewohnten Lagerreflex. In einem randomisierten Feldexperiment mit aktiven US Nutzern führte der Wechsel vom chronologischen zum algorithmischen Feed zu mehr Engagement, zu einer Verschiebung politischer Einstellungen in konservative Richtung und zu einer Unterverteilung traditioneller Medien bei gleichzeitiger Verstärkung konservativer Inhalte und politischer Aktivisten. Das ist für die Rede von der digitalen Öffentlichkeit vielleicht unerfreulich, je nach Auslegung, aber analytisch ausgesprochen nützlich. Denn diese Daten sprechen gegen die simple Erzählung, wonach 𝕏 systemkritische oder rechte Inhalte generell drossele. Sie zeigen vielmehr, dass algorithmische Sichtbarkeit politisch schief liegen kann, egal in welche Richtung. Wer also pauschal behauptet, abweichende Inhalte würden auf 𝕏 stets gedämpft, ignoriert gerade die stärkeren Studien. Was belegt ist, ist politische Verzerrung durch Ranking. Welche Richtung diese im Einzelfall nimmt, ist von Plattformlogik, Engagement Dynamik und Akteursstruktur abhängig, nicht von einer einzigen Totalerklärung.7
An dieser Stelle wird der Unterschied zwischen Beobachtung und Interpretation entscheidend. Beobachtung: 𝕏 dokumentiert Reichweitenbeschränkung selbst. Beobachtung: Suchsysteme filtern Inhalte nach Qualitäts, Sicherheits und Verhaltenssignalen. Beobachtung: externe Links verlieren massiv an Sichtbarkeit. Beobachtung: der algorithmische Feed kann konservative Inhalte und Aktivisten überproportional ausspielen. Interpretation: Sichtbarkeit auf 𝕏 ist keine neutrale Verteilungsfrage, sondern ein technisches Machtregime. Werturteil: Wer nur auf offene Löschungen starrt, verfehlt das eigentliche Dispositiv der Gegenwart. Das Problem der Plattformmacht beginnt längst nicht erst bei der Unmöglichkeit zu sprechen. Es beginnt viel früher, bei der stillen Entscheidung, wer überhaupt noch hörbar gemacht wird.8
Unter dokumentierten Einzelfällen ragt Danny Mekić deutlich heraus. Mekić kritisierte auf 𝕏 die geplante EU CSAM Regulierung. Andere Nutzer bemerkten, dass sein Profil in der Suchvorschlagsfunktion nicht mehr auffindbar war. 𝕏 reagierte zunächst mit ausweichenden Standardformulierungen. Später bestätigten die Anwälte der Plattform, dass seine Beiträge eine Sichtbarkeitsbeschränkung ausgelöst hatten, die nach interner Überprüfung wieder aufgehoben worden sei. Die Analyse des DSA Observatory hält fest, dass das Amsterdamer Gericht dies als Fall stiller Suchentlistung behandelte und klar machte, dass auch „restrictions of visibility“ unter Artikel 17 DSA einer proaktiven Begründungspflicht unterliegen. Der Fall beweist nicht die Existenz einer geheimen politischen Feindesliste. Er beweist etwas zugleich Banaleres und Gefährlicheres: Automatisierte oder heuristisch getriggerte Systeme können legale politische Kritik faktisch unsichtbar machen.9
Der Fall Mekić ist auch deshalb aufschlussreich, weil er die verführerische, aber falsche Wahl zwischen Absicht und Wirkung aufbricht. Selbst wenn keine böswillige menschliche Intention vorlag, sondern eine Fehlklassifikation im Umfeld sensibler Kinderschutzbegriffe, ändert das an der Wirkung nichts. Sichtbarkeit war reduziert, Auffindbarkeit war zerstört, Transparenz fehlte. Für die betroffene Äusserung spielt es nur begrenzt eine Rolle, ob der Eingriff aus ideologischer Feindseligkeit, automatisierter Übervorsicht oder schlechter Heuristik entstand. Die neue Macht ist oft nicht personalisiert genug, um sich in die bequeme Figur des Zensors zu fügen, und doch wirksam genug, um öffentliche Rede in ihren Distributionspfaden zu deformieren.10
Der eigentliche Punk liegt jedoch tiefer. Nicht jeder Reichweiteneinbruch ist eine politische Sanktion. 𝕏 dokumentiert selbst Experimente, Qualitätsfilter, technische Probleme, Spam Erkennung, Suchqualitätslogik und verhaltensbasierte Ranking Signale. Die Suchrichtlinien nennen ausdrücklich Near Duplicate Posts, Duplicate Links, automatisierte Antworten, ähnliche Nachrichten über mehrere Konten und andere Muster, die zur Ausfilterung aus der Suche führen können. Die Suchoberfläche selbst trennt „Top“ und „Latest“, wobei „Top“ nach Relevanz und Popularität gefiltert wird, während „Latest“ näher an Chronologie liegt. Schon diese offizielle Architektur reicht, um zahlreiche Sichtbarkeitseffekte zu erzeugen, die von aussen wie Zensur aussehen können, ohne eine gezielte politische Gesamtstrategie beweisen zu müssen. Das macht Misstrauen nicht unvernünftig. Die Plattform ist undurchsichtig genug, dass der Verdacht oft plausibel bleibt; sie ist aber auch komplex genug, dass viele Verdachtsmomente an methodisch banalen Störvariablen scheitern können.11
Heisst das, systemkritische, EU kritische, NATO kritische, WHO kritische oder sonst dissidente Inhalte könnten gar nicht betroffen sein. Natürlich nicht. Solche Inhalte können faktisch sehr wohl getroffen werden. Sie können sensible Triggerfelder berühren, heuristische Überreaktionen auslösen, von Keyword Sperren oder risk based filtering erfasst werden, häufiger externe Links enthalten und damit in mehreren Schichten zugleich Sichtbarkeit verlieren. Der Mekić Fall belegt gerade, dass politische Kritik an einer sensiblen Regulierung in eine sicherheitsbezogene Fehlklassifikation geraten kann. Was aus dieser Plausibilität jedoch nicht folgt, ist der harte Nachweis einer konsistenten, gezielt politischen Gesamtstrategie gegen Dissens als solchen. Die zitierten empirischen Arbeiten ziehen die Grenze genau hier. Sie zeigen Schlechterstellung bestimmter Formen, Quellen, Signale und Akteure. Sie zeigen auch politische Verzerrung. Sie zeigen aber nicht, dass 𝕏 plattformweit nach dem Muster „abweichende Meinung runter, regimetreue Meinung hoch“ operiere.12
Moderne Plattformmacht arbeitet nicht mehr primär mit dem Holzhammer der Löschung, sondern mit der Grammatik der Distribution. Sie sortiert Sichtbarkeit, moduliert Auffindbarkeit, gewichtet Anschlussfähigkeit und schreibt damit an der sozialen Wirklichkeit der Rede mit, lange bevor ein Inhalt formal verschwindet.13
Wer den Umbau von 𝕏 bereits als Übergang vom Sozialgraphen zur Vorhersagemaschine begriffen hat, erkennt hier die zweite Seite derselben Medaille. Dieselbe Infrastruktur, die entscheidet, welcher Beitrag mit welcher Wahrscheinlichkeit zu Like, Antwort, Repost oder Verweildauer führt, entscheidet eben auch, welche Rede öffentlich anschlussfähig bleibt. Löschung ist der grobe Eingriff, sichtbar, konfliktförmig, rechtlich leicht markierbar. Reichweitenarchitektur ist subtiler. Sie arbeitet mit Gewichten, Ausschlüssen, Friktionen, Eligibility Regeln und Relevanzsignalen. Das ist das neue Herrschaftswissen der Plattformen, die Verwandlung normativer Macht in technisches Scoring.
Wer also nur auf Löschungen starrt, versteht das Machtzentrum digitaler Öffentlichkeiten nicht. Das Signum der neuen Ordnung ist nicht in erster Linie das Verbot eines Satzes, sondern die stille Entscheidung, ob dieser Satz gefunden, weitergereicht, algorithmisch ernst genommen oder im Rauschen der Plattform versenkt wird. 𝕏 dokumentiert, dass es diese Werkzeuge benutzt. Die Forschung zeigt, dass sie messbare Folgen haben. Der Mekić Fall belegt, dass auch legale politische Kritik darunter geraten kann. Die robusteren Studien ziehen zugleich eine Grenze gegen allzu grosse Behauptungen. Zwischen berechtigtem Misstrauen und belegbarer Aussage verläuft kein angenehmer, aber ein notwendiger Grat.
In eigener Sache
Diese Arbeit entsteht nicht im luftleeren Raum. Sie kostet Zeit, Geld, Infrastruktur und sie läuft seit langem unter den Bedingungen eines dokumentierten Rechtsstreits, den ich öffentlich offengelegt habe. Wer dazu beitragen will, dass meine publizistischen Texte, meine technischen Projekte und diese Form unabhängiger Arbeit fortbestehen, kann meine Spendenseite teilen oder mich direkt unterstützen.
Unterstützungsmöglichkeiten:
https://www.gofundme.com/f/rechtsverteidigung-existenzsicherung-arbeitsgericht-lisbon
Oder direkt hier:
Mille fois an alle Spender.
Quellen
- 𝕏 Help Center, „Our range of enforcement options“, „About specific instances when a post’s reach may be limited“, „About search rules and restrictions“, „Search Recommendations“ und „Search result FAQs“. Diese Dokumente beschreiben die operative Ebene von Reichweitenbeschränkung, Suchfilterung, Qualitäts und Sicherheitsranking sowie die Unterscheidung von „Top“ und „Latest“. https://help.x.com/en/rules-and-policies/x-reach-limited , https://help.x.com/de/rules-and-policies/enforcement-options , https://help.x.com/en/rules-and-policies/x-search-policies , https://help.x.com/en/resources/recommender-systems/search-recommendations , https://help.x.com/en/using-x/top-search-results-faqs ↩︎
- Ebd. ↩︎
- Ebd. ↩︎
- 𝕏 Transparency Center, Global Transparency Report H1 2024 sowie DSA Transparency Reports April 2024, April 2025 und Oktober 2025. Diese Quellen dokumentieren die Eigenbeschreibung „Freedom of Speech, not Freedom of Reach“, die Zahl der Restricted Reach Labels und die fortgesetzte Ausweisung von Restricted Reach Complaints und Visibility Filtering Indicators. https://transparency.x.com/content/dam/transparency-twitter/2024/x-global-transparency-report-h1.pdf , https://transparency.x.com/dsa-transparency-report-2024-april.html , transparency.x.com/dsa-transparency-report-2025-april.html , transparency.x.com/dsa-transparency-report-2025-october.html ↩︎
- Europäische Kommission, „Commission addresses additional investigatory measures to X in the ongoing proceedings under the Digital Services Act“, „Commission investigates Grok and X’s recommender systems under the Digital Services Act“ sowie „Commission fines X €120 million under the Digital Services Act“. https://digital-strategy.ec.europa.eu/en/news/commission-addresses-additional-investigatory-measures-x-ongoing-proceedings-under-digital-services ↩︎
- Alessandro Galeazzi, Pujan Paudel, Mauro Conti, Emiliano De Cristofaro, Gianluca Stringhini, „Revealing The Secret Power: How Algorithms Can Influence Content Visibility on Twitter/X“, NDSS 2026. Massgeblich für den Befund zur Link Penalty, zu accountbezogenen Sichtbarkeitsunterschieden und zur Vorsicht gegenüber überzogenen ideologischen Verallgemeinerungen. https://www.ndss-symposium.org/ndss-paper/revealing-the-secret-power-how-algorithms-can-influence-content-visibility-on-twitter-x/ ↩︎
- Germain Gauthier, Roland Hodler, Philine Widmer, Ekaterina Zhuravskaya, „The political effects of X’s feed algorithm“, Nature, 18. Februar 2026. Massgeblich für die Befunde zur Verstärkung konservativer Inhalte, zur Abschwächung traditioneller Medien und zu den asymmetrischen politischen Effekten algorithmischer Feeds. https://www.nature.com/articles/s41586-026-10098-2 ↩︎
- Siehe Fn. 1. ↩︎
- Paddy Leerssen, „The DSA’s first shadow banning case“, DSA Observatory, 6. August 2024. Massgeblich für die Rekonstruktion des Falls Danny Mekić, der stillen Suchentlistung, der Begründungspflicht nach Artikel 17 DSA und der rechtlichen Einordnung von Sichtbarkeitsbeschränkungen. https://dsa-observatory.eu/2024/08/06/the-dsas-first-shadow-banning-case/ ↩︎
- Ebd. ↩︎
- Siehe Fn. 1. ↩︎
- Siehe Fn. 6. ↩︎
- Siehe Fn. 4. ↩︎
