Vom grossen Filter Teil I

Spontane Analogien sind die seltsamsten Geschenke des Denkens: Sie fallen einem zu, ohne dass man sie bestellt, und sie verlangen danach, entweder verworfen oder präzisiert zu werden. Heute Nachmittag, zwischen Nachrichtenfetzen, Grundrechtsdebatten und einem Gespräch über Igor Schafarewitschs Todestrieb im Sozialismus, hat sich mir eine Metapher aufgedrängt, die zugleich verführerisch und gefährlich ist, weil sie so bequem erklärt, was sich historisch so unerquicklich wiederholt: Kollektivistische Herrschaftsformen als zivilisatorischer Engpass, als eine Art grosser Filter, den man überwinden muss, wenn man nicht bloss Staaten baut, sondern auch eine raumfahrende, explorierende Cultur werden will.

Der Reiz liegt auf der Hand. Der Preis ebenfalls. Denn der Begriff „grosser Filter“ stammt nicht aus der Geschichtsschreibung, sondern aus einer Spekulationszone zwischen Kosmologie, Evolutionslogik und Fermi-Paradox. Und wer damit hantiert, sollte die Klingen zählen, bevor er sie herumwirbelt.

Das Universum wirkt, wenigstens in unserer Nachbarschaft, erschreckend still. Keine sichtbaren technosignaturen, keine Kolonisationsspuren, keine offensichtlichen Imperien, die durchs All pflügen. Diese „Grosse Stille“ ist der Ausgangspunkt des Fermi-Problems, unabhängig davon, wie man es philosophisch bewertet.1

Robin Hanson hat daraus die Great-Filter-Idee destilliert. Nicht als Beweis, sondern als Strukturhypothese: Zwischen toter Materie und expandierendem, dauerhaftem Leben muss es mindestens einen Schritt geben, der so unwahrscheinlich oder so instabil ist, dass fast alles daran scheitert. Der Filter kann früh liegen, Leben entsteht selten, er kann spät liegen, Zivilisationen kippen kurz vor der Expansion. Hansons Text ist in seinem Kern eine schlichte, harte Rechenintuition: Wenn der Kosmos alt und gross ist und dennoch leer wirkt, dann ist eine der Übergangsstufen extrem selten oder extrem fragil.2

Genau an dieser Stelle beginnt die Versuchung, aus dem Modell eine Erzählung zu machen. Eine Erzählung ist angenehm, weil sie aus Stille Sinn formt. Wissenschaftlich ist sie erst dann etwas wert, wenn sie die Grenze zwischen was beobachte ich und was behaupte ich über Mechanismen sauber markiert.

Es gibt kaum ein Feld, in dem intellektuelle Redlichkeit so billig zu haben wäre und so selten eingelöst wird. Der grosse Filter ist nicht Wissenschaft wie Gravitation. Er ist ein Rahmen, eine Frageform, eine methodische Provokation.

Meine Analogie setzt nun an einer späten Stufe an: nicht bei der Entstehung von Leben, nicht bei der Entstehung von Intelligenz, sondern bei der Entstehung und Stabilisierung von hochkomplexen, staatsbildenden Systemen, die ihre eigene Wissensökologie nicht zerstören.

Raumfahrende und explorierende Culturen

Der Ausdruck raumfahrend wird gerne mit einem Startfenster verwechselt. Einmal hoch, Foto, Flagge, Mythos. Für das, was der grosse Filter eigentlich meint, reicht das nicht.

Eine raumfahrende und explorierende Cultur, so wie ich es hier verwende, ist ein System, das über lange Zeit hinweg drei Eigenschaften simultan tragen kann: erstens eine industrielle und wissenschaftliche Basis, die nicht nur einzelne Projekte stemmt, sondern die eigene Komplexität reproduziert, inklusive Ausbildung, Präzisionsfertigung, Normierung, Qualitätskontrolle; zweitens eine Energie- und Ressourcenökonomie, die nicht beim nächsten politischen Fieberanfall die Grundlagen zerreisst; drittens eine Wissensordnung, die Irrtum nicht tabuisiert, sondern produktiv macht, weil sie Fehlerkorrektur als Normalmodus akzeptiert.

Das ist eine bewusst strenge Definition. Sie schliesst nicht aus, dass autoritäre Systeme Meilensteine erreichen. Sie schliesst nur aus, dass man ein Raumfahrtprogramm mit zivilisatorischer Expansion gleichsetzt. Der Filter, falls er existiert, interessiert sich für Dauer.

Geschlossene Gesellschaften

Das Wort geschlossen ist im politischen Streit eine Keule. Ich brauche es als Diagnoseinstrument. Geschlossen ist eine Gesellschaft dann, wenn ihre zentralen Institutionen systematisch verhindern, dass Kritik, Abweichung und unangenehme Daten an den Ort gelangen, wo Entscheidungen gefällt werden, und zwar nicht nur aus Zufall, sondern als Strukturprinzip. Das kann brutale Repression sein, das kann subtile Karriereökonomie sein, das kann die sakralisierte Ideologie sein, die schon die Fragestellung als Blasphemie kodiert.

Karl Popper hat den Gegensatz offen versus geschlossen als zivilisatorisches Motiv verhandelt, nicht primär als Parteipolitik, sondern als Frage, ob kritische Diskussion, institutionelle Begrenzung von Macht und piecemeal Reform möglich bleiben.3

Für meine Analogie ist entscheidend: Eine geschlossene Gesellschaft ist nicht nur eine Gesellschaft mit weniger Freiheit. Sie ist ein System mit einem anderen Datenfluss. Ihr Problem ist nicht zuerst Ethik, sondern Informationsverarbeitung. Ethik kommt später, und sie kommt dann oft in der bekannten Form: Reinheitsrituale, Ausgrenzung, Sprachpolizei, moralische Ersatzwährung. Der epistemische Kern liegt tiefer: Wer das Falsche sagt, wird sanktioniert; wer das Richtige sagt, wird belohnt, wenn es zum Plan passt; wer das Wahre sagt, wird gefährlich.

Diese Diagnose ist nicht gleichbedeutend mit Zentralisierung. Zentralisierung ist ein Werkzeug. Epistemische Schliessung ist ein Betriebszustand. Man kann Zentralisierung ohne totale Schliessung denken, etwa in Krisen. Man kann Schliessung ohne formale Zentralisierung erleben, etwa durch gleichgeschaltete Milieus. Mein Filterkandidat ist Schliessung, nicht bloss Staat.

Hayek: Information als verteiltes, lebendiges Gut

Friedrich August von Hayek hat in „The Use of Knowledge in Society“ den Kern des Koordinationsproblems in einen Satz gepresst, der wie ein Skalpell wirkt: Das Wissen, das für vernünftige Entscheidungen nötig ist, liegt nicht an einem Ort. Es ist fragmentiert, lokal, oft unausgesprochen, in Köpfen, in Praktiken, in situativen Signalen. Planung scheitert nicht primär am schlechten Willen der Planer, sondern daran, dass sie das relevante Wissen gar nicht besitzen können.4

Hayeks Argument ist kein theologischer Marktgesang, sondern eine Informationsbehauptung. Preise, Wettbewerb, dezentrale Entscheidungen sind in seinem Bild keine Ideologie, sondern ein Verfahren, um verteiltes Wissen in handhabbare Signale zu transformieren. Daraus folgt etwas, das für meine Analogie zentral ist: Je komplexer ein System wird, desto mehr wird es auf Mechanismen angewiesen, die lokale Abweichungen sichtbar machen, ohne dass man sie vorher zentral katalogisieren muss.

Das ist der Punkt, an dem meine Gedanken zur Lüge als Betriebsstoff andocken. Eine Gesellschaft, die sich selbst zwingt, ihre Daten zu glätten, betreibt nicht bloss Propaganda. Sie amputiert die Informationskanäle, die sie bräuchte, um ihre eigene Komplexität zu steuern. Hayeks Text liefert dafür die nüchterne Grundlage: Ohne disperse Wissensnutzung wird Koordination zur Illusion.

Mises: Kalkulation als Realitätsprüfung durch Preise

Ludwig von Mises geht noch eine Stufe tiefer. Sein Kalkulationsproblem ist die Behauptung, dass eine planwirtschaftliche Ordnung ohne private Verfügung über Produktionsmittel und ohne echte Marktpreise für diese Mittel die Opportunitätskosten nicht sinnvoll vergleichen kann. Nicht weil niemand rechnen kann, sondern weil die Rechengrundlage fehlt. Ohne Preise für Kapitalgüter gibt es keinen seriösen Weg, Alternativen gegeneinander zu bewerten, Ressourcenknappheit zu internalisieren, Fehlinvestitionen früh zu erkennen.5

Man kann dieses Argument historisch und politisch verschieden bewerten. Für meinen Zweck genügt ein enger, methodischer Extrakt: Kalkulation ist eine Form von Realitätskontakt. Sie zwingt Entscheidungen, sich an Knappheiten zu messen. Entfernt man diese Messung, dann entsteht eine Zone, in der Pläne nicht mehr am Resultat, sondern am Bekenntnis gemessen werden. Die Jahreszahl ist dann nicht mehr eine Bilanz, sondern ein Ritual.

Auch hier gilt: Mises beweist nicht, dass zentralisierte Systeme keine Hochtechnologie hervorbringen. Er beschreibt vielmehr ein Strukturmisstrauen: Je komplexer die Ökonomie, desto schneller wächst die Fehlallokation, wenn der Preismechanismus als Informationssystem ausgeschaltet oder politisch deformiert wird. In einer Technosphäre, die auf Präzision, Zulieferketten, Qualitätsregime und Innovationstempo angewiesen ist, wird das teuer. Sehr teuer.

Mission-orientierte Ingenieurleistung

Nun kommt der Einwand, der mich selbst sofort bremst, weil er historisch so offensichtlich ist: Autokratien bauen Raketen. Die UdSSR war früh im Orbit. China ist längst im Club. Indien ist nicht nur symbolisch unterwegs. Auch Golfstaaten kaufen sich Kompetenz und Infrastruktur. Wer daraus schliesst, Schliessung verhindere Technik, hat eine einfache Wahrheit übersehen: Es gibt Aufgabenklassen, bei denen Zentralisierung, klare Zielmetrik und Ressourcenmobilisierung enorme Leistung freisetzen.

Ich nenne das mission-orientierte Ingenieurleistung. Ihr Charakter ist spezifisch: ein enges Ziel, das sich in wenigen Kennzahlen abbilden lässt; ein politischer Wille, der Ressourcen ohne lange Deliberation bündeln kann; eine Organisationsform, die Widerspruch als Störung behandelt, solange er nicht unmittelbar die Zielmetrik trifft.

Das Manhattan-Projekt ist ein klassisches Beispiel, ohne dass es eine Planwirtschaft gewesen wäre. Auch Apollo war zentral, militärisch geprägt, mit massivem Budget. Die Logik lautet: Finde die besten Leute, gib ihnen Geld, schütze das Programm, rette das Ziel vor der Alltagsbürokratie. Das funktioniert, solange die Mission klar ist und solange die Rückkopplung zwischen Fehler und Korrektur nicht politisch vergiftet wird.

Die gefährliche Pointe: Solche Programme können in geschlossenen Gesellschaften sogar leichter entstehen, weil Widerstände geringer sind. Wer nur auf den Start schaut, kann daraus eine falsche Meta-Theorie ziehen: Also ist Offenheit gar nicht nötig.

Dezentrale Entdeckungs- und Fehlerkorrekturmaschine

Die andere Seite ist weniger glamourös und deshalb oft unsichtbar: Eine dezentral organisierte Entdeckungs- und Fehlerkorrekturmaschine, getragen von Wettbewerb, offenem Diskurs, freier Wissenschaft, Preissignalen, rechtlicher Berechenbarkeit, pluralen Institutionen, die Macht begrenzen und Dissens nicht kriminalisieren. Das klingt nach politischem Lehrbuch, ist aber, in meinem Zusammenhang, kein Moralappell, sondern ein Design für Wissensproduktion.

Hier ist der Unterschied fundamental. Mission-orientierte Ingenieurleistung kann in einem Korridor funktionieren, der epistemisch partiell offen bleibt, zumindest innerhalb des Projekts. Eine explorierende Cultur braucht Offenheit als Normalzustand, nicht als Sondergenehmigung. Sie lebt davon, dass tausend Experimente parallel scheitern dürfen, dass Konkurrenz nicht als Verrat gilt, dass schlechte Ideen sterben, ohne dass ihre Träger sterben müssen.

Ich formuliere das bewusst schroff: Eine Cultur, die Irrtum bestraft, verliert nicht nur Freiheit. Sie verliert die Fähigkeit, die Grenze des Wissens zu verschieben, weil sie den Mechanismus zerstört, der Grenzverschiebung erst möglich macht.

Varietät: Cybernetik als Klammer zwischen Ökonomie und Politik

W. Ross Ashby liefert eine Sprache, die den Übergang von Ökonomie zu Governance elegant macht. Sein Gesetz der erforderlichen Varietät sagt, grob gesprochen: Ein Regler kann Störungen nur dann beherrschen, wenn er genügend interne Zustände, genügend Reaktionsmöglichkeiten hat, um die Vielfalt der Störungen abzubilden. In Ashbys Formulierung ist das ein hartes Verbot für naive Steuerfantasien. Man kann Varietät nicht einfach wegdekretieren, ohne Steuerfähigkeit zu verlieren.6

Setzt man dieses Gesetz in den gesellschaftlichen Kontext, dann erhält man ein Bild, das mich nicht mehr loslässt: Epistemische Schliessung reduziert Varietät. Sie reduziert nicht die Varietät der Welt, sondern die Varietät der Reaktionsmöglichkeiten. Die Störungen bleiben. Die Antworten werden monoton. Das System wird spröde. Es wirkt stabil, bis es bricht.

Das ist keine moralische Bewertung, sondern ein mechanisches Argument. Eine geschlossene Gesellschaft, die sich über Reinheit, Einheit, Konformität definiert, mag kurzfristig Energie sparen, weil sie Konflikt unterdrückt. Langfristig bezahlt sie mit Steuerunfähigkeit.

Frontier-Innovation: die letzten Prozente sind kein Luxus, sondern der Filterkandidat

Hier wird mein Analogon konkret, weil man ein technisches Beispiel nehmen kann, das brutal wenig Raum für Rhetorik lässt: EUV-Lithografie7. ASML8 beschreibt EUV als eine Technologie, die „unique to ASML“ sei. Das ist Unternehmenssprache, aber sie verweist auf eine reale Besonderheit: extreme Präzision, Optik, Quellen, Prozessstabilität, eine Lieferkette aus Hunderten von Spezialisten, die gemeinsam etwas bauen, das man nicht einfach aus einem Lehrbuch nachmontiert.9 10

Reuters berichtete im Dezember 2025 über Chinas staatlich koordinierte Anstrengung, EUV zu replizieren: ein Prototyp, der EUV-Licht erzeugt und in Tests läuft, aber noch keine funktionierenden Chips produziert; ein Zielkorridor 2028, womöglich realistischer 2030; viel reverse engineering, auch über Komponenten älterer Maschinen und Wissen ehemaliger ASML-Leute.11

Aufholjagd ist möglich, und sie kann schnell sein.

Aber der Abstand zur Frontier liegt nicht nur im Wissen, sondern in der gesamten Ökologie, die Fehler sichtbar macht, die Qualität erzwingt, die Zulieferketten stabilisiert, die Abweichungen nicht politisiert.

Der Filter, falls er spät liegt, könnte genau hier sitzen. Nicht in der Fähigkeit, ein Gerät irgendwie zum Leuchten zu bringen, sondern in der Fähigkeit, über Jahrzehnte hinweg die letzten Prozente an Präzision, Fehlertoleranz und Skalierung zu liefern, ohne dass die Wissensordnung des Systems in Loyalitätslogik kippt.

Wer diese Differenz für eine Kleinigkeit hält, versteht Hochtechnologie nicht. Die letzten Prozente sind keine Kosmetik. Sie sind die Schwelle, an der man vom Demonstrator zur Zivilisationsmaschine wird.

Energetische lokale Minima: Tainter als nüchterner Verwandter

Meine Metapher vom „energetischen lokalen Minimum“ klingt nach Physik, und das ist kein Zufall.12 13 Gesellschaften suchen, wie viele komplexe Systeme, Zustände, die kurzfristig stabil sind und Ressourcen sparen. Joseph Tainter hat das ohne metaphysische Überhöhung beschrieben: Komplexität ist eine Problemlösungsstrategie, doch mit zunehmender Komplexität sinkt der Grenznutzen, während die Kosten weiter steigen. Irgendwann wird Vereinfachung, im Extrem der Kollaps, eine rational nachvollziehbare Reaktion auf Überdehnung.14

Dieses Argument passt beunruhigend gut zu ideologischen Zentralisierungen. Ein Reinheitsregime reduziert Vielfalt, reduziert Konflikt, reduziert offene Debatte. Kurzfristig kann das als Effizienz wirken, als Ordnung, als Ruhe. Langfristig kann es die Fähigkeit zerstören, neue Probleme zu lösen, weil jedes neue Problem mehr Komplexität erzwingt, während das System gelernt hat, Komplexität als Gefahr zu behandeln.

Hier schliesst sich der Kreis zum grossen Filter: Vielleicht ist nicht die Technik die Hürde. Vielleicht ist die Hürde die Fähigkeit, Komplexität zu tragen, ohne in eine epistemische Selbstvergiftung zu kippen.

Meine Hypothese

Das Ganze bleibt spekulativ, und der grosse Filter selbst ist ein Rahmen, kein Messgerät.

Meine Hypothese formuliere ich als testbare Behauptung im Bereich politischer Ökonomie und Innovationsforschung: Zivilisationen, die in einen Zustand chronischer epistemischer Schliessung kippen, also Zensur, politisierte Wissenschaft, Planerfüllung als Wahrheit, Lüge als Betriebsstoff, verlieren im Zeitmittel ihre Fähigkeit zu Frontier-Innovation und resilienter Komplexitätssteuerung. Damit sinkt die Wahrscheinlichkeit, langfristig raumfahrend, explorierend und technologisch an der Spitze zu bleiben.

Das ist kein Satz über Tugend. Es ist ein Satz über Informationsarchitektur. Hayek liefert die Diagnose des verteilten Wissens. Mises liefert die Diagnose der Kalkulationsbasis. Ashby liefert die Diagnose der erforderlichen Varietät. Tainter liefert die Diagnose der abnehmenden Grenzerträge von Komplexität. Und EUV liefert ein modernes Beispiel für die Grausamkeit der letzten Prozente.

Die offene Flanke bleibt offensichtlich: Autokratien können mission-orientiert brillieren. Sie können sogar lange überleben. Die Frage ist eine andere, und sie ist ungemütlicher: Was passiert, wenn ein System nicht nur ein Projekt gewinnen will, sondern eine Epoche? Was passiert, wenn die Störungen nicht mehr aus einem definierten Lastenheft kommen, sondern aus einer Welt, die komplexer, schneller, widerspenstiger wird? Dann entscheidet nicht der Start. Dann entscheidet die Wissensökologie.

Der zweite Teil wird genau dort ansetzen. Ich werde die Analogie aus der Metaphernzone herausziehen und an drei Achsen prüfen: Varietät und Information, Fehlerkorrektur als gesellschaftlicher Mechanismus, Frontier-Innovation über Zeit. Und dann wird sich zeigen, ob der grosse Filter in meinem Kopf bloss ein eleganter Irrtum ist oder eine These, die sich zumindest mit wissenschaftlicher Anständigkeit anfassen lässt.


  1. https://de.wikipedia.org/wiki/Fermi-Paradoxon ↩︎
  2. https://hanson.gmu.edu/greatfilter.html ↩︎
  3. https://www.jstor.org/stable/j.ctv15r5748 ↩︎
  4. https://home.uchicago.edu/~vlima/courses/econ200/spring01/hayek.pdf ↩︎
  5. https://cdn.mises.org/economic_calculation_in_the_socialist_commonwealth.pdf ↩︎
  6. https://ashby.info/Ashby-Introduction-to-Cybernetics.pdf ↩︎
  7. https://de.wikipedia.org/wiki/EUV-Lithografie ↩︎
  8. https://de.wikipedia.org/wiki/ASML ↩︎
  9. https://www.asml.com/products/euv-lithography-systems ↩︎
  10. https://youtu.be/MiUHjLxm3V0?si=N2od741VhplUyD5A ↩︎
  11. https://www.reuters.com/world/china/how-china-built-its-manhattan-project-rival-west-ai-chips-2025-12-17/ ↩︎
  12. https://coresecret.eu/2025/12/09/von-pauli-desmet-filtern-rausch-attraktoren-nullpunktsenergie-vom-totalitarismus/ ↩︎
  13. https://coresecret.eu/2025/12/03/von-der-komplexitaet/ ↩︎
  14. https://centerforneweconomics.org/publications/excerpts-from-the-collapse-of-complex-societies/ ↩︎

Categories: Gesellschaft, Wissenschaft