Teil I1 hat den Begriff des grossen Filters2 aus der Fermi Paradox3 Debatte als Denkgerüst gesetzt und ihn mit zwei ökonomischen Alarmglocken verkabelt: Hayeks Wissensproblem4 und Mises’ Kalkulationsproblem5. Dort ist auch die Unterscheidung eingeführt worden, die mich seither nicht mehr loslässt: mission-orientierte Ingenieurleistung kann unter Zentralisierung erstaunliche Höhen erreichen, die dauerhafte Entdeckungs und Fehlerkorrekturmaschine braucht jedoch offene Kanäle, sonst wird sie sprichwörtlich blind.
Varietät und Information
Die erste harte Stelle meines Analogons liegt dort, wo man es an eine formale Kante schieben kann: Ashbys Gesetz der erforderlichen Varietät.6 In seiner knappen, fast brutalen Form lautet es: Nur Varietät kann Varietät absorbieren. Ein Regler kann eine Störungsvielfalt nur dann stabilisieren, wenn sein eigener Handlungsraum mindestens die gleiche Vielfalt abdeckt. Das ist kein politischer Slogan, sondern ein kybernetischer Satz über Steuerung, Rückkopplung, Reaktionsrepertoires.
Eine Technosphäre im 21. Jahrhundert ist ein Monster aus Interdependenzen: Lieferketten, Halbleiterfertigung, Softwarestacks, Energieinfrastruktur, Finanzsystem, Wissenschaft, Verwaltung, Recht, Kriegführung, Informationsraum. Jedes Teil erzeugt Störungen, und Störungen koppeln. Wer diese Vielfalt steuern will, braucht zwei Dinge gleichzeitig: gute Sensorik, Wahrheitssignale, die nicht gefiltert werden, weil sie politisch unbequem sind, und genug Stellgrössen, Institutionen, Märkte, Forschung, experimentelle Nischen, die reagieren dürfen. Das kybernetische Argument ist hier unbarmherzig: Schlägt man Varietät aus dem System, weil sie als dissident, irritierend oder unrein gilt, dann sinkt die Absorptionsfähigkeit. Kurzfristig wirkt es wie Ordnung. Langfristig ist es Blindflug.
Damit verschiebt sich mein Great Filter Gedanke aus dem Reich der Moral in den Bereich von Steuerbarkeit. Epistemische Schliessung ist dann nicht primär ein ethisches Problem, sondern ein Varietätsproblem. Zensur, politisierte Wissenschaft, Planerfüllung als Wahrheit: Das sind alles Mechanismen, die den Sensorraum verengen. Lüge, Verweigerung der Anerkennung von Realitäten als Betriebsstoff ist eine Besonderheit, weil sie nicht nur den Sensor vernebelt, sondern auch den Regler vergiftet: Wenn Rückmeldungen nicht mehr korrigieren, sondern bestätigen sollen, entsteht ein System, das sich selbst nur noch als Propagandaobjekt wahrnimmt.
Hier passt mein Bild des energetischen lokalen Minimums als Metapher,7 aber ich will es weniger poetisch, mehr mechanistisch fassen. Der nächste Verwandte lautet nicht Esoterik, sondern Organisationsforschung: Exploration und Exploitation, March 1991. Exploitation ist das Ausnutzen des Bekannten, das Glattschleifen, die Optimierung. Exploration ist das Suchen, das Risiko, die Variation, das Spiel. In Organisationen sind beide notwendig, aber Exploitation gewinnt leicht, weil sie früh Rendite liefert, Exploration dagegen spät und unsicher ist.8
Ein epistemisch geschlossenes Regime baut strukturell auf Exploitation: planbare Kennzahlen, demonstrierbare Leistung, Disziplin. Es kann daraus enorme Projekte stemmen, wenn Zielmetrik und Ressourcenmobilisierung klar sind. Es kann Raketen bauen, Uran anreichern, Teleskope starten. Es kann auch AI Modelle trainieren, solange Chips und Strom vorhanden sind. Die Frage ist nicht, ob es Hochtechnologie kann. Die Frage ist, ob es die Varietät und Fehlerkultur pflegt, die Frontier Innovation benötigt, also jene Innovation, bei der die Landkarte selbst falsch ist.
Das ist der Punkt, an dem China, die UAE oder Saudi Arabien als Gegenbeispiele in den Raum treten. Sie sind reale, nicht wegzudiskutierende Datenpunkte: Autokratie schliesst Raumfahrt nicht aus. Ich nehme sie als Stresstest, nicht als Widerlegung. Denn Raumfahrtprogramme sind in vielem der Idealtyp mission-orientierter Ingenieurleistung: klarer Output, klare Meilensteine, hohe Budgetmacht, starke Zentralkoordination, begrenzte öffentliche Rechenschaftspflicht. Mazzucato hat das als mission oriented policy popularisiert, mit dem Hinweis, dass grosse Sprünge oft durch staatlich definierte Missionen getrieben wurden.9
Nur: Missionen sind nicht gleich Frontier. Frontier ist dort, wo man nicht weiss, welche Subsysteme überhaupt relevant sind, und wo Fehlerrückmeldung nicht nur toleriert, sondern zum Treibstoff der Erkenntnis gemacht wird. Je komplexer das Terrain, desto mehr braucht es dezentrale Suchprozesse. Je mehr ein System diese Suchprozesse politisch domestiziert, desto häufiger landet es in einem lokalen Optimum. Das kann man sogar mathematisch als Intuition aus Kauffmans NK Landschaften ziehen: Je rauher die Fitnesslandschaft, desto häufiger enden Hillclimbs in lokalen Gipfeln, die global mittelmässig sind.10
Ich behaupte nicht, dass Gesellschaften NK Modelle sind. Ich behaupte: Das Bild erklärt, weshalb konformes Optimieren, Exploitation, in rauhen (Parameter)-Räumen zur Falle wird, und weshalb Variation, Dissens, sogar das Scheitern funktional sein kann oder auch sein muss.
Fehlerkorrektur: Popper, Merton, Polanyi
Jetzt zur zweiten Achse: Fehlerkorrektur. Ein System bleibt nur dann dauerhaft leistungsfähig, wenn es Fehler nicht nur entdeckt, sondern auch verarbeiten darf. Das ist erstaunlich banal, bis man es auf Politik und Wissenschaft überträgt. Dort wird Banalität sofort toxisch, weil Macht Strukturen baut, die Fehler verdecken.
Popper hat Wissenschaft als Prozess beschrieben, der vom Irrtum lebt, nicht von der Autorität. Lernen geschieht, weil Hypothesen scheitern dürfen.11 Merton hat die Normstruktur moderner Wissenschaft als Ethos skizziert: Universalismus, Kommunalität, Uneigennützigkeit, organisierter Skeptizismus. Man kann diese Normen naiv finden, aber sie benennen ein Funktionsprinzip: Wahrheit ist nicht Status, Wahrheit ist Verfahren.12
Polanyi hat das fast marktartig gefasst, als Republic of Science: viele, relativ autonome Exploratoren, die sich über gegenseitige Kritik und reputationsbasierte Koordination an eine verborgene Realität herantasten.13
Diese Traditionslinie ist mir wichtig, weil sie den Kern meiner Hypothese klarer macht: epistemische Schliessung ist nicht bloss Zensur. Es ist der Umbau von Fehlerkorrektur in Loyalitätsprüfung. Nicht: Was ist wahr. Sondern: Was darf wahr sein.
Hier dockt Guriev und Treismans Begriff der informational autocracy sehr sauber an. Moderne Autokraten, so ihre Analyse, regieren oft weniger über massenhaften Terror, sondern über Informationskontrolle, Manipulation, selektive Repression und performative Legitimität. Gewalt verschwindet nicht, aber sie wird punktuell, während der Informationsraum systematisch gestaltet wird.14 Das passt erstaunlich gut zu meiner Formulierung chronischer epistemischer Schliessung, allerdings mit einem Vorteil: Es ist operationalisierbar. Man kann Medienfreiheit, akademische Freiheit, zivilgesellschaftliche Handlungsräume messen, man kann Autokratisierungsprozesse als graduelle Erosion modellieren. Lührmann und Lindberg sprechen explizit von einer dritten Welle der Autokratisierung, die nicht mit Panzern beginnt, sondern mit langsamen, legalistischen Verschiebungen.15
Damit fällt ein Teil der Spekulation weg: Es gibt ein empirisches Vokabular, um epistemische Schliessung zu beschreiben, ohne gleich metaphysisch zu werden. Das V-Dem Institut arbeitet genau daran und weist seit Jahren auf globale Rückgänge demokratischer und auch akademischer Freiheitsindikatoren hin.16
Das bedeutet trotzdem nicht: Freiheit ist automatisch Innovation. Es bedeutet: Fehlerkorrektur ohne Freiheit ist teuer, weil sie im Dunkeln stattfindet. Und im Dunkeln wird nicht nur weniger entdeckt, es wird auch weniger zugegeben.
Ein kleines, aber illustratives Paper aus der politischen Kommunikationsforschung zeigt, wie fein diese Mechanik sein kann: King, Pan und Roberts argumentieren für China, dass Zensur nicht primär Kritik am Staat unterdrückt, sondern vorrangig Inhalte, die kollektive Mobilisierung ermöglichen.17 Kritik darf als Ventil existieren, Koordination wird abgeschnitten. Das ist kybernetisch elegant und zivilisatorisch fatal: Das System lässt Sensorrauschen zu, aber verhindert, dass Sensorik zu gemeinsamer Aktion und damit zu Kurskorrektur wird.
Wer diesen Mechanismus im Kopf hat, sieht auch, weshalb planwirtschaftliche Strukturen nicht zwingend sofort kollabieren, aber in komplexen Räumen strukturell anfälliger sind. Hayek und Mises sind hier keine Endgültigkeitsbeweise, sondern Warnschilder.
Hayeks Satz ist: Wissen ist verteilt, situativ, oft unaussprechlich, und Preissignale sind eine extrem effiziente Art, dieses Wissen zu komprimieren und zu transportieren. Mises’ Kalkulationsargument ist: Ohne Eigentum an Produktionsmitteln fehlen Marktpreise für Kapitalgüter, ohne diese Preise fehlt eine rationale Kalkulation der Alternativen, weil man Opportunitätskosten nicht sauber vergleichen kann.
Ich will das nicht als Ideologie, sondern als Informationsproblem lesen. Eine hochkomplexe Wirtschaft ist ein gigantischer Suchraum. Preise sind nicht moralisch, sie sind Informationsvektoren. Schaltet man sie aus oder verzerrt sie systematisch, wird Suche teurer. Man kann das durch brute force ersetzen: Zwang, Subvention, Plan, Kampagne, Ressourcenumleitung. Man kann damit spektakuläre Projekte gewinnen. Man kann damit auch ganze Sektoren ruinieren, ohne es zu merken, weil der Messapparat bereits politisiert ist.
Frontier Innovation über Zeit
Frontier Innovation trifft ein reales Phänomen: Der Abstand zwischen funktionierend und weltspitze ist nicht linear. Er ist oft exponentiell, weil an der Spitze nicht nur ein Artefakt steht, sondern ein Ökosystem aus Messtechnik, Zulieferern, Materialwissenschaft, Prozesskontrolle, Qualitätskultur, Fehlertoleranz, Publikationsnetzwerken, Talentmigration, Kapital und Vertrauen.
Das ist der Moment, in dem mein EUV Beispiel nicht bloss als Geopolitik taugt, sondern als epistemisches Lehrstück. ASML18 beschreibt EUV19 als Technologie, die in diesem Sinne einzigartig ist, nicht als Marketingphrase, sondern weil sie eine hochspezialisierte, extrem fragile, über Jahrzehnte gewachsene Lieferkette bündelt. Reuters berichtete im Dezember 2025, China habe zwar einen EUV Prototypen gebaut, der in Tests laufe, aber noch keine funktionierenden Chips produziert; als Zeithorizont wurde eher 2028 bis 2030 genannt, begleitet von Reverse Engineering Mustern, darunter auch Wissenstransfer über ehemalige ASML Mitarbeiter und Sekundärmärkte.20
Man kann das als reines Sanktionsdrama lesen. Ich lese es als Strukturhinweis: Mobilisierung und Aufholjagd können sehr weit kommen. Die letzten Prozente sind anders. Sie verlangen nicht nur Geld, sondern eine Kultur der radikalen Fehlerbehandlung, in der schlechte Nachrichten schneller zirkulieren als gute, weil sie konstruktiver sind. Genau diese Kultur kollidiert mit Apparaten, die Loyalität belohnen und Abweichung bestrafen.
Hier sitzt die intime Verwandtschaft zu Tainter. Komplexität ist Problemlösung, sagt er, aber sie hat abnehmenden Grenznutzen.21 Irgendwann kostet die nächste Schicht Verwaltung und Koordination mehr, als sie bringt, und dann wird Kollaps aus Sicht des Systems rational, weil Vereinfachung kurzfristig Entlastung schafft. Ich übersetze das in meine Sprache: Das lokale Minimum ist bequem. Es spart Energie im Jetzt, indem es Varietät unterdrückt. Es kauft Stabilität, indem es Wahrheit reguliert. Es bezahlt mit Zukunft.
Dass Frontier Innovation insgesamt teurer wird, ist nicht nur politisch, sondern auch ökonomisch beschrieben worden. Bloom, Jones, Van Reenen und Webb argumentieren in Are Ideas Getting Harder to Find, dass Forschungsproduktivität in vielen Bereichen sinkt: mehr Inputs sind nötig, um ein gegebenes Wachstum an Ideenoutput zu erzielen.22 Das ist Wasser auf die Mühlen meiner Hypothese, aber mit einer Falle: Wenn Ideen generell teurer werden, dann wird die Differenz zwischen Systemen umso entscheidender. Ein System, das seine Fehlerkorrektur behindert, kann sich diese steigenden Kosten schlechter leisten.
Wuchty, Jones und Uzzi haben zudem gezeigt, dass Teams in der Wissensproduktion immer dominanter werden. Mehr Wissen bedeutet mehr Koordination. Koordination ist wiederum ein Varietätsproblem: Je mehr Spezialisten, desto mehr Schnittstellen, desto mehr Missverständnisse, desto mehr Bedarf an offenen Kanälen. Epistemische Schliessung ist in einer Teamwissenschaftswelt nicht bloss freiheitsfeindlich, sondern koordinationsfeindlich.
Von Sollbruchstellen
Es gibt reale Fälle, in denen geschlossene Systeme beeindruckend innovativ waren, jedenfalls in bestimmten Domänen. Die Sowjetunion in der Frühphase, China in einzelnen Hochtechnologiefeldern, auch militarische Apparate in Kriegszeiten. Wer das wegargumentiert, macht aus meinem Text ein Glaubensbekenntnis. Das will ich nicht. Es ist plausibel, dass Zentralisierung unter existenzieller Bedrohung Exploration erzwingen kann, allerdings oft kanalisiert: Der Suchraum wird nicht frei, er wird militarisiert. Fehler werden toleriert, solange sie im Dienst der Mission stehen. Diese Form von Innovation kann sehr hoch sein, aber sie ist schmal. Sie hat einen Tunnelblick, der bei Zielwechseln teuer wird.
Offenheit ist kein Garant für Wahrheit. Die Replikationskrise in Teilen der Wissenschaft zeigt, dass auch in offenen Systemen Fehlanreize, Publikationsdruck, Sloppiness und Herdentrieb existieren.23 Offenheit ist ein Fehlerkorrekturversprechen, kein Fehlerlosigkeitsversprechen. Wer aus Offenheit eine Heilslehre macht, baut genau jene Struktur, die er kritisieren will.
Mein Great Filter Bezug ist der spekulativste Teil. Hanson hat den Begriff als mögliche Engstelle in der Entwicklung von Leben zu interstellaren Zivilisationen eingeführt, ohne zu wissen, wo dieser Filter liegt. Dass politisch epistemische Schliessung ein Kandidat dafür sein könnte, ist heuristisch reizvoll, aber kosmologisch nicht belegbar. Der Filter kann auch früher liegen, bei Abiogenese, bei Eukaryogenese, bei Multizellularität, oder später, bei Selbstvernichtung durch Technik. Ich benutze den Begriff hier eher als Denkrahmen, um Engstellen zu suchen, die nicht lokal, sondern zivilisatorisch wirken.
Diese drei Sollbruchstellen sind keine Widerlegung. Sie sind die Stellen, an denen man den Text nicht als Weltbild, sondern als Hypothesenangebot lesen sollte.
Von der Testbarkeit
Ich will meine Hypothese testbar halten, sonst bleibt sie Literatur. Die testbare Form ist nicht: Kollektivismus scheitert immer. Die testbare Form ist: Chronische epistemische Schliessung reduziert im Zeitmittel Frontier Innovation und die Fähigkeit, Komplexität robust zu steuern.
Dafür braucht es Operationalisierung auf beiden Seiten.
Auf der Seite epistemische Schliessung liegen plausible Messgrössen bereits vor: Indizes zu akademischer Freiheit, Meinungsfreiheit, Medienfreiheit, Rechtsstaatlichkeit, Zensurpraktiken. Der Academic Freedom Index, der aus dem V-Dem Umfeld stammt, ist ein brauchbarer Kandidat, weil er versucht, akademische Freiheit als mehrdimensionales Konstrukt zu messen. Lührmann und Lindberg liefern mit Autokratisierungskonzepten Ereignisfenster, in denen man Erosion als Prozess betrachten kann, nicht nur als Vorher Nachher. Guriev und Treisman liefern zudem eine Typologie, die gerade für moderne, weniger blutige Autokratien nützlich ist, weil sie Informationskontrolle als Kernmechanismus behandelt.
Auf der Seite Frontier Innovation wird es schwerer, weil Innovation eine Hydra ist. Patente zählen, aber Patente können auch Müll sein. Publikationen zählen, aber Publikationen sind auch Performance. Ich würde hier mehrere, bewusst unperfekte Proxies kombinieren: Anteil der weltweit meistzitierten Papers, Nobelpreise und Breakthrough Awards als extremes Ende, Exportanteile in Hochtechnologiesektoren, Fähigkeit, kritische Maschinen und Prozesse selbst zu bauen, und, ganz wichtig, Resilienzmetriken: wie schnell Systeme auf Schocks reagieren, ohne in Mythologie zu flüchten.
Methodisch schreit das nach Paneldaten und nach Zeitverzögerungen. Epistemische Erosion wirkt nicht morgen. Sie wirkt über Jahre, oft über ein bis zwei Generationen in Wissenschaft und Ingenieurwesen. Ein Forschungsdesign könnte Autokratisierungsphasen als treatment betrachten, mit event studies, Difference in Differences, synthetischen Kontrollen, und der notwendigen Arbeit, Founder zu kontrollieren: Bildungsniveau, Demografie, Rohstoffrenten, Kriegsdruck, internationale Einbettung, Sanktionsregimes.
Die Nullhypothese wäre schlicht: Kein Effekt. Oder sogar: Zentralisierung hilft Innovation, weil sie Ressourcen bündelt. Dann müsste man die Hypothese verfeinern, etwa nach Innovationsarten: mission getrieben versus open endend, oder nach Technologiefeldern: solche mit starker Standardisierung und Skalierung versus solche mit hohem Anteil an unbekannten Unbekannten.
Man kann das auch auf Organisationsebene testen. Ein Paper aus 2023 diskutiert beispielsweise Autoritarismus versus Partizipation in Innovationsentscheidungen auf Unternehmensebene, also nicht als Staatsphilosophie, sondern als Managementstruktur.24 Das ist keine kosmische Antwort, aber es ist ein Baustein: Wenn autoritäre Strukturen in Firmen Exploration hemmen, sollte man zumindest nicht automatisch erwarten, dass autoritäre Staaten Exploration fördern, ausser sie erzwingen sie durch ausserordentliche Anreize und Strafen.
Ein weiteres, fast schon ironisches Testfeld ist die Wissenschaft selbst: Die Replikationsdebatte zeigt, dass offene Fehlerkorrektur weh tut, aber funktioniert, weil sie Fehler sichtbar macht und korrigierbar hält. Ein epistemisch geschlossenes System kann den Schmerz vermeiden. Es kann die Korrektur gleich mit vermeiden. Das ist kurzfristig reputationsfreundlich. Langfristig ist es ein Kompetenzverlust.
Wenn ich die nächsten Verwandten meines Analogons benennen muss, ohne zu überziehen, dann sind es nicht UFO Bücher, sondern vier Literaturströme.
Erstens Kybernetik und Informationsdenken: Ashby für Varietät, Shannon für Information als formales Mass, March für Exploration versus Exploitation.
Zweitens Wissenschaftssoziologie und Erkenntnistheorie: Popper für Lernen aus Irrtum, Merton für Normen, Polanyi für dezentrale Entdeckungsordnungen.
Drittens politische Ökonomie der Information: Hayek und Mises als Argumente, dass komplexe Ordnungen auf verteiltem Wissen und auf Kalkulierbarkeit beruhen, Guriev und Treisman als moderne Typologie von Informationsherrschaft, King Pan Roberts als Mikromechanik von Zensur, die Koordination stranguliert.
Viertens Komplexitäts und Kollapsdenken: Tainter für abnehmende Grenznutzen von Komplexität, dazu die historischen Datensammlungen und Modelle, die versuchen, Zivilisationsdynamiken als musterhafte Prozesse zu betrachten, etwa über Seshat und verwandte Ansätze.
Und über all dem schwebt, als heuristischer Rahmen, Hanson mit dem Great Filter Gedanken.
Fazit
Der Impuls für dieses Analogon war eine spontane Kollision von politischer Beobachtung und kosmologischer Fantasie. Der grosse Filter ist selbst ein spekulatives Konzept, und die Übertragung auf menschliche Staatsformen ist erst recht kein Beweis. Trotzdem halte ich den Kern für fruchtbar, weil er den Blick wegzieht von moralischen Schuldzuschreibungen und hin zu Funktionsprinzipien.
Epistemische Schliessung wirkt wie Ordnung, weil sie Varietät kappt. Sie wirkt wie Stabilität, weil sie Fehler unsichtbar macht. Sie wirkt wie Effizienz, weil sie Exploration in Kennzahlen zwingt. Aber sie kann, gerade in einer Welt steigender Komplexitätskosten, ein zivilisatorisches Abstiegsmuster sein. Nicht zwingend morgen. Nicht zwingend total. Doch im Zeitmittel. Und wenn es wirklich irgendwo einen Filter gibt, der nicht aus Asteroiden besteht, sondern aus selbstgebauten Blindheiten, dann sieht er genau so aus: weniger Sensorik, weniger Korrektur, mehr Loyalität, mehr Theater, weniger Wirklichkeit.
- https://coresecret.eu/2026/01/08/vom-grossen-filter-i/ ↩︎
- https://hanson.gmu.edu/greatfilter.html ↩︎
- https://de.wikipedia.org/wiki/Fermi-Paradoxon ↩︎
- https://home.uchicago.edu/~vlima/courses/econ200/spring01/hayek.pdf ↩︎
- https://cdn.mises.org/economic_calculation_in_the_socialist_commonwealth.pdf ↩︎
- https://ashby.info/Ashby-Introduction-to-Cybernetics.pdf ↩︎
- https://coresecret.eu/2025/12/09/von-pauli-desmet-filtern-rausch-attraktoren-nullpunktsenergie-vom-totalitarismus/ ↩︎
- https://sjbae.pbworks.com/f/march%2B1991.pdf ↩︎
- https://www.sciencedirect.com/science/article/pii/S0165188923000568 ↩︎
- https://cocalc.com/share/download/943c068a27466910dfee6f6258d6a7d012683819/cocalc-examples/think-complexity-2ed/papers/kauffman89nk.pdf ↩︎
- https://padron.entretemas.com.ve/documentos/Popper-Conjectures-Rwefutations-GrowthOfKnowledge.pdf ↩︎
- https://law.unimelb.edu.au/__data/assets/pdf_file/0005/3609203/1c-Merton-The-Normative-Structure-of-Science.pdf ↩︎
- https://link.springer.com/article/10.1007/BF01101453 ↩︎
- https://fass.nus.edu.sg/ecs/wp-content/uploads/sites/4/2021/03/jep.33.4.100.pdf ↩︎
- https://www.tandfonline.com/doi/full/10.1080/13510347.2019.1582029 ↩︎
- https://www.v-dem.net/documents/60/V-dem-dr__2025_lowres.pdf ↩︎
- https://gking.harvard.edu/files/censored.pdf ↩︎
- https://de.wikipedia.org/wiki/ASML ↩︎
- https://de.wikipedia.org/wiki/EUV-Lithografie ↩︎
- https://www.reuters.com/world/china/how-china-built-its-manhattan-project-rival-west-ai-chips-2025-12-17/ ↩︎
- https://polycrisis.org/resource/the-collapse-of-complex-societies/ ↩︎
- https://www.aeaweb.org/articles?id=10.1257/aer.20180338 ↩︎
- https://www.sciencedirect.com/science/article/pii/S2352250X25002635 ↩︎
- Ebenda. ↩︎
Primärquellen, Standardwerke
Robin Hanson (1998): The Great Filter, Are We Almost Past It?
F. A. Hayek (1945): The Use of Knowledge in Society.
Ludwig von Mises (1920): Economic Calculation in the Socialist Commonwealth.
W. Ross Ashby (1956): An Introduction to Cybernetics, Law of Requisite Variety.
Karl R. Popper (1962): Conjectures and Refutations.
Robert K. Merton (1942/1973): The Normative Structure of Science.
Michael Polanyi (1962): The Republic of Science.
James G. March (1991): Exploration and Exploitation in Organizational Learning.
Joseph A. Tainter (1988): The Collapse of Complex Societies.
Stuart A. Kauffman, Edward D. Weinberger (1989): The NK Model of Rugged Fitness Landscapes.
Empirische Arbeiten, Sekundärquellen
Sergei Guriev, Daniel Treisman (2019): Informational Autocrats.
Anna Luehrmann, Staffan I. Lindberg (2019): A Third Wave of Autocratization Is Here.
V Dem Institute (2025): Democracy Report, 25 Years of Autocratization.
Gary King, Jennifer Pan, Margaret E. Roberts (2013): How Censorship in China Allows Government Criticism but Silences Collective Expression.
Nicholas Bloom, Charles I. Jones, John Van Reenen, Michael Webb (2020): Are Ideas Getting Harder to Find?
Stefan Wuchty, Benjamin F. Jones, Brian Uzzi (2007): The Increasing Dominance of Teams in the Production of Knowledge.
Mariana Mazzucato (2013): The Entrepreneurial State; mission oriented innovation policy.
ASML: EUV als technologisch einzigartige Plattform.
Reuters (Dezember 2025): Bericht zu Chinas EUV Prototyp, Teststatus und Zeithorizont.
