Vom Sein. Von energetischen Betrachtungen.

Von zwanzig Watt

Kaum fällt das Thema KI, LLM oder AGI, folgt fast reflexhaft derselbe Einwand: Das menschliche Gehirn brauche nur ungefähr zwanzig Watt, heutige Modelle dagegen Rechenzentren, Kühlsysteme, Netzausbau, Materialströme und Kraftwerksleistung. Biologie elegant, Silizium grob. Natur fein abgestimmt, Technik verschwenderisch. Damit ist die Sache für viele geistig bereits erledigt. Genau dort beginnt mein Widerspruch.1 2

Falsch ist dieser Vergleich nicht. Falsch wird er in dem Augenblick, in dem aus einem lokal richtigen Befund eine allgemeine Welterklärung gezimmert wird. Das Gehirn ist als einzelnes, laufendes kognitives System ein ausserordentlich sparsames, hochparalleles und über sehr lange evolutionäre Zeiträume verdichtetes Organ. Die Grössenordnung von ungefähr zwanzig Prozent des Ruheenergieumsatzes des Körpers ist in der neurowissenschaftlichen Vermittlung seit langem etabliert. Dass die laufende technische KI Infrastruktur demgegenüber heute erhebliche elektrische Lasten erzeugt, ist ebenfalls unstrittig. Die Internationale Energieagentur schätzt den Stromverbrauch von Rechenzentren für 2024 auf rund 415 TWh oder etwa 1,5 Prozent des weltweiten Stromverbrauchs; in ihrem Basisszenario steigt dieser Wert bis 2030 auf rund 945 TWh.3

Die eigentliche Komplexität des Arguments sitzt tiefer. Sie entsteht dort, wo ein enger, lokal gewählter Effizienzbegriff unbemerkt zum einzig Legitimen erklärt wird. In meiner Serie vom Sein habe ich genau gegen diesen Reflex angeschrieben. Der Kohärenzfilter ist bei mir keine psychologische Spielerei, sondern die Weigerung, semantische Bequemlichkeit für Analyse zu halten. Er markiert die Stelle, an der Etiketten, Moralgesten und brauchbare Beschreibung nicht mehr deckungsgleich sind. Auf die KI Debatte angewandt heisst das: Wer mit der Zahl zwanzig Watt eine ganze Zivilisationsdiagnose zu erledigen glaubt, verwechselt Messwert und Begriff, Gerät und Prozess, lokale Betriebslage und historische Pfadbildung.4

Wovon überhaupt die Rede ist

Das Gehirn existiert nicht im luftleeren Raum. Es ist das vorläufige Resultat eines planetaren Prozesses, dessen Zeitskala jeder menschlichen Alltagserfahrung spottet. Die Erde ist nach gängiger radiometrischer Datierung rund 4,54 Milliarden Jahre alt. Sehr frühe direkte Hinweise auf Leben liegen im Bereich von 3,7 Milliarden Jahren, etwa in den oft diskutierten stromatolithischen Strukturen aus dem Isua-Gürtel. Eine jüngere molekulare Rekonstruktion datiert LUCA sogar auf ungefähr 4,2 Milliarden Jahre vor heute (sic!), bei ausdrücklich ausgewiesenen Unsicherheiten. Dem steht die Geschichte der digitalen Rechenmaschinen gegenüber: funktionierende Transistorwirkung im Dezember 1947, der erste demonstrierte Halbleiter-Schaltkreis im September 1958. Auf geologischer Skala ist das nicht einmal ein Augenblick, sondern eher ein nervöses Zucken.5 6 7 8 9

Wer das biologische Gehirn mit einem KI System des Jahres 2026 vergleicht und dabei stillschweigend so tut, als stünden sich zwei isolierte Einzelobjekte gegenüber, beginnt bereits mit einem Kategorienfehler. Das eine ist Produkt von Milliarden Jahren chemischer und biologischer Pfadsuche. Das andere ist Produkt einer späten technischen Zivilisation, die vollständig auf den Schultern jener Vorgeschichte steht. Der Transistor beginnt nicht bei null. Der integrierte Schaltkreis beginnt nicht bei null. Ein LLM beginnt erst recht nicht bei null. Es beginnt auf dem Rücken von Evolution, Sprache, Schrift, Mathematik, Wissenschaft, Industrie, globaler Energieversorgung, Bergbau, Halbleiterfertigung, Softwaregeschichte und planetarischer Vernetzung.

Gerade deshalb halte ich am naturalistischen Rahmen meiner Serie fest. In meinem Auftakttext habe ich Bewusstsein als emergente Eigenschaft bestimmter hochkomplexer, kausal dicht vernetzter Informationsverarbeitungssysteme gefasst und den Naturalismus ausdrücklich auf technische Artefakte ausgedehnt. Künstliche Systeme sind dort nicht Gegenwelt, sondern Teil derselben Natur. Im Skynet Text habe ich diese Linie weitergezogen: AGI wäre keine metaphysische Invasion, sondern eine neue Organisation derselben Materie; Technik ist Natur, nur mit anderem Timing. Diese Sätze sind keine rhetorische Dekoration. Sie sind die ontologische Vorentscheidung, ohne die die ganze Debatte im sentimental aufgeladenen Gegensatz von angeblich natürlichem Geist und angeblich unnatürlicher Maschine steckenbleibt.10 11

Sobald man diesen Rahmen ernst nimmt, verschiebt sich die Fragestellung. Dann heisst sie nicht mehr bloss: Welches einzelne System zieht im laufenden Betrieb weniger Strom? Dann heisst sie: Welche Art von Prozess wird hier überhaupt verglichen? Welcher Zeithorizont? Welche Vorleistungen? Welcher Suchraum? Welche Rückkopplung auf Handlungsfähigkeit, Macht, Reichweite und Zukunft? Erst an dieser Stelle wird die Diskussion interessant.

Vier Arten von Effizienz

Die erste Ebene ist der Betriebswirkungsgrad. Hier lebt der übliche Vergleich. Wie viel Energie kostet ein konkretes System im laufenden Betrieb? Das Gehirn schneidet hier glänzend ab. Rechenzentren tun es nicht. Der Punkt ist real und darf nicht mit Techno-Rhetorik zugeschüttet werden. Wer ernsthaft über KI redet, muss auch über Netzanschlüsse, Kühlung, Standortfragen, Versorgungssicherheit und Lastkonzentration reden. Der lokale Betriebswirkungsgrad ist also keine Nebensache. Er ist bloss nicht das Ganze.

Die zweite Ebene ist die Entwicklungszeit-Effizienz. Wie schnell gelangt ein Systemtyp von primitiven Vorformen zu bemerkenswerten Fähigkeiten? Auf dieser Achse ist die technische Geschichte der letzten acht Jahrzehnte geradezu schockierend schnell. Zwischen der ersten nachgewiesenen Transistorwirkung 1947, dem integrierten Schaltkreis 1958 und heutigen multimodalen, agentischen oder reasoning orientierten Systemen liegen keine evolutionären Zeitalter, sondern drei Generationen. Das bedeutet nicht, dass Silizium besser als Biologie wäre. Es bedeutet etwas Präziseres: Eine biologische Spezies könnte an einen Punkt gelangt sein, an dem sie ihre weitere kognitive Entwicklung nicht mehr nur blind genetisch, sondern absichtlich technisch betreibt. Der Zeitmassstab ändert sich dadurch radikal.

Die dritte Ebene nenne ich Suchraumeffizienz oder Pfadeffizienz. Sie ist anspruchsvoller, weil sie die stillen Vorleistungen sichtbar macht, die in der öffentlichen Debatte fast immer unterschlagen werden. Wie teuer war es überhaupt, einen gangbaren Pfad zu allgemeiner Problemlösungsfähigkeit zu finden? Evolution tastete nicht mit dem Ziel AGI durch die Landschaft. Sie optimierte lokal auf Reproduktion, Robustheit, Kopplung an Umweltbedingungen und Anschlussfähigkeit an bereits Vorhandenes. Dass aus diesem blinden, aber selektiven Prozess schliesslich Nervensysteme, symbolische Sprache, Mathematik und technische Zivilisation hervorgingen, ist keine Kleinigkeit. Es ist aber eben auch nicht dasselbe wie ein Ingenieurprojekt mit expliziter Zielfunktion. Wer daher die gesamte energetische Geschichte der Biosphäre gegen einige Jahrzehnte digitaler Recheninfrastruktur aufrechnet, kann daraus eine eindrucksvolle Grössenordnungsintuition gewinnen, aber noch keinen sauberen Wirkungsgradvergleich. Links stünde fast die ganze Geschichte des Lebens, rechts ein spätes Teilregime der technischen Zivilisation. Als Provokation taugt das. Als Bilanz nur bedingt.

Die vierte Ebene ist zivilisatorische Meta-Effizienz. Sie fragt nicht nach dem Stromzähler eines einzelnen Modells, sondern nach dem zusätzlichen Handlungsraum, den eine Spezies durch eine neue kognitive Architektur gewinnt. Ein einzelnes Gehirn ist grossartig. Eine vernetzte Zivilisation aus Milliarden Gehirnen, Speichern, Laboren, Kraftwerken, Fabriken, Satelliten, Kabeln, Sensoren und Modellen ist etwas grundsätzlich anderes. Sie ist kein bloss grösseres Gehirn. Sie ist eine neue Form der Kopplung von Kognition, Material und Macht. Der strategische Kern liegt darum nicht im Stromverbrauch eines Trainingslaufs, sondern in der Frage, ob eine Spezies begonnen hat, ihre eigene Suche nach Intelligenz, Planung, Entdeckung und Steuerung technisch zu externalisieren.

Die begriffliche Verwahrlosung von AGI

AGI soll gleichzeitig technische Zielmarke, anthropologischer Ehrenbegriff, Marketingetikett, Investmentmagnet und Projektionsfläche für Angstfantasien sein. Ein derart überladenes Wort kann kaum noch sauber arbeiten. Es schillert ständig zwischen Ingenieurjargon, Populärkultur und Metaphysik. Das Ergebnis ist keine Schärfe, sondern ein sprachliches Schmiermittel, mit dem sich fast jede Behauptung durch den Diskurs drücken lässt.

Jensen Huang hat das im Gespräch mit Lex Fridman fast unfreiwillig vorgeführt. Auf die Frage nach einer AGI Zeitleiste sagte er zunächst: „I think we’ve achieved AGI.“ Wenige Augenblicke später verengte er dieselbe Behauptung drastisch, indem er sie an die Möglichkeit band, dass ein System vielleicht einen kurzfristig erfolgreichen digitalen Dienst hervorbringen könnte. Noch klarer wird der Rückzug, als er festhielt, die Chance, dass hunderttausend solcher Agenten NVIDIA bauen, liege bei null Prozent. Später formulierte er den zugrunde liegenden Trick sogar selbst aus: „intelligence is a functional thing„. Genau darin liegt das Problem. Der Begriff AGI wird gross gemacht, sobald er symbolische Rendite erzeugt, und sofort wieder funktional verengt, sobald Präzision verlangt wird. Was dabei sichtbar wird, ist kein Durchbruch, sondern die semantische Elastizität eines Diskurses, der sein eigenes Zentralwort nicht mehr stabil führen kann.12 13

Diese Elastizität ist kein blosses Sprachproblem. Sie verzerrt die gesamte Lagebeurteilung. Wer AGI so eng fasst, dass ein temporär erfolgreicher digitaler Dienst oder ein agentischer Kleindienst bereits genügen, erklärt das Problem im Grunde weg. Wer AGI so weit fasst, dass erst ein voll verkörpertes, autonomes, sozial kompetentes, robust planendes und biographisch kohärentes System darunter fällt, verschiebt das Ziel womöglich so weit, dass jede reale Zwischenstufe unsichtbar wird.

Die nützlichste Lesart des Huang Gesprächs liegt an einer anderen Stelle. Seine starke Behauptung ist philosophisch nicht besonders ergiebig; seine technische Rahmung ist hingegen aufschlussreich. Huang beschreibt im selben Gespräch mehrere aufeinanderfolgende Skalierungsregime, vom Pre-Training über Post-Training und Test-Time-Scaling bis zu agentischer Skalierung. Gerade Test-Time-Scaling sei, so seine eigene Formulierung, nicht „compute light„, sondern „intensely compute intensive„. Zugleich sagt er, Modellarchitekturen würden ungefähr alle sechs Monate neu erfunden. Diese Kombination stützt gerade nicht die These einer bereits entschiedenen Zielarchitektur. Sie stützt die These eines offenen, hochdynamischen Suchraums, in dem Verfahren, Architekturen und Kopplungsformen noch längst nicht auskristallisiert sind.

Der offene Suchraum

Es ist 2026 nicht entschieden, ob reasoning-LLM, Weltmodelle, agentische Kompositionen oder hybride Architekturen den tragfähigeren Pfad bilden. Das im März 2026 vorgestellte LeWorldModel, kurz LeWM, ist hierfür lehrreich. Laut Abstract handelt es sich um die erste JEPA, die stabil Ende zu Ende aus Rohpixeln trainiert, und zwar mit nur zwei Verlusttermen. Das Modell arbeite mit ungefähr 15 Millionen Parametern, sei auf einer einzelnen GPU in wenigen Stunden trainierbar und plane in den berichteten Versuchen bis zu 48 mal schneller als foundation-model-basierte Weltmodelle, bei konkurrenzfähiger Leistung in mehreren 2D und 3D Kontrollaufgaben. Ob sich dieser Ansatz langfristig durchsetzt, weiss heute niemand. Dass der Suchraum offen ist, zeigen genau solche Arbeiten.14

Damit ist zugleich etwas anderes gesagt. Die Natur, genauer die von biologischer Evolution hervorgebrachte technische Zivilisation, tastet sich in mehrere Richtungen vor. Sprachliche Verdichtung, symbolisches Reasoning, planungsnahe Weltmodelle, Werkzeuggebrauch, Multi-Agenten-Koordination, Gedächtnisschichten, Verkörperung und Rückkopplung an reale Umwelten sind keine zwingenden Gegensätze. Wahrscheinlicher als der eine souveräne Königsweg ist eine Phase der Hybridisierung. Schon heutige Systeme werden nicht stärker, weil irgendwo ein einzelner magischer Block gefunden worden wäre, sondern weil Modelle mit Werkzeugen, Kontexten, Speichern, Suchverfahren und Ausführungsumgebungen verkoppelt werden.

Die interessante Zuspitzung liegt an einer anderen Stelle. Möglicherweise ist die Spezies an einen Punkt gelangt, an dem sich nicht nur Werkzeuge verbessern, sondern die Suchgeschwindigkeit nach neuen kognitiven Architekturen selbst zunimmt. Das wäre mehr als normaler technischer Fortschritt. Es wäre eine Art Meta-Evolution. Nicht Gene allein, nicht Köpfe allein, sondern Köpfe, Netze, Speicher, Modelle, Labore, Fabriken und Energiesysteme in enger Rückkopplung. Die technische Zivilisation würde dann nicht bloss Intelligenz benutzen. Sie würde an der eigenen weiteren Intelligenzbildung arbeiten.

Gesichert ist diese Diagnose nicht. Beobachtbar ist allerdings, dass mehrere Rückkopplungsschleifen gleichzeitig dichter werden. Modelle helfen beim Schreiben von Code, bei der Analyse von Texten, bei der Strukturierung von Forschung, bei der Auswertung grosser Datenräume und in wachsendem Mass bei der Automatisierung kognitiver Teilschritte. Bessere Hardware beschleunigt bessere Modelle. Bessere Modelle verbessern Softwarewerkzeuge, Entwicklungszyklen und Teile der Forschung selbst. Huangs Beschreibung einer Kette aus Pre-Training, Post-Training, Test-Time-Scaling und agentischer Skalierung ist genau deshalb interessant, weil sie weniger wie eine Theorie des Endzustands und mehr wie eine Theorie beschleunigter Schleifen klingt.

Es gibt jedoch kein Naturgesetz, das der Spezies nun linearen oder gar exponentiellen Aufstieg garantiert. Ein offener Suchraum kann auch Sackgassen produzieren. Skalierungsregime können an physische Grenzen, ökonomische Friktionen, Sicherheitskatastrophen, Regulierung, Ressourcenknappheit oder politische Fragmentierung prallen. Schon die gegenwärtige Infrastruktur zeigt, dass kognitive Beschleunigung nicht schwerelos ist. Sie hängt an Strom, Kühlung, Standorten, Lieferketten, Wasser, Chips, Fachkräften und geopolitischer Macht.

Das sparsamere Gerät und das schnellere Substrat

An dieser Stelle gewinnt der ursprüngliche Einwand gegen den engen Energiebegriff seine eigentliche Schärfe. Das Gehirn kann als Einzelgerät bewundert werden, und zwar mit vollem Recht. Es ist dicht, robust, parallel, evolutiv tief sedimentiert und im lokalen Betrieb von erstaunlicher Sparsamkeit. Bereits in meinem Skynet Text habe ich genau darauf hingewiesen: Rechnen kostet Energie, reale Systeme sind im Verhältnis zu biologischen Lösungen oft grob, und heutige technische Systeme wirken gegenüber dem Gehirn zuerst einmal energie und volumenineffizient.

Nur folgt daraus eben nicht, dass biologische Intelligenz damit automatisch auch das schnellere oder geeignetere Substrat für die weitere Suche nach neuen Intelligenzformen bleibt. Hier liegt die eigentliche Verwechslung der Debatte. Lokale Sparsamkeit ist nicht dasselbe wie historische Beschleunigung. Ein System kann als Einzelgerät grossartig optimiert sein und dennoch als Träger weiterer Evolutions- und Suchprozesse langsamer sein als ein anderes, gröberes, aber rekursiv aufrüstbares Substrat. Genau diese Möglichkeit muss man überhaupt erst denken, bevor man sie prüfen kann.

Die stärkste Zuspitzung lautet deshalb nicht: KI ist effizienter als das Gehirn. So platt sollte man nicht argumentieren. Die stärkste Zuspitzung lautet: Das Gehirn könnte das sparsamere Einzelgerät sein, während die technisierte Zivilisation der schnellere Träger weiterer kognitiver Evolution wird. Dieser Satz ist härter, weil er den Vergleich von der falschen Ebene herunterholt. Er fragt nicht mehr nur nach Watt pro laufendes System, sondern nach Pfadgeschwindigkeit, Rekursivität, Erweiterbarkeit und Reichweite.

Damit wird auch die Perspektive einer raumexplorierenden Spezies nüchterner. Sie ist weder infantile Science Fiction noch seriös vorweggenommene Zukunft. Sie ist eine offene Möglichkeit. Zwischen beeindruckender kognitiver Beschleunigung und realer Expansion in den Raum liegen harte Zwischenbedingungen: dichte und verlässliche Energieinfrastruktur, Robotik, Materialwissenschaft, Fehlertoleranz, Wartbarkeit, Versorgungsketten, industrielle Redundanz, politische Ordnung und Sicherheit.

Darum überzeugt mich der enge Energiebegriff weder philosophisch noch naturwissenschaftlich noch zivilisationstheoretisch. Er verfehlt die Vergangenheit, weil er die Vorleistungen biologischer und kultureller Evolution aus dem Bild schneidet. Er verfehlt die Gegenwart, weil er lokale Gerätedaten mit historischer Suchdynamik verwechselt. Und er verfehlt die Zukunft, weil er die entscheidende Frage gar nicht stellt: Hat eine Spezies begonnen, ihre eigene kognitive Evolution technisch zu externalisieren und dadurch zu beschleunigen?

Fazit

Meine persönliche Bewertung kommt daher zu folgender Einschätzung.

Stark ist die These, dass der übliche Vergleich zwischen Gehirn und KI auf einem künstlich verengten Betrachtungsrahmen beruht. Stark ist auch die These, dass Technik, LLM, AGI und mögliche Nachfolger keine Gegenwelt zur Natur sind, sondern eine beschleunigte Fortsetzung natürlicher Entwicklung innerhalb desselben physikalischen Universums. Ebenso stark ist die Diagnose, dass der gegenwärtige AGI Diskurs begrifflich instabil ist und dass prominente Akteure das Wort je nach Bedarf aufblasen oder wieder zusammenfalten.

Plausibel, aber nicht gesichert, ist die These einer beginnenden Meta-Evolution, also einer Phase, in der die technische Zivilisation ihre eigene Suche nach neuen kognitiven Architekturen spürbar beschleunigt. Plausibel ist auch, dass reasoning-LLM, Weltmodelle wie LeWM und hybride Architekturen in einen offenen Wettbewerb eintreten, dessen Ausgang nicht feststeht. Die Quellenlage rechtfertigt hier Aufmerksamkeit.

Offen und spekulativ bleibt, ob dieser Prozess zu AGI im starken Sinn, zu Bewusstsein höherer Ordnung in technischen Systemen oder gar zu einer stabil raumexplorierenden Zivilisation führt.

Der saubere Schluss lautet daher nicht, dass das Gehirn entzaubert und die Maschine verherrlicht werden müsse. Der saubere Schluss lautet, dass die Frage bisher falsch gestellt war. Nicht bloss: Wie effizient ist dieses einzelne Gerät im laufenden Betrieb? Sondern: Welches Substrat trägt den schnelleren weiteren Evolutions- und Suchprozess? Das Gehirn ist womöglich das sparsamere Einzelgerät. Die technisierte Zivilisation ist womöglich das schnellere Evolutionssubstrat für neue Intelligenzformen.

Vielleicht ist genau das die eigentliche Zumutung dieses Themas. Nicht, dass Maschinen irgendwann denken könnten. Sondern dass die Natur auf einem kleinen Planeten eine Spezies hervorgebracht hat, die begonnen hat, das eigene Denken technisch zu externalisieren und damit die Bedingungen ihrer weiteren Entwicklung selbst zu verändern. Ob dieser Pfad trägt, weiss niemand.

In eigener Sache

Diese Arbeit entsteht nicht im luftleeren Raum. Sie kostet Zeit, Geld, Infrastruktur und sie läuft seit langem unter den Bedingungen eines dokumentierten Rechtsstreits, den ich öffentlich offengelegt habe. Wer dazu beitragen will, dass meine publizistischen Texte, meine technischen Projekte und diese Form unabhängiger Arbeit fortbestehen, kann meine Spendenseite teilen oder mich direkt unterstützen.

Unterstützungsmöglichkeiten:

https://www.gofundme.com/f/rechtsverteidigung-existenzsicherung-arbeitsgericht-lisbon

Oder direkt hier:

Mille fois an alle Spender.


Quellen

  1. Michael W. Richardson, „How Much Energy Does the Brain Use?“, BrainFacts, 1. Februar 2019, besonders die Passage zum Ruheumsatz des Gehirns von rund 20 Prozent des Gesamtenergieverbrauchs. https://www.brainfacts.org/brain-anatomy-and-function/anatomy/2019/how-much-energy-does-the-brain-use-020119 ↩︎
  2. Marc Weidner, „Vom Sein. Von Skynet.“, CenturionBlog, 14. Dezember 2025, besonders die Passagen zu Thermodynamik, Energieverbrauch und der lokalen Energie- und Volumenineffizienz heutiger Systeme. https://coresecret.eu/2025/12/14/vom-sein-von-skynet/ ↩︎
  3. International Energy Agency, „Energy demand from AI“, in: Energy and AI, 2025, besonders die Angaben zu rund 415 TWh Stromverbrauch der Rechenzentren 2024 und rund 945 TWh im Basisszenario für 2030. https://www.iea.org/reports/energy-and-ai/energy-demand-from-ai ↩︎
  4. Marc Weidner, „Von Kohärenzfiltern. Vom Sein.“, CenturionBlog, 4. Dezember 2025, besonders die Bestimmung des Kohärenzfilters als Instrument gegen Unsinn, Opportunismus und beschreibungsferne Semantik. https://coresecret.eu/2025/12/04/von-kohaerenzfiltern-vom-sein/ ↩︎
  5. U.S. Geological Survey, „Geologic Time: Age of the Earth“, zuletzt aktualisiert am 9. Juli 2007, Angaben zur Bestimmung des Erdalters von 4,54 Milliarden Jahren. https://pubs.usgs.gov/gip/geotime/age.html ↩︎
  6. Allen P. Nutman et al., „Rapid emergence of life shown by discovery of 3,700-million-year-old microbial structures“, Nature 537, 2016, insbesondere Abstract und Einleitung zu 3,7 Milliarden Jahre alten stromatolithischen Strukturen aus dem Isua-Gürtel. https://www.nature.com/articles/nature19355 ↩︎
  7. Edmund R. R. Moody et al., „The nature of the last universal common ancestor and its impact on the early Earth system“, Nature Ecology & Evolution 8, 2024, besonders die Datierung von LUCA auf ungefähr 4,2 Milliarden Jahre vor heute samt Unsicherheitsintervall. https://www.nature.com/articles/s41559-024-02461-1 ↩︎
  8. Computer History Museum, „1947: Invention of the Point-Contact Transistor“, Abruf 22. April 2026, Angaben zur funktionierenden Transistorwirkung im Dezember 1947. https://www.computerhistory.org/siliconengine/invention-of-the-point-contact-transistor/ ↩︎
  9. Computer History Museum, „1958: All Semiconductor ‘Solid Circuit’ is Demonstrated“, Abruf 22. April 2026, Angaben zu Jack Kilbys Halbleiter-Schaltkreis vom 12. September 1958. https://www.computerhistory.org/siliconengine/all-semiconductor-solid-circuit-is-demonstrated/ ↩︎
  10. Marc Weidner, „Vom Sein. Beginn einer Blogserie.“, CenturionBlog, 28. November 2025, besonders Axiom A3 zur organisationalen Bewusstseinsthese und Axiom A4 zum universellen Naturalismus technischer Artefakte. https://coresecret.eu/2025/11/28/vom-sein-beginn-einer-blogserie/ ↩︎
  11. Marc Weidner, „Vom Sein. Von Skynet.“, CenturionBlog, 14. Dezember 2025, besonders die Passagen zu AGI als neuer Organisation derselben Materie und zur Formulierung „Technik ist Natur, nur mit anderem Timing“. https://coresecret.eu/2025/12/14/vom-sein-von-skynet/ ↩︎
  12. Lex Fridman, „Transcript for Jensen Huang: NVIDIA, The $4 Trillion Company & the AI Revolution“, Podcast #494, veröffentlicht im März 2026, besonders die Passage zur Aussage „I think we’ve achieved AGI“ und ihre unmittelbare funktionale Einengung. https://lexfridman.com/jensen-huang-transcript/ ↩︎
  13. Ebd., besonders die Passagen zu Test-Time-Scaling als rechenintensivem Regime, zur Behauptung, Modellarchitekturen würden etwa alle sechs Monate neu erfunden, sowie zur Formulierung „intelligence is a functional thing“. https://lexfridman.com/jensen-huang-transcript/ ↩︎
  14. Lucas Maes et al., „LeWorldModel: Stable End-to-End Joint-Embedding Predictive Architecture from Pixels“, arXiv:2603.19312, März 2026, besonders der Abstract zu Rohpixeltraining, ungefähr 15 Millionen Parametern, Training auf einer einzelnen GPU in wenigen Stunden und bis zu 48fach schnellerer Planung in den berichteten Aufgaben. https://arxiv.org/abs/2603.19312 ↩︎

Categories: Allgemein, Geral, Gesellschaft, IT, Sociedade, Society, Wissenschaft