Intelligensens nye fysik: Termodynamisk databehandling og enden på det digitale deterministiske paradigme

Den energimæssige begivenhedshorisont: Krisen i moderne databehandling

Intelligensens nye fysik: Termodynamisk databehandling og enden på det digitale deterministiske paradigme
Susan Hill
Susan Hill
Redaktør af teknologisektionen. Videnskab, programmering, kunst og teknologi som bindeled mellem de to verdener.

Den teknologiske civilisation står over for et eksistentielt paradoks. Mens efterspørgslen på kunstig intelligens (AI) vokser eksponentielt, drevet af udbredelsen af store sprogmodeller (LLM’er) og generative systemer, nærmer den fysiske infrastruktur, der understøtter disse fremskridt, sig hurtigt uoverstigelige termodynamiske grænser. Den fremherskende fortælling om Moores lov – den konstante fordobling af transistorer og effektivitet – er begyndt at slå revner. Dette skyldes ikke en manglende evne til yderligere miniaturisering, men derimod de fundamentale begrænsninger ved varmeafledning og energiforbrug. I denne kritiske kontekst opstår termodynamisk databehandling (thermodynamic computing), et paradigmeskifte, der ikke blot lover at afbøde energikrisen, men også at omdefinere selve naturen af informationsbehandling.

Wattenes tyranni i den generative AI’s tidsalder

Den nuværende computerarkitektur, baseret på von Neumann-modellen og deterministisk boolsk logik, støder ind i det, eksperter kalder “Energimuren”. Træning og inferens af avancerede AI-modeller afhænger næsten udelukkende af grafikprocessorer (GPU’er), såsom den allestedsnærværende NVIDIA H100. En enkelt af disse enheder har et termisk designforbrug (TDP) på 700 watt, og når de grupperes i HGX H100-systemer, overstiger forbruget 2.000 watt pr. rack. Denne effekttæthed forvandler moderne datacentre til digitale smelteovne, der kræver massiv kølingsinfrastruktur og forbruger vand og elektricitet i industriel skala.

Makroøkonomiske data bekræfter, at krisen er umiddelbart forestående. Goldman Sachs forudser, at den globale energiefterspørgsel fra datacentre vil stige med 165 % inden udgangen af dette årti. Samtidig estimerer Det Internationale Energiagentur (IEA), at datacentres elforbrug kan fordobles inden 2026 og nå op på 1.000 TWh – et tal, der svarer til Japans samlede elforbrug. Denne vækst er ikke lineær, men følger den eksponentielle kurve for AI-modellernes kompleksitet, hvilket skaber en uholdbar situation, hvor 92 % af datacenterledere allerede identificerer elnettets begrænsninger som den største hindring for skalering.

Determinismens iboende ineffektivitet

Det grundlæggende problem ligger ikke kun i mængden af beregninger, men i deres fysiske kvalitet. Nutidig digital databehandling opererer under et regime af støjuundertrykkelse. For at garantere, at en bit utvetydigt er et 0 eller et 1, skal transistorer arbejde ved spændinger, der langt overstiger elektronernes naturlige “termiske støj”. Denne konstante kamp mod entropien – anstrengelsen for at opretholde perfekt orden i et kaotisk fysisk medium – medfører en ublu energiomkostning.

Enhver logisk operation i en digital processor indebærer opladning og afladning af kondensatorer samt bevægelse af elektroner gennem modstande, hvilket genererer spildvarme. Denne varme bidrager ikke til beregningen, men repræsenterer energi spildt i den “friktion”, der er nødvendig for at påtvinge determinisme. Som forskere påpeger, “betaler” konventionelle systemer med energi for at undertrykke stokastisitet (tilfældighed). Desuden betyder den fysiske adskillelse mellem hukommelse og behandlingsenhed (von Neumann-flaskehalsen), at en stor del af energien bruges blot på at flytte data fra et sted til et andet, frem for at behandle dem.

Det termodynamiske alternativ

Stillet over for dette scenario foreslår termodynamisk databehandling en radikal omvending af de operationelle principper. I stedet for at bruge energi på at bekæmpe termisk støj, søger denne disciplin at udnytte den som en beregningsressource. Den bygger på præmissen om, at naturen regner effektivt gennem afslapningsprocesser mod termisk ligevægt. Ved at justere computerarkitekturen efter informationens underliggende fysik bliver det muligt at udføre komplekse opgaver – specifikt den probabilistiske sampling, som generativ AI kræver – med en effektivitet, der er flere størrelsesordener højere end digitale transistorers.

Denne tilgang er ikke blot teoretisk. Virksomheder som Extropic og Normal Computing er begyndt at fremstille hardware, der materialiserer disse principper, og lover effektiviteter op til 10.000 gange højere end nuværende teknologier. Denne rapport analyserer denne teknologis status, dens fysiske fundament, nøgleaktørerne samt de geopolitiske og økonomiske implikationer af en overgang til fysikbaseret databehandling.

Fysisk fundament: Fra den deterministiske bit til den stokastiske p-bit

For at forstå omfanget af den innovation, som termodynamisk databehandling repræsenterer, er det nødvendigt at dykke ned på det fysiske niveau for kredsløbenes funktion. Forskellen mellem en konventionel chip og en termodynamisk samplingenhed (TSU) er ikke en gradsforskel, men en ontologisk forskel.

Ikke-ligevægtstermodynamik og beregning

Den generelle teori, der understøtter disse fremskridt, er statistisk fysik uden for ligevægt, ofte kaldet stokastisk termodynamik. Dette felt leverer værktøjerne til at analysere systemer, der er langt fra termisk ligevægt, såsom computere. I klassisk databehandling følger man Landauers princip, som fastsætter en teoretisk nedre grænse for den energi, der kræves for at slette en bit information, hvilket spreder varme til omgivelserne. Termodynamisk databehandling opererer imidlertid under andre dynamikker.

Termodynamiske enheder er designet til at udvikle sig under Langevin-dynamikker. Det betyder, at det fysiske system naturligt “søger” sin tilstand af minimal energi. Hvis man indkoder et matematisk problem i enhedens energilandskab, løser systemet problemet simpelthen ved at slappe af mod sin termiske ligevægtstilstand. I dette paradigme er beregning ikke en serie af tvungne logiske trin, men en naturlig fysisk proces, analogt med hvordan en vanddråbe finder den hurtigste vej ned ad et bjerg, eller hvordan et protein folder sig til sin optimale konfiguration.

Den probabilistiske bit (p-bit)

Den fundamentale enhed i denne nye arkitektur er p-bitten (probabilistisk bit). I modsætning til en digital bit, som er statisk, indtil den får besked på at ændre sig, fluktuerer en p-bit kontinuerligt mellem 0 og 1 på nanosekund-skalaer, drevet af den omgivende termiske støj. Denne fluktuation er dog ikke helt tilfældig; den kan påvirkes (biases) via styrespændinger, så p-bitten for eksempel tilbringer 80 % af tiden i tilstand 1 og 20 % i tilstand 0.

Denne adfærd efterligner sandsynlighedsfordelinger. Ved at forbinde flere p-bits skaber man et kredsløb, der repræsenterer en kompleks fælles sandsynlighedsfordeling. Når man “aflæser” kredsløbets tilstand på et givent tidspunkt, får man en gyldig prøve (sample) af denne fordeling. Dette er afgørende, fordi moderne generativ AI fundamentalt set handler om sandsynligheder: at forudsige det mest sandsynlige næste ord eller generere den mest plausible pixel i et billede.

Nativ sampling vs. digital simulering

Fordelen på “10.000x” i effektivitet, som Extropic proklamerer, stammer fra denne strukturelle forskel. I en digital (deterministisk) GPU kræver generering af en tilfældig stikprøve fra en kompleks fordeling kørsel af pseudo-tilfældige algoritmer (PRNG), der forbruger tusindvis af clock-cyklusser og millioner af transistorskift. GPU’en er nødt til at simulere tilfældighed gennem kompleks deterministisk aritmetik.

I modsætning hertil genererer den termodynamiske chip stikprøven nativt. Den simulerer ikke støj; støjen er motoren i beregningen. Fysikken klarer det tunge arbejde med at generere tilfældigheden, hvilket eliminerer behovet for komplekse aritmetiske logiske enheder (ALU) til denne specifikke opgave. Det er i bund og grund støjassisteret analog databehandling, hvor det fysiske medium udfører den matematiske operation øjeblikkeligt.

Operationel egenskabDigital databehandling (GPU/CPU)Termodynamisk databehandling (TSU)
BasisenhedCMOS-transistor (Deterministisk kontakt)p-bit (Stokastisk oscillator)
Forhold til støjUndertrykkelse (Støj = Fejl)Udnyttelse (Støj = Ressource/Brændstof)
BeregningsmekanismeSekventiel boolsk aritmetikFysisk afslapning til minimal energitilstand
EnergiforbrugHøjt (Kæmper mod termodynamikken)Minimalt (Flyder med termodynamikken)
Ideel anvendelsePræcise beregninger, eksakt logikProbabilistisk inferens, Optimering, GenAI

Extropic: Arkitektur og usikkerhedens strategi

Extropic, med base i USA, har positioneret sig som den kommercielle spydspids for denne teknologi. Grundlagt af Guillaume Verdon (tidligere fysiker hos Google og kendt i den digitale sfære som “Beff Jezos”, leder af bevægelsen for effektiv accelerationisme eller e/acc) og Trevor McCourt, er virksomheden gået fra teori til fremstilling af håndgribeligt silicium.

X0-chippen: Validering af probabilistisk silicium

Extropics første konkrete milepæl er X0-chippen. Denne enhed er en testprototype designet til at validere, at probabilistiske kredsløb kan fremstilles ved hjælp af standard halvlederprocesser og fungere ved stuetemperatur. I modsætning til kvantecomputere, der kræver temperaturer tæt på det absolutte nulpunkt, bruger X0 den omgivende varme som kilde til entropi.

X0 huser en familie af kredsløb designet til at generere stikprøver fra primitive sandsynlighedsfordelinger. Dens primære funktion har været at bekræfte præcisionen af Extropics støjmodeller: at demonstrere, at man kan designe en transistor til at være “støjende” på en forudsigelig og kontrollerbar måde. Denne bedrift er betydelig, da halvlederindustrien har brugt 60 år på at optimere processer for at eliminere støj; at genindføre den kontrolleret kræver en dyb beherskelse af materialefysik.

Udviklingsplatformen XTR-0

For at give forskere og udviklere mulighed for at interagere med denne nye fysik har Extropic lanceret platformen XTR-0. Dette system er ikke en selvstændig computer, men en hybridarkitektur. Fysisk består den af et trapezformet bundkort, der huser en konventionel CPU og en FPGA, forbundet med to datterkort, der indeholder de termodynamiske X0-chips.

Funktionen af XTR-0 er at fungere som en bro. CPU’en styrer det generelle workflow og den deterministiske logik, mens FPGA’en fungerer som en højhastighedsoversætter, der sender instruktioner og parametre til X0-chippene og modtager de genererede probabilistiske stikprøver. Denne arkitektur anerkender en pragmatisk virkelighed: Termodynamiske computere vil ikke erstatte digitale til opgaver som at køre et operativsystem eller behandle et regneark. Deres rolle er som specialiserede acceleratorer, analogt med hvordan GPU’er accelererer grafik, men dedikeret udelukkende til AI’s probabilistiske arbejdsbyrde.

Z1-chippen og visionen om skalering

Extropics endelige mål er ikke X0, men den fremtidige Z1-chip. Det projekteres, at denne enhed vil huse hundredtusindvis eller millioner af sammenkoblede p-bits, hvilket gør det muligt at køre dybe generative AI-modeller fuldstændigt på det termodynamiske substrat. Simuleringer udført af virksomheden antyder, at denne chip vil kunne udføre billed- eller tekstgenereringsopgaver med et energiforbrug, der er 10.000 gange lavere end en tilsvarende GPU.

Z1’s arkitektur er baseret på massiv lokal konnektivitet. I modsætning til GPU’er, hvor data rejser over lange afstande gennem chippen (hvilket forbruger energi), er hukommelse og beregning i Extropics design sammenflettet. P-bits interagerer kun med deres umiddelbare naboer, hvilket skaber et netværk af lokale interaktioner, der tilsammen løser globale problemer. Dette eliminerer en stor del af energiomkostningerne ved databevægelse.

Native algoritmer: Den termodynamiske støjreduktionsmodel (DTM)

Revolutionerende hardware kræver revolutionerende software. At forsøge at køre standard deep learning-algoritmer (baseret på deterministisk matrixmultiplikation) på en termodynamisk chip ville være ineffektivt. Derfor har Extropic udviklet en ny klasse af native algoritmer.

Energibaserede modeller (EBM’er)

Det teoretiske fundament for Extropics software er energibaserede modeller (Energy-Based Models eller EBM’er). I maskinlæring lærer en EBM at associere lav “energi” med data, der virker realistiske (som billedet af en kat), og høj energi med støj eller ukorrekte data. At generere data med en EBM indebærer at finde lavenergikonfigurationer.

EBM’er har eksisteret teoretisk i årtier, men faldt i unåde i forhold til dybe neurale netværk, fordi det er ekstremt langsomt at træne og bruge dem på digitale computere. De kræver en proces kaldet Gibbs-sampling, som er beregningsmæssigt prohibitiv på en CPU eller GPU. Extropics chip udfører imidlertid Gibbs-sampling nativt og næsten øjeblikkeligt. Det, der er en svaghed for digitalt silicium, bliver den fundamentale styrke for termodynamisk silicium.

Denoising Thermodynamic Model (DTM)

Extropics flagskibsalgoritme er den termodynamiske støjreduktionsmodel (DTM). Denne model fungerer på samme måde som moderne diffusionsmodeller (som dem, der driver Midjourney eller Stable Diffusion), der starter med ren støj og gradvist forfiner den, indtil der opnås et klart billede.

Men mens en diffusionsmodel på en GPU matematisk skal beregne, hvordan støjen fjernes trin for trin, bruger DTM chippens fysik til at udføre transformationen. Den termodynamiske hardware tillader den “støjende” tilstand at udvikle sig fysisk mod den “ordnede” tilstand (det endelige billede) ved at følge termodynamikkens love. Simuleringer indikerer, at denne tilgang ikke kun er hurtigere, men kræver størrelsesordener mindre energi, fordi processen med “støjreduktion” udføres af systemets naturlige tendens mod ligevægt, ikke af billioner af flydende kommatals-multiplikationer.

Det konkurrencemæssige økosystem: Divergerende tilgange til fysisk databehandling

Selvom Extropic har fanget mediernes opmærksomhed med sine dristige påstande og cyberpunk-æstetik, er det ikke den eneste aktør på dette område. Kapløbet om termodynamisk og probabilistisk databehandling inkluderer andre sofistikerede konkurrenter som Normal Computing, hver med forskellige tekniske og markedsmæssige filosofier.

Normal Computing: Pålidelighed gennem stokastisitet

Normal Computing, med base i New York og grundlagt af tidligere ingeniører fra Google Brain og Alphabet X, angriber problemet fra en lidt anden vinkel. Mens Extropic fokuserer på hastighed og rå effektivitet til generering (accelerationisme), lægger Normal væsentlig vægt på pålidelighed, sikkerhed og kvantificering af usikkerhed i kritiske systemer.

Deres teknologi er baseret på den Stokastiske Processorenhed (SPU). Ligesom Extropic bruger de termisk støj, men deres matematiske rammeværk fokuserer på specifikke stokastiske processer som Ornstein-Uhlenbeck-processen (OU). OU-processen er en stokastisk proces med tilbagevenden til gennemsnittet (mean-reverting), nyttig til modellering af systemer, der fluktuerer, men har tendens til at vende tilbage til et stabilt centrum.

Normal Computing har nået betydelige milepæle, såsom “tape-out” (færdiggørelse af design til produktion) af deres chip CN101. Denne chip er designet til at demonstrere levedygtigheden af den termodynamiske arkitektur på rigtigt silicium. Deres køreplan inkluderer de fremtidige chips CN201 og CN301, der er beregnet til at skalere højopløsnings-diffusionsmodeller og video inden 2027-2028.

Nøgleforskel: Extropic ser ud til at optimere for maksimal entropi og generativ kreativitet til lave energiomkostninger (ideelt til kunst, tekst, idéudvikling). Normal Computing ser ud til at optimere for “forklarlig AI” og pålidelighed ved at bruge probabilistisk hardware til at lade AI’en “vide, hvad den ikke ved” og styre risici i forretnings- eller industriapplikationer.

Neuromorfisk vs. Termodynamisk databehandling

Det er afgørende at skelne termodynamisk databehandling fra neuromorfisk databehandling (repræsenteret ved chips som IBM’s TrueNorth eller Intels Loihi). Neuromorfisk databehandling forsøger at efterligne hjernens biologiske arkitektur (neuroner, synapser, spændingsspidser) ofte ved hjælp af deterministiske digitale eller analoge kredsløb.

Termodynamisk databehandling efterligner derimod hjernens fysik. Den biologiske hjerne opererer i et vådt og støjende miljø ved 37°C og bruger termisk støj til at facilitere kemiske reaktioner og signaloverførsel. Den kæmper ikke mod støjen; den bruger den. Extropic og Normal Computing argumenterer for, at efterligning af fysikken (termodynamik) er en mere direkte vej til effektivitet end blot at efterligne strukturen (neuromorfik).

Dybdegående effektivitetsanalyse: Dekonstruktion af “10.000x”

Påstanden om en effektivitetsforbedring på 10.000 gange er ekstraordinær og kræver en streng teknisk gennemgang. Hvor præcist kommer dette tal fra, og er det realistisk i produktionsmiljøer?

Besparelsens fysik

Energibesparelsen stammer fra tre hovedkilder:

  1. Eliminering af databevægelse: I en GPU forbruger læsning af en models vægte fra VRAM-hukommelsen mere energi end selve beregningen. I Extropics TSU er modellens vægte fysisk indkodet i forbindelserne mellem p-bits. Beregningen sker der, hvor dataene er.
  2. Passiv beregning: I et digitalt kredsløb tvinger uret tilstandsovergange millioner af gange i sekundet, hvilket forbruger aktiv energi i hver cyklus. I et termodynamisk kredsløb udvikler systemet sig passivt mod løsningen. Energien leveres i høj grad af den omgivende varme (termisk støj), som er “gratis”.
  3. Sampling-effektivitet: Som diskuteret kræver generering af en statistisk stikprøve digitalt tusindvis af operationer. I termodynamik er det en enkelt operation. Hvis en opgave kræver at tage millioner af prøver (som i videogenerering), akkumuleres fordelen lineært, indtil den når størrelsesordener.

Sammenligning af reelt forbrug

For at sætte dette i perspektiv, lad os overveje træning og inferens af modeller som LLaMA. Meta trænede LLaMA 3 ved hjælp af 16.000 H100 GPU’er. Hvis vi antager et konservativt gennemsnitsforbrug, løber energiomkostningerne op i hundreder af gigawatttimer. I inferensfasen (daglig brug), hvis millioner af brugere forespørger modellen, overstiger det akkumulerede forbrug træningens.

Hvis en termodynamisk chip kan udføre den samme inferens ved at forbruge milliwatt i stedet for hundreder af watt, ændres AI’s økonomiske levedygtighed radikalt. Det ville gøre det muligt at køre modeller på GPT-4-niveau på en smartphone uden at tømme batteriet på få minutter, eller at udrulle smarte sensorer i landbruget, der fungerer i årevis på et lille batteri.

Begrænsninger og forbehold

Tallet på 10.000x stammer dog fra simuleringer af specifikke benchmarks optimeret til denne hardware. I blandede arbejdsbelastninger, hvor deterministisk logik, dataforbehandling og kommunikation med CPU’en er påkrævet, vil den globale systemeffektivitet (Amdahls lov) være lavere. Derudover er analog præcision i sagens natur begrænset. Til finansielle beregninger, der kræver nøjagtig 64-bit præcision, er termodynamisk databehandling uegnet. Dens niche er probabilistisk inferens, ikke nøjagtigt bogholderi.

EffektivitetsmetrikDigital GPU (H100)Termodynamisk TSU (Projekteret)Teoretisk forbedringsfaktor
Operationer pr. JouleBegrænset af Landauer-barrieren og CMOS-arkitekturKun begrænset af termisk baggrundsstøj~10^3 – 10^5
Sampling-latensHøj (kræver sekventielle PRNG-iterationer)Meget lav (fysisk øjeblikkelig)~100x – 1000x
KredsløbskompleksitetHøj (millioner af transistorer til styringslogik)Lav (simple p-bits og koblinger)Høj arealdensitet

Udfordringer ved fremstilling og skalering: Hardwarens dødsdal

Computerhistorien er fyldt med lovende teknologier (memristorer, optisk databehandling, spintronik), der fejlede i forsøget på at skalere. Termodynamisk databehandling står over for betydelige barrierer for at komme ud af laboratoriet.

Procesvariabilitet og kalibrering

Den største udfordring for Extropic og Normal Computing er homogenitet. I moderne chipfremstilling (5nm eller 3nm noder) findes der mikroskopiske variationer mellem transistorer. Digitalt håndteres dette med sikkerhedsmarginer. I det analoge/termodynamiske, hvor “støjen” er signalet, ændrer en variation i transistorstørrelse dens sandsynlighedsprofil.

Hvis hver p-bit har en lidt forskellig bias på grund af fremstillingsfejl, vil chippen ikke repræsentere den korrekte sandsynlighedsfordeling. At kalibrere millioner af individuelle p-bits for at kompensere for disse variationer kunne kræve massive digitale styringskredsløb, hvilket ville æde en del af energi- og pladsbesparelserne. Extropic hævder at have løst dette med robuste kredsløbsdesign, men den virkelige test kommer med masseproduktionen af Z1-chippen.

Integration i softwareøkosystemet

Hardware er ubrugelig uden et økosystem. NVIDIA dominerer AI ikke kun på grund af deres chips, men på grund af CUDA, deres softwarelag. For at udviklere skal tage TSU’er til sig, skal den fysiske kompleksitet abstraheres. Extropic har lanceret Thrml, et Python-bibliotek, der giver udviklere mulighed for at definere energimodeller og køre dem i backend (enten simuleret på GPU eller rigtigt på XTR-0). Succesen vil afhænge af, hvor transparent denne integration er med PyTorch og TensorFlow. Hvis ML-ingeniører skal lære statistisk fysik for at programmere chippen, vil adoptionen være nul.

Konkurrencen fra Moores lov

Digital teknologi står ikke stille. NVIDIA, AMD og Intel fortsætter med at optimere deres arkitekturer til AI (f.eks. FP8-præcision, Blackwell-arkitekturer). Termodynamisk databehandling jagter et bevægeligt mål. Når Z1-chippen når det kommercielle marked, vil konventionelle GPU’er have forbedret deres effektivitet. Fordelen på “10.000x” er en stor buffer, men eksekveringen skal være hurtig for ikke at miste vinduet af muligheder.

Geopolitiske og økonomiske implikationer

Fremkomsten af denne teknologi har forgreninger, der rækker ud over serverrummet og påvirker national strategi og den globale AI-økonomi.

AI-suverænitet og decentralisering

I øjeblikket er avanceret AI et oligopol kontrolleret af enheder, der er i stand til at finansiere datacentre til milliarder af dollars og få adgang til begrænsede forsyninger af GPU’er. Da termodynamisk databehandling drastisk reducerer energi- og hardwareomkostninger (ved at bruge ældre og billigere siliciumfremstillingsprocesser, da de ikke kræver den nyeste 3nm-litografi for at fungere), kunne det demokratisere adgangen til “superintelligens”.

Dette ville give mindre nationer eller mellemstore virksomheder mulighed for at drive deres egne grundmodeller uden at være afhængige af amerikanske hyperscalers’ skyer (Microsoft, Google, Amazon). Det er en potentiel vektor for større teknologisk suverænitet.

Indvirkning på elnettet og bæredygtighed

IEA og regeringer er alarmerede over datacentres forbrug. Steder som Irland eller det nordlige Virginia forbruger datacentre tocifrede procenter af det samlede net. Termodynamisk databehandling tilbyder en “sikkerhedsventil” for dette pres. Hvis industrien migrerer en del af sine inferensbelastninger til termodynamisk hardware, kunne man afkoble AI’s vækst fra væksten i CO2-aftrykket, hvilket gør det muligt at opfylde klimamål uden at bremse teknologiske fremskridt.

Accelerationismens filosofi (e/acc)

Man kan ikke ignorere den ideologiske komponent. Guillaume Verdon, CEO for Extropic, er en central figur i e/acc-bevægelsen, der advokerer for ubegrænset og hurtigt teknologisk fremskridt som et moralsk og termodynamisk imperativ for universet. Extropic er ikke bare en virksomhed; det er den fysiske manifestation af denne ideologi. De søger at maksimere universets produktion af entropi og intelligens. Dette står i kontrast til visioner om “Deceleration” eller “AI-sikkerhed” (Safetyism). Extropics succes ville være en kulturel og teknisk sejr for den accelerationistiske fløj i Silicon Valley.

Den naturlige intelligens’ daggry

Termodynamisk databehandling repræsenterer det hidtil mest seriøse forsøg på at lukke kløften mellem kunstig og naturlig beregning. I halvfjerds år har vi bygget computere, der fungerer som rigide bureaukratier: De følger nøjagtige regler, arkiverer data på præcise steder og bruger enorm energi på at sikre, at intet afviger fra normen. I mellemtiden har den menneskelige hjerne – og naturen selv – opereret som en jazzkunstner: improviseret, brugt støj og kaos som en del af melodien og opnået brillante resultater med en forbløffende energieffektivitet.

De teknologier, der præsenteres af Extropic og Normal Computing, gennem enheder som X0 og CN101, antyder, at vi er klar til at vedtage denne anden tilgang. Løftet om en energieffektivitet på 10.000x er ikke bare en inkrementel forbedring; det er et faseskift, der ville muliggøre kunstig intelligens overalt.

Vejen er dog brolagt med tekniske risici. Overgangen fra digital determinisme til termodynamisk probabilisme vil kræve ikke bare nye chips, men en komplet genopdragelse i, hvordan vi tænker om algoritmer, præcision og beregningens natur. Hvis det lykkes Extropic at skalere deres p-bits, og Normal Computing formår at certificere sikkerheden af deres stokastiske processer, er det muligt, at vi om et årti vil se på de nuværende GPU’er – disse 700-watts siliciumovne – med samme nostalgi og forundring, som vi i dag betragter 1940’ernes vakuumrør med. Æraen med at kæmpe imod termodynamikken er forbi; æraen med at regne med den er begyndt.

Det post-digitale databehandlingslandskab

DimensionKlassisk digital tilgangTermodynamisk tilgang (Extropic/Normal)
FilosofiTotal kontrol, fejlundertrykkelseAccept af kaos, brug af støj
Fysisk grænseVarmeafledning, Moores lovFundamentale entropiske grænser
AI-modelDybe neurale netværk (DNN)Energibaserede modeller (EBM), Diffusion
HardwareGPU, TPU (Høj effekt)TSU, SPU (Lav effekt, Passiv)
FremtidsvisionDatacentre på størrelse med byerAllestedsnærværende, decentraliseret og ambient intelligens
Del denne artikel
Ingen kommentarer

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *