Teknologi

DeepSeek V4 koster en femtedel af GPT-5 og kører uden Nvidia-chips

Det kinesiske laboratorium, som med R1 fik Nvidias aktier til at styrtdykke, vender tilbage med en større, markant billigere og på kinesisk hardware optimeret version. V4-Pro er den største åbne AI-model, der nogensinde er bygget; begge varianter ligger allerede på Hugging Face under MIT-licens, og prisen lander langt under OpenAI og Anthropic.
Susan Hill

DeepSeek har offentliggjort preview-versionen af V4-Pro og V4-Flash — to open source sprogmodeller, der fremsætter en konkret tese: at håndtere en million tokens kontekst er ikke længere et kapacitetsproblem, kun et effektivitetsproblem. V4-Pro samler 1,6 billioner parametre i alt, hvoraf 49 milliarder er aktive pr. forespørgsel — nok til at behandle en hel kodebase eller en komplet bog i én enkelt prompt. For første gang konkurrerer en åben model seriøst med de bedste lukkede modeller i matematik, programmering og agentopgaver — og gør det til en brøkdel af prisen.

Begge modeller kommer under MIT-licens, og vægtene er allerede offentliggjort på Hugging Face. V4-Flash er den effektive variant med 284 milliarder parametre i alt og 13 milliarder aktive — kompakt nok til, at en kvantiseret version kan køre på en bærbar computer i den tunge ende. V4-Pro er flagskibet: 865 gigabyte på disken, designet til cloud-deployment og forskningslaboratorier. Begge deler det samme kontekstvindue på én million tokens — et spring, der matcher Googles Gemini og fordobler, hvad de fleste konkurrerende åbne modeller tilbyder.

YouTube video

Det arkitektoniske nøglegreb hedder Hybrid Attention: DeepSeek kombinerer to kompressionsteknikker og presser hukommelsesomkostningerne så aggressivt ned, at V4-Pro ved samme kontekstlængde kun bruger 27 % af den regnekraft og 10 % af den cache, som V3.2 krævede. V4-Flash går endnu længere. Konkret betyder det: at servere en prompt på én million tokens med V4-Pro koster i dag mindre end at servere en på 100.000 med forrige generation. Det er ikke en teknisk detalje — det er den økonomiske forudsætning for, at langkontekst-modeller holder op med at være laboratoriedemonstrationer og bliver kommercielt anvendelige produkter.

Prisbruddet er det punkt, hvor lanceringen rammer hårdest. V4-Flash er prissat til 0,14 dollar pr. million input-tokens — under selv OpenAIs GPT-5.4 Nano. V4-Pro koster 1,74 dollar pr. million input-tokens og 3,48 dollar pr. million output-tokens — en tredjedel af det, Anthropic tager for Claude Opus 4.7, og en femtedel af det, OpenAI tager for GPT-5.5. På benchmarks for programmering når V4-Pro en Codeforces-rating på 3.206 — ifølge DeepSeek en værdi, der ville placere modellen som nummer 23 blandt menneskelige konkurrenceprogrammører på verdensplan.

Den geopolitiske læsning vejer mindst lige så tungt som benchmarkene. DeepSeek har optimeret V4 til Huaweis Ascend 950-chips og til silicium fra den kinesiske AI-producent Cambricon og har ikke givet Nvidia eller AMD tidlig adgang til at tilpasse ydelsen — en omvending af standardpraksis i branchen. Lanceringen fungerer som kommerciel stresstest for den kinesiske teknologikæde, der i flere år har arbejdet under Washingtons eksportrestriktioner. For Europa bliver spørgsmålet mere ubehageligt: mens Beijing bygger en samlet suveræn kæde — åbne vægte, indenlandske chips, egen inferenssoftware — og Washington lukker sin ad lovgivningsvejen, forbliver europæisk digital suverænitet strukturelt afhængig af de to blokkes infrastruktur.

Der er reelle forbehold. V4 er en preview, ikke en produktionsversion, og uafhængige tredjepartsbenchmarks er endnu ikke gennemført. DeepSeeks egen tekniske rapport erkender, at modellen ligger mellem tre og seks måneder efter GPT-5.4 og Gemini 3.1 Pro på frontkapacitet. Forgængeren R1 blev få uger efter lanceringen forbudt eller begrænset i flere amerikanske delstater, Australien, Taiwan, Sydkorea, Danmark og Italien — V4 arver den samme regulatoriske eksponering intakt i disse markeder. Pentagon-kontrahenter har desuden forbud mod at bruge DeepSeek-modeller under den amerikanske NDAA-lov fra 2026, medmindre der foreligger udtrykkelig dispensation.

Uden for disse begrænsede zoner er adgangen umiddelbar. DeepSeeks webbaserede chatbot giver adgang til V4-Pro via Expert-tilstand og V4-Flash via Instant-tilstand uden omkostninger, og udviklere kan kalde API’et ved blot at ændre modelnavnet til deepseek-v4-pro eller deepseek-v4-flash.

Lanceringen faldt præcis ét år efter, at DeepSeek-R1 rystede de globale AI-markeder den 20. januar 2025 — kalenderen er omhyggeligt udvalgt. Den endelige API-prissætning efter preview-fasen mangler stadig, og de gamle endepunkter deepseek-chat og deepseek-reasoner udfases den 24. juli 2026, hvor al trafik automatisk dirigeres videre til V4. Det, der står på spil her, rækker ud over den enkelte benchmark: det er den første offentlige demonstration af, at en konkurrerende magt kan levere en komplet, konkurrencedygtig og billig AI-stak uden amerikanske leverandører — og alene den demonstration ændrer grundpræmisserne for enhver suveræn AI-strategi fremover.

Debat

Der er 0 kommentarer.