Teknologi

Ollama 0.22.1 kører Gemma 4 tool calling på din laptop uden API-nøgle

Susan Hill

Ollama 0.22.1 leverer en opdateret Gemma 4-renderer, der endelig understøtter de to evner, der betød noget for seriøst arbejde med lokal AI: eksplicit tænketilstand og funktionskald, altså tool calling. Tool calling lader modellen selv afgøre, hvornår den skal kalde en ekstern funktion — hente en hjemmeside, slå op i en database, køre en udregning — og fletter derefter resultatet ind i sin egen ræsonnering. Tænketilstanden viser modellens mellemtrin, så et program kan opfange dem og handle på dem. Begge dele har været funktioner, som de store cloud-API’er tog betaling for. Begge dele kører nu lokalt mod Gemma 4 uden nogen ekstern tjeneste indblandet.

Grunden til at den her nyhed vejer tungere end endnu en modellancering, er hardware-regnestykket. Gemma 4-familien, som Google udgav under Apache-2.0-licens, dækker fire størrelser: E2B, E4B, 26B A4B og 31B. De mindre varianter kører på en nyere laptop med integreret grafik og tolv til seksten gigabyte RAM. Versionerne 26B A4B og 31B kræver en stationær GPU, men holder sig stadig klart inden for forbrugerterritoriet. Den samme arkitektur, der før krævede en betalt API-aftale eller en hjemmeserver til fire cifre, bliver dermed en installation på en lørdag eftermiddag for enhver med en rimeligt moderne maskine.

Den praktiske konsekvens for dem, der ikke programmerer, er, at en hel klasse af agentapplikationer — dem der læser din mail, skriver udkast til svar, henter dokumenter, udfylder formularer, opsummerer møder — ikke længere behøver at sende de data til en tredjepartsserver. En privatlivsbevidst bruger, der ville have rigtig agentautomation, havde indtil nu to muligheder: at stole på en cloud-udbyders datapolitik, eller at køre en langt svagere model lokalt uden tool calling. Mellemvejen var et hul, og Ollama 0.22.1 lukker det hul for Gemma 4-vægtklassen.

Den skeptiske læsning er, at Ollama og Gemma 4 ikke er sidestillede med fronten i skyen. En lokalt hostet 31B-model når ikke op på niveau med Anthropics Claude eller OpenAIs GPT-5 i kompleks ræsonnering. Træfsikkerheden ved værktøjskald i lange kæder er markant ringere på de mindre varianter. Multimodale input virker, bare langsommere. Og integrationsarbejdet ligger på brugeren: ingen har endnu bygget en Gemma 4 plus Ollama-agentapp, der er poleret nok til at konkurrere med et færdigt SaaS-flow. Hardware-loftet og softwarens finish er stadig reelle mangler.

Versionen er tilgængelig nu via Ollamas standardinstallationsprogram til macOS, Linux og Windows. Gemma 4-vægtene ligger i Ollamas modelbibliotek under navnerummet gemma4, og runtime-ændringen i 0.22.1 slår automatisk igennem for enhver størrelse, så snart den er hentet ned.

Debat

Der er 0 kommentarer.