top of page

Storlek, kostnad och kvalitet – hur väljer man rätt AI-modell?

Sustainability Circle’s Lilla AI-skola om hur vi förstår skillnaderna mellan små och stora AI-modeller – och hur storlek, kostnad och kvalitet hänger ihop.


Illustration i platt design som visar en vågskål. Till vänster står en mobil med batteriikon som symboliserar små, energieffektiva AI-modeller. Till höger står serverrack och ett dokument som symboliserar stora, kraftfulla AI-modeller. Ovanför texten: ’Storlek, kostnad och kvalitet – hur väljer man rätt AI-modell?

 

När vi läser om nya AI-modeller kan det vara lätt att gå vilse i alla siffror och termer: miljoner parametrar (parameters), kontextfönster (context window), energieffektivitet, inferencekostnad (inference cost)


Men vad betyder det egentligen för dig som ingenjör eller tekniker? Och hur påverkar det valet av vilken modell som passar bäst i din verksamhet?


Låt oss reda ut det.


1. Storlek – antal parametrar (parameters)

En AI-modell mäts ofta i antal parametrar (parameters). Det är de inre ”skruvar och muttrar” som modellen justerar när den lär sig.


Exempel: Googles Gemma 3 270M har 270 miljoner parametrar – tillräckligt för att köras på en mobiltelefon. Stora modeller som GPT-4 har över 1 biljon parametrar och kräver kraftfulla servrar.


Faktaruta – Vad är en parameter?

När vi säger att en parameter är ett justerbart tal i en modell, menar vi ungefär så här:

  • Tänk dig att modellen är ett jättestort nätverk av ”neuroner” (noder) och kopplingar (vikter).

  • Varje koppling har en vikt (weight) – ett tal som säger hur starkt en viss signal ska räknas.

  • När modellen tränas ändras dessa tal steg för steg (genom en process som kallas backpropagation).

  • Till slut har modellen lärt sig vilka mönster i datan som är viktiga.


Ju fler parametrar, desto mer detaljerat kan modellen lära sig samband i data. Men fler parametrar kräver också mer datorkraft och energi.


  • En liten modell kan ha några hundra miljoner parametrar.

  • En stor modell kan ha hundratals miljarder.

2. Minneskapacitet – kontextfönster (context window)

Hur mycket kan modellen ”hålla i huvudet” samtidigt? Det kallas kontextfönster (context window).

Stapeldiagram som jämför kontextfönster i AI-modeller. Små modeller kan hantera cirka 8 000 tokens, medan Claude Sonnet 4 klarar upp till 1 000 000 tokens.

När man säger att en modell har ett kontextfönster på 1 miljon tokens betyder det att den kan hålla så mycket text i minnet på en gång – motsvarande hundratals sidor dokument eller tusentals rader kod.


ExempelClaude Sonnet 4 har ett kontextfönster på 1 miljon tokens, vilket gör att den kan analysera hela kodbaser eller många forskningsrapporter i ett enda steg.


Faktaruta – Vad är en token?

AI-modeller arbetar inte direkt med ord, utan med tokens – små byggstenar av text.

  • En token kan vara ett ord, en del av ett ord eller ett tecken.

  • Exempel: Meningen ”AI förändrar industrin” kan delas upp i tokens som ["AI", " förändrar", " industrin"].


3. Kvalitet och användbarhet

Kvalitet mäts ofta i tester (benchmarks), men det viktiga är vad modellen är bra på i praktiken.


Små modeller kan vara mycket bra på specifika uppgifter:

  • Sentimentanalys – förstå om en recension är positiv eller negativ.

  • Entitetsigenkänning (Named Entity Recognition, NER) – plocka ut namn, datum eller platser ur text.

  • Övervakning i realtid – t.ex. klassificera larm från sensorer eller upptäcka spam i mejl.


Stora modeller är mer allmänna och flexibla:

  • Sammanfatta hundratals sidor dokument på en gång.

  • Analysera en hel kodbas och hitta buggar eller säkerhetshål.

  • Resonera över flera datakällor samtidigt – t.ex. kombinera text, tabeller och diagram.


Exempel: En liten modell som Gemma 3 270M kan vara perfekt för snabb, upprepad textanalys på mobilnivå. Men om du vill analysera 50 forskningsrapporter på en gång eller jämföra hela produktionskedjor är en större modell som Claude Sonnet 4 mer lämplig.


 Faktaruta – Vad är ett benchmark?

Ett benchmark är ett standardiserat test som används för att jämföra AI-modeller.

·       Det fungerar som ett ”nationellt prov” – samma frågor till olika modeller.

·       Resultaten visar styrkor och svagheter, t.ex. hur bra en modell är på att följa instruktioner, analysera språk, eller skriva kod.

·       Vanliga namn du ofta ser i AI-nyheter är MMLU, IFEval, BIG-bench och HumanEval. 

4. Kostnad och resurser

Att använda en AI-modell innebär två typer av kostnader:

Linje­diagram som visar kostnaden för Claude Sonnet 4 beroende på promptstorlek. Upp till 200 000 tokens: input 3 $/miljon, output 15 $/miljon. Över 200 000 tokens: input 6 $/miljon, output 22,5 $/miljon.
  • Beräkningskostnad (compute cost) – hur mycket energi och datorkraft som krävs per fråga (inference).

  • Licens/användningskostnad – vad det kostar att använda modellen via API eller molntjänst.


Exempel: För Claude Sonnet 4 dubblas priset när man använder mer än 200 000 tokens i en förfrågan. För Gemma är användningen gratis via plattformar som Hugging Face.


Observera att priser och tillgänglighet ändras snabbt. Uppgifterna här gäller i skrivande stund, men det är alltid klokt att kontrollera de senaste villkoren hos leverantören.

 

5. Responstid och energieffektivitet

  • Små modeller svarar snabbt och kan köras på enheter nära användaren (mobil, fabriksmaskin).

  • Stora modeller tar längre tid och körs ofta i molnet.

För industriella system kan responstid vara lika viktigt som noggrannhet – särskilt vid realtidsstyrning. Google visade att Gemma 3 i en mobiltelefon drog under 1 % av batteriet under 25 samtal – en påminnelse om hur viktigt energieffektivitet kan vara.

 

6. Säkerhet och förklarbarhet (Explainable AI, XAI)

En annan aspekt är datasäkerhet. Små modeller kan köras lokalt och därmed hålla känslig data inom fabriken, medan stora modeller ofta körs i molnet. Här knyter vi an till vårt tidigare avsnitt om dataläckage.


Dessutom: ju enklare modellen är, desto lättare är det att förstå varför den gav ett visst svar – något vi diskuterade i avsnittet om XAI – förklarbar AI.

 

Slutsats – balans är nyckeln

Det finns ingen modell som är ”bäst” i alla lägen. Valet beror på balansen mellan:

  • Storlek (parameters) – liten och snabb eller stor och flexibel?

  • Minneskapacitet (context window) – kort dialog eller hela rapporter?

  • Kvalitet – spetskompetens eller bredd?

  • Kostnad – gratis och energieffektivt eller dyrt men kraftfullt?

  • Säkerhet och förklarbarhet (XAI) – lokalt och begripligt eller molnbaserat och komplext?


Som ingenjör eller tekniker behöver du inte förstå all matematik bakom – men du behöver förstå kompromisserna. Det gör att du kan välja rätt modell för rätt uppgift, och använda AI på ett sätt som både är effektivt och tryggt.


Vidare läsning:

 

 

Kommentarer


bottom of page