top of page

Feature Engineering – skapa smarta data för AI – Del 1

Sustainability Circle's "Lilla AI Skola" om hur vi gör våra variabler tydliga och användbara för AI


ree

Vi har i tidigare avsnitt pratat om Pre-Processing – hur vi städar, skalar och strukturerar datan innan vi matar den till en AI-modell.


Men idag tar vi nästa steg: att skapa och förbättra de features som modellen faktiskt lär sig från.

Detta kallas för Feature Engineering – ett av de absolut viktigaste momenten i ett AI-projekt.


Som maskinlärningsexperten Andrew Ng uttryckt det: “Applied machine learning is basically feature engineering.”


Vad är en "feature"?

En feature är helt enkelt en variabel, ett fält, eller en kolumn i din data – alltså det som beskriver varje observation.


Exempel:

  • Temperatur

  • Ålder

  • Maskinstatus

  • Antal supportärenden

  • Typ av produkt


Det är dessa som modellen använder för att lära sig samband. Ju bättre och tydligare dina features är, desto bättre blir modellen. Det handlar alltså inte bara om algoritmer – det handlar om att förstå din data och göra den begriplig för AI:n.


Varför är Feature Engineering viktigt?

  • Förbättrar noggrannheten – bättre features ger bättre beslut

  • Sparar tid – du behöver ofta enklare modeller om du har bra features

  • Gör modeller mer robusta – genom att minska brus och lyfta fram mönster

  • Hjälper oss förstå vad som driver resultaten – särskilt viktigt i industriella tillämpningar


Tänk på det som att skapa rätt sensorer i din data. Om du bygger en AI-modell för att förutse fel i en maskin – vad är viktigare:Att använda rätt algoritm, eller att ge modellen rätt mätpunkter?

 

Tekniker i Feature Engineering – del 1

Här är några centrala tekniker, särskilt kopplade till numeriska variabler. 

1. Saknade värden – fylla eller ta bort?

Saknad data är vanligt i verkligheten. Du kan:

  • Ta bort rader om det bara är några få

  • Fylla i med t.ex. medelvärde, median eller ett standardvärde

Att hantera saknade värden på rätt sätt är avgörande för att modellen ska kunna tränas stabilt.

2. Binning – gruppera värden

Istället för exakta värden som ålder = 27, 34, 52, kan vi skapa grupper:“Ung”, “Medelålder”, “Senior”. Det kallas för binning.

Det hjälper modellen att fokusera på övergripande mönster snarare än små variationer.

Exempel:

Ålder  →  Åldersgrupp 

24     →  Ung 

42     →  Medelålder 

67     →  Senior

3. Hantera avvikare (outliers)

Vissa värden kan ligga långt utanför det normala och skapa problem:

  • En temperaturmätare visar 900°C när den normalt går mellan 0–100°C

  • En lön är 1 000 000 när resten ligger runt 50 000

Vad kan vi göra?

  • Ta bort dem (om det är tydliga fel)

  • Begränsa dem (sätta max/min)

  • Transformera dem med t.ex. logaritmer

4. Normalisering och skalning

Många AI-modeller gillar när all data ligger inom samma intervall.

Exempel:

  • Ålder: 20–65

  • Inkomst: 25 000–250 000

Utan skalning kommer inkomsten dominera bara för att den har större tal.

Lösning:

  • Normalisering – skala mellan 0 och 1

  • Standardisering – skala så att medelvärde = 0 och standardavvikelse = 1

Detta gör att alla features "spelar på samma planhalva".

Skillnad mot Pre-Processing?

Bra fråga! Pre-Processing och Feature Engineering hör ihop, men:

  • Pre-Processing handlar om att rengöra och förbereda data

  • Feature Engineering handlar om att förbättra och skapa data för modellen

Du kan tänka: Pre-Processing är att städa verkstaden. Feature Engineering är att välja rätt verktyg att jobba med.

 

I nästa avsnitt – del 2 - tittar vi på:

  • Hur vi hanterar kategoriska data (som "typ av produkt")

  • Hur vi skapar nya features ur de vi har

  • Och hur vi väljer de viktigaste att använda


Feature Engineering är inte bara för AI-experter – det är en del av vardagen för dig som arbetar med processdata, underhåll, produktionsoptimering eller kvalitet.


Genom att förstå hur du beskriver verkligheten i data, ökar du chansen att din AI-modell blir både mer träffsäker och mer användbar.


Vidare läsning och inspiration

  • Wikipedia – Feature Engineering -> [Länk]

  • The Concise Guide to Feature Engineering for Better Model Performance - A comprehensive guide covering various feature engineering methods, including transformation, scaling, and normalization, with practical tips -> [Länk]

  • Feature Engineering in Machine Learning: A Practical Guide - A hands-on guide to feature engineering techniques like encoding, scaling, and handling missing values, with Python examples -> [Länk]

Kommentarer


bottom of page