Tager 5 min at læse | Artiklens vigtigste pointer

  • pointe 1
  • pointe 2

Predictive analytics er en af de der buzz words, der er blevet hypet indenfor data management og business intelligence uden at blive ordentligt forklaret. Det har resulteret i ekstremt høje forventninger hos de store virksomheder, som sjældent bliver indfriet. Derudover har det givet en berøringsangst hos de lidt mindre virksomheder, fordi det lyder avanceret og dyrt. Hvilket er misforstået, da selv mellemstore virksomheder, uden big data kan stadigvæk få big results med predictive analytics.

Lad os afmystificere det lidt. Predictive analytics er ikke en helt bestemt teknologi, men er derimod en række tilgange, som kan forudsige trends. De tilgange kan groft opdeles i to slags: Mønstergenkendelse og simuleringer. Og det er ofte her forvirringen opstår.

Mønstergenkendelse er den almenkendte tilgang, som er fundamentet i machine learning og artificial intelligence. Hvorimod simuleringer er en mere menneskelig løsning, der kombinerer ekspertviden med data.

Mønstergenkendelse vs. simuleringer

Når du arbejder med mønstergenkendelse er mængden af data alpha og omega. Ved at smide en hulens masse data ind i en algoritme kan du finde mønstre, som kan bruges til at kortlægge trends. Derfor er Mønstergenkendelse kernen ved data mining, machine learning og AI. Det betyder, at jo større dataset, jo mere præcise forudsigelser. Og derfor bliver predictive analytics og big data ofte nævnt i flæng.

Hvorimod ved simulering bygger man en model af den problemstilling man vil undersøge. Modellen er baseret på ekspertviden om kausalitet på det pågældende område. Derefter fodrer man modellen med data, som beregner forudsigelserne. Ved simuleringer er det samspillet mellem specialistens ekspertise og dataene, som er forudsætningen for forudsigelserne.

Det er vigtigt at forstå denne skelnen mellem mønstergenkendelse og simulering. Fordi rigtig mange virksomheder, der på trods af, at de ikke nødvendigvis har big data til rådighed, stadigvæk har massere merværdi at finde i sine data, når de kombineres rigtigt med virksomhedens in-house viden eller fra en out-of-house specialist.

For eksempel hvis man skal forudsige salg med simulering ville man bygge en model baseret på sammenhængene mellem forskellige salgsforhold – dvs. en kombination af salgspersonalets erfaring, produktkvalitet, forskellige markedsfaktorer og faktorernes interne relation. Ved denne form for predictive analytics er forudsigelsens nøjagtighed styret af den særlige viden I har til rådighed.

Fordelene ved simulering

1. Inkludér den virkelige verden og ikke kun den optalte

Med simuleringer kan man fintune sine forudsigelser ved at inddrage faktorer, som normalt ikke er til stede i sine data. Der er in-house viden, som sjældent bliver optalt, men som har stor betydning for præstation og resultater. Det er ofte de bløde faktorer fx arbejdsmoralen, tidspres og stres, men det kan også være eksterne faktorer fx, at konkurrenter lancerer nye produkter, åbner nye filialer eller lukker butikken. Med simuleringer kan inddrage disse faktorer og kvantificere graden af usikkerhed.

2. Relativt lave omkostninger

I modsætning til mønstergenkendelse, som er baseret på kæmpestore mængder data, bruger simuleringer den tilgængelige data og supplerer den med specialiseret viden. Det betyder, at en simuleringn kan finde værdifulde korrelationer uden at kræve alle data, som kun ”måske er relaterede”. Det kan lade sig gøre, da årsagerne til den undersøgte problemstilling er allerede indbygget i modellen. Og derfor er man ikke afhængig af store mængder data, hvilket gør dataindsamling billigere og mindre tidskrævende.

3. Simuleringer er yderst pålidelige

En af udfordringerne ved mønstergenkendelse er, at ofte opstår der tvivlsomme korrelationer. Det fører til mislykkede forudsigelser. Simulering tager derimod udgangspunkt i ekspertforståelse af årsag og virkning, hvilket giver yderst pålidelige resultater. Når man laver simulering anvender man også en test- og justeringsfase, der både forbedrer nøjagtighed og forbedrer vores forståelse af årsag og virkning.

Så lad os lige få manet den her myte i jorden omkring predictive analytics: I behøver ikke big data for at få big results.