Nu har mange af os efterhånden vænnet os til at benytte AI til en lang række opgaver i hverdagen.
Derfor kan det godt give lidt svedige håndflader, når man så pludselig hører, at en AI-model som GPT-4.5 “hallucinerer” 37% af tiden.
Men før du kaster hele din AI-indsats i skraldespanden, så tag en dyb indånding. Det er (måske) ikke så slemt, som det lyder. Det er i hvert fald konklusionen på en artikel om AI Hallucinationer, som den amerikanske AI ekspert Edmundo Ortega står bag.
Men lad os se lidt nærmere på, hvad begrebet “hallucinationer” egentlig dækker over – og hvorfor det måske er mere acceptabelt, end vi tror.
Hvad er AI hallucinationer?
AI-hallucinationer opstår, når kunstig intelligens leverer et svar, der lyder overbevisende, men som ikke er korrekt. Det kan være forkerte fakta, opdigtede kilder eller misforståelser.
Problemet skyldes, at AI ikke forstår verden som mennesker gør – den gætter baseret på mønstre i data, den er trænet på. Derfor kan selv avancerede AI-systemer nogle gange finde på ting, der ikke passer.
37% hallucinationer lyder dog stadig voldsomt. Tallet kommer fra en test, som man udsatte GPT-4.5 for, og det var en test, der var designet til at være enormt svær. De stillede spørgsmål, som “Hvilken rolle fik Jean-Luc Johnson tildelt i Montreal i 1997?” – hvilket er informationer, der knap nok findes online, men også formuleringen af spørgsmålet kan være tvetydigt.
Så testen svarede lidt til at sætte en studerende til eksamen i en bog, han eller hun aldrig har læst. Her tog GPT-4.5 fejl i 37% af svarene.
Men på den anden side svarede den rigtigt på 63% af spørgsmålene.
Så hvad kan vi bruge det til?
Hvad skaber hallucinationerne?
AI “hallucinerer”, fordi den ikke tænker som os. Den slår ikke op i et leksikon eller Googler svarene – den forudsiger det næste mest sandsynlige ord baseret på alle de tekster, den er trænet på. Den kommer altså med kvalificerede gæt.
Hvis du f.eks. spørger: “Hvad havde Bill Murray på til Oscar-uddelingen i 2017?”, vil modellen sandsynligvis finde på et svar, fordi:
- Den tror, du har ret i, at han var der.
- Den ved, at Bill Murray er kendt for sjove outfits.
- Den prøver at tilfredsstille dig – ikke modsige dig.
Så den siger noget med “ternet butterfly og hat”… også selvom Murray slet ikke var til stede.
Når hallucinationer er din skyld
Edmundo Ortegas holdning er, at mange hallucinationer opstår, fordi vi stiller spørgsmål forkert. Hvis du antager noget i dit spørgsmål – f.eks. at Bill Murray var til stedet til Oscar-uddelingen – så tager AI’en det for gode varer.
Tre klassiske fejl vi laver, når vi stiller spørgsmål til vores GPT:
- Vi stiller ledende spørgsmål og “sætter scenen” forkert.
- Vi beder om subjektive vurderinger uden kontekst (fx: “skriv en god artikel” – jamen, hvad er godt?).
- Vi forventer, at AI selv siger “det ved jeg ikke” – men det gør den sjældent.
AI vil hellere gætte end tie stille.
Kan vi gøre noget ved det?
Ja – du kan faktisk selv gøre en hel del:
- Tillad usikkerhed: Bed AI om at sige “ved ikke”, hvis den er usikker. Brug formuleringer som: “Svar kun, hvis du er sikker, ellers sig ‘usikker’”.
- Del store opgaver op: I stedet for at bede om en 1000-ords analyse, så spørg trinvis. Start med “hvad er hovedpunkterne?” – og byg videre derfra.
- Giv den bedre data: Upload rapporter, kilder eller noter. Jo bedre data den har at arbejde med, desto mindre vil den finde på.
Er hallucinationer farlige?
Nogle gange ja. Hvis AI’en skal bruges til juridiske dokumenter, sundhedsanbefalinger eller finansielle beslutninger – så skal der være et lag af menneskelig kontrol.
Men til hverdag, når du beder om et udkast til en kundemail eller en opsummering af en workshop? Der er fejlmarginen minimal – og ofte til at leve med.
Som Edmundo siger det lidt polemisk: “Alt AI laver er jo teknisk set hallucineret – det er bare 95% korrekt.”
Vi skal med andre ord stoppe med at behandle AI som et klogt orakel, der har svaret på alt. I stedet bør vi se det som en samtalepartner, der er virkelig god til at finde mønstre – men stadig kan tage fejl.
Derfor handler god AI-brug ikke om at fjerne alle hallucinationer, men om at forstå, hvornår de kan opstå, og hvordan vi bedst navigerer uden om dem.
Slap af – og stil bedre spørgsmål
Hallucinationer i AI er altså ikke et tegn på, at teknologien (eller din AI-indsats) er ubrugelig. Det er en naturlig konsekvens af, hvordan den fungerer. Den gætter – og den gætter godt – men nogle gange også forkert.
Så næste gang du ser en AI lave en fejl, så spørg dig selv: “Var det egentlig mig, der lokkede den i fælden?” Og husk: med lidt bedre prompts og realistiske forventninger, så er vi allerede langt.
AI er ikke magi. Men det er heller ikke farligt, hvis vi bruger det klogt.
Vil I blive bedre til at bruge AI i jeres virksomhed? Kontakt os her for et gratis intromøde.