När man pratar om AI-hallucinationer, så menar man det som sker när en AI-chattbot "hittar på" felaktig information. Alltså att AI-modellen genererar felaktig output på ett kreativt sätt. AI-chattbotar är generellt sett bra på att generera påståenden som låter trovärdiga, även om dessa påståenden egentlig är felaktiga.
På sätt och vis kan man säga att AI-chattboten bara "för sitt jobb" som den ska, när den hallucinerar. AI-chattbotar är ju skapade för att gissa nästa token, och nästa token, och så vidare. Det är precis vad den gör, när den hallucinerar, men den gissar "fel" i bemärkelsen att den genererar felaktig fakta. Och detta sker vanligtvis i sin tur som en konsekvens av att AI-modellen inte har tränats tillräckligt mycket på det aktuella ämnet som den behandlar för tillfället, eller att dess träningsdata är utdaterad i förhållande till den input som användaren har promptat till AI-chattboten, i kombination med att AI-modellen (av en eller annan anledning) inte har sökt (eller lyckats söka fram) aktuell och relevant info på nätet, som hade krävts för att förebygga AI-hallucinationen.
För att förebygga AI-hallucinationer kan man använda dessa metoder:
Chatthistorik - lagom lång historik. Det är förstås värdefullt att AI:n har tillgång till relevant historik, för att kunna ge kvalitativ output i resten av konversationen. Men det är lätt hänt att chatthistoriken blir onödigt lång. Och då ökar risken att AI:n blir förvirrad/distraherad av all info, vilket kan leda till output av låg kvalitet. Strategi: Håll dina prompter korta men kärnfulla, och be att AI-modellen gör likadant. AI-chattbotar har en tendens att skriva onödigt långa, omständiga och upprepande svar. Det vill vi undvika.
Klistra in kvalitativ och relevant info i chatten, så att chattboten har direkt tillgång till bra informationsunderlag.
Kritisk AI: Be chattboten att kritiskt granska dess tidigare svar. Det är dock viktigt att påpeka att AI-chattboten kan behöva vägledning av användaren, genom ifrågasättande av specifika delar av tidigare svar, utifrån vissa resonemang. Men sådan ny input kan det bli lättare för AI-modellen att hitta felaktigheter i den tidigare chatthistoriken.
MAS: Om möjligt, använda MAS för så att flera AI-modeller tillsammans kan arbeta för att höja kvaliteten på output. Många användare kan dock uppleva denna strategi som avancerad/krånglig att implementera.
PDF-uppladdning (eller uppladdning av andra dokument) med kvalitativ och relevant info, exempelvis via GPT Store-Editorn.
RAG: dvs info-hämtning via API/API:er. Självklart är det viktigt att bara hämta info från pålitliga källor som har relevant och uppdaterad information.
Surf & instruktioner: Anpassad AI-modell som är instruerad att alltid surfa och undersöka innan output genereras. Det är dock viktigt (som alltid) att vara källkritisk även i dessa situationer då AI:n har sökt efter info online. Följ gärna upp de källhänvisningar (URL:er) som AI-chattboten adderat till sitt svar. Ett första steg är att verifiera att länkarna verkligen leder till fungerande webbsidor. I nästa steg kan informationen verifieras. Det finns förstås risk att AI-modellen har hittat felaktig info online. Men enligt min erfarenhet är ändå denna strategi mycket effektiv för att minska risken för AI-hallucinationer eller felaktig output, särskilt om du har ett källkritiskt förhållningssätt.
Om du vill kan du gratis använda dig av en GPT som jag har anpassat för att förebygga risken för AI-hallucinationer. Det går att söka fram denna GPT via GPT Store och det går även att nå GPT:n via denna direktlänk: ChatGPT.com/g/g-Sqhkx8I9F-Reliable-AI
Observera att för att kunna använda denna GPT så behöver du har tillgång till ett betalabonnemang hos OpenAI som Pro/Team/Enterprise. Det är bra att tänka på att även om denna GPT är optimerad för att generera korrekt info, finns det alltid risk för AI-hallucinationer. Du kan verifiera informationen genom att klicka på länkarna som GPT:n ger. Hoppas du får glädje och användning för min GPT!