AI-hallucinationer uppstår när språkmodeller genererar information som låter övertygande, men som faktiskt är fel eller påhittad. Detta kan inkludera felaktiga datum, påhittade citat, eller påståenden som inte finns i någon pålitlig källa.
Vår detektor använder avancerad webbsökning via Exa.ai för att hitta bevis som stödjer eller motbevisar varje påstående. Du får en konfidenspoäng som indikerar hur pålitligt varje påstående är.

Prøv Plagiatkontroll på din neste oppgave i dag.