AI-hallusinasjoner oppstår når språkmodeller genererer informasjon som høres overbevisende ut, men som er faktisk feil eller oppfunnet. Dette kan inkludere feilaktige datoer, oppdiktede sitater, eller påstander som ikke finnes i noen pålitelig kilde.
Vår detektor bruker avansert web-søk via Exa.ai for å finne bevis som støtter eller motbeviser hver påstand. Du får en konfidenspoeng som indikerer hvor pålitelig hver påstand er.

Prøv Plagiatkontroll på din neste oppgave i dag.