AI halucinace je jev, při kterém jazykový nebo jiný generativní model umělé inteligence vytvoří výstup, který je fakticky nesprávný, nesmyslný nebo si ho kompletně vymyslel, ale prezentuje ho s naprostou jistotou a autoritou. Nejedná se o chybu ve výpočtu, ale spíše o selhání v "usuzování". Model negeneruje lež záměrně; jednoduše sestaví odpověď, která mu na základě naučených vzorů připadá statisticky nejpravděpodobnější, i když neodpovídá realitě.
Příčina halucinací leží v samotné podstatě fungování velkých jazykových modelů (LLM). Tyto modely nejsou napojeny na ověřenou databázi faktů. Jsou to prediktivní nástroje, jejichž jediným úkolem je odhadnout, jaké slovo by mělo nejpravděpodobněji následovat po předchozím. Pokud v jejich trénovacích datech existují na dané téma protichůdné informace, nebo pokud je dotaz položen na hranici jejich "znalostí", model si začne chybějící informace "domýšlet" tak, aby vytvořil gramaticky a stylisticky koherentní text.
Tento jev představuje jedno z největších rizik a výzev při nasazování AI do praxe. Halucinace mohou vést k šíření dezinformací, generování chybného programového kódu nebo poskytování nebezpečných rad v citlivých oblastech, jako je zdravotnictví nebo finance. Právě proto je klíčové přistupovat k výstupům AI kriticky, vždy ověřovat důležité informace z primárních zdrojů a nespoléhat se na generovaný obsah jako na absolutní pravdu.