Wenn eine KI falsche oder erfundene Informationen erzeugt, spricht man von „Halluzinieren“. Das passiert, wenn das Modell keine passenden Daten hat und deshalb „rät“. Ein Beispiel ist eine Text-KI, die eine wissenschaftliche Quelle erfindet, weil sie keine echte Referenz dazu findet.