KI-Halluzinationen sind falsche oder erfundene Informationen, die ein KI-System erzeugt, obwohl sie plausibel klingen. Sie entstehen, wenn die KI Inhalte generiert, die nicht auf Fakten beruhen oder nicht durch Trainingsdaten gedeckt sind. Ursachen können unvollständige oder fehlerhafte Trainingsdaten, falsches Training oder Probleme bei der Modellarchitektur sein. Solche Halluzinationen können in Texten, Bildern oder anderen Ausgaben auftreten.