Bias tritt auf, wenn eine KI bestimmte Gruppen unfair behandelt oder falsche Annahmen trifft. Dies geschieht oft, wenn die Trainingsdaten nicht ausgewogen sind, beispielsweise wenn ein Gesichtserkennungs-System nur mit Bildern von hellhäutigen Menschen trainiert wurde. Das führt dazu, dass die KI schlechtere Ergebnisse für unterrepräsentierte Gruppen liefert.