Im Bestreben, Diskriminierung zu reduzieren oder nach Möglichkeit sogar gänzlich zu unterbinden, wird häufig Künstliche Intelligenz (KI) als mögliches Mittel genannt. Dies ist insofern problematisch, als Diskriminierung auch unter Anwendung von KI erfolgen kann. So lernt KI auf Basis jener Daten, die ihr zur Verfügung stehen. Ebendiese Datengrundlagen unterliegen jedoch häufig sogenannten Biases. Unter Bias wird die systematische Verzerrung einer von einer Person getroffenen Einschätzung durch deren Stereotype, Vorurteile oder Überzeugungen verstanden. Meist sind sich Menschen ihrer Anfälligkeit für solche Fehleinschätzungen nicht bewusst, weshalb oft auch von „unconscious biases“ gesprochen wird. Diese systematisch verzerrten Urteile können in der Benachteiligung bestimmter Personen münden. Wenn somit die Datengrundlage, anhand derer KI lernt, Einschätzungen vorzunehmen, bereits Verzerrungen unterliegt, kann auch die Einschätzung der KI selbst bestimmte Personen benachteiligen.

