[featured_image

Der Artikel "Equality of Effort via Algorithmic Recourse" von Raimondi, Francesca ED et al. konzentriert sich auf die Untersuchung und Beseitigung von Diskriminierung in KI-Entscheidungsmodellen durch die Bewertung der Gleichheit der Anstrengung, die zur Änderung unerwünschter Ergebnisse benötigt wird. Die Autoren stellen eine Methode vor, die auf algorithmischer Rekursivität basiert, um die Kosten für die Änderung unerwünschter Ergebnisse zu berechnen und zu vergleichen.

Die Autoren erkennen an, dass KI-generierte Bilder zu Vorurteilen und Stereotypen führen können. Sie argumentieren, dass die "Fairness durch Unbewusstheit" - das heißt, die Modelle verwenden keine sensiblen Merkmale - unzureichend ist, um die Voreingenommenheit aufgrund von Proxy-Merkmalen zu mildern. Proxy-Merkmale sind Merkmale, die stark mit sensiblen Merkmalen korreliert sind und daher als Stellvertreter für diese dienen können, was zu diskriminierenden Entscheidungen führen kann.

Die Autoren sehen die Ursache für das Auftreten von Vorurteilen und Stereotypen in der Art und Weise, wie KI-Modelle trainiert werden und Entscheidungen treffen. Sie argumentieren, dass diese Modelle oft auf versteckten Proxy-Merkmalen basieren, die zu diskriminierenden Entscheidungen führen können. Darüber hinaus weisen sie darauf hin, dass die Qualität der sensiblen Merkmalsmodelle und die Validierungsmetriken weitere Einschränkungen darstellen.

Um Vorurteilen und Stereotypen bei von Text-to-Image generierten Bildern entgegenzuwirken, schlagen die Autoren einen Ansatz vor, der auf algorithmischer Rekursivität basiert. Dieser Ansatz beinhaltet die Berechnung der Kosten für die Änderung unerwünschter Ergebnisse und den Vergleich dieser Kosten zwischen verschiedenen geschützten Gruppen. Wenn die Kosten für die Änderung unerwünschter Ergebnisse zwischen verschiedenen geschützten Gruppen signifikant unterschiedlich sind, könnte dies ein Zeichen für diskriminierendes Verhalten sein.

Die Autoren testeten ihren Ansatz mit synthetischen Daten und realen Daten aus dem deutschen Kreditdatensatz. Die Ergebnisse zeigten, dass ihr Ansatz effektiv für die Überprüfung von Voreingenommenheit ist und die gängigen statistischen Metriken ergänzt, die üblicherweise zur Bewertung des Fairness-Niveaus verwendet werden. Sie fanden auch heraus, dass selbst "entzerrte" Algorithmen nicht vollständig verhindern können, dass diskriminierende Verhaltensweisen auftreten.

Die Autoren weisen jedoch darauf hin, dass ihre Arbeit einige Einschränkungen hat. Zum Beispiel konnten sie nicht klar identifizieren, welche Merkmale die wichtigsten im Entscheidungsprozess sind und gleichzeitig Proxy-Merkmale sind. Sie schlagen vor, in zukünftigen Versionen ihres Systems eine Feature-Importance-Methodik wie SHAP zu integrieren, um diese Einschränkung zu überwinden.

  • Version
  • Download
  • File Size 244.52 KB
  • File Count 1
  • Create Date 2023-07-05
  • Last Updated 2023-07-06