[featured_image

Der Artikel "A Friendly Face: Do Text-to-Image Systems Rely on Stereotypes when the Input is Under-Specified?" von Fraser, Kathleen C., Svetlana Kiritchenko und Isar Nejadgholi untersucht, inwieweit Text-zu-Bild-Systeme auf Stereotypen zurückgreifen, wenn die Eingabe unterbestimmt ist.

Die Autoren stellen fest, dass diese Systeme tatsächlich dazu neigen, Stereotypen zu reproduzieren. Sie sehen dies als ein Problem, da es zu einer Verstärkung von Vorurteilen und Diskriminierung führen kann. Insbesondere stellen sie fest, dass die Systeme dazu neigen, jüngere Menschen, insbesondere Frauen, zu generieren, und dass sie dazu neigen, progressive Überzeugungen mit heller Haut zu assoziieren. Sie bemerken auch, dass es eine auffällige Unterrepräsentation von dunkelhäutigen Frauen gibt und dass alle drei Systeme Armut mit dunkelhäutigen Männern assoziieren.

Die Autoren sehen mehrere Ursachen für das Auftreten von Vorurteilen und Stereotypen in diesen Systemen. Eine davon ist die Art und Weise, wie die Trainingsdaten gesammelt wurden, hauptsächlich durch das Scraping des Internets nach Bild-Beschriftungs-Paaren. Sie weisen darauf hin, dass es eine menschliche Berichterstattungsvoreingenommenheit in Bild-Datensätzen gibt, da Annotatoren wählen, was in einem Bild "erwähnenswert" ist. Insbesondere werden Merkmale, die als stereotyp-konsistent oder "Standard" angesehen werden, oft nicht erwähnt. Ein weiterer Faktor ist der beabsichtigte Anwendungsfall für diese Text-zu-Bild-Systeme. Einige von ihnen wurden als Methoden zur Erzeugung von KI-Kunst vermarktet und sind daher darauf optimiert, "ästhetisch ansprechende" Ergebnisse zu erzeugen, wobei die Benutzer Feedback dazu geben, was das für sie bedeutet. Schließlich weisen die Autoren darauf hin, dass die menschlichen Schöpfer solcher Systeme normative Designentscheidungen treffen, die ebenfalls zur Verstärkung von Stereotypen beitragen können.

Um Vorurteilen und Stereotypen in Text-zu-Bild-Systemen entgegenzuwirken, schlagen die Autoren mehrere Ansätze vor. Einer davon ist die Untersuchung, inwieweit die Voreingenommenheit von den Trainingsdaten, der Modellarchitektur oder den Modellparametern herrührt. Die Antwort auf diese Frage würde helfen, geeignete Entzerrungsmethoden zur Trainingszeit zu ermitteln. Ein weiterer vielversprechender Forschungsansatz besteht darin, die Voreingenommenheit zur Inferenzzeit durch sorgfältiges Prompt-Engineering zu mildern. Sie weisen darauf hin, dass das Modifizieren von Prompts mit Phrasen wie "unabhängig vom Geschlecht" Text-zu-Bild-Modelle dazu anregen kann, Ausgaben verschiedener Geschlechter zu erzeugen.

Zusammenfassend stellen die Autoren fest, dass, obwohl nicht alle Systeme die gleichen Arten von stereotypen Voreingenommenheiten aufweisen, alle untersuchten Systeme eine Tendenz zeigen, Stereotypen zu reproduzieren, insbesondere wenn die Eingabe unterbestimmt ist. Sie betonen die Notwendigkeit, diese Voreingenommenheiten zu erkennen und zu adressieren, um die Fairness und Gleichheit in der KI-Forschung und -Anwendung zu verbessern. Sie schlagen vor, dass zukünftige Arbeiten sich auf die Entwicklung von Methoden konzentrieren sollten, die es ermöglichen, die Auswirkungen von Stereotypen in Text-zu-Bild-Systemen zu messen und zu mildern. Sie betonen auch die Wichtigkeit der Transparenz und Verantwortlichkeit in der KI-Entwicklung und -Anwendung, um sicherzustellen, dass diese Systeme nicht zur Verstärkung von Vorurteilen und Diskriminierung beitragen.

  • Version
  • Download
  • File Size 6.51 MB
  • File Count 1
  • Create Date 2023-07-04
  • Last Updated 2023-07-06