Lin, Alexander, et al. “Word-Level Explanations for Analyzing Bias in Text-to-Image Models.”
Der Artikel "Word-Level Explanations for Analyzing Bias in Text-to-Image Models" von Alexander Lin et al. untersucht die Rolle von einzelnen Wörtern in Texteingaben bei der Erzeugung von Vorurteilen und Stereotypen in Text-zu-Bild-Modellen.
Die Autoren erkennen, dass Text-zu-Bild-Modelle, die Bilder basierend auf Texteingaben generieren, dazu neigen, Minderheiten aufgrund von Rasse und Geschlecht zu unterrepräsentieren. Sie stellen fest, dass dies ein Problem darstellt, da es zur Verstärkung von Diskriminierung und Stereotypen beiträgt.
Die Autoren identifizieren die Ursachen für diese Vorurteile und Stereotypen in den Assoziationen, die das Modell zwischen bestimmten Wörtern und Bildinhalten herstellt. Sie stellen fest, dass bestimmte Wörter dazu neigen, Bilder zu erzeugen, die bestimmte Gruppen von Menschen unterrepräsentieren oder überrepräsentieren. Zum Beispiel kann das Wort "Arzt" dazu führen, dass das Modell überwiegend Bilder von Männern erzeugt, während das Wort "Krankenschwester" dazu führen kann, dass das Modell überwiegend Bilder von Frauen erzeugt.
Um dieses Problem zu bekämpfen, schlagen die Autoren eine Methode vor, um die Auswirkungen jedes Wortes in der Texteingabe auf die erzeugten Bilder zu messen. Sie führen ein "Wort-Einfluss-Maß" ein, das den Einfluss eines bestimmten Wortes auf die Unterrepräsentation in den Ausgabebildern des Modells quantifiziert. Dieses Maß kann verwendet werden, um zu bestimmen, welches Wort in der Eingabeaufforderung zur Unterrepräsentation führt und um Maßnahmen zur Verringerung von Vorurteilen zu entwickeln.
Die Autoren führen Experimente mit dem Stable Diffusion-Modell durch und zeigen, dass ihr Maß die mit Wörtern in einer Eingabeaufforderung verbundenen Vorurteile erfasst. Sie stellen fest, dass Wörter wie "Arzt", "Wissenschaftler", "selbstbewusst" und "rational" dazu neigen, die Erzeugung von männlichen Bildern zu fördern, während Wörter wie "Krankenschwester", "fürsorglich", "sensibel" und "Salon" dazu neigen, die Erzeugung von weiblichen Bildern zu fördern.
Die Autoren schließen mit der Feststellung, dass ihre Arbeit dazu beitragen kann, die Wurzeln von Vorurteilen in Text-zu-Bild-Modellen zu identifizieren und Vorschläge zur Verbesserung der Repräsentativität in den von diesen Modellen erzeugten Bildern zu machen. Sie weisen jedoch auch darauf hin, dass ihre Methode einige Einschränkungen hat, darunter die Notwendigkeit, einen geeigneten Mechanismus zur Erzeugung von Texttransformationen zu finden, und die Tatsache, dass ihre Methode auf der Annahme basiert, dass die erzeugten Bilder unabhängig und identisch verteilt sind.
- Version
- Download 3
- File Size 6.52 MB
- File Count 2
- Create Date 2023-07-04
- Last Updated 2023-07-06