[featured_image

Der Artikel "Multimodal Composite Association Score: Measuring Gender Bias in Generative Multimodal Models" von Mandal, Abhishek, Susan Leavy und Suzanne Little befasst sich mit der Messung von Geschlechterbias in generativen multimodalen Modellen. Die Autoren stellen eine Methode namens Multimodal Composite Association Score (MCAS) vor, um Bias sowohl in Text- als auch in Bildmodi für groß angelegte multimodale generative Modelle zu untersuchen.

Die Autoren erkennen an, dass es ein Problem ist, dass durch KI generierte Bilder zu Vorurteilen und Stereotypen führen können. Sie argumentieren, dass diese Vorurteile und Stereotypen in den Daten vorhanden sind, mit denen die Modelle trainiert werden. Insbesondere stellen sie fest, dass die Modelle, die sie untersuchen (DALL-E 2 und Stable Diffusion), auf dem CLIP-Modell basieren, das auf 400 Millionen Bild-Text-Paaren trainiert wurde, die aus dem Internet abgerufen wurden. Dies deutet darauf hin, dass jegliche Vorurteile und Stereotypen, die in diesen Daten vorhanden sind, wahrscheinlich in den generierten Bildern reflektiert werden.

Die Autoren stellen eine Reihe von Ansätzen zur Vermeidung von Vorurteilen und Stereotypen in von Text-zu-Bild generierten Bildern vor. Sie schlagen vor, dass der MCAS verwendet werden könnte, um Bias in den Modellen zu messen und zu minimieren. Der MCAS ist ein umfassender Score, der sowohl interne Bias als auch Bias im Vergleich zu externen Standards messen kann. Er könnte verwendet werden, um zu verstehen, wie Bias in verschiedenen Stadien des Modells gehandhabt wird, und könnte angepasst werden, um zu verstehen, wie Bias sich während des gesamten Prozesses bildet. Die Autoren schlagen auch vor, dass der MCAS in MLOps verwendet werden könnte, wo quantifizierbare Metriken Entwicklern eine schnelle und einfache Möglichkeit bieten könnten, Bias zu verstehen und zu messen. Er könnte auch in Verbindung mit anderen Drift-Parametern verwendet werden, um die Beziehung zwischen Bias und Modell-Drift zu untersuchen.

Die Autoren führen eine Reihe von Experimenten durch, um den MCAS zu testen und zu demonstrieren, dass er in der Lage ist, Geschlechterbias in den Modellen aufzudecken. Sie generieren zwei Datensätze, die Attribute und Zielkonzepte in visueller und textueller Form für die beiden Modelle enthalten. Die Zielkonzepte basieren auf Konzepten, die in früheren Forschungen verwendet wurden, um Geschlechterbias zu erkennen. Die Autoren finden, dass beide Modelle ähnliche Muster in Bezug auf geschlechtsspezifische Assoziationen aufweisen, mit einigen Ausnahmen. Sie stellen fest, dass, wenn Bias auftritt, er stärker zu sein scheint, wenn er sich auf Frauen bezieht. Sie stellen auch fest, dass Stable Diffusion im Allgemeinen höhere Scores in Bezug auf die Stärke der geschlechtsspezifischen Assoziationen hat als DALL-E, was darauf hindeutet, dass Stable Diffusion möglicherweise stärker voreingenommen ist als DALL-E.

  • Version
  • Download
  • File Size 2.61 MB
  • File Count 1
  • Create Date 2023-07-04
  • Last Updated 2023-07-06