[featured_image

Der Artikel "The biased artist: Exploiting cultural biases via homoglyphs in text-guided image generation models" von Struppek, Lukas, Dominik Hintersdorf und Kristian Kersting untersucht die Auswirkungen von kulturellen Vorurteilen und Stereotypen in Text-zu-Bild-Generierungsmodellen. Die Autoren stellen fest, dass diese Modelle, die auf großen Mengen öffentlicher Daten aus dem Internet trainiert wurden, kulturelle Vorurteile und Stereotypen implizit aufnehmen können. Sie zeigen, dass bereits ein einzelnes nicht-lateinisches Zeichen in der Eingabeaufforderung ausreicht, um den Prozess der Bildgenerierung so zu beeinflussen, dass er Stereotypen widerspiegelt, die mit dem Skript des Zeichens verbunden sind.

Die Autoren erkennen, dass dieses Verhalten problematisch sein kann. Sie argumentieren, dass es nicht nur zu einer Verstärkung bestehender Vorurteile führen kann, sondern auch von böswilligen Akteuren ausgenutzt werden könnte, um Stereotypen in generierten Bildern unauffällig zu verstärken. Sie weisen darauf hin, dass solche manipulierten Bilder die impliziten Vorurteile der Betrachter verstärken oder als rassistisch und diskriminierend wahrgenommen werden könnten, was ernsthaften Schaden verursachen könnte. Darüber hinaus könnte es den Wert generativer Modelle mindern und zu erheblichen verpassten Chancen führen.

Die Autoren sehen die Ursachen für das Auftreten von Vorurteilen und Stereotypen in der Art und Weise, wie diese Modelle trainiert werden. Sie werden auf riesigen Datensätzen von Bild-Text-Paaren aus dem Internet trainiert und nehmen dabei implizit kulturelle Stereotypen und Vorurteile auf, die mit verschiedenen Unicode-Skripten verbunden sind. Sie stellen fest, dass Modelle wie DALL-E 2 und Stable Diffusion, die sie in ihrer Studie untersuchen, eine inhärente Voreingenommenheit aufweisen, die die Erzeugung von Bildern bevorzugt, die die westliche Kultur, insbesondere die der Vereinigten Staaten, widerspiegeln.

Um Vorurteilen und Stereotypen in Text-zu-Bild-Generierungsmodellen entgegenzuwirken, schlagen die Autoren einen Ansatz vor, den sie "Homoglyph Unlearning" nennen. Dieser Ansatz ermöglicht es, Textkodierer von generativen Modellen unempfindlich gegenüber Homoglyphen zu machen, ohne dass eine vollständige Neuausbildung erforderlich ist. Homoglyphen sind nicht-lateinische Zeichen, die lateinischen Zeichen ähnlich sehen. Durch das "Unlearning" von Homoglyphen können die Modelle so modifiziert werden, dass sie nicht mehr auf die Einfügung von Homoglyphen in der Eingabeaufforderung reagieren, was dazu führt, dass kulturelle Stereotypen in den generierten Bildern ausgelöst werden.

Zusammenfassend stellen die Autoren fest, dass ihre Forschung dazu beitragen kann, ein besseres Verständnis für multimodale Modelle zu entwickeln und die Art und Weise, wie diese Modelle kulturelle Vorurteile und Stereotypen aufnehmen und wiedergeben, zu beleuchten. Sie betonen die Notwendigkeit, diese Modelle auf eine Weise zu trainieren und zu modifizieren, die ihre Sensibilität für Homoglyphen und damit ihre Fähigkeit, kulturelle Stereotypen zu verstärken, reduziert. Mit ihrem Ansatz des "Homoglyph Unlearning" bieten sie eine praktikable Lösung, um dieses Problem anzugehen. Sie argumentieren, dass diese Methode dazu beitragen kann, die Qualität und Nützlichkeit von Text-zu-Bild-Generierungsmodellen zu erhalten, während gleichzeitig ihre Fähigkeit, kulturelle Vorurteile zu verstärken, reduziert wird. Ihre Forschung unterstreicht die Notwendigkeit, die sozialen und kulturellen Auswirkungen von KI-Modellen zu berücksichtigen und Strategien zu entwickeln, um ihre potenziell schädlichen Auswirkungen zu minimieren.

  • Version
  • Download
  • File Size 12.56 MB
  • File Count 1
  • Create Date 2023-07-04
  • Last Updated 2023-07-06