[featured_image

Der Artikel "Debiasing Vision-Language Models via Biased Prompts" von Chuang et al. untersucht das Problem der Voreingenommenheit in Vision-Language-Modellen und schlägt eine Methode zur Minderung dieser Voreingenommenheit vor. Die Autoren konzentrieren sich auf die Voreingenommenheit in der Text-zu-Bild-Generierung und stellen fest, dass die Modelle dazu neigen, stereotype Bilder zu erzeugen, die auf den in den Eingabeaufforderungen enthaltenen Voreingenommenheiten basieren.

Die Autoren identifizieren die Ursache für diese Voreingenommenheit in der Art und Weise, wie die Modelle trainiert werden. Sie werden auf großen Mengen von Webdaten trainiert, die inhärente gesellschaftliche Voreingenommenheiten widerspiegeln. Diese Voreingenommenheiten werden dann in den Modellen kodiert und in den von ihnen generierten Bildern wiedergegeben.

Um dieses Problem zu lösen, schlagen die Autoren eine Methode vor, die sie als "calibrated projection" bezeichnen. Diese Methode besteht darin, die Eingabeaufforderungen so zu modifizieren, dass sie weniger voreingenommen sind. Dies wird erreicht, indem eine Kalibrierungsmatrix auf die Eingabeaufforderungen angewendet wird, die die Voreingenommenheit in den Aufforderungen reduziert. Die Kalibrierungsmatrix wird durch Minimierung eines Verlusts berechnet, der die Differenz zwischen den Projektionen der Eingabeaufforderungen auf die voreingenommenen und unvoreingenommenen Räume misst.

Die Autoren testen ihre Methode auf dem Stable Diffusion (SD) v2.1 Framework und stellen fest, dass sie die Voreingenommenheit in den generierten Bildern erheblich reduziert. Sie führen sowohl automatische als auch menschliche Bewertungen durch und stellen fest, dass ihre Methode die Vielfalt der generierten Bilder verbessert.

Die Autoren weisen darauf hin, dass ihre Methode auch auf andere Arten von Voreingenommenheiten angewendet werden kann, nicht nur auf gesellschaftliche Voreingenommenheiten. Sie demonstrieren dies, indem sie ihre Methode auf das Problem der Voreingenommenheit in Bildern von Wasservögeln anwenden, die aufgrund der Art und Weise, wie die Modelle trainiert werden, dazu neigen, die Vögel immer mit Wasser im Hintergrund darzustellen.

Insgesamt argumentieren die Autoren, dass ihre Methode ein wichtiger Schritt in Richtung fairerer und inklusiverer Technologie ist. Sie betonen jedoch auch, dass ihre Methode ihre Grenzen hat und nicht alle Arten von Voreingenommenheiten beseitigen kann. Sie betonen auch, dass weitere Forschung in diesem Bereich notwendig ist, um effektivere Methoden zur Bekämpfung von Voreingenommenheit in KI-Modellen zu entwickeln.

"calibrated projection" Methode

  1. Zunächst wird eine Menge von Eingabeaufforderungen erstellt, die eine bestimmte Voreingenommenheit repräsentieren. Zum Beispiel könnten die Aufforderungen Sätze sein, die stereotype Darstellungen von Berufen enthalten.
  2. Dann wird eine "Kalibrierungsmatrix" berechnet. Diese Matrix wird so berechnet, dass sie die Differenz zwischen den Projektionen der Eingabeaufforderungen auf die voreingenommenen und unvoreingenommenen Räume minimiert. Dies wird erreicht, indem ein Verlust minimiert wird, der diese Differenz misst.
  3. Die Kalibrierungsmatrix wird dann auf die Eingabeaufforderungen angewendet, um die Voreingenommenheit in den Aufforderungen zu reduzieren. Dies resultiert in einer neuen Menge von "kalibrierten" Aufforderungen, die weniger voreingenommen sind.
  4. Schließlich werden die kalibrierten Aufforderungen an das Modell gegeben, um Bilder zu generieren. Da die Aufforderungen weniger voreingenommen sind, sollten auch die generierten Bilder weniger voreingenommen sein.
  • Version
  • Download
  • File Size 9.46 MB
  • File Count 1
  • Create Date 2023-07-04
  • Last Updated 2023-07-06