[featured_image

Die Dissertation "Debiasing Image Generative Models" von Md Mehrab Tanjim konzentriert sich auf die Untersuchung und Minderung von Vorurteilen in Bildgenerierungsmodellen. Der Autor argumentiert, dass, obwohl es viel Aufmerksamkeit für Vorurteile in diskriminierenden Modellen gibt, Vorurteile in generativen Modellen wenig Beachtung finden. Die Präsenz von Vorurteilen in generativen Modellen, insbesondere in Bezug auf Rasse und Geschlecht, kann erhebliche Auswirkungen auf nachgelagerte Anwendungen haben. Daher sind Bemühungen, dieses Problem zu lösen, unerlässlich, um einen fairen und ethischen Einsatz von generativen Modellen in verschiedenen Bereichen zu fördern.

Der Autor sieht die Ursache für Vorurteile und Stereotypen in der Art und Weise, wie die Modelle trainiert werden. Insbesondere werden die Modelle auf großen, aus dem Internet gescrapten Datensätzen trainiert, die inhärente Vorurteile und Stereotypen enthalten können. Diese Vorurteile können dann in den generierten Bildern repliziert werden.

Um dieses Problem zu lösen, schlägt Tanjim mehrere Ansätze vor. Einer davon ist das sogenannte "Textbasierte Debiasing". Dabei wird das Modell mit Textprompts trainiert, die explizit auf die gewünschte Diversität hinweisen. Zum Beispiel könnte das Modell mit dem Prompt "Eine Krankenschwester" trainiert werden, um sicherzustellen, dass es Bilder von Krankenschwestern verschiedener Rassen und Altersgruppen generiert.

Ein weiterer Ansatz ist die "Gradientenbasierte Optimierung des Latenten Codes". Hier wird der latente Code, der die Eingabe für das generative Modell darstellt, durch Backpropagation optimiert, um die Diversität der generierten Bilder zu erhöhen. Dieser Ansatz kann besonders nützlich sein, wenn komplexe Änderungen an den generierten Bildern vorgenommen werden müssen.

Insgesamt betont Tanjim die Notwendigkeit, die Ausbildung von generativen Modellen sorgfältig zu gestalten und zu überwachen, um sicherzustellen, dass sie keine schädlichen Vorurteile replizieren. Er argumentiert, dass dies sowohl durch die Auswahl geeigneter Trainingsdaten als auch durch die Anwendung spezifischer Debiasing-Techniken erreicht werden kann.

  • Version
  • Download
  • File Size 5.86 MB
  • File Count 1
  • Create Date 2023-07-04
  • Last Updated 2023-07-06