[featured_image

Die Studie "What does Genius Look Like? An Analysis of Brilliance Bias in Text-to-Image Models" von Juliana Shihadeh und Margareta Ackerman untersucht das Vorhandensein von Brillanz-Bias in Text-zu-Bild-Modellen. Die Autoren analysieren vier verschiedene Modelle: Dall-E, Midjourney, Craiyon und Stable Diffusion. Sie verwenden eine Reihe von "Brillanz-Prompts", um die Modelle dazu zu bringen, Bilder von Personen zu erstellen, die sie als "Genie" oder "brillant" erachten. Die Autoren vergleichen dann die Anzahl der generierten Bilder von Männern und Frauen, um festzustellen, ob die Modelle Brillanz eher mit Männern oder Frauen assoziieren.

Die Studie beginnt mit einer Diskussion über die Bedeutung von Bildern in unserer Gesellschaft und wie sie unsere Wahrnehmung der Welt beeinflussen. Die Autoren zitieren mehrere Studien, die zeigen, dass Bilder die Karriereambitionen von Frauen beeinflussen können, insbesondere wenn diese Bilder Frauen in unterstützenden, stereotypen oder sexualisierten Rollen darstellen. Sie argumentieren, dass Text-zu-Bild-Modelle, die auf solchen Bildern trainiert werden, diese Vorurteile möglicherweise übernehmen und verstärken.

Die Autoren stellen fest, dass alle vier Modelle eine Tendenz zeigen, Männer häufiger als Frauen darzustellen, wenn sie aufgefordert werden, eine "brillante" oder "geniale" Person zu erstellen. Diese Tendenz ist am stärksten bei Midjourney, gefolgt von Craiyon, Dall-E und Stable Diffusion. Die Autoren stellen auch fest, dass die Modelle dazu neigen, Frauen in einer künstlerischeren Weise darzustellen, während Männer eher fotorealistisch dargestellt werden. Darüber hinaus neigen die Modelle dazu, Frauen in Gruppen darzustellen, was darauf hindeuten könnte, dass sie Brillanz bei Frauen eher als Ergebnis einer Gruppenanstrengung sehen.

Die Autoren stellen auch fest, dass die Modelle dazu neigen, Frauen mit zusätzlichen visuellen Elementen zu versehen, wie zum Beispiel Lichtern oder Wolken über ihren Köpfen. Diese Elemente sind bei Männern weniger häufig zu sehen, was darauf hindeuten könnte, dass die Modelle davon ausgehen, dass die Brillanz eines Mannes ohne solche visuellen Hilfsmittel angenommen werden kann.

Die Autoren untersuchen auch, ob das Hinzufügen bestimmter Stilbegriffe zu den Prompts dazu beitragen kann, den Brillanz-Bias zu verringern. Sie stellen fest, dass das Hinzufügen des Begriffs "zeitgenössischer Kunststil" die Anzahl der generierten Bilder von Männern nicht signifikant verringert. Allerdings führt das Hinzufügen des Begriffs "Feministische Kunst" zu einer deutlichen Zunahme der Anzahl der generierten Bilder von Frauen.

Die Autoren schließen ihre Studie mit der Feststellung, dass Text-zu-Bild-Modelle einen deutlichen Brillanz-Bias aufweisen und dass weitere Forschung notwendig ist, um diesen Bias zu verstehen und zu bekämpfen. Sie argumentieren, dass Bilder eine wichtige Rolle bei der Beeinflussung unserer Wahrnehmungen und Vorstellungen spielen und dass die Art und Weise, wie diese Modelle Brillanz darstellen, tiefgreifende Auswirkungen auf unsere Vorstellungen von Intelligenz und Geschlecht haben kann. Sie betonen, dass es wichtig ist, diese Modelle nicht nur als neutrale Technologien zu betrachten, sondern als Instrumente, die aktiv zur Gestaltung unserer Kultur und Gesellschaft beitragen.

Die Autoren betonen auch die Notwendigkeit, die Daten, auf denen diese Modelle trainiert werden, sorgfältig zu überwachen und zu kontrollieren. Sie argumentieren, dass die Daten, die zur Ausbildung dieser Modelle verwendet werden, oft gesellschaftliche Vorurteile widerspiegeln, und dass es daher wichtig ist, diese Datenquellen kritisch zu hinterfragen und zu überprüfen.

Darüber hinaus betonen die Autoren die Notwendigkeit, aktiv Strategien zur Minderung von Bias in diesen Modellen zu entwickeln. Sie schlagen vor, dass dies durch eine Kombination von technischen Ansätzen, wie der Anpassung der Algorithmen und der Daten, die zur Ausbildung der Modelle verwendet werden, sowie durch soziale und politische Maßnahmen, wie die Förderung von Vielfalt und Inklusion in der KI-Entwicklung, erreicht werden kann.

Schließlich betonen die Autoren die Notwendigkeit einer kontinuierlichen Überwachung und Überprüfung dieser Modelle. Sie argumentieren, dass es wichtig ist, die Auswirkungen dieser Modelle auf die Gesellschaft kontinuierlich zu überwachen und zu bewerten und dass es notwendig ist, Mechanismen zur Rechenschaftspflicht und Transparenz in die Entwicklung und den Einsatz dieser Modelle zu integrieren.

Insgesamt betonen die Autoren die Notwendigkeit, das Bewusstsein für die Brillanz-Bias in Text-zu-Bild-Modellen zu erhöhen und aktive Maßnahmen zu ergreifen, um diesen Bias zu bekämpfen. Sie argumentieren, dass dies ein wichtiger Schritt zur Förderung von Gleichheit und Gerechtigkeit in der KI und darüber hinaus ist.

  • Version
  • Download
  • File Size 14.37 MB
  • File Count 1
  • Create Date 2023-07-06
  • Last Updated 2023-07-06