[featured_image

Der Artikel "American== white in multimodal language-and-image ai" von Robert Wolfe und Aylin Caliskan untersucht, wie KI-Modelle, die auf Sprache und Bildern basieren, die amerikanische Identität mit Weißsein assoziieren. Die Studie nutzt drei Modelle - CLIP, SLIP und BLIP - und untersucht, wie diese Modelle Rasse und Ethnizität in Bezug auf die amerikanische Identität darstellen.

Die Ergebnisse zeigen, dass Sprache-und-Bild-KI "Amerikanisch" mit "Weiß" assoziiert und dass diese Voreingenommenheit sich in nachgelagerten Aufgaben manifestiert. Für CLIP und BLIP korreliert die Assoziation eines Staates mit Bildern von schwarzen Individuen positiv mit dem durchschnittlichen rassistischen Voreingenommenheits-IAT-Score für weiße Individuen, die in jedem Staat leben. Dies deutet auf eine mögliche Verbindung zwischen dem Grad, in dem das Modell eine Region mit schwarzen Individuen assoziiert, und der Voreingenommenheit von weißen Individuen, die in dieser Region leben, hin.

Die Studie zeigt auch, dass weiße Individuen in den Modellen mit In-Group-Wörtern und Patriotismus assoziiert werden, während asiatische, schwarze und lateinamerikanische Individuen eher mit Egalitarismus und dem Nicht-Einheimischsein in Amerika im Vergleich zu weißen Individuen assoziiert werden.

In einer visuellen Frage-Antwort-Aufgabe mit dem BLIP-Modell wurden 96,7% der weißen Individuen als Amerikaner eingestuft, während nur 2,8% der asiatischen Individuen als Amerikaner eingestuft wurden. 68,5% der schwarzen Individuen und 61,1% der lateinamerikanischen Individuen wurden als Amerikaner eingestuft.

Die Studie zeigt auch, dass die Rasse von asiatischen, schwarzen und lateinamerikanischen Individuen in den Modellen sichtbarer gemacht wird als die Rasse von weißen Individuen. Bei der Generierung von synthetischen Bildern wurde beobachtet, dass die Modelle den Hautton aller Rassen und Ethnien aufhellen, wenn sie mit dem Text "eine amerikanische Person" versehen werden.

Die Autoren schließen daraus, dass die Ergebnisse darauf hindeuten, dass Sprache-und-Bild-KI lernt, dass der prototypische Amerikaner weiß ist. Sie warnen davor, dass die Exposition gegenüber KI-generierten Inhalten, die die prototypische Assoziation der amerikanischen Identität mit Weißsein widerspiegeln, eine beim Menschen beobachtete Voreingenommenheit verstärken könnte.

Die Studie unterstreicht die Notwendigkeit, die Ausbildung von KI-Modellen sorgfältig zu überwachen und zu kontrollieren, um sicherzustellen, dass sie keine schädlichen oder diskriminierenden Vorurteile verstärken. Sie betont auch die Bedeutung der Untersuchung und des Verständnisses der Auswirkungen, die KI auf die menschliche Gesellschaft haben kann, insbesondere in Bezug auf Fragen der Rasse und Ethnizität.

Exkurs Modelle CLIP - SLIP - BLIP

Die Modelle CLIP, SLIP und BLIP sind Künstliche Intelligenz (KI) Modelle, die auf Sprache und Bildern basieren, und sie wurden in der Studie "American== white in multimodal language-and-image ai" von Robert Wolfe und Aylin Caliskan verwendet. Hier ist eine kurze Beschreibung jedes Modells:

  1. CLIP (Contrastive Language–Image Pretraining): CLIP ist ein Modell, das von OpenAI entwickelt wurde. Es wurde darauf trainiert, natürliche Sprache mit Bildern zu verbinden. CLIP kann eine Vielzahl von Aufgaben im Null-Shot-Modus ausführen, d.h., es kann Aufgaben ausführen, für die es während des Trainings keine expliziten Beispiele gesehen hat. Es erreicht dies, indem es eine gemeinsame Darstellung von Bildern und Text lernt, so dass es die Ähnlichkeit zwischen einem Text und einem Bild messen kann.
  2. SLIP: In der Studie von Wolfe und Caliskan wird SLIP als eines der Modelle erwähnt, aber es gibt keine weit verbreitete Referenz oder Dokumentation zu einem Modell namens SLIP in der Literatur oder in den verfügbaren KI-Modellen. Es könnte sich um ein spezifisches Modell oder eine Variation eines Modells handeln, das für die Studie entwickelt wurde.
  3. BLIP: Ähnlich wie bei SLIP gibt es in der breiteren KI-Literatur oder in den verfügbaren KI-Modellen keine weit verbreitete Referenz oder Dokumentation zu einem Modell namens BLIP. Es könnte sich um ein spezifisches Modell oder eine Variation eines Modells handeln, das für die Studie entwickelt wurde.
  • Version
  • Download
  • File Size 3.42 MB
  • File Count 1
  • Create Date 2023-07-04
  • Last Updated 2023-07-06