[featured_image

Der Artikel "A Labeling Task Design for Supporting Algorithmic Needs: Facilitating Worker Diversity and Reducing AI Bias" von You, Jaeyoun, et al. untersucht die Herausforderungen und Lösungsansätze im Zusammenhang mit der Vermeidung von Vorurteilen und Stereotypen in der KI-gestützten Bildgenerierung. Die Autoren konzentrieren sich insbesondere auf die Rolle der menschlichen Labeler (Personen, die Daten für die KI-Trainingszwecke annotieren) und die Gemeinschaften, in denen sie arbeiten.

Die Autoren erkennen an, dass die Generierung von Vorurteilen und Stereotypen durch KI ein Problem darstellt. Sie identifizieren mehrere Ursachen für dieses Problem, darunter die Tatsache, dass KI-Systeme die bestehenden Vorurteile und Stereotypen in den Daten, mit denen sie trainiert werden, widerspiegeln können. Darüber hinaus können die individuellen Entscheidungen der Labeler, die von ihren persönlichen Vorurteilen und Stereotypen beeinflusst sein können, ebenfalls zur Verstärkung von Vorurteilen und Stereotypen in den generierten Bildern beitragen.

Um dieses Problem zu bekämpfen, schlagen die Autoren mehrere Ansätze vor. Einer davon ist die Einbeziehung der Gemeinschaft in den Labeling-Prozess. Sie argumentieren, dass die Gemeinschaft dazu beitragen kann, potenzielle Vorurteile oder hohe Subjektivität in den detaillierten Annotationen der Einzelpersonen zu verhindern. Durch den Austausch von Ideen in der Gemeinschaft können die Labeler sich über vielfältigere Elemente im Bild bewusst werden.

Ein weiterer Ansatz besteht darin, den Labelern eine Ausbildung zu bieten, um ihre AI-Kenntnisse zu erhöhen. Eine bessere Kenntnis könnte folglich zu einer besseren Motivation führen. Darüber hinaus schlagen die Autoren vor, den Labelern kontinuierlich mechanische Veränderungen oder Verbesserungen zu zeigen. Die Menschen fühlen sich belohnt, wenn sie physisch bemerken, dass ihre Outputs eine Rolle in der Entwicklung der KI spielen.

Die Autoren stellen auch ein erweitertes Human-in-the-Loop (eHITL)-Modell für das Task-Design vor, das eine breite Palette von Stakeholdern in den Labeling-Aufgaben einbezieht. Dieses Modell umfasst nicht nur die individuellen Labeler, sondern auch Entwickler und Administratoren, die ihre Projekte stabil halten, sowie die Gemeinschaft, die als Vermittler zwischen den individuellen Entscheidungen und detaillierten Annotationen fungiert.

Insgesamt betonen die Autoren die Bedeutung der Einbeziehung einer Vielzahl von Stakeholdern und der Berücksichtigung der kulturellen und demografischen Vielfalt der Labeler bei der Gestaltung von Aufgaben zur Datenannotation. Sie argumentieren, dass diese Faktoren dazu beitragen können, die Qualität der generierten Daten zu verbessern und die Verstärkung von Vorurteilen und Stereotypen durch KI-Systeme zu verhindern.

  • Version
  • Download
  • File Size 2.19 MB
  • File Count 1
  • Create Date 2023-07-05
  • Last Updated 2023-07-06