FairAlgos

Project Details

Funding

FFG - BRIDGE

Grant Number

878730

Duration

2020/05/01-2022/10/31

Contact

Martin Kampel

Persons

Martin Kampel
Jennifer Lumetzberger

Fairness, Bias und Transparenz von Computer Vision Algorithmen

Datenbasierte Technologie hat das Ziel, nach gewissen Merkmalen zu diskriminieren, zu klassifizieren und zu unterscheiden. Hierbei muss jedoch zwischen erwünschten und unfairen Formen der Diskriminierung unterschieden werden.

In aktuellen und weit verbreiteten Bilddatenbanken wie zum Beispiel dem IMDB Datenset wurde ein geschlechtsspezifischer Bias offengelegt. Das bedeutet, dass die Genauigkeit der Gesichtserkennung bei Männern mit weißer Hautfarbe am größten, während sie bei Frauen mit dunkler Hautfarbe am niedrigsten ist.

Auch interne Strukturen und Entscheidungsmechanismen eines Algorithmus können unfair und/oder intransparent sein. Das kann zum Beispiel folgende Bereiche Betreffen:

  • Entscheidungen über die Kreditwürdigkeit oder Anspruchsberechtigung
  • Zugang zu Gesundheitsdiensten
  • Zugang zu einer Arbeitsbeschäftigung
  • Zugang zu Bildung (z.B. Universitätszulassung)

Abgesehen vom Grundsatz der Transparenz nach der DSGVO, ist die Transparenz von Systemen entscheidend für sowohl Experten aus dem Rechtswesen, für Software-Entwickler, aber auch für reguläre User. Letzterer profitiert davon, wenn er die Entscheidungen eines Algorithmus besser versteht und somit mehr Vertrauen ins System entwickelt.

Die Ziele des Projektes sind:

  1. Basiswissen zu schaffen: was ist der Nutzen von Explainable AI (XAI) Methoden, welche Definitionen für Transparenz gibt es und in welche Stufen kann sie untergliedert werden, Analyse von Methoden zur Erklärbarkeit von Algorithmen.
  2. Erarbeitung eines Frameworks: Designkriterien für einen fairen und transparenten Algorithmus, potentielle Fehlerquellen, Metriken
  3. Daten aus der Praxis: wie ist der Grad an Transparenz, Analyse der Erklärbarkeit unter Berücksichtigung von vertraulichen Informationen

Project Partners