Gender in KI-basierten Systemen: Chancen erkennen – Risiken minimieren
Ingo Brenckmann und Alissa Wilms
(Porsche Digital Lab)
Workshop 14:15 - 15:15 Uhr
Im Workshop „Gender in KI-Basierten-Systemen: Chancen erkennen – Risiken minimieren“ diskutierten Alissa Wilms und Ingo Brenckmann vom Porsche Digital Lab den Einsatz von künstlicher Intelligenz in Unternehmen. „Technology is not neutral.“ Mit diesem Zitat von Donna Haraway macht Alissa Wilms gleich zu Beginn auf die Problematiken der KI-basierten Systeme aufmerksam. Viele Probleme im Zusammenhang mit künstlicher Intelligenz seien schon jetzt bekannt, immer neue kommen dazu. Dabei liegen die Hindernisse häufig tiefer als auf den ersten Blick ersichtlich. Wie wichtig die Rolle der Mathematik ist, wurde schnell deutlich.
In der Diskussion um KI werden häufig neuronale Netze thematisiert. Natürliche neuronale Netze basieren auf den Neuronen, den kleinsten Zellen in unserem Gehirn, die miteinander verschaltet tatsächlich ein Netzwerk ergeben. Wenn Menschen über neuronale Netze in der KI reden, denken sie häufig, die Maschine bekäme ein Gehirn, könne Denken und habe ein Bewusstsein, mit dem sie die Welt versteht. Das stimmt jedoch nicht, denn hinter der KI steckt reine Mathematik.
Aber welchen Zusammenhang gibt es dann von neuronalen Netzen und KI? Natürliche wie künstliche "neuronale Systeme" können komplexe Muster erlernen, ohne die zugrunde liegenden Regeln vorher lernen zu müssen. Es ist von einem tiefen neuronalen Netz die Rede, wenn es mehrere Ebenen gibt, auf denen gerechnet wird. Das ist die Intelligenz bzw. das Bewusstsein der Systeme und mit genau diesen Algorithmen wird in der KI gearbeitet. Keine Magie, sondern reine Statistik.
Es gibt zwei Arten von KI: Beim „supervised learning“ kommt ein Algorithmus zur Klassifikation zum Einsatz. Das System bekommt beispielsweise den Input, dass es sich bei einem bestimmten Bild um eine Katze handelt. Daraus generiert es ein mathematisches Modell, das bei folgenden Bildern zwischen „Katze“ und „keine Katze“ unterscheiden kann. Dabei „weiß“ der Algorithmus nicht, das Katzen Lebewesen sind oder was sie ausmacht. Beim „unsupervised learning“ geht es um einen Algorithmus für Clustering und zur Erkennung von Anomalien. Als Input bekommt dieser Bilder von allen möglichen Tieren, die er selbst in Gruppen einordnet. In einem Trainingsprozess wird mithilfe einer Fehlerfunktion die Abweichung von der Realität bestimmt und das System so optimiert.
Damit ist man bei einem grundlegenden mathematischen Problem angelangt: Sind die Annahmen falsch, die für das Modell genutzt wurden, oder zeigen die Daten eine systematische Verzerrung auf, so sind auch die Ergebnisse aus dem Modell unbrauchbar. Die Modelle reflektiert die Strukturen, die in unserem realen Leben vorherrschen. Alles, was in der Historie passiert ist, findet über die Daten seinen Weg in das Modell. Man muss sich darüber bewusst sein, dass nicht auf magische Weise alles rausgefiltert wird, was Diversity oder die Ungleichbehandlung von Menschen oder Menschengruppen angeht – ganz im Gegenteil. Das Modell verstärkt genau diese Trends, wenn es für die Zukunftsprognose genutzt wird. Denn basierend auf dem Modell werden Entscheidungen für die Zukunft getroffen.
Deshalb ist es wichtig, dass künstliche Intelligenz nicht unreflektiert eingesetzt wird. Die Entwicklerinnen und Entwickler müssen sich daüber im Klaren sein. Es stellt sich somit die Frage, wie man ein Wirkungsgefüge in Technik übertragen kann, um die Komplexität zu systematisieren und im Unternehmen anwenden zu können.
Dafür wurden die Teilnehmerinnen und Teilnehmer in zwei Gruppen aufgeteilt. Diskussionsgrundlage war eine reale Situation: KI soll eingesetzt werden, um die Besetzung für ein neues Projekt firmenintern zu klären. Es gilt also, herauszufinden, wer aus dem Unternehmen der oder die Beste ist oder wer in seinem bzw. ihrem Bereich unzufrieden ist und in ein neues Projekt versetzt werden kann. Dabei gibt die Projektmanagerin bzw. der Projektmanager die Anforderungen in das System, die HR-Abteilung ergänzt Personaldaten und die Mitarbeiterinnen und Mitarbeiter pflegen ihre Qualifikationen. Ziel ist ein passgenaues Matching. Wo liegen die Herausforderungen bei diesem Wirkgefüge, wer interagiert mit wem, was sind Einflussfaktoren?
Im Laufe der Diskussion wurde unter anderem die Qualität der Daten als wichtiger Aspekt identifiziert. Wenn die Daten unvollständig oder fehlerhaft sind, ist kein erfolgreiches Matching möglich. Unzufriedenheit führt höchstwahrscheinlich zu einer reduzierten Nutzung des Systems, was wiederum die Qualität der Daten verschlechtert: ein Negativkreislauf. Es gilt also, solche Kreisläufe am Anfang zu erkennen und die Qualität bei der Implementierung des Systems gut zu überwachen. Es gibt viele weitere Kreisläufe, die das Wirkgefüge beeinflussen und die berücksichtigt werden müssen.
Weitere offene Fragen sind: Wie verstärken sich Probleme, wenn auf der Basis von Vergangenheitswerten Prognosen für die Zukunft getroffen werden? Wie kann Wissen und Kompetenz am besten erfasst werden? Wer definiert Qualität? Ingo Brenckmann betonte, dass es nicht eine Lösung gibt, die implementiert wird und dann perfekt funktioniert. Jede Lösung erfordert Kompromisse auf verschiedenen Ebenen und dessen müssen sich die Verantwortlichen bewusst sein. Letztendlich übernimmt das System aber nicht die Personalentscheidung, es dient nur als Unterstützung – alles andere wäre gefährlich. Es gilt also, die Personen, die mit der KI zusammenarbeiten, zu schulen, besonders, was die Interpretation von statistischen Ergebnissen angeht.
GENDER//WISSEN//INFORMATIK" in den soziale Netzwerken