Gender im System: Chancen und Herausforderungen
Felicitas Birkner und Armin Groß
(Fujitsu Technology Solutions)
Workshop 11:00 – 12:00 Uhr
Felicitas Birkner und Armin Groß arbeiten bei Fujitsu Technology Systems, einem weltweit operierenden Unternehmen mit etwa 140.000 Mitarbeiterinnen und Mitarbeitern, davon 20.000 in Forschung in Entwicklung, in über 100 Ländern und mit einer 80 Jahre alten Unternehmensgeschichte. Zu Beginn des Workshops stellten sie heraus, wie wichtig es heutzutage für Unternehmen ist, die Zukunft aktiv mitzugestalten. In mehreren Städten hat Fujitsu „Digital Transformation und Innovation Center“, in denen Workshops als Dialog mit Kunden und Partnern stattfinden. Ein wichtiges Thema im Unternehmen ist „human-centric innovation“. Es gibt einen Code of Conduct, der die Themen Diversity, Inklusion, Bias und Gender enthält. Außerdem finden regelmäßig Schulungen statt, um das Bewusstsein für ethische Aspekte zu steigern. Felicitas Birkner betonte, dass technische Entwicklungen heutzutage Grenzen erreichen, die ein anderes Denken und vor allem ein verantwortungsvolles Handeln erfordern.
Armin Groß stellte die Frage ins Plenum: Was könnte es für unser soziales Zusammenleben bedeuten, wenn in Zukunft mithilfe von Maschinen Entscheidungen getroffen werden, die das Schicksal von Menschen betreffen? Gemeinsam bearbeitete die Gruppe daraufhin ein Fallbeispiel, in dem Kriterien entwickelt werden sollten, mithilfe derer ein Algorithmus über die Besetzung einer leitenden Stelle in einem Kreditinstitut entscheiden sollte. Es bestand die Wahl zwischen sechs vorab konstruierten Bewerberinnen- und Bewerberprofilen. Das Szenario sollte 20 Jahre in der Zukunft stattfinden.
Dabei wurden zunächst die heutigen Möglichkeiten für die Unternehmen, erworbene Daten zu den betreffenden Personen auswerten zu können, deutlich gemacht: So konnten auch private Daten der Personen, z. B. zum Einkaufsverhalten, persönlichen Beziehungen oder Hobbys in die Entscheidungsfindung einbezogen werden. Die in der Gruppe gesammelten Kriterien reichten von der beruflichen Erfahrung über den Gesundheitsstatus bis zu den persönlichen Hobbys, wobei einige Merkmale wie etwa das Alter, die Postleitzahl des Wohnorts oder die Bewertung des Bewerbungsfotos ausgeschlossen werden sollten.
Um einen funktionierenden Algorithmus zu erhalten, der nach den gewünschten Kriterien das „richtige“ Ergebnis produziert, also zunächst eine Vorauswahl aus den Bewerberinnen und Bewerbern trifft, sind zunächst pragmatische wie auch ethische Fragen zu stellen:
- Welche Erkenntnis soll aus den Daten gewonnen werden?
- Welche Daten bilden die Basis der Statistik?
- Welchen Zeitraum decken die Daten ab?
- Sind die Daten repräsentativ?
- Welches Feedback erlangt das System?
- Welche Form der Logik ist im Algorithmus implementiert?
- Wie sollen die Kontrollmechanismen wirken?
- Wer hat Zugriff auf die Daten und was geschieht damit nach der Auswertung?
Im Detail bestehen auch nach der Beantwortung dieser Fragen noch weitere Problemstellungen: Es ist z. B. fraglich, inwiefern eine Diskriminierung durch den Algorithmus vermieden werden kann. Nachdem das Ergebnis ausgegeben ist, ist deren Zustandekommen in der „Black Box“ zwischen Ein- und Ausgabe oft nicht mehr nachvollziehbar. Der Prozess ist sehr komplex und dem Ergebnis wird häufig blind vertraut.
Für eine Sicherstellung der Gleichberechtigung aller Beteiligten ist es deshalb notwendig, dass der Algorithmus und die Herangehensweise an die Zielgröße stets sorgfältig geprüft und hinterfragt wird, etwa durch die Einbindung von Rückmeldungssystemen und die Ausgabe von zu prüfenden Hinweisen. Eine diverse Zusammensetzung des mit dem Projekt beschäftigten Teams sorgt dafür, dass keine blinden Flecken bei der Betrachtung entstehen und das Prozedere allgemeine Akzeptanz erfährt. Darüber hinaus ist es wichtig, dass der Vorgang so transparent wie möglich gestaltet wird, unter anderem in Hinblick darauf, welche Merkmale wie stark in der Entscheidungsfindung gewichtet werden.
Zum Abschied führten die beiden Referent/innen noch einige Beispiele für Herausforderungen an, die heute bereits wichtig sind und in Zukunft an Bedeutung gewinnen werden. Grundsätzlich ließen sich die obigen Frage- und Problemstellungen auf diese Themen übertragen. Zu den Beispielen gehören etwa „Fake News“, automatische Datenfilter und Anpassungen an neues Recht wie die DSGVO; darüber hinaus aber auch Entscheidungen, die über menschliches Leben urteilen und eine moralische Auseinandersetzung erfordern. Als Beispiel dafür diente das Szenario eines autonom fahrenden Autos, wie es im Konfliktfall reagieren soll.
GENDER//WISSEN//INFORMATIK" in den soziale Netzwerken