Aktuelles
„Eine Bildersuche sollte bei ‚CEO‘ sowohl Frauen als auch Männer zeigen“
„Gender im Design von Personalisierungsalgorithmen“ lautet der Titel des Eröffnungsvortrags, den Ulrike Irmler, Director of Program Management für das Portfolio von Microsoft News, im Rahmen des 4. GEWINN-Fachtags „Gender in algorithmischen Systemen“ am 25. April 2019 in München hält. Vorab gibt sie uns im Interview einen kleinen Einblick in das Thema.
„Gender in algorithmischen Systemen“ – warum ist dieses Thema gerade jetzt relevant?
KI ist ein wichtiger Bestandteil vieler technischer Produkte und kommt in den verschiedensten Anwendungen zum Tragen. KI und Machine-Learning-Algorithmen müssen dabei mit großen Datenmengen trainiert werden, die neben dem angesammelten Wissen auch die Vorurteile, Stereotypen, und Repräsentationsprobleme nicht nur wiedergeben, sondern unter Umständen verstärken. Um dem vorzubeugen und Fairness zu gewährleisten, müssen algorithmische Systeme gegen Gender-Bias und andere Arten der Diskriminierung getestet werden. Das Wissen um die Fairnessrisiken von KI ist in der Entstehungsphase und viele Firmen haben noch keine Prozesse entwickelt, um Bias systematisch aus den Systemen zu entfernen und Fairness zu gewährleisten. Hier ist noch Arbeit zu leisten.
Inwieweit ist die heutige digitale Medienwelt von algorithmischen Systemen geprägt?
Viele digitale Medienanbieter verwenden heute Personalisierungsalgorithmen, die eine höhere Relevanz der Inhalte für Nutzer und Nutzerinnen gewährleisten soll. Das gilt sowohl für Nachrichten als auch Unterhaltung und natürlich insbesondere für Werbung. Für Medienunternehmen bedeutet das, ein höheres Engagement des Publikums mit den Inhalten und natürlich eine bessere monetäre Performanz der digitalen Werbung. Das ist natürlich nicht unproblematisch.
Was genau sind Filterblasen und wann können sie problematisch sein?
Filterblasen sind das Phänomen, dass Konsumentinnen und Konsumenten von Webinhalten vor allem in Social Media, aber auch in anderen digitalen Medien nur noch Inhalte beziehen, die ihren politischen und weltanschaulichen Ansichten entsprechen. Sie werden dann nicht mehr mit diversen Perspektiven konfrontiert und bekommen dadurch ein einseitiges, oft politisch gefärbtes Bild von aktuellen Themen. Natürlich ist einseitiger Medienkonsum kein neues Phänomen, aber die Konzentration dieser Inhalte auf Social Media und aggregierten News Feeds verstärkt dieses Phänomen ungemein. Wired hat gerade einen guten Artikel zum Thema Filterblasen veröffentlicht. In dem Artikel geht es um die Verhärtung der Fronten in der amerikanischen Politik.
Algorithmen sind dynamisch und werden von Menschen geprägt. Welche Möglichkeiten haben Entwicklerinnen und Entwickler, welche Nutzerinnen und Nutzer, einzugreifen und dafür zu sorgen, dass der Code frei von Vorurteilen und Diskriminierungen ist?
Die Probleme mit Fairness in algorithmischen Systemen kommen nicht von den Algorithmen selber, sondern von den Daten mit denen Sie trainiert werden. So enthalten viele Bilddatenbanken Darstellungen von Frauen und Männern in stereotypen Situationen, wie z. B. Frauen im Haushalt und Männer beim Sport, sowie Menschen in geschlechtstypischen Berufen. Machine-Learning-Algorithmen lernen dann die thematischen Assoziationen und verstärken diese im System. Für Entwickler und Entwicklerinnen ist es wichtig, die Fairnessrisiken zu erkennen und mit einem systematischen Prozess zu eliminieren oder zumindest weitestgehend zu reduzieren. Das muss mit der Analyse des Trainingsdatensatzes anfangen, der möglichst frei von stereotypen Darstellungen sein sollte. Weiterhin müssen Tests entworfen werden, die helfen den Bias in den Systemen zu erkennen und zu korrigieren. Eine Bildersuche sollte beispielsweise für den Begriff "CEO" im Ergebnis sowohl Frauen wie Männer zeigen.
Die Medien bedienen sich oft vereinfachter und stereotyper Inhalte, um Aufmerksamkeit zu erregen und möglichst breite Zielgruppen anzusprechen. Inwiefern lässt sich das mit dem Auftrag, Biases entgegenzuwirken, vereinbaren? Welche Verantwortung tragen große Unternehmen wie Microsoft in diesem Zusammenhang?
Microsoft News hat Partnerschaften mit einem breiten Spektrum an Medienanbietern, die nicht nur Nachrichten, sondern auch eine Menge an Unterhaltungsinhalten an uns abgeben. Es ist grundsätzlich so, dass wir versuchen dieses Spektrum auch unseren Nutzern und Nutzerinnen zur Verfügung zu stellen. Da wir nicht nur algorithmisch programmieren, sondern in jedem Land zusätzlich eine geschulte Redaktion einsetzen, kommen spezifische redaktionelle Richtlinien zum Tragen. Auch in der Wahl unserer Medienpartner haben wir natürlich die Kontrolle. Dabei versuchen wir eine Balance zu halten, die möglichst vielen Interessen gerecht wird, dies aber im Rahmen unserer redaktionellen Richtlinien tut, die im Übrigen auch Gender und Diversity beinhalten.
Welche Erwartungen haben sie an den GEWINN-Fachtag? Worauf freuen Sie sich besonders?
Ich freue mich, an so einem spannenden Thema mit einer Gruppe engagierter Fachleute zu arbeiten und neues Input und Ideen mitzunehmen!
Vielen Dank für das Interview!
Der Fachtag „Gender in algorithmischen Systemen“ findet am 25.04.2019 von 9:30 – 6:30 Uhr an der Technischen Universität München statt: Programm und Anmeldung
Ulrike Irmler ist als Director of Program Management für das Portfolio von Microsoft News in 16 europäischen Ländern zuständig. Nach dem Studium der Germanistik und Anglistik in Deutschland und USA kam sie 1997 zu Microsoft, wo sie seit 21 Jahren in verschiedenen Managementaufgaben tätig ist. Unter anderem leitete sie den Release der internationalen Versionen von Windows und das Windows Online-Portal. Seit 2016 führt sie das Geschäft aus Europa heraus. Seit mehreren Jahren beschäftigt sie sich zusätzlich mit den Thema Gender und Bias in Technologieprodukten und entwickelt Inclusiveness-Strategien. Dieses ist auch Thema ihrer MBA-Thesis (in Entstehung) als Teil des EMBA der Berlin School of Creative Leadership. Sie lebt mit ihrem Mann und zwei Töchtern in Mailand.
GENDER//WISSEN//INFORMATIK" in den soziale Netzwerken