Fairness in KI – Wie definiert sie sich und wie erreichen wir sie?

Dr. Andreas Braun

(Accenture)

Workshop 14:15 – 15:15 Uhr

Dr. Andreas Braun arbeitet bei Accenture Europe größtenteils im Bereich „Data“ und „Applied Intelligence“. Letzterer ist ein Kunstbegriff, der viele Themen wie „Machine Learning“, „Advanced Analytics“ und „KI“ zusammenfasst und ist deshalb sinnvoll, weil die einzelnen Begriffe fließend sind. Accenture implementiert KI, Datenlösungen und technologische Lösungen für Businesskunden wie Banken, Versicherungen, Autohersteller u.v.m. Der weltweit größte Kunde ist Google mit einem Umsatz von ca. 1,4 Mrd. Euro.

Andreas Braun hat Informatik an der TU München studiert und über Softwarearchitekturen für künstliche Intelligenzen promoviert. Zum Einstieg in den Workshop berichtete er von seinen Erfahrungen in der Arbeit mit Kunden, reellen Daten und alltäglichen Problemen. In Zeitungen und anderen Medien wird oft berichtet, was mit KI alles machen kann. Das ist aber oft falsch oder übertrieben dargestellt und führt zu einer überzogenen Erwartungshaltung. Telematik in Autoversicherungsdiensten bezeichnete er als ein Millionengrab, da es nicht möglich ist, das Fahrverhalten komplett zu verstehen und einen sicheren von einem unsicheren Fahrer zu unterscheiden oder das Geschlecht aufgrund des Fahrverhaltens zu erkennen.

Am Beispiel autonomes Fahren werden die Schwierigkeiten beim Auswerten von Daten deutlich. Die automatische Erkennung von Risiken im Autoverkehr ist hochkomplex. Viele Stereotype und vorherrschende Meinungen stimmen nicht. Zum Beispiel könnte man annehmen, langsameres Fahren sei sicherer als schnelles Fahren. De facto ist es aber so, dass bei schnellem Autofahren weniger Unfälle passieren: Viele Unfälle entstehen während langsamem Fahren, das durch das Nutzen des Smartphones oder der Suche nach einem Parkplatz verursacht wird.

Wenn Menschen mit dunkler Hautfarbe bei der Bilderkennung als Affen eingeordnet werden, liegt das, so Andreas Braun, nicht daran, dass der Algorithmus rassistisch ist, sondern an menschlicher Inkompetenz bei der Programmierung. Diese Fehler entstehen, wenn bestimmte Fälle nicht trainiert wurden. Diese Schwierigkeiten müssen innerhalb eines Projekts abgefedert werden.

Was ist eigentlich Bias? Und was sind die Probleme mit KI? Es gilt, drei Themenkomplexe zu unterscheiden: Im Bereich „Datenbasierte Künstliche Intelligenz/Machine Learning“ besteht die Gefahr eines „Data Bias“ – mit diesem sind die Teams von Andreas Braun am häufigsten konfrontiert. „Data Bias“ heißt, dass die Daten, mit der die KI trainiert wird, einen impliziten Bias enthalten, der auf den ersten Blick nicht erkennbar ist nur durch statistische Methoden oder einen kritischen Blick von außen gefunden werden kann. Als Beispiel nannte Andreas Braun eine KI, die bei einem Kunden den Bewerbungsprozess unterstützen sollte. Der Algorithmus sollte neutral bezüglich der Faktoren Geschlecht, Herkunft u.ä. sein. Das Ergebnis war allerdings, dass er nur noch Männer vorschlug. Das Problem lag in den Daten der langen Unternehmensgeschichte: Aus gesellschaftlichen Gründen, die nicht in den Daten erkennbar sind, waren Männer häufiger erfolgreich in der Firma. Wenn die KI nun die Muster von Erfolgsmodellen erkennen und auf neue Bewerberinnen und Bewerber anwendet, entsteht das unerwünschte Ergebnis.

Bei regelbasierten Systemen, bei denen es um Bewegungen oder Haptik geht, entsteht der Bias durch den Programmierer bzw. die Programmiererin, meist unbewusst. Auch durch Online-Learning kann ein Bias entstehen, wenn beispielsweise Chatbots aus User-Interaktionen lernen. Beim Thema Personalisierung werden Fehler bei Einzelpersonen oft akzeptiert: Es stört nicht, wenn eine Nutzerin oder ein Nutzer eine unpassende Werbung angezeigt bekommt, solange Millionen andere Anzeigen durch richtige Platzierung Geld einbringen. Bei Banken und Versicherungen hingegen ist der Einzelfall durchaus relevant.

Der Stand, auf dem die Entwicklungen von KI derzeit sind, lässt sich als „Narrow AI“ bezeichnen: Einzelne, einfache Aufgaben wie das Sortieren von Rechnungen, das Finden von Betrugsfällen, das Identifizieren von Geldwäschefällen u.ä. kann ein Algorithmus schneller abarbeiten als ein Mensch. Diese Form von KI ist tagtäglich im Einsatz und funktioniert sehr gut, weil sie vergleichsweise simpel ist. „Broad AI“, also Systeme, die über verschiedene Themen hinweg funktionieren sollen, sind allerdings deutlich schwieriger. Daran wird viel geforscht. Es wird außerdem, besonders in stark regulierten Branchen, viel daran gearbeitet, dass KI erklärbar und vertrauenswürdig ist. Versicherungen müssen z.B. beweisen können, dass Frauen bei der Autoversicherung nicht mehr zahlen als Männer oder umgekehrt. Je nach Anwendungsfall gibt es dafür unterschiedliche Lösungen. Dann gibt es noch die „Artificial General Intelligence“, eine Maschine, die alles kann, sich selbst und die Umgebung versteht und selbstständig ist. Von einer solchen Entwicklung ist meist in der Presse und in der Öffentlichkeit die Rede, wenn es um künstliche Intelligenz geht. In diesem Bereich ist die Forschung aber noch nicht besonders weit.

Im Gegenteil: Es gibt enorme grundlegende Probleme mit Entwicklungen, die in der Presse schon gefeiert werden. So äußerte Andreas Braun die Vermutung, dass in den nächsten 20 Jahren keine großen Fortschritte beim autonomen Fahren gemacht werden. Bereits möglich ist, einer KI Stichworte zu liefern, die dann daraus einen Presseartikel schreibt. Auch der Schreibstil eines bekannten Autors kann imitiert werden. Doch das Autofahren ist eine zu große intellektuelle Herausforderung. Es gibt noch viele grundlegende Probleme, sodass Antworten auf wichtige Fragen, wie: „Was passiert, wenn jemand auf ein selbstfahrendes Auto Einfluss nehmen möchte?“ noch offen sind. „Deep Learning“ lässt sich noch viel zu leicht austricksen – auch ohne das Auto zu hacken, können durch Umwelteinflüsse wie ein Blitzlicht schwere Unfälle ausgelöst werden. Aus europäischer Sicht stellte Andreas Braun fest: Bevor wir KI steuern, müssen wir uns erst einmal bewegen. Noch weiter entfernt davon sind intelligente Systeme, die massenweise Menschen an ihren Arbeitsplätzen ersetzen. Dafür ist allein der Energieverbrauch im Vergleich zum Menschen viel zu hoch. Es lässt sich also sagen, dass die Forschung noch in den Kinderschuhen steckt. Es gibt Vermutungen, dass im Gehirn Quanteneffekte stattfinden. Transferleistungen gehören zu den herausragenden Eigenschaften eines Menschen: Intelligente System sind weit davon entfernt, eine Sache verstehen und diese sofort auf eine andere anwenden zu können.

Eine große Schwierigkeit ist der Zusammenhang von Korrelation und Kausalität. Die Algorithmen basieren darauf, Muster in Variablen zu finden, die eine Referenz auf etwas anderes geben. Genau dieser Prozess muss aber kontrolliert werden. Ein gutes Beispiel sind Versicherungsprämien. Es ist illegal, diese vom Geschlecht abhängig zu machen. Bei Entscheidungen durch Versicherungsmathematiker/innen kann das Problem gelöst werden, indem sie keine Informationen über das Geschlecht erhalten. Das funktioniert bei einer KI aber nicht. Sie lernt, auch ohne Informationen zum Geschlecht zu haben, implizit, welche Faktoren zu höheren Versicherungskosten führen. Das ist Kern des Bias-Problems von KI: Bestimmte Variablen lassen Rückschlüsse auf andere Variablen zu, die eigentlich gar nicht verwendet werden dürfen. Dadurch fallen im schlimmsten Fall ganze Bevölkerungsgruppen durch ein Raster. An dieser Stelle stellt sich die Frage: Sind die Daten, das blinde Vertrauen in Daten, gezielte oder gesellschaftliche/historische Fehlinformationen vielleicht das eigentliche Problem?

Gesetzte wie die DSGVO helfen, weil sie anerkennen, das Daten das Fundament sind, indem sie die Hoheit darüber an die natürliche Person zurückgeben. Gleichzeitig reichen sie aber nicht weit genug, da sie nur das Verhältnis zwischen Unternehmen und Personen regulieren, währen der Staat außen vor bleibt.

Wenn KI im Recruiting eingesetzt wird, wird oft behauptet, dass Algorithmen keine unkonventionellen Lebensläufe mögen. Das stimmt nicht ganz: Wenn unkonventionelle Lebensläufe zum Erfolg führen, bewertet eine KI sie durchaus positiv. Das Problem ist eher: Wie wird Erfolg definiert? Das ist kontextabhängig.

Um all diese Herausforderungen im Blick zu haben, geht Accenture folgendermaßen vor: Ein bestehendes Rahmenwerk zu KI und Ethik wird individuell angepasst. Die Kundenfirma entscheidet, welche Prinzipien sie sich im Umgang mit KI setzen will, welche Daten verwendet werden und wie sichergestellt wird, dass die Daten vertrauenswürdig sind. Am Anfang gilt es, die Risiken und Herausforderungen zu definieren.

Es ist wichtig, Design-Prinzipien festzulegen, gerade, wenn es um KI und agile Projekte geht. Die Erfahrung zeigt, dass wenn Unternehmen sich schwertun, solche Richtlinien auszurollen und angemessen zu kommunizieren, Personen im illegalen Bereich kreativ werden. Andreas Braun erläuterte die Hypothese, dass künstliche Intelligenz kleine, agile Teams zu innovativen Ideen herausfordert, die möglicherweise nicht legal sind – ohne dass das den Data-Scientists bewusst ist. Häufig können diese Ideen nicht umgesetzt werden, weil bestimmte Datensätze nicht genutzt werden dürfen. Es ist beispielsweise bekannt, dass eine höhere Bildung und ein höheres Einkommen zu weniger Unfällen führen, aber es wäre illegal, diese Daten zu nutzen, um Schlüsse daraus zu ziehen, die für Unternehmen von Vorteil sein könnten. Agilität hat den Fokus darauf, schnell und flexibel Produkte zu erstellen, dies kann dazu führen, dass der Blick auf ethische Prinzipien und Vorgaben in den Hintergrund gerät. Aus diesem Grund werden größere Projekte, z.B. aktuell bei Google, nicht in einem agilen Prozess entwickelt. So kann besser kontrolliert werden, dass Datenschutz- und andere wichtige Vorgaben eingehalten werden. Die Nachteile eines solchen Vorgehens werden dabei in Kauf genommen.

KI-Systeme müssen validiert werden, da sie oft fehleranfällig sind. Bei der Erkennung von Risiken und Gefahren in der Polizeiarbeit muss beispielsweise verhindert werden, dass eine schwarze Frau von Vorneherein als eine größere Gefahr eingestuft wird als ein weißer Mann. Es ist ein klassisches Deep-Learning-Problem, wenn eine KI aus einer Gesamtdimension lernt, aber im Einzelfall völlig daneben liegt. Analog zu einem Software-Lifecycle braucht es einen KI-Lifecycle, bei dem mit Testdaten trainiert wird.

Bei Accenture gibt es ein Algorithmus-Fairness-Tool, das verpflichtend auf alle Projekte angewendet wird, um diese auf Bias zu testen. Anonymisierte Echtdaten werden geprüft, um im Zweifelsfall gegensteuern zu können. Die Visualisierung des Tools gibt eine Idee davon, wo der Algorithmus steht und was zu tun ist. Es gibt mehrere Testdurchläufe und der gesamte Prozess muss, besonders in stark regulierten Branchen wie Banken, dokumentiert werden.

Nach seinem Vortrag stand Andreas Braun für Fragen zur Verfügung. Eine Teilnehmerin fragte, inwiefern sich Accenture auf aktuelle Forschung bezieht und ob das Wissen, dass im Rahmen der Projekte gesammelt wird, der Öffentlichkeit zugänglich gemacht wird. Andreas Braun berichtete, dass Accenture mit vielen Forschungseinrichtungen, besonders in den USA, zusammenarbeitet und die Ergebnisse auch veröffentlicht werden.

GENDER//WISSEN//INFORMATIK" in den soziale Netzwerken