Mit Klick auf dieses Icon gelangen Sie zur Startseite von www.mint-frauen-bw.de
Mit Klick auf dieses Icon gelangen Sie zur Startseite von www.mint-frauen-bw.de

Prof. Dr. Isabel Valera will algorithmische Entscheidungen mit Machine Learning fairer machen

Das Bild zeigt Prof. Dr. Isabel Valera, Expertin für Machine Learning, vor einer schwarzen Tafel.

Schon mal mit Machine Learning in Berührung gekommen? Richtig gehört, „Maschinen“ können lernen – und zwar mittels künstlicher Intelligenz. Mit maschinellem Lernen können IT-Systeme in vorhandenen Datenbeständen Muster und Gesetzmäßigkeiten erkennen und Lösungen für alle möglichen Fragestellungen entwickeln. So wird aus einer riesigen Menge an Erfahrungen quasi künstliches Wissen generiert. Ganz praktisch gesehen spielt Machine Learning überall dort eine Rolle, wo Algorithmen genutzt werden, um die menschliche Entscheidungsfindung zu unterstützen oder zu ersetzen. So zum Beispiel bei unseren Suchmaschinenanfragen im Internet – die Relevanz der Webseiten, die für unsere Suchbegriffe infrage kommen, wird mittels Machine Learning bestimmt.

Die Einsatzgebiete dafür werden immer größer und breiter. Damit steigen allerdings auch die Fälle an, in denen diese maschinellen Entscheidungsprozesse dazu führen, dass Menschen aus bestimmten sozialen Gruppen benachteiligt werden. Prof. Dr. Isabel Valera ging mit ihrem Team bisher am Max-Planck-Institut für Intelligente Systeme in Tübingen unter anderem der Frage nach, wie diese Ungerechtigkeit bei der algorithmischen Entscheidungsfindung begrenzt werden kann. Diese Forschungsarbeit setzt sie nun im Rahmen ihrer Professur für Informatik mit Schwerpunkt Machine Learning an der Universität des Saarlandes fort. Im Interview mit der Landesinitiative Frauen in MINT-Berufen erklärt die „MINT-Heldin“, was genau diese mangelnde Fairness in Algorithmen bedeutet und wie sie zu diesem speziellen Arbeitsbereich kam.

„Der Algorithmus lernt aus den gesammelten Daten und erstellt seinen Programmcode selbstständig.“

Landesinitiative Frauen in MINT-Berufen: Können Sie mit wenigen Worten erklären, was genau man unter Machine Learning versteht und wie das funktioniert?

Isabel Valera: Machine Learning ist ein spezieller Bereich innerhalb der künstlichen Intelligenz. Zum einen geht es darum, Daten automatisch von Computern analysieren zu lassen. Das wird genutzt, um beispielsweise sogenannte „Prediction Tasks“ zu lösen, also das Vorhersagen von Werten auf Basis der analysierten Daten. Zum anderen wird mit maschinellem Lernen die zugrundeliegende Struktur der Daten untersucht – das kommt beispielsweise in den sozialen Medien zum Einsatz, um Communitys zu identifizieren, die gemeinsame Interessen haben. Im Unterschied zur normalen Softwareentwicklung geht es bei Machine Learning um das selbstständige Lernen aus vorhandenen Daten. Algorithmen werden also auf vorhandene Datensätze angewendet, erkennen ganz selbstständig Gesetzmäßigkeiten und leiten im Anschluss passende Lösungsansätze ab.

„Die Schwierigkeit: ‚Unrecht‘ und ‚Benachteiligung‘ hängen immer stark vom Kontext ab.“

L. F. i. M.-B.: Inwiefern kann Machine Learning nun zur Diskriminierung bestimmter Personengruppen führen? Warum sind die Algorithmen überhaupt „unfair“?

Isabel Valera: Wenn wir sagen, dass ein Algorithmus unfair ist, meinen wir, dass er diskriminierend wirkt. Durch den Algorithmus wird zu Unrecht ein relativer Nachteil für Individuen herbeigeführt, die zu einer sozial definierten Gruppe gehören, d. h. sensible Informationen wie die Ethnisierung und Geschlechtsidentität teilen. Die Schwierigkeit ist, dass „Unrecht“ und „Benachteiligung“ immer stark vom Kontext abhängen, in dem der Algorithmus angewendet wird. Auch die Frage, was als sozial hervorstechende Gruppe angesehen wird, ist an den Kontext gebunden.

Genau aus diesem Grund versuchen wir innerhalb der „Fair Machine Learning-Community“, rechtliche und normative Definitionen von Diskriminierung aufzustellen, die wir anhand der verfügbaren Daten messbar machen. Es gibt jedoch keine universelle Lösung, und alle bestehenden Definitionen von Fairness haben ihre Grenzen.

Um zu verstehen, warum der Algorithmus möglicherweise unfair ist, müssen wir auch Folgendes bedenken: Die Informationen, die der Algorithmus über Personen sammelt und interpretiert, können bereits von Grund auf Vorurteile oder Stereotypen enthalten. Ein Algorithmus kann also aus mehreren Gründen diskriminieren: Die gesammelten Merkmale können zum einen zu wenig „echte“ Informationen enthalten und daher nicht repräsentativ genug für Personen aus Minderheitengruppen sein. Zum anderen ist die Menge der gesammelten Daten dieser Gruppen oft von Natur aus deutlich kleiner als bei Mehrheitsgruppen. Und schließlich macht der Algorithmus seine Vorhersage, indem er Muster in den Daten erkennt – wenn diese gesammelten Daten von vornherein historische, menschliche Vorurteile oder Stereotypen enthalten, kann der Algorithmus solche Vorurteile lernen und sie für seine Vorhersagen nutzen.

„Eine Google-Bildersuche nach ‚Director‘ liefert als Ergebnis bevorzugt Bilder von Männern.“

L. F. i. M.-B.: Gibt es ein sehr häufiges Beispiel für Diskriminierung durch Algorithmen?

Isabel Valera: Ein häufiges Beispiel für eine solche Diskriminierung sind Algorithmen, die Wortassoziationen liefern. Das ist zum Beispiel bei der automatischen Übersetzung von Sprachen und bei jeder Suchanfrage im Internet der Fall. Wenn man zum Beispiel eine Google-Bildersuche nach englischen Wörtern wie „Nurse“, also der geschlechterneutralen Bezeichnung für Krankenpfleger*in, oder „Secretary“, also Sekretär*in, durchführt, zeigen die obersten Ergebnisse meist Frauen. Wortsuchen wie „Director“ oder „Professor“, die ebenfalls geschlechterneutral sind, liefern meist männliche Bilder. Dies ist ein klares Beispiel dafür, dass der Algorithmus die Stereotypen und Vorurteile der Gesellschaft erlernt.

L. F. i. M.-B.: Mit Ihrer Forschungsgruppe am Max-Planck-Institut für Intelligente Systeme in Tübingen verfolgten Sie verschiedene Ansätze, Machine Learning fairer zu machen. Wie genau müssen wir uns das vorstellen – verändern Sie Algorithmen, die bereits „da draußen“ sind, nachträglich?

Isabel Valera:  Meine Arbeit mit der Gruppe am MPI Tübingen, und heute auch an der Universität des Saarlandes, zielt darauf ab, neue, fairere Algorithmen zu entwickeln. Diese sollen die Voreingenommenheit und Vorurteile, den sogenannten Bias, in den Daten richtig erkennen und korrigieren, anstatt ihn zu verstärken. Außerdem möchte ich die Quelle des Bias besser verstehen, um den besten Weg zu finden, ihn zu beseitigen und neue Algorithmen zu entwickeln. Mein Hauptziel ist, die Risiken dieser Algorithmen, wie z. B. Diskriminierung, zu erkennen und abzumildern, bevor sie in der Gesellschaft eingesetzt werden.

„Mein ultimatives Ziel: ein technologischer Durchbruch, bei dem die Gesellschaft als Ganzes gewinnt.“

L. F. i. M.-B.: Machen Sie und andere Forscher*innen dahingehend Fortschritte? Welche Unterschiede werden wir im alltäglichen Leben spüren, wenn Machine Learning ohne Diskriminierung funktioniert und Algorithmen besser und fairer sind?

Isabel Valera: Es ist definitiv sehr viel Bewegung auf dem Forschungsgebiet, und die Ergebnisse sind vielversprechend. Eine aktuelle Studie von Forscher*innen mehrerer US-Universitäten zeigt beispielsweise, dass algorithmische Entscheidungssysteme nicht nur zu genaueren, und damit profitableren Entscheidungen führen, sondern auch Diskriminierung aufdecken können. Wenn der Algorithmus also nach unseren Maßstäben der Fairness und Robustheit gebaut wird, kann er Diskriminierung nicht nur selbst verhindern, sondern auch vorhandenen Bias aufdecken.

Hier wird also klar, dass der Nutzen von Algorithmen – sofern sie sorgfältig und robust designt sind – die Risiken deutlich übersteigen kann. Wir Forscher*innen auf dem Gebiet des ethischen Machine Learning arbeiten aktiv daran, dass das tatsächlich so ist. Wir versuchen, Algorithmen so zu designen, dass ihre Ergebnisse mit den Werten der Gesellschaft übereinstimmen. Mein ultimatives Ziel ist es, zu einem technologischen Durchbruch beizutragen, der nicht nur großen Tech-Unternehmen in die Karten spielt, sondern der Gesellschaft als Ganzes zugutekommt.

„Meine Doktorarbeit schrieb ich über maschinelles Lernen in der Psychiatrie.“

L. F. i. M.-B.: Woher kommt Ihr Interesse am maschinellen Lernen? Wie hat Ihre Karriere begonnen und welche Entscheidungen mussten Sie treffen, um dorthin zu gelangen, wo Sie heute sind?

Isabel Valera:  Ich glaube, es war eine ganze Reihe glücklicher Entscheidungen und Zufälle, die mich hierherbrachten. Machine Learning habe ich während meines Masterstudiums (Medieninformatik) an der Universidad Carlos III de Madrid kennengelernt. Das dortige Forschungsumfeld und die Tatsache, dass maschinelles Lernen in so vielen verschiedenen Forschungsbereichen eine Rolle spielt, haben mich total gepackt!

Ich entschied mich daher, meine Doktorarbeit über maschinelles Lernen in der Psychiatrie zu schreiben. Das ist einer der Aspekte, die ich an diesem Forschungsfeld am meisten mag, dass man in verschiedenen Anwendungsbereichen (wie Medizin, Wirtschaft und Sozialwissenschaften) mit den jeweiligen Expert*innen zusammenarbeiten kann. Auf diese Weise lerne ich sehr viel über andere Themen, während ich gleichzeitig mit Machine Learning zu einem Forschungsfortschritt im jeweiligen Gebiet beitrage.

„Wir sollten in der Forschung für eine bessere Work-Life-Balance sorgen.“

L. F. i. M.-B.: Sie sind eine der wenigen Frauen, die eine Professur auf dem Gebiet des maschinellen Lernens innehaben. Generell liegt der Frauenanteil in der IT in Deutschland nur bei rund 20 Prozent. Welche Auswirkung hat dieser Status Quo auf ihren beruflichen Alltag?

Isabel Valera:  Der Frauenanteil liegt im Machine Learning so weit ich weiß unter 30 Prozent und sinkt deutlich, je höher die Position ist. Ich glaube, auf der Ebene der Gruppenleiter*innen und Professor*innen sinkt dieser Prozentsatz auf unter 10 Prozent.

In meinem persönlichen Arbeitsalltag spielt mein Geschlecht eigentlich keine sehr große Rolle, aber Tatsache ist: Die Ungewissheit bis zur Festanstellung und der unglaublich harte Wettbewerb machen es manchmal sehr schwer, die richtige Balance zwischen Privat- und Berufsleben zu finden.

Auf der einen Seite war es für mich immer wichtig, ein erfülltes Privatleben zu haben und eine Familie zu gründen. Auf der anderen Seite war das mit meinen beruflichen Entscheidungen nicht immer zu vereinbaren – ich bin oft umgezogen (und dadurch auch mein Partner), habe einen vollen Terminkalender und damit oft lange Tage …

Dies und der Mangel an vorhandenen weiblichen Vorbildern für Frauen in diesem Bereich führen vermutlich dazu, dass sich viele Frauen für andere berufliche Alternativen entscheiden. Ich selbst habe diesen Weg einige Male in Frage gestellt, bevor ich schließlich in meine privilegierte Situation und die Festanstellung kam. Für mich hat sich der Einsatz letztlich gelohnt. Aber ich glaube, wir sollten daran arbeiten, die IT-Branche, und vor allem die Arbeit in der Forschung so zu gestalten, dass eine gute Balance zwischen Privatleben und Beruflichem möglich ist.

„Nur, wenn alle Geschlechter und Ethnien an der Entwicklung beteiligt sind, können wir eine Technologie ‚für alle‘ weiterentwickeln.“

L. F. i. M.-B.: Was würde Ihrer Meinung nach Frauen dazu ermutigen, eine Karriere in der IT oder in anderen technischen Bereichen zu beginnen? Warum wäre Machine Learning eine gute Wahl?

Isabel Valera: Machine Learning ist eine gute Wahl, weil der Bereich sehr vielseitig ist und viele Gestaltungsmöglichkeiten bietet. Ich lerne weiterhin jeden Tag so viel dazu, und dafür bin ich sehr dankbar. Wenn eine Frau Spaß an Technik hat, sollte sie sich von nichts und niemandem daran hindern lassen, diesen Weg zu gehen. Auch, wenn gesellschaftliche und die eigenen Stereotypen und Vorurteile manchmal wie ein Hindernis erscheinen können. Letztlich ist das meiner Meinung nach auch der einzige Weg, wie wir die Technologie „für alle“ weiterentwickeln können: wenn „alle“, das heißt alle Geschlechter und Ethnien, an der Entwicklung beteiligt sind. Es gibt viele Dinge, die man als Frau, und generell als Individuum, zur Technologie beitragen kann.

Wir bedanken uns bei Prof. Dr. Isabel Valera für das Gespräch und wünschen alles Gute für die nächsten Projekte.

Das Bild zeigt Prof. Dr. Isabel Valera, Expertin für Machine Learning, vor einer schwarzen Tafel.

Infos zu Prof. Dr. Isabel Valera

Prof. Dr. Isabel Valera wurde 1985 in Murcia, Spanien, geboren und studierte Elektrotechnik und Kommunikation an der Universidad de Cartagena und Medieninformatik an der Universidad Carlos III de Madrid, wo sie im Jahr 2014 promoviert wurde. Nach ihrer Promotion wechselte sie, gefördert mit einem Forschungsstipendium für Postdoktoranden der Alexander von Humboldt-Stiftung, zum Max-Planck-Institut für Softwaresysteme in Kaiserslautern. Nach einem mehrmonatigen Aufenthalt als wissenschaftliche Mitarbeiterin an der University of Cambridge (UK) wurde sie 2017 Leiterin der Forschungsgruppe „Probabilistic Learning“ am Max-Planck-Institut für Intelligente Systeme in Tübingen. Dort fokussierte sie sich unter anderem auf die Entwicklung von Machine Learning-Methoden, die flexibel, robust und fair sind. Auf diese Erfolge folgte eine Ernennung zur Professorin für Informatik mit Schwerpunkt Machine Learning an der Universität des Saarlandes. Einen besonderen Schwerpunkt bilden auch hier die ethischen Aspekte des maschinellen Lernens. Mehr Informationen zu Ihren Forschungsarbeiten gibt es hier.
Foto: Prof. Dr. Isabel Valera

Immer auf dem Laufenden bleiben?

Aktuelles aus der Landesinitiative und der MINT-Welt, Veranstaltungen und Lese-Tipps gibt’s alle drei Monate in unserem Newsletter.

Skip to content