Frauenpower: Können wir Vorurteile in der KI und darüber hinaus durchbrechen?
«In Anlehnung an die Theorie vom Menschen als Jäger wurde das Leben der Männer als stellvertretend für die gesamte Menschheit betrachtet. Wenn es um die andere Hälfte der Menschheit geht, gibt es oft nichts als Schweigen. Und diese Stille ist allgegenwärtig. Filme, Nachrichten, Literatur, Wissenschaft, Stadtplanung, Wirtschaft, die Geschichten, die wir uns über unsere Vergangenheit, Gegenwart und Zukunft erzählen, sind alle von einer weiblich geprägten «abwesenden Präsenz» geprägt – entstellt. Dies ist die geschlechtsspezifische Datenlücke. Dieses Schweigen, diese Lücken, haben Konsequenzen. Sie wirken sich auf das Leben der Frauen aus, jeden Tag.
Dies ist ein Auszug aus Invisible Women: Exposing Data Bias in a World Designed for Men von Caroline Criado Perez, einem Buch, von dem Anastasia Ailamaki, Professorin an der EPFL Fakultät für Computerwissenschaften und Kommunikation (IC) und Leiterin des Data Intensive Applications and Systems Laboratory, sagt, dass es für sie sehr schwierig war, es zu lesen: «Ich wollte alle Möbel, die wir im Haus hatten, zerschlagen. Ich bin eine Frau und ein Datenbankspezialist, und es hat mich zutiefst berührt.»
Die meisten Büros, so heisst es in dem Buch, sind für Frauen fünf Grad zu kalt, weil die Formel aus den 1960er Jahren zur Bestimmung der idealen Temperatur die Stoffwechselrate eines 40-jährigen, 70 kg schweren Mannes zugrunde legte. Autos sind auf den «Referenzmann» ausgelegt, so dass Frauen bei einem Unfall fast 50 % wahrscheinlicher schwer verletzt werden. Im Jahr 2019 wurde festgestellt, dass ein Facebook-Algorithmus es Werbetreibenden ermöglicht, Anzeigen gezielt nach Geschlecht zu schalten, wobei Frauen vor allem Pflege- und Sekretariatsarbeiten vorgeschlagen werden. Im selben Jahr wurde gegen die Apple-Kreditkarte der Vorwurf erhoben, sie sei frauenfeindlich, weil sie je nach Geschlecht unterschiedliche Kreditlimits bietet.
«Männer sind einfach voreingenommen gegenüber Frauen. Frauen sind gegenüber Frauen voreingenommen. Jeder ist gegenüber Frauen voreingenommen. Bei meiner Arbeit bin ich überall, wo ich hinkomme, die einzige Frau, und die Leute sagen, das liege an meiner Arbeit aber das ist kein Input, sondern ein Output», fährt Ailamaki fort. Wie können wir also diese Voreingenommenheit durchbrechen, wenn KI allgegenwärtig wird, mit dem Risiko, dass die Gleichstellung der Geschlechter um Jahrzehnte zurückgeworfen wird?
Viele historische Daten weisen eine offensichtliche Verzerrung auf, da sie die damalige Gesellschaft widerspiegeln, und Algorithmen für maschinelles Lernen werden mit diesen Daten trainiert. Ist es möglich, diese Algorithmen zu optimieren, um historische Verzerrungen zu berücksichtigen?
Assistenzprofessor Robert West ist Leiter des Data Science Lab (dlab) der EPFL: «Ich glaube, wir wissen es noch nicht, denn die digitale Welt ist ein komplexes dynamisches System. Es ist nicht so, dass man an einem Knopf dreht und dann das Problem löst. Es ist eher wie an der Börse: Wenn man an einem Knopf dreht, ändert man die Anreize, und dann wird alles beeinflusst, und man weiss nicht wirklich, was dabei herauskommt. Ich denke, es wird darauf hinauslaufen, dass wir Versuchsplattformen einrichten, an denen wir Knöpfe drehen können, um dann für die betroffene Gruppe von Menschen zu sehen, wie sich die Dinge verändern.
Trotz der Komplexität der Systeme, mit denen sich die Informatiker von heute auseinandersetzen müssen, wird an der Abschwächung von Verzerrungen gearbeitet und versucht, Algorithmen so zu optimieren, dass sie nicht nur genau, sondern auch fair sind.
«Fair könnte einfach bedeuten, dass der Algorithmus bei einer weiblichen Studentin die gleiche Genauigkeit bei der Vorhersage hat wie bei einem männlichen Studenten. Jetzt sind sich die Leute zumindest oft bewusst, dass ihr Algorithmus voreingenommen sein könnte und dass er vielleicht überprüft werden muss. Ich denke, das ist ein erster Schritt, und wenn ich mir mein Forschungsgebiet anschaue, würde ich sagen, dass vor 10 Jahren niemand über Fairness gesprochen hat, sondern nur über die Genauigkeit. Jetzt hat sich das komplett geändert», sagt Tanja Käser, Assistenzprofessorin und Leiterin des Machine Learning for Education Laboratory.
West stimmt zu, dass die Definitionen von Fairness für verschiedene Menschen unterschiedlich sein werden und dass Informatiker sich aktiv an diesen Gesprächen beteiligen müssen: «Es ist ein bisschen wie mit der Atombombe – wenn man die Technologie hat, kann man Kraftwerke bauen und man kann Bomben bauen. Wir haben die Suchmaschine, mit der wir fantastische Dinge tun können, aber sie hat auch negative Nebenwirkungen. Ich finde, Informatikfachleute sollten auf jeden Fall Ethikkurse besuchen. Sie sollten diese Entscheidungen nicht allein treffen. Es ist wichtig, sich der Bewertungskriterien bewusst zu sein, die irgendwann auf ihre Technologie angewendet werden.»
Da dieses Problem die Vorurteile in der Gesellschaft widerspiegelt, die Art und Weise, wie wir erzogen werden und wie wir die Dynamik der Beziehungen und des Arbeitslebens unserer Eltern sehen, ist Käser der Meinung, dass wir schon in jungen Jahren damit beginnen müssen, sowohl Jungen als auch Mädchen zu erziehen.
«Wir sollten schon in der Grundschule mit Mathematik und MINT beginnen. Wir müssen es für Mädchen cooler machen, sich mit MINT zu beschäftigen, aber das wird sich nicht so schnell ändern. Ich möchte die coolen Dinge hervorheben, die wir mit Informatik machen können und die einen Einfluss auf die Gesellschaft haben. Mein Thema, wie maschinelles Lernen das menschliche Lernen optimieren kann, ist interdisziplinär und ich beschäftige mich mit technischen Dingen, aber es ist sehr menschlich und ich kann einen wichtigen Einfluss haben. Ich hoffe, ich kann ein gutes Vorbild sein, das ist so wichtig», sagte sie.
Ailamaki sieht das etwas anders: «Wir können nichts gegen die Frau von nebenan tun, die meint, Blau sei für Jungen und Rosa für Mädchen, sie hat eine Meinung, und die müssen wir respektieren, aber wir können in einem beruflichen Umfeld etwas verändern. Wir müssen eine geschlechtsneutrale Welt am Arbeitsplatz fördern, in der man nach seinen Fähigkeiten beurteilt wird und nicht danach, ob man ein Mann oder eine Frau ist. Dann ist es eine Frage, wie weit wir zurückgehen. Wir müssen aufhören, Kinder in der Schule nach Jungen und Mädchen zu benennen, und wir müssen aufhören, dass Lehrpersonen den Kindern sagen: 'Wir werden dir diese Frage stellen, weil du ein Junge bist, und dir diese Frage, weil du ein Mädchen bist', aber draussen müssen die Menschen so sein, wie sie sind.»
West, der drei kleine Töchter hat, denkt oft über die Welt nach, in die sie hineinwachsen werden, und über seine Rolle bei der Gestaltung der Zukunft: «Ich möchte, dass sie ohne soziale Zwänge tun können, was sie wollen. Vielleicht hört sich das albern an, aber ich denke, es ist wichtig, nett und einladend zu allen zu sein, und das ist vielleicht sogar noch wichtiger, wenn man früher anfängt. Ich glaube, es gibt viele Mädchen, die sich vor bestimmten Aktivitäten scheuen, weil sie die einzigen Mädchen sind, die sie machen. Es ist wichtig, darüber nachzudenken, was wir an den Universitäten ändern müssen, und ja, wir müssen etwas ändern, aber ich bin mir nicht sicher, ob das der grösste Erfolg ist. Und wir müssen Männer in die Gespräche und Lösungen einbeziehen. Wir sind 50 % der Bevölkerung und müssen genauso proaktiv sein wie die Frauen, um eine weniger voreingenommene Zukunft zu schaffen.»