Der Mensch muss die Hoheit über die Daten behalten
Da denkt man, Voreingenommenheit sei eine menschliche Einstellung. Doch auch ein Computer, eine Maschine, die Künstliche Intelligenz fällen Urteile, treffen Entscheidungen, die keineswegs so neutral und vorurteilsfrei sind, wie ihnen unterstellt wird.
„Wenn der Algorithmus vorschlägt, keine Frauen mehr einzustellen“. So überschrieb Miriam Klöpper provozierend ihren Vortrag in einer hybriden Veranstaltung, die an der Dualen Hochschule Baden-Württemberg (DHBW) den Impuls gab zu einer Diskussion, die im Rahmen der alljährlich veranstalteten Frauenwirtschaftstage geführt wurde. Klöpper beschäftigt sich am Karlsruher Forschungszentrum Informatik (FZI) wissenschaftlich mit sozialen und ethischen Aspekten beim Einsatz von automatisierten Systemen in der Personalführung sowie mit Machtfragen in der Digitalisierung. Aktuell ist ihr Forschungsgebiet „People Analytics“. „Das ist der Einsatz von Software-Algorithmen, die Daten über Verhalten, Beziehungen und Eigenschaften von Beschäftigten auswerten.“
Beim Online-Versandhändler Amazon hatte die Einstellungssoftware vorgeschlagen, keine Frauen mehr einzustellen. Der Hintergrund: Das System war mit Daten gefüttert worden, die erfolgreiche Bewerbungen vergangener Zeiten zum Inhalt hatten. Und erfolgreich beworben hatten sich die längste Zeit – Männer. Frauen wurden vom Algorithmus-getriebenen System schlichtweg herausgefiltert. „Zum Glück ist das aufgefallen.“ Die Einstellungs-Software bei Amazon wurde der Voreingenommenheit Frauen gegenüber entlarvt.
Algorithmen kommen in vielen Bereichen der Arbeitswelt zunehmend zum Einsatz, um menschliches Verhalten zu quantifizieren und somit messbar zu machen. Doch es sei ein Fehlschluss, so Miriam Klöpper, von den Systemen Fairness und Chancengerechtigkeit zu erwarten. Oft verstärkten Algorithmen soziale Ungerechtigkeiten und Diskriminierung sogar noch. Laut Miriam Klöpper nutzen Firmen historisch gewachsene Datensätze, um damit ein System zu trainieren. „Die enthalten aber nur wenige Daten von Frauen.“ Dies könne potenziell zu Diskriminierung von Frauen führen.
„Algorithmen an sich sind natürlich schon objektiv“, erklärte Miriam Klöpper, „die Menschen, die einen Algorithmus programmieren, sind es aber in den wenigsten Fällen.“ So kam es bei Amazon dazu, dass weniger Frauen eingestellt wurden. Ein beliebter Merksatz lautet: Entscheidend ist, was hinten rauskommt. Im Falle KI-gesteuerter Systeme ist ebenso wichtig, was reinkommt. „Maschinelles Lernen basiert auf und funktioniert mit dem Input“, holte Miriam Klöpper die vermeintlich unfehlbaren Computer vom Thron, „Ist der Input lückenhaft oder einseitig, sind die Auswertungen nur bedingt nutzbar.“
Falsche Eingabe, falsche Ausgabe. Vorurteile (nicht nur gegen Frauen) setzen sich fort oder verstärken sich gar. Klöpper spricht von „der Voreingenommenheit der Algorithmen“, der Frauen etwa einen geringeren Kreditrahmen einräume, auch wenn diese das gleiche Vermögen hätten wie ihre Männer.
Eindrucksvoll war auch, was Miriam Klöpper als Autovervollständigung auf Eingaben in eine Suchmaschine präsentierte: die ersten beiden Worteingaben „women should…“ vervollständigte Google geradezu diskriminierend mit „…stay at home“. Entsprechend dem ersten Gebot lautete das zweite: „women shouldn’t have rights“. Das UN-Women-Komitee hatte daraus vor einigen Jahren eine Plakatkampagne gemacht. Am Ende ihres Vortrags plädierte Klöpper für eine kritische und wache Haltung gegenüber algorithmisch herbeigeführten Entscheidungen, für mehr Transparenz in automatisierten Prozessen, um Diskriminierung vorzubeugen und damit Chancengerechtigkeit (am Arbeitsplatz) zu schaffen. „Es gilt, die Hoheit über die Daten wieder zu erlangen.“ „Digitale Menschenrechte“ schweben ihr vor. Künstliche Intelligenz darf, ja, muss nach Auffassung der Referentin fair und ethisch sein.
Und weil sie erstens an einer Hochschule referierte, betonte sie auf die Frage nach Lösungsansätzen, dass sie sich eine „flächendeckende digitale Bildung“ wünsche, früh einsetzend und niedrigschwellig. „Informatik als Schulfach!“ Zweitens und damit im Rahmen der Frauenwirtschaftstage forderte Miriam Klöpper im Sinne der Chancengerechtigkeit „mehr Diversität und Rollenvorbilder“. Vorbilder hat die DHBW durchaus zu bieten und nach dem Vortrag aufs Podium geholt. Prof. Dr. Doris Nitsche-Ruhland, Studiengangsleiterin Informatik an der DHBW Stuttgart und Vize-Präsidentin der DHBW, ist fasziniert von der Informatik, erdet sie zugleich als Hilfswissenschaft, die in der Anwendung von und mit Menschen zu tun habe. Jaroslava Remeza, Studentin der Angewandten Informatik am Campus Bad Mergentheim, kam in ihrer Familie schon als kleines Mädchen mit dem Thema in Kontakt und repräsentiert somit, was als Wunsch im Raum stand. Zwischen Ruhlands und Remezas Studium liegen rund vier Jahrzehnte, der Anteil der Studentinnen der Informatik sei in dieser Zeit aber nur von zehn auf knapp 20 Prozent gestiegen.
Was die DHBW mache, dass Studierende kritisch hinterfragen, was und wie sie studieren, wollte Moderatorin Prof. Dr. Marthe Kaufholz wissen; die Studiengangsleiterin Mechatronik in Mosbach ist die frisch gebackene Gleichstellungsbeauftragte. Da sieht Ruhland auch im speziellen Aufbau des dualen Studiums einen Vorteil, indem die Theorie in der Praxis reflektiert werde. Prof. Dr. Jörg Mielebacher, der den Studiengang Angewandte Informatik in Mosbach leitet, denkt über den Hochschulrand hinaus. „Wir müssen lernen, wirklich zu verstehen, das Dinge ineinander greifen, systemisch denken – schon in der Schule.“ Da passte, was DHBW-Rektorin Prof. Dr. Gabi Jeck-Schlottmann schon vor dem Vortrag gesagt hatte: „Es gibt immer noch viel zu tun. Von Frauen und Männern!“ Jeck-Schlottmann dankte in diesem Zusammenhang Prof. Gudrun Reichert, der langjährigen Vorgängerin Kaufholz‘. „Sie waren eine Wegbereiterin und haben uns, haben mir Mut gemacht.“