Grammatikalisch ist die Digitalisierung weiblich, aber da endet oft schon das Nachdenken über Gender-Aspekte zu diesem Thema. Obwohl die neue, digital organisierte Arbeitswelt oft geschlechtslos erscheint, wirken in ihr alte Mythen, Ausschlussmechanismen und Geschlechterhierarchien fort. Dies gilt für das Start-up-Ökosystem, in dem digitale Technologien und Prozesse entwickelt werden, die Segregation des Arbeitsmarktes, den Care-Sektor, die Gig Economy und selbst für Algorithmen.
Der Gender Divide in der Digitalisierung
Digitale Teilhabe- und Gestaltungschancen, aber auch digitale Kompetenz und Reputation sind ungleich verteilt. Mädchen und Buben, Frauen und Männer nutzen das Internet und produzierende Anwendungen unterschiedlich. Laut einer OECD-Studie streben 20 Prozent aller Buben, aber nur fünf Prozent aller Mädchen weltweit eine Karriere in der Informations- und Kommunikationstechnologie an. Frauen sind in dieser Branche stark unterrepräsentiert; sie sind eher als schlecht bezahlte und sozial oft nicht abgesicherte digitale Hilfsarbeiterinnen (als sogenannte Click- oder Crowdworker) tätig. Die Effekte von Digitalisierung auf Lebens- und Arbeitsbedingungen von Frauen sind wenig untersucht bzw. werden weitgehend ausgeblendet.
Die Entwicklung digitaler Technologien fand nicht nur unter Ausschluss der Öffentlichkeit, sondern auch unter Ausschluss von Frauen statt. Nicht nur das Silicon Valley ist ein „Boy’s Club“, auch die Venture-Capital-Gesellschaften, die in digitale technologische Innovationen investieren, sind männerdominiert. 92 Prozent der InvestorInnen sind Männer, die lieber andere junge Männer und ihnen vertraute Geschäftsideen fördern. Sie gestehen Frauen notorisch weniger Know-how in der technischen Umsetzung zu. Und das, obwohl von Frauen gegründete Start-ups mehr Umsatz machen, wie eine Studie der Boston Consulting Group nachweist.
Die in einem solchen von toxischer Männlichkeit und Irrationalität dominierten Ökosystem entwickelten neuen Technologien und sozialen Medien bilden diese Ungleichheitsstrukturen in ihren Algorithmen und Nutzungsmöglichkeiten ab.
Arbeitsmarkt und Care-Arbeit im Zeitalter der Digitalisierung
Die Digitalisierungsdiskussion konzentrierte sich bisher vor allem auf den Produktionssektor, in dem in den letzten Jahrzehnten immer mehr Männer mit mittlerem Bildungsniveau arbeitslos wurden, während Frauen mit hohem Bildungsniveau aufsteigen konnten. Allerdings sind gemischte bzw. weiblich dominierte Branchen im Dienstleistungssektor genauso stark von Automatisierung, Arbeitsverdichtung und Prekarisierung betroffen. Dies gilt für den Online- wie auch für den Offline-Handel, Reinigung, Banken und Versicherungen, aber auch Pflege und Personenbetreuung.
Dabei darf nicht vergessen werden, dass der Care-Sektor (personenbezogene Dienstleistungen, Betreuung, Erziehung, Hausarbeit usw.) – gemessen am geleisteten Arbeitsvolumen in Stunden – der größte Wirtschaftssektor überhaupt ist. Care-Arbeit wird überwiegend ohne Bezahlung in privaten Haushalten erbracht – und das zu etwa zwei Dritteln von Frauen. Zwar ist schon seit Längerem beobachtbar, dass betriebswirtschaftliche Zeitvorgaben im bezahlten Care-Sektor gemacht werden, etwa wie lange Umbetten oder persönliche Zuwendungen dauern dürfen. Auch werden neue Technologien im Care-Sektor eingesetzt, indem Apps die Dokumentation und Teamkoordination erleichtern; Effizienzsteigerungen oder gar zusätzliche Produktivitätsgewinne sind im Care-Sektor aufgrund der Arbeitsintensität und Unmittelbarkeit der Leistungen weitaus geringer als im Produktions- und Dienstleistungsbereich.
Die Digitalisierung trifft auf einen Erwerbsarbeitsmarkt, dessen geschlechtsspezifische Segregation in Österreich schon jetzt zu einem Gender Overall Earning Gap von über 40 Prozent führt, der nicht nur die Einkommensdifferenzen (Gender Pay Gap), sondern auch Erwerbsquoten und die Verteilung von bezahlter und unbezahlter Arbeit beinhaltet.
In der Digitalwirtschaft setzt sich dieser Trend fort. So besteht etwa ein Gender Pay Gap zwischen weiblichen und männlichen Crowdworkern, die – ohne arbeits- und sozialrechtlichen Schutz – zu Hause arbeiten. Dieser 18-prozentige Einkommensunterschied ist beachtlich, da die meisten Plattformen das Geschlecht ihrer Beschäftigten gar nicht kennen, und kann einer Studie von Abi Adams und Janine Berg zufolge auf individuelle Charakteristika wie Arbeitserfahrung und Ausbildung der Crowdworker sowie unbezahlte Arbeit im Haushalt zurückgeführt werden, die wiederum primär von weiblichen Crowdworkern geleistet wird. Dazu kommt allerdings, dass in der datengetriebenen Digitalwirtschaft neue Formen der Diskriminierung am Werk sind.
Datenbasierte Diskriminierung
Von der Transportdienstleistungsplattform „Uber“ ist nicht nur bekannt, dass im Unternehmen selbst und bei Beförderungen immer wieder sexuelle Übergriffe gegenüber Fahrerinnen und Kundinnen stattfinden. Weniger bekannt ist, dass deren weibliche Fahrerinnen durchschnittlich sieben Prozent weniger als männliche Fahrer verdienen. Eine Studie beschreibt diese Verdienstdifferenzen als „gender-blind“, denn diese seien auf die neutralen Kriterien Einsatzort, die Arbeitserfahrung und Effizienz in der Beförderung zurückzuführen. Erstellt wurde diese Studie von vier Ökonomen und einer Ökonomin; zwei davon sind ProfessorInnen in Stanford, einer in Chicago, der nebenher im „Ubernomics Team“ von Uber arbeitet, und zwei sind ausschließlich bei Uber angestellt.
Es ist selbstredend im Interesse von Uber, den Gender Pay Gap mit Zufällen, Leistung und Präferenzen zu rationalisieren. Dieser sei rational, weil er auf das unterschiedliche Verhalten von Frauen und Männern als KundInnen und FahrerInnen zurückgeführt werden könne. Denjenigen mehr zu bezahlen, die schneller fahren, ist allerdings nicht unbedingt rational.
Schnell zu fahren bedeutet in der Regel auch, risikoreicher zu fahren, was wiederum Unfälle wahrscheinlicher macht. Die Performance von Uber-Drivern an Geschwindigkeit und nicht an Sicherheit zu messen ist mittelbar diskriminierend; weil schnelles und risikoreiches Fahren kein neutrales Kriterium ist, sondern eines, das geeignet ist, Frauen gegenüber Männern zu benachteiligen.
Es lässt sich auch nicht sachlich rechtfertigen, denn Sicherheit und Antidiskriminierung sind von öffentlichem und kommerziellem Interesse vorrangig. Es mag nicht der Intention von Uber entsprechen, Frauen weniger zu bezahlen, weil sie Frauen sind; die Unternehmenskultur sorgt allerdings nicht bloß dafür, dass Frauen Uber schneller und häufiger als Männer wieder verlassen und weniger Arbeitserfahrung sammeln können, sondern die von Uber etablierten Kriterien haben selbst diskriminierende Effekte auf Frauen.
Die rechtliche Relevanz von datenbasierter Diskriminierung ist bisher noch wenig behandelt worden, wobei der soziale Kontext und die sozialen Folgen von Technologie dabei entscheidend sind. Rating-Systeme, die auf Basis von Bewertungsdaten von KundInnen, die unkritisch übernommen werden, und Algorithmen, die Plattform, KundInnen und LeistungserbringerInnen zusammenführen, bilden gerade aufgrund ihrer Neutralität kulturelle Stereotype und gesellschaftliche Ungleichheiten ab.
Wenn Ratings allerdings mit diskriminierender Intention etwa gegenüber einer weiblichen Fahrerin abgegeben werden, die langsamer und sicherer fährt (oder zumindest auf die bewertende Person diesen Eindruck macht), zeichnen Plattformen für die unkritische Übernahme eines solchen Ratings verantwortlich, wenn sie daran nachteilige Folgen für ihre Beschäftigten knüpfen. Ein solches Rating-System ist, da es auf Daten beruht, die undifferenziert übernommen werden und mit Diskriminierung behaftet sind, gleichbehandlungsrechtlich problematisch.
Digitale Gleichstellungspolitik
Damit analoge Geschlechterverhältnisse nicht nur digitalisiert, sondern transformiert werden, braucht es Qualifizierungs- und Weiterbildungsmaßnahmen, eine generelle Reduktion von Arbeitszeit und eine Umverteilung von Arbeit sowie Rahmenbedingungen, die vor Diskriminierung schützen und feministische Innovationen fördern. Zu solchen Innovationen gehören gesellschaftlich verantwortliche Algorithmen. Algorithmusbasierte Modelle, die kulturelle Stereotype und soziale Ungleichheiten bloß abbilden, laufen indes Gefahr, diese auch zu reproduzieren. Stattdessen könnten algorithmische Prozesse, einem methodischen Ansatz von Kilian Vieth und Ben Wagner folgend, an ihrer Wirkung auf Teilhabe- und Gestaltungschancen systematisch getestet und daran anschließend gesellschaftlich verantwortlich eingesetzt werden.
Strukturelle Diskriminierung findet selten Ausdruck in Systemen der Bewertung. Sie lässt sich meistens nur über Arbeitsmarktstatistiken oder Studien nachweisen. Daten, die „Rohstoffe des 21. Jahrhunderts“, ermöglichen nicht nur neue Geschäftsmodelle, sondern erleichtern es auch, Diskriminierungen leichter zu identifizieren; sie aufzugreifen und Verantwortlichkeiten zu bestimmen, ist allerdings für Betroffene oder Interessenvertretungen eine kaum leistbare Herausforderung, da diese Daten in der Regel als Geschäftsgeheimnisse gelten.
Hier wäre zumindest eine Erweiterung des Anwendungsbereichs des Gleichbehandlungsrechts und mehr innerbetriebliche Transparenz notwendig. Diese steht in einem Spannungsverhältnis zum Datenschutz. Das Recht auf Datenschutz von diskriminierenden Unternehmen darf dabei allerdings nicht höher bewertet werden als die Persönlichkeitsrechte von Opfern von Diskriminierung.