Künstliche Intelligenz hält Einzug in die Arbeitswelt. Die neuen Technologien haben das Potenzial, unsere Gesellschaft auf viele Arten zu verbessern. Gleichzeitig bringen sie soziale, rechtliche, ethische und sicherheitstechnische Risiken, die wir aktiv angehen müssen. Die gute Nachricht: Das ist möglich! Aber Gas geben sollten wir dabei!
Was ist überhaupt künstliche Intelligenz?
Es gibt jede Menge unterschiedlicher Definitionen von künstlicher Intelligenz – kurz KI. Die meisten Ansätze unterscheiden zwischen „starker“ und „schwacher“ künstlicher Intelligenz. Während erstere, mentale Aufgaben dem Menschen ähnlich lösen soll, noch Zukunftsmusik ist, ist jenes Beispiel, das in der Arbeitswelt heute eingesetzt wird, vor allem letzterer Form zuzuordnen: Also Systemen, die nur spezifische Aufgaben lösen können.
Eine Studie der amerikanischen Regierung beschreibt als zentrale Verfahren dabei:
- maschinelles Lernen: Große Datenmengen werden mithilfe statistischer Verfahren nach Mustern durchsucht. Darauf basierend stellt das System Regeln auf. Ein Bericht des BMVIT zeigt als Voraussetzung dafür das „Training“, bei dem das KI-System Beispieldaten bekommt. Aus diesen erstellt es „ein Modell mit Entscheidungsregeln und passt dieses anhand von Rückmeldungen stetig an. Mit jedem neuen Datensatz wird die KI dabei intelligenter. Ziel ist es, dass die KI nach dem Training eigenständig Lösungen für neue und unbekannte Probleme finden kann.“
- Deep Learning: beruht auf Nachahmung des menschlichen Gehirns durch künstliche neuronale Netze, die in übereinanderliegenden Schichten modelliert werden.
- Autonomie: wenn KI dazu verwendet wird, physische Objekte zu steuern oder digitale Aktionen auszulösen. Autonomie bedeutet dabei die Fähigkeit, mit sich ändernden Umständen zu arbeiten, ohne dass der Mensch dies kontrolliert (Anwendungsszenarien sind etwa autonomes Fahren oder das Identifizieren und Beheben von Sicherheitslücken im eigenen System).
- Automation: wenn Maschinen körperliche oder auch kognitive Tätigkeiten übernehmen, die davor ein Mensch erledigt hat.
- Mensch-Maschine-Kollaboration: wenn Mensch und Maschine zusammenarbeiten und KI-Systeme als Assistenz für Menschen eingesetzt werden (z. B. eine Vorauswahl treffen, die Menschen als Entscheidungshilfe benutzen).
Die großen technischen Fortschritte in diesem Bereich haben viel mit gesteigerter Rechenleistung von Computern und der Verfügbarkeit großer Datenmengen zu tun. Aber auch in der Verbesserung der Entwicklung zur Wahrnehmung (etwa Bild- und Spracherkennung), Wissensverarbeitung und Planung. Hier sind etwa Anwendungen wie autonomes Fahren, Übersetzungsprogramme einzuordnen oder die aktuellen großen Verbesserungen bei Anwendungen wie Werbetargeting, medizinischen Analysen bis hin zu wissenschaftlichen Recherchen.
Dass sich in den nächsten Jahren weiterhin viel tun wird, ist anzunehmen, schon allein wenn man bedenkt, dass das Marktvolumen für KI laut EESC heute bei rund 664 Millionen USD liegt und bis 2025 auf ca. 38,8 Milliarden USD wachsen soll. Die gesellschaftlichen und ethischen Fragen, die sich daraus ergeben, sind vielfältig.
Was künstliche Intelligenz der Gesellschaft bringen kann
Die Hoffnungen, die auf KI-Anwendungen ruhen, sind groß. KI-Anwendungen werden treffsichere medizinische Diagnosen erleichtern und im Transportbereich sollen Emissionen vermindert werden, weil smartes Verkehrsmanagement die Wartezeiten reduziert. Im Umweltbereich können Tierwanderbewegungen besser getrackt und analysiert werden und in vielen Bereichen kann die Sicherheit erhöht werden, weil ein Computer weniger fehleranfällig als der Mensch ist. Auch in der Arbeitswelt gibt es Potenziale, etwa das gefährliche und gesundheitsschädliche Arbeiten minimiert werden können. Vor allem ruhen aber auf KI-Anwendungen auch Erwartungen was die Effizienzsteigerung, Fehlerminimierung und Entwicklung ganz neuer Produkte und Geschäftszweige betrifft.
KI im Büro – was kommt da auf uns zu?
Auch wenn vieles wie Zukunftsmusik klingt – unterschiedliche Formen von KI-Anwendungen sind bereit, in den Arbeitsalltag enzuziehen bzw. haben es schon getan. Zu beobachten sind etwa die Entwicklungen von folgenden Anwendungen:
Grundlage für Management-Entscheidungen
Start-ups, die Lösungen anpreisen, um Bewerbungsverfahren zu verkürzen, indem AI-Systeme voraussagen, ob BewerberInnen erfolgreich sein werden oder nicht – z. B. anhand der Anzahl der Wörter des Bewerbungsschreibens, oder Firmen, die anhand der Analyse von Videointerviews der BewerberInnen, deren Körpersprache und verbalen Sprache die Kündigungswahrscheinlichkeiten bestimmen oder behaupten, diese bestimmen zu können. Andere Systeme sollen das Matching von freien Positionen und passenden MitarbeiterInnen erleichtern und damit z. B. die interne Mobilität erhöhen.
Solche algorithmusbasierten Anwendungen im Personalbereich könnten, so die Hoffnung, Diskriminierung entgegenwirken, da Computer keine menschlichen Vorurteile in Bezug auf Geschlecht, Herkunft oder Alter hätten. KritikerInnen sehen die Gefahr, dass genau das Gegenteil passiert. Das kann passieren, wenn die „Trainingsdaten“ schon eine Schieflage beinhalten, wie etwa Andreas Dewes beschreibt: „Um einen Algorithmus zu konzipieren, muss er am Anfang mit Trainingsdaten sozusagen gefüttert werden. Es wird ihm also gezeigt, wonach man sucht und wer der perfekte Kandidat wäre. Der Algorithmus versucht nun, so viele Daten wie möglich über den Bewerber herauszufinden. Er versucht die gleichen Entscheidungen zu treffen, die der Mensch getroffen hätte.“ Im Endeffekt kann ein Algorithmus sexistischer oder rassistischer agieren als ein Mensch.
Mit einem ähnlichen Leistungsangebot wirbt auch Xander, eine AI-Funktion, die die Emotionen von Menschen erkennt. Im Werbevideo dazu heißt es: „Xander existiert, um das Mysteriöse aus menschlichen Entscheidungen zu entfernen. Jedes Mal, wenn Sie herausfinden wollen, wen Sie einstellen, wen Sie befördern, wie Sie Ihre Mitarbeiter motivieren können.“
Denn wenn z. B. Algorithmen nicht spezifisch gegen diskriminierende Muster entwickelt werden, dann können sie diese sogar verstärken. So beschreibt eine Studie im Auftrag der amerikanischen Regierung etwa das Risiko: „If a machine learning model is used to screen job applicants, and if the data used to train the model reflects past decisions that are biased, the result could be to perpetuate past bias. For example, looking for candidates who resemble past hires may bias a system toward hiring more people like those already on a team, rather than considering the best candidates across the full diversity of potential applicants.“
Wenn die Daten, anhand welcher die Systeme lernen, einen Bias haben, so hat diesen Bias auch die Entscheidung der dann doch nicht so schlauen künstlichen Intelligenz.
Assistenzsysteme, die Effizienzsteigerung ermöglichen
Etwa Anwendungen im Kundenkontaktbereich, wie sie die China Merchants Bank einsetzt, die mithilfe eines Bots bis zu zwei Millionen KundInnenanfragen am Tag bearbeitet, für die früher etwa 7.000 MitarbeiterInnen eingesetzt wurden.
Ein anderes Beispiel ist das von IBM entwickelte Computersystem ROSS, das als Assistenzsystem für Anwälte Gerichtsurteile zu einem bestimmten Thema durchforstet und Fragen seiner NutzerInnen beantwortet, oder die KI-Plattform Amelia, die ServicemitarbeiterInnen in der KundInnenbetreuung durch das Finden schneller Antworten unterstützt oder auch ArbeitnehmerInnen in der Produktion bei der Bedienung von Geräten unterstützen soll.
Künstliche Intelligenz, die kontrolliert und ermahnt
Gruselig muten dagegen Entwicklungen an, bei denen künstliche Intelligenz nicht mehr Grundlage für menschliche Managemententscheidungen ist, sondern selbst ArbeitnehmerInnen kontrolliert und in gewissem Sinne „Managementfunktionen“ erfüllt. Zu nennen ist etwa Cogito, ein System, dass einem Bericht des Economist zufolge die Stimmen von Callcenter-Beschäftigten analysiert und Alarm schlägt, wenn diese beginnen, unfreundlich zu klingen und sie auffordert, einen freundlicheren Tonfall anzuschlagen. In eine ähnliche Richtung gehen laut der Zeitschrift auch Versuche von Amazon und JD.com, die mit Armbändern experimentieren, die Handbewegungen der ArbeitnehmerInnen in Echtzeit verfolgen und leiten.
Spätestens in diesem Zusammenhang stellt sich z. B. die Frage, inwieweit es mit der menschlichen Würde vereinbar ist, wenn Computer Emotionen messen oder Weisungen in Bezug auf den Freundlichkeitsgrad geben.
Zusammenarbeit mit intelligenten Robotern
Besondere Herausforderungen entstehen, wenn KI-Systeme genutzt werden, um physische Objekte zu steuern – wenn wir es also mit quasi intelligenten Robotern zu tun haben. Und sehr problematisch wird es, wenn diese dabei in komplexen, von Menschen bevölkerten Umgebungen interagieren sollen. Das prominenteste Beispiel dafür sind die Entwicklungen hin zu autonomen Autos, aber auch die kollaborierenden Anwendungen von Maschinen im Arbeitsprozess. Hier entstehen komplexe Sicherheitsrisiken, wie etwa eine Studie des amerikanischen National Science and Technology Council Committee on Technology feststellt: „A major challenge in AI safety is building systems that can safely transition from the ‚closed worldʻ of the laboratory into the outside ‚open worldʻ where unpredictable things can happen.“
Anders als bei klassischen Industrierobotern, bei denen aus Sicherheitsgründen tunlichst Sicherheitsabstände zu Menschen eingehalten werden müssen, ist eine solche Isolation bei Service- oder kollaborativen Robotern nicht vorgesehen. Das kann zur Gefahrenquelle für den Menschen werden. Besonders interessant ist in diesem Zusammenhang, dass es bisher noch keine internationalen Standards für diesen Bereich gibt. Ein dringendes To-do auf der Liste hin zu einem verantwortungsvollen Umgang mit KI, wie der Bericht der Word Commission on the Ethics of Scientific Knowledge and Technology (COMEST) feststellt.
Ist das alles in Österreich erlaubt?
Grundsätzlich gilt in Österreich: Wird ein neues technisches System eingeführt, braucht es prinzipiell die Zustimmung des Betriebsrates. Gibt es keinen Betriebsrat, muss die individuelle Einwilligung der Beschäftigten eingeholt werden. Ohne Zustimmung dürfen solche Systeme also nicht zur Anwendung kommen. Die Einbeziehung der ArbeitnehmerInnen in die Implementierung solcher technischen Systeme ist damit gesetzlich verankert. Gerade in Zeiten großer technischer Umwälzungen ist das eine herausragende Chance, um den digitalen Wandel so zu gestalten, dass auch die ArbeitnehmerInnen davon profitieren.
Klar ist aber auch: Angesichts der neuen Möglichkeiten und deren wirtschaftlicher Bedeutung, werden die Ressourcen der Betriebsräte mehr als gefordert sein.Unternehmen müssen dafür sorgen, dass das benötigte IKT-Fachwissen zugekauft werden kann und Betriebsräte die nötigen Möglichkeiten zur Aus- und Weiterbildung bekommen, um in diesen Fragen auf dem aktuellen Stand zu sein.
Künstliche Intelligenz – die großen Fragen sind noch offen; konkreter Regelungsbedarf steht an
Die sozialen, ethischen und rechtlichen Fragen, die künstliche Intelligenz und deren Einsatz in der Arbeitswelt aufwerfen, sind zahlreich. Entsprechend wird dazu bereits auf internationalem Level geforscht und diskutiert. Etwa vom IEEE, der Europäischen Union, nationalen Regierungen, Rechts– und EthikwissenschafterInnen oder interdisziplinären ExpertInnengruppen: Im Folgenden werden einige zentrale Empfehlungen unterschiedlicher internationaler Berichte von ExpertInnengruppen und Studienergebnissen angeführt.
Damit KI positive Effekte für die Gesellschaft und die Arbeitswelt hat, braucht es eine aktive Gestaltung der Rahmenbedingungen. Als ersten Schritt dazu gilt es, die Öffentlichkeit für das Thema zu schaffen, um es diskutierbar zu machen.
Eine wichtige Aufgabe für die Forschungsförderungspolitik ist es, Forschungsaktivitäten zu KI-Anwendungen zu fördern, die soziale, gesundheitliche und ökologische Probleme lösen können oder zur Verbesserung von Arbeitsbedingungen beitragen.
Gerade angesichts der beschriebenen Effizienzpotenziale künstlicher Intelligenz gilt es, die Arbeitsmarkteffekte im Auge zu behalten und Aus- und Weiterbildung der ArbeitnehmerInnen zu ermöglichen und zu unterstützen.
Um Risiken von KI-Anwendungen entgegenzuwirken (wie z. B. Diskriminierung), wird auf die Notwendigkeit größtmöglicher Transparenz beim Einsatz jeglicher KI-Systeme sowie auf deren Entscheidungsgrundlagen verwiesen. Außerdem muss eine Nachvollziehbarkeit gegeben sein, durch die erkennbar wird, dass die Systeme geltenden Gesetzen und sozialen Normen entsprechen.
Als wichtig gilt auch die Integration ethischer Schulungen in technische Ausbildungen sowie die Unterstützung von multidisziplinärer Forschung zur sozialen und ethischen Gestaltung von KI-Systemen.
Aber wie implementiert man ethische und soziale Standards in Technik? Die Antwort dazu gibt etwa der Europäische Wirtschafts- und Sozialausschuss (EWSA). Der EWSA plädiert für eine Lösung, wie sie in anderen Technikbereichen üblich ist: die „Erarbeitung von Normungsverfahren sowie für die Überprüfung, Validierung und Kontrolle von KI-Systemen auf der Grundlage eines breiten Spektrums an Standards aus den Bereichen Sicherheit, Transparenz, Verständlichkeit, Nachvollziehbarkeit und ethische Werte“.
Um einen verantwortungsvollen Einsatz von KI-Systemen sicherzustellen, ist schließlich auch der rechtliche Rahmen relevant. Tatsächlich gibt es bereits Stimmen, die eine „Rechtsperson“ für Roboter fordern. Als Argument dafür wird angeführt, dass Menschen nicht für selbstlernende Systeme haften sollten. Dem ist klar entgegenzutreten, wie es etwa der EWSA tut, der vor einer Aufweichung der Herstellerhaftung warnt: Die präventive Abhilfewirkung des Haftungsrechts würde damit konterkariert, woraus sich sowohl bei der Entwicklung als auch beim Einsatz von KI ein moralisches Risiko sowie Missbrauchsmöglichkeiten ergeben würden.
Abseits von Fragen der Sicherheit und des Diskriminierungsschutzes ergeben sich beim Einsatz von KI-Anwendungen in der Arbeitswelt spezifische Herausforderungen.
So wird es einer Debatte darüber bedürfen, was in der Interaktion von Mensch und Maschine mit der menschlichen Würde vereinbar ist und was nicht. Verletzt es z. B. die menschliche Würde, wenn man von einem Computer gesagt bekommt, wie freundlich man bei der Arbeit sein soll?
Uni Global weist in den Prinzipien für den Einsatz von AI-Technologien in der Arbeitswelt außerdem auf die Wichtigkeit des betrieblichen Datenschutzes und das Recht der ArbeitnehmerInnen an ihren Daten hin. In diesem Zusammenhang wird es sinnvoll sein, angesichts der rasanten Entwicklungen und dem bestehenden Macht- und Ressourcenungleichgewicht im Arbeitsverhältnis Vertretungsbefugnisse und Verbandsklagerechte der überbetrieblichen Interessensvertretungen in Fragen des Beschäftigtendatenschutzes festzuschreiben.
Der wesentliche Grundsatz, den die Empfehlungen der in diesem Beitrag zitierten Papiere gemeinsam haben, ist, dass KI-Entwicklungen und deren Anwendung einen aktiv gestalteten Rahmen brauchen, um positive Effekte zu maximieren und Risiken zu minimieren.