Maschinelles Lernen, Deep Learning, neuronale Netze – viele Unternehmen in Österreich wollen bei den neuesten Anwendungen ganz vorne dabei sein. In manchen Bereichen gibt es bereits leistungsfähige Tools, allen voran Sprach- bzw. Texterkennung und maschinelles Sehen. Intelligent sind diese Technologien vielleicht noch nicht, der deutsche Schriftsteller Volker Strübing nennt sie „künstliche Fachidioten“. Die Bestrebungen sind groß, künstliche Intelligenz weiterzuentwickeln und anzuwenden. Begründet wird das mit der notwendigen Attraktivität des Wirtschaftsstandorts: „Die Technologie kommt ohnehin, wir müssen mitmachen“, so der Tenor.
Datenmengen und die Sinnfrage
Der Einsatz neuester Tools für Unternehmen macht aber oftmals gar keinen Sinn. Für vergleichsweise wenig Nutzen braucht es riesige Datenmengen. Eine österreichische Sprachassistenz muss beispielsweise mindestens neun Dialekte und diverse nichtdeutsche Akzente beherrschen. Prognosewerkzeuge sind oft unnötig komplex und damit „laut“. Für Geschäftsprognosen liefern einfache Regressionsverfahren in den meisten Fällen sogar bessere Ergebnisse. Wie Experte Lukas Daniel Klausner von der FH St. Pölten betont, bringen hochkomplexe KIs, die möglicherweise nicht unbedingt gebraucht würden, allerhand Probleme mit sich. Die Mathematikerin Paola Lopez beschreibt das so: Wer sich zur Abwehr einen Tiger ins Haus holt, muss sich zwar nie mehr vor einem Einbruch fürchten, bekommt dann aber auch keine Post oder Besuch mehr.
Daten: eine Frage der Macht
Viele KI-Lösungen erfordern etwa die Auswertung personenbezogener Daten. So brauchen Assistenzsysteme in der Produktion Informationen über den Aufenthalt von ArbeitnehmerInnen. Für die Einblendung personalisierter Arbeitsanweisungen ist es auch notwendig, Personen identifizieren zu können. Im Konsumbereich arbeiten technologietreibende Unternehmen mit Hochdruck an einer freiwilligen Nutzung ihrer digitalen Tools. Im Arbeitskontext kann von Freiwilligkeit aber keine Rede sein. Daher muss die Verhältnismäßigkeit solcher Datenpraktiken zwischen ArbeiterInnen und Unternehmen ausverhandelt werden.
Weil Expertise und Rechenzentren fehlen, greifen die meisten Unternehmen auf vortrainierte Algorithmen zurück, die auf die eigene Anwendung mit wenigen Daten angepasst werden können. Fertige Algorithmen, die bereits mit historischen Daten trainiert wurden, könnten aber Diskriminierung „gelernt“ haben. Es wird auch ausgeblendet, dass in solchen KI-Anwendungen oft enorm viele Arbeitsstunden stecken, die von schlecht bezahlten Clickworker*innen geleistet wurden. Amazon bietet diverse KI- und Machine Learning Tools an, darunter zum Beispiel eine KI, die automatisch fehlerhafte Teile erkennt und den Produktionsprozess stoppt. Big Data ist die notwendige Basis solcher Anwendungen.
Um den Datenschutzbedingungen zu entsprechen, betreiben die digitalen Leitunternehmen auch Server in Europa. So verbleiben die Daten zwar in Europa, sie liegen aber immer noch bei Google oder Amazon. Die Amazon Web Services (AWS) Cloud hält mit einem Marktanteil von 30 Prozent die Daten führender Digitalunternehmen wie SAP, Airbnb, Netflix und Tausender anderer und ist für diese überlebenswichtige Infrastruktur geworden. Gleichzeitig sind die Tech-Giganten übrigens auch bemüht, sich möglichst große Teile des Internets, also der Leitungsnetze, zu kaufen, denn erst das ermöglicht eine effektive Nutzung der Cloud durch beschleunigte Datentransfers. Im Prinzip ist das so, als würden ein paar Unternehmen eigene Straßen bauen bzw. kaufen, um auf diesen dann Maut zu kassieren.
Rechenleistung belastet die Umwelt
So wie der Straßenverkehr hat auch der Datenverkehr katastrophale Auswirkungen auf die Umwelt. Für die Bewältigung der Klimakrise bleiben nur noch zehn Jahre Zeit. Der Betrieb des Internets verursacht in Deutschland etwa 33 Millionen Tonnen CO2-Emissionen im Jahr, so viel wie der innerdeutsche Flugverkehr. Vorsichtige Berechnungen prognostizieren alle 20 Monate eine Verdopplung der globalen Datenmenge. Jede Bewegung im Internet wandert durch Datenzentren und ihre Server, auch dieser „Datendurchsatz“ wächst stetig.
Gerade KI-Prozesse wie Spracherkennung oder Navigation brauchen besonders viel Netzwerktechnik und Rechenleistung. Große Datenzentren haben zwar eine höhere Energieeffizienz als Vor-Ort-Lösungen. Allerdings werden die Einsparungen direkt durch den steigenden Gebrauch getilgt: Das „Internet of Things“, also die Vernetzung von Gegenständen bzw. Maschinen, erfordert eine permanente Kommunikation mit der Cloud. Darüber hinaus benötigen die vernetzten Sensoren und Steuerelemente nicht nur Energie und Strom, sondern auch mineralische Rohstoffe. Die Kombination verschiedener Materialien in geringen Mengen erschwert das Recycling und ein nachhaltiges Lieferkettenmanagement.
Solche Rebound-Effekte treten bei der Digitalisierung immer auf. Während der Energieverbrauch im Verhältnis zur Rechenkapazität sinkt, steigt der Energie- und Materialfluss ständig. Das liegt daran, dass gleichzeitig die Technologie erweitert und verbreitet wird. Empirisch führen technische Fortschritte nicht zur Verschlankung von Betriebssystemen, Software oder Hardware-Komponenten. Dieser Effekt folgt einer kapitalistischen Grundlogik: Künstliche-Intelligenz-Anwendungen dienen der Steigerung der Arbeitsproduktivität. Je effizienter unsere Produktion wird, desto mehr müssen wir aber konsumieren, um noch genug Arbeit für alle zu haben.
Neue Technologien: eine Verteilungsfrage
Der Vergleich von Technologien mit Straßennetzen hat auch in diesem Hinblick einen gewissen Charme: Infrastruktur, die gesellschaftliches Zusammenleben und Produktion ermöglicht, muss unter demokratische Kontrolle gebracht werden. Die Produktivitätsgewinne aus der Digitalisierung müssen gerecht verteilt und die Zerstörung der Umwelt muss endlich als soziale Frage diskutiert werden.
Ansätze wie „ethische Algorithmen“, die sich die HerstellerInnen selbst auferlegen, reichen nicht aus. Wir müssen Eckpfeiler entwickeln, anhand derer wir sozial wie ökologisch gerechte Anwendungen identifizieren. Sinnvolle Anwendungen, zum Beispiel solche zur Steigerung der Ressourcenproduktivität, müssen rechtlich reguliert werden. Sollte sich eine Künstliche Intelligenz aber als Tiger entpuppen und mehr Schaden als Nutzen anrichten, müssen wir diese auch aufgeben können.