24 Nov Aufrüstung & Überwachung: Die Gefahren künstlicher Intelligenz
Liest man über künstliche Intelligenz, geht es häufig um computergenerierte Kunstwerke und angeblich zu Bewusstsein gekommene Sprach-Bots. Dass die Technologie jedoch auch Risiken birgt und dementsprechend reguliert werden sollte, erläutern Marte und Lea.
Zurzeit wird der AI Act, eine neue Verordnung zur Regulierung künstlicher Intelligenz (KI) auf europäischer Ebene, diskutiert. Ein guter Ansatz um Bürger*innen zu schützen, bei dem es dann aber leider bleibt. Denn statt etwa den Einsatz von Gesichtserkennungssoftware durch die Polizei konsequent zu verbieten, sollen die positiven Aspekte der Technologie gestärkt werden. Der AI Act fördert den Wirtschaftsstandort EU; die Sicherung eines Wettbewerbsvorteils findet sich im ersten Absatz der Verordnung. Wird sie so beschlossen, bildet sie eine obere Schranke für nationale Gesetzgebungen. Unternehmen dürfen also von einzelnen Ländern nicht stärker reguliert werden, als durch den AI Act vorgegeben. Zudem klammert er explizit den militärischen Bereich aus.
Von der Zahnbürste bis zur Drohne wirbt schon heute eine Vielzahl von Produkten mit »AI enhanced technology«, also dem Einsatz von KI. Unternehmen würde bei deren Vermarktung durch den AI Act unter die Arme gegriffen. Aber auch an den Universitäten macht sich der KI-Hype bemerkbar: In ganz Deutschland entstehen neue Studiengänge wie »Künstliche Intelligenz« oder »Data Science«, Forschungsinstitute wie das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) vergrößern sich, und die Informatikfakultäten der Hochschulen bemühen sich um das größte Angebot in diesem Bereich.
Das Militär: Seit jeher mit dabei
Tatsächlich handelt es sich bei dem, was wir heute KI nennen, um reine Mustererkennung in großen Datenmengen. Mithilfe von statistischen Berechnungen ermittelt ein KI-System, wann auf einem Bild beispielsweise eine Hauskatze dargestellt ist und wann ein Tiger. Oder auch, wo sich auf Satellitenbildern Menschen in Kriegsgebieten erkennen lassen.
Kaum verwunderlich, dass die militärische Forschungseinrichtung der USA (DARPA) die Entwicklung von KI seit jeher mitfinanziert hat. Heute sind diejenigen vorne mit dabei, die es sich leisten können, also etwa Tech-Konzerne wie Alphabet, Meta, Amazon oder Tesla. Diese Unternehmen nutzen KI dafür, ihren gesellschaftlichen Einfluss beizubehalten und möglichst viel Profit zu generieren. Verstrickungen zwischen Konzernen und dem Militär sind hier keine Seltenheit. Mitarbeiter*innen der Alphabet-Tochter Google protestierten schon 2018 gegen das gemeinsame Projekt »Maven« mit dem Pentagon, welches die KI-Entwicklungen der Firma für die Überwachung auf dem Schlachtfeld nutzen sollte. Alphabet stieg daraufhin aus dem Projekt aus, dafür sprangen Amazon und Microsoft ein.
Nehmen Roboter uns die Arbeit weg?
In der Arbeitswelt nehmen Diskurse über KI zunehmend Raum ein. Die Möglichkeiten der Technologie werden stellenweise bewusst überhöht dargestellt, um Arbeiter*innen einzuschüchtern. Ihnen wird suggeriert, massenweise Jobs würden in Zukunft durch KI – materialisiert in Form von Robotern – übernommen. Solche Drohungen bringen die Arbeitgeber*innenseite immer in eine vorteilhafte Verhandlungsposition, weil sie Arbeiter*innen aus Angst vor dem Jobverlust davon abhalten, für ihre Rechte einzustehen.
Tatsache ist jedoch, dass die meisten Jobs noch lange nicht automatisiert werden können oder es schlichtweg günstiger für die Arbeitgeber*innen ist, weiterhin Menschen zu beschäftigen, anstatt Technologien zu entwickeln, die sie ersetzen. KI wird eher dazu genutzt, Arbeiter*innen zu überwachen und möglichst effizient auszubeuten, wie beim US-amerikanische Unternehmen Uber. Durch eine Mischung aus algorithmischen und psychologischen Tricks werden die Fahrer*innen dazu gedrängt, möglichst lange Schichten zu arbeiten. Ein weiteres Beispiel sind Amazon-Lager, die zu einem verhältnismäßig hohen Grad automatisiert sind (jedoch bei weitem nicht ohne menschliche Arbeit auskommen!) und in denen die Arbeiter*innen gleichzeitig unter permanenter Beobachtung stehen und bei zu niedrigen Leistungen sanktioniert werden.
Technologie zum effizienten Töten
Neben algorithmischer Arbeitssteuerung ist ein weiterer Einsatzbereich von KI der militärische. Weltweit wird daran geforscht, wie der Einsatz von KI Streitkräften einen Vorteil in bewaffneten Auseinandersetzungen bringen kann. Auch die deutsche Bundeswehr kann sich hier dank kräftiger Finanzspritzen beteiligen. Die Bedeutung von KI-gestützen Drohnen nimmt in Aufrüstungsprojekten wie dem Future Combat Air System (FCAS), an dem neben Deutschland auch Frankreich und Spanien beteiligt sind, weiter zu. Für das Waffensystem sind Kosten in dreistelliger Milliardenhöhe veranschlagt.
Das Framing von zielgenauen Waffen, die durch KI weniger Kollateralschäden anrichten würden, darf uns nicht täuschen. Bei der Nutzung der Technologie im Krieg geht es immer um den Ausbau von militärischem Potenzial und das möglichst effiziente Töten von Menschen.
Argumente gegen den KI-Einsatz in bewaffneten Konflikten lassen sich demnach viele anführen. Günstige Waffensysteme auf Basis kleiner, handelsüblicher Drohnen können massenhaft produziert und, mit KI ausgestattet, zu Massenvernichtungswaffen umfunktioniert werden. Auch ethische Implikationen im Hinblick darauf, was es bedeutet, eine KI über ein Menschenleben entscheiden zu lassen, stellen eine Schwierigkeit dar. Das Entstehen einer Rüstungsspirale durch den Einsatz der Technologie im militärischen Bereich kann zudem nicht ausgeschlossen werden.
Rasante Verbesserung von KI-Waffensystemen
Ein weiteres Problemfeld bildet die militärische Vereinnahmung ziviler Forschung. Durch Fortschritte im Bereich künstlicher neuronaler Netzwerke können KI-Waffensysteme rasant verbessert werden. Zudem sind an der Entwicklung des FCAS oder anderen Bundeswehrprojekten auch Unternehmen beteiligt, die gleichzeitig zivile, staatliche Aufträge im Bereich KI ausführen. Akteur*innen der Friedensbewegung, wie das Forum InformatikerInnen für Frieden (FIfF), fordern, Diskussionen um die Zivilklausel, explizit im Hinblick auf KI, wieder aufleben zu lassen. Damit soll verhindert werden, dass sich das Militär staatliche und universitäre Forschung zu eigen machen kann.
Statt Verordnungen, die die EU als Wirtschaftsmacht stärken, brauchen wir Regulierungen, die Überwachung am Arbeitsplatz verhindern und dem Militär den Zugriff auf zivile Forschung verwehren. Als gesellschaftliche Linke müssen wir die Entwicklungen einer so einflussreichen Technologie, vor allem aufgrund ihrer Gefahren im militärischen Bereich und ihrem Einsatz zu Lasten der Arbeiter*innenklasse, kritisch und intensiv begleiten. Auch dürfen wir die Potenziale von KI nicht überhöht darstellen. Dies nützt zum einen der Kapitalseite und verhindert zum anderen die wirklich relevanten Diskurse zu KI – etwa um Aufrüstung und die Zukunft unserer Arbeit.
Marte Henningsen studiert Cognitive Science in Osnabrück und Lea Klingberg Medienwissenschaft in Bonn. Sie wären eigentlich ganz froh, wenn ein Roboter ihre Hausarbeiten schreiben würde.
Dieser Beitrag erschien zuerst in der critica Nr. 29. Du erhältst sie beim SDS in deiner Stadt oder kannst sie hier online lesen.