Versteckt in der Lieferkette
Eine Untersuchung von Rest of World hat ergeben, dass Gig-Worker in ganz Afrika, die über die Datenbeschriftungsplattform Appen eingestellt wurden, um Routineaufgaben durchzuführen – Objekte in Bildern identifizieren, Audio transkribieren, Text kategorisieren – unwissentlich zu AI-Systemen beitrugen, die vom Militär der Vereinigten Staaten verwendet werden. Die Worker, von denen viele nur wenige Dollar pro Stunde verdient, hatten keine Ahnung, dass ihre Arbeit in Verteidigungs- und Geheimdienstanwendungen floss.
Die Enthüllung zeigt einen beunruhigenden Aspekt der AI-Lieferkette: die riesige Belegschaft von menschlichen Beschriftern, deren Arbeit für das Trainieren von Machine-Learning-Systemen unverzichtbar ist, wird oft absichtlich im Dunkeln darüber gelassen, wie ihre Arbeit letztendlich verwendet wird. Die Diskrepanz zwischen den Personen, die die Daten markieren, und den Organisationen, die die resultierenden AI-Systeme einsetzen, wirft ernsthafte ethische Fragen über informierte Zustimmung, Arbeitspraktiken und die verborgene menschliche Infrastruktur der Militärtechnologie auf.
Wie die Datenbeschriftung für das Militär funktioniert
Moderne AI-Systeme, insbesondere solche, die für Bilderkennung, Natural Language Processing und Entscheidungsunterstützung verwendet werden, erfordern enorme Mengen gekennzeichneter Trainingsdaten. Jemand muss Tausende Satellitenbilder anschauen und Kästchen um Fahrzeuge zeichnen. Jemand muss Stunden Audio anhören und transkribieren, was er hört. Jemand muss Text lesen und ihn nach Thema, Sentiment oder Absicht kategorisieren.
Diese Arbeit wird typischerweise über eine Kette von Vermittlern ausgelagert. Ein Rüstungsunternehmen könnte ein Technologieunternehmen beauftragen, ein AI-System zu entwickeln. Dieses Unternehmen könnte die Datenbeschriftung an eine Plattform wie Appen auslagern, die die Arbeit wiederum an Freiberufler auf der ganzen Welt verteilt, von denen viele in Ländern leben, in denen die Arbeitskosten einen Bruchteil dessen ausmachen, was sie in den Vereinigten Staaten oder Europa sind.
Bei jedem Schritt in dieser Kette wird die letztliche Verwendung der Daten undurchsichtiger. Die Gig-Worker am unteren Ende der Pyramide sehen einzelne Aufgaben – markiere dieses Bild, transkribiere diesen Audio-Clip – ohne Kontext darüber, welches größere System sie aufbauen helfen. Die Nutzungsbedingungen und Geheimhaltungsvereinbarungen von Appen untersagen Workern häufig, die Identität des Endkunden zu kennen, geschweige denn die Anwendung, die ihre Arbeit unterstützt.
Was die Worker beschrifteten
Die Untersuchung ergab, dass afrikanische Gig-Worker eine Vielzahl von Kommentierungsaufgaben durchführten, die mit bekannten Military-AI-Anwendungen übereinstimmen. Dazu gehörte das Identifizieren und Klassifizieren von Objekten in Luft- und Satellitenbildern – eine Fähigkeit, die für militärische Überwachungs- und Zielsysteme von zentraler Bedeutung ist. Worker waren auch an der Transkription und Kategorisierung von Kommunikationsdaten sowie an der Beschriftung von geografischen Merkmalen in Kartierungsbildern beteiligt.
Keiner der von Rest of World befragten Worker wurde darüber informiert, dass seine Arbeit mit militärischen oder Geheimdienstanwendungen verbunden war. Mehrere äußerten Schock und Unbehagen, als sie die letztliche Verwendung ihrer Arbeit erfuhren, und einige sagten, dass sie die Arbeit nicht angenommen hätten, wenn sie es gewusst hätten.
Die ethischen Implikationen sind besonders spitz angesichts des geopolitischen Kontextes. Einige der Worker sind in Ländern ansässig, die U.S. Militäroperationen erlebt haben oder die komplizierte Beziehungen zur amerikanischen Außenpolitik haben. Die Vorstellung, dass ihre Arbeit zu Militärfähigkeiten beitragen könnte, die auf Regionen ähnlich ihrer eigenen Gemeinschaften ausgerichtet sind, war für mehrere der befragten Worker zutiefst beunruhigend.
- Gig-Worker in Afrika wurden durch Appen eingestellt, um Daten zu beschriften, die in U.S. Military AI-Systeme flossen
- Worker wurden mit einem Bruchteil der westlichen Löhne bezahlt und hatten keine Kenntnis vom Militäreinsatz
- Die mehrstufige Unterauftragskette verdeckt bewusst die Endnutzung vor Datenbeschriftern
- Worker äußerten Schock und Unbehagen, als sie erfuhren, wie ihre Arbeit verwendet wurde
Appens Rolle in der AI-Lieferkette
Appen, ein australisches Unternehmen, das einst eine der größten Datenbeschriftungsplattformen der Welt war, hat lange Zeit als kritischer Vermittler in der AI-Lieferkette gedient. Das Unternehmen unterhielt eine globale Belegschaft von über einer Million Auftragnehmern auf ihrem Höhepunkt und lieferte beschriftete Daten an Technologieunternehmen, Regierungsbehörden und Verteidigungsunternehmen.
Das Unternehmen hat in den letzten Jahren finanzielle Schwierigkeiten gehabt, da die Datenbeschriftungsindustrie wettbewerbsfähiger geworden ist und einige AI-Unternehmen die Kommentierungsarbeit intern verlagert haben. Aber seine historischen Verträge mit Verteidigungs- und Geheimdienstkunden bedeuten, dass erhebliche Mengen an Daten, die von seiner globalen Belegschaft beschriftet wurden, bereits in Military-AI-Systemen eingebaut wurden.
Appens Befürworter argumentieren, dass das Unternehmen innerhalb des Gesetzes tätig ist und dass seine Verträge mit Kunden angemessene Bestimmungen für Datensicherheit und Vertraulichkeit enthalten. Kritiker hingegen argumentieren, dass Vertraulichkeitsbestimmungen, die Worker daran hindern, zu wissen, woran sie arbeiten, von Natur aus ausbeuterisch sind, besonders wenn die Arbeit Militäranwendungen betrifft, die die Worker moralisch ablehnen könnten.
Die Ethik der unsichtbaren Arbeit
Die Untersuchung hebt eine breitere ethische Herausforderung in der AI-Industrie hervor. Der Technologiesektor war bemerkenswert wirksam darin, die menschliche Arbeit hinter AI-Systemen unsichtbar zu machen. Wenn ein Military-AI-System ein Ziel in einem Satellitenbild korrekt identifiziert, geht die Anerkennung an den Algorithmus und die Ingenieure, die ihn entworfen haben. Die Tausende von menschlichen Beschriftern, deren Arbeit das System ermöglichte, werden selten anerkannt, geschweige denn konsultiert, wie das System verwendet wird.
Arbeitsrechtsaktivisten haben für größere Transparenz in der AI-Lieferkette aufgerufen, einschließlich Anforderungen, dass Datenbeschriftungs-Worker darüber informiert werden, in welche allgemeine Anwendungskategorie ihre Arbeit fließt. Einige haben Zertifizierungssysteme vorgeschlagen, ähnlich wie Fair-Trade-Labels, die überprüfen würden, dass AI-Trainingsdaten unter ethischen Arbeitsbedingungen mit informierter Arbeitnehmerzustimmung erzeugt wurden.
Auswirkungen auf AI-Governance
Die Enthüllung hat auch Auswirkungen auf die wachsende internationale Debatte über AI-Governance. Während Regierungen Rahmen für die Regulierung von AI-Systemen entwickeln, hat die Frage, wie Trainingsdaten beschafft und beschriftet werden, relativ wenig Aufmerksamkeit erhalten im Vergleich zu Themen wie algorithmischer Verzerrung und Sicherheitsprüfung.
Die Nutzung von ahnungslosen ausländischen Arbeitskräften zum Trainieren von Military-AI-Systemen könnte zum Brennpunkt in internationalen Verhandlungen über AI-Governance werden, besonders wenn Entwicklungsländer eine stärkere Anerkennung ihrer Rolle in – und einen größeren Nutzen von – der globalen AI-Wirtschaft fordern. Wenn die Worker, die AI möglich machen, nicht einmal wissen, was sie aufbauen, ruht die Grundlage der AI-Industrie auf einer beunruhigenden moralischen Asymmetrie.
Für die Gig-Worker in Afrika, die die wahre Natur ihrer Arbeit entdeckten, kristallisierte sich die Erfahrung in einem wachsenden Bewusstsein, dass die globale AI-Wirtschaft von ihrer Arbeit abhängt, aber sich nicht verpflichtet fühlt, sie in Entscheidungen darüber einzubeziehen, wie diese Arbeit verwendet wird.
Dieser Artikel basiert auf Berichterstattung von Rest of World. Lesen Sie den ursprünglichen Artikel.



