Die stärkste Kritik an „KI wird das lösen“ ist nicht technikfeindlich
Künstliche Intelligenz wird zunehmend als Lösung für Probleme in Bildung, Landwirtschaft, Beschäftigung und öffentlicher Dienstleistung vermarktet. Dieses Framing ist verführerisch, weil es komplizierte soziale Missstände in eine handhabbare ingenieurtechnische Aufgabe verwandelt. Wenn Institutionen langsam, unterfinanziert oder fragmentiert sind, wirkt das Versprechen eines reaktionsfähigen Modells beinahe unwiderstehlich.
Doch ein in Rest of World veröffentlichter Essay argumentiert, dass dieses Framing die zentrale Realität sozialer Systeme verfehlt: Technische Leistungsfähigkeit allein reicht nicht aus. Selbst anspruchsvolle KI-Tools brauchen menschliche Unterstützung, institutionelle Kapazitäten und lokale Rechenschaft, wenn sie mehr sein sollen als nur beeindruckende Demos.
Der Artikel, verfasst von den Cornell-Forschern Deepak Varuvel Dennison und Aditya Vashistha, bestreitet das echte Potenzial von KI nicht. Er erkennt ausdrücklich wachsende Hinweise auf Produktivitätsgewinne und die Attraktivität von KI im privaten wie im öffentlichen Sektor an. Sein Argument ist enger, aber wichtiger: KI in unterversorgten Gemeinschaften einzusetzen, ist nicht dasselbe wie ihre Probleme zu lösen.
Der Widerspruch im Zentrum von AI for good
Der Essay hebt eine strukturelle Spannung hervor. KI wird oft als Werkzeug präsentiert, um Ungleichheit, Ausgrenzung und Versorgungslücken zu adressieren. Doch die Systeme selbst sind von extraktiven Lieferketten, konzentrierter Macht und bestehenden Ungleichheiten geprägt. Unter Bezug auf Themen aus Büchern wie AI Snake Oil und Atlas of AI verorten die Autoren KI nicht als neutrale Softwareschicht, sondern als soziotechnisches System, das auf natürlichen Ressourcen, menschlicher Arbeit und verfestigten Institutionen beruht.
Das ist wichtig, weil die Gemeinschaften, auf die Projekte für „KI für das Gemeinwohl“ am häufigsten zielen, auch diejenigen sind, die die Kosten schlecht gestalteter Eingriffe am ehesten tragen müssen. Ein Modell, das aus der Distanz effizient erscheint, kann vor Ort dennoch scheitern, wenn es Sprache, Vertrauen, Zugang, Governance oder die menschlichen Vermittler ignoriert, die nötig sind, um seine Ergebnisse in Handlungen umzusetzen.
Die zentrale Frage ist also nicht, ob KI helfen kann. Entscheidend ist, welche Bedingungen existieren müssen, damit sie auf dauerhafte und verantwortliche Weise helfen kann.







.jpg&w=3840&q=75)