KI betritt die Zeugenbank
Ein Richter an einem Londoner Gericht hat die Aussage eines Zeugen verworfen, nachdem entdeckt wurde, dass dieser während seiner Aussage Echtzeit-Coaching über eine Brille mit Smartglasses-Funktion erhielt, die mit einem ChatGPT-ähnlichen KI-System verbunden war. Der Vorfall – den der Zeuge auf Arrangements seines Anwaltsteams ohne sein Wissen zurückführte – wirft ernsthafte Fragen über KI-gestützte Täuschung in Gerichtsverfahren und die Angemessenheit bestehender Gerichtsrichtlinien zu ihrer Erkennung auf.
Was im Gerichtsaal geschah
Der Zeuge erschien vor Gericht mit einer Brille, die wie eine gewöhnliche Sehhilfe aussah. Während seiner Aussage bemerkte die gegnerische Partei Verhaltensweisen, die darauf hindeuteten, dass er visuelle Informationen las oder darauf reagierte, anstatt Fragen aus dem Gedächtnis und aus persönlichem Wissen zu beantworten. Der Richter ordnete an, die Brille zu untersuchen, und stellte fest, dass es sich um Smartglasses mit einem kleinen Display handelt, das Text anzeigen kann – kabellos verbunden mit einem KI-System, dem die Verhandlungsprotokolle zugeführt wurden und das angewiesen war, in Echtzeit Antwortvorschläge zu generieren.
Nach Konfrontation behauptete der Zeuge, sich der Funktionen der Brille, die er trug, nicht bewusst gewesen zu sein, und sein Anwaltsteam habe sie ihm zusammen mit Anweisungen zur Verfügung gestellt, die er nicht vollständig gelesen habe. Der Richter hielt die Erklärung angesichts der Umstände für unglaubwürdig und verwarf die gesamte Aussage des Zeugen. Der Fall wirft Fragen über mögliche Vorwürfe der Missachtung des Gerichts und die berufliche Verantwortung des beteiligten Anwaltsteams auf.
Wie die Technologie funktioniert
Die in diesem Fall beschriebene Einrichtung lässt sich technisch einfach aus handelsüblich erhältlichen Komponenten zusammenstellen. Moderne Smartglasses können Text in einer Ecke des Sichtfeldes anzeigen, der für den Träger sichtbar ist, aber für Beobachter nicht offensichtlich wirkt. Eine drahtlose Audiotechnik – ein kleines Mikrofon – kann Gerichtsaudios aufzeichnen und an ein verbundenes Gerät übertragen. Eine Language-Model-API kann das Audiotranskript verarbeiten und fast sofort Antwortvorschläge generieren. Das gesamte System passt in gewöhnlich aussehende Accessoires und ein Smartphone.
Die Verfügbarkeit dieser Technologie macht den Vorfall aus Sicht des Rechtssystems so besorgniserregend. Vor der Verfügbarkeit von Consumer-Grade-KI-Systemen und Smartglasses erforderte das Coaching von Zeugen im Gerichtssaal Kopfhörer und menschliche Mitarbeiter, die die Verhandlung beobachteten und Informationen weitergaben – eine komplexere und leichter zu entdeckende Operation. KI reduziert die Komplexität auf ein Niveau, auf dem eine raffinierte Person oder ein Anwaltsteam das System ohne spezialisierte Ausrüstungslieferanten oder Mitverschwörer einsetzen könnte.
Das größere Problem der KI-gestützten Täuschung
Der Gerichtsfall ist ein extremes Beispiel für ein Phänomen, das in institutionellen Umgebungen immer häufiger wird: die Verwendung von KI zur Verbesserung menschlicher Leistung in Kontexten, in denen ungestützte Leistung erforderlich oder erwartet wird. Prüfungsausschüsse müssen mit KI-gestütztem Betrügen umgehen. Job-Interview-Panels treffen auf Kandidaten, die verdächtig gut vorbereitet sind durch KI-Coaching. Medizinische Lizenzprüfungen überprüfen Fälle von KI-Betrug.
Gerichte sind besonders sensible Umgebungen, da das gesamte Justizsystem darauf angewiesen ist, dass Zeugen ehrliche, ungestützte Aussagen machen. KI-Coaching eröffnet nicht nur die Möglichkeit besser präsentierter Aussagen, sondern auch systematisch gesteuerter Aussagen – wobei KI einen Zeugen nicht nur bei der Klarheit des Ausdrucks berät, sondern auch darüber, was zu sagen ist, was auszulassen ist und wie auf bestimmte Fragen auf rechtlich vorteilhafte Weise reagiert wird. Die Grenze zwischen Coaching und Anstiftung zur Falschaussage verschwimmt, wenn KI die Aussage in Echtzeit optimieren kann.
Institutionelle Reaktionen
Gerichte in mehreren Gerichtsbarkeiten entwickeln Protokolle zur Erkennung von KI-Unterstützung während der Aussage. Diese umfassen die Anforderung, dass Zeugen elektronische Geräte und Accessoires vor Betreten der Zeugenbank ablegen, die Verwendung von Hochfrequenz-Detektoren zur Identifizierung aktiver drahtloser Übertragungen während der Verhandlung und das Markieren anomaler Reaktionsmuster – wie ungewöhnlich präzise oder rechtlich anspruchsvolle Antworten von Zeugen, die selbst keine Anwälte sind – zur weiteren Überprüfung.
Der britische Fall wird wahrscheinlich die Entwicklung formellerer Standards und Erkennungsprotokolle beschleunigen. Juristische Berufsverbände müssen möglicherweise auch die ethischen Verantwortungen von Anwaltsteams ansprechen, die erwägen, KI-Unterstützung auf Weise einzusetzen, die die Integrität der Zeugenaussage beeinträchtigen. Die Technologie existiert bereits, und die Anreize zu ihrer Nutzung sind erheblich – die Anpassung des Rechtssystems wird bestimmen, ob dies zu einem anerkannten Problem oder zu einem gelegentlichen Skandal wird.
Dieser Artikel basiert auf Berichterstattung von 404 Media. Lesen Sie den Originalartikel.



