Über individuellen Schaden hinaus

Der Anwalt, der einige der ersten Schadensersatzfälle im Zusammenhang mit AI-Chatbots in den USA verhandelt hat, schlägt Alarm, dass die Technologie nicht länger nur für anfällige Einzelpersonen ein Risiko darstellt. Der Anwalt spricht zum ersten Mal öffentlich über eine neue Kategorie von Fällen und sagt, dass AI-Chatbots im Kontext von Massenkasualistiken aufgetreten sind, eine Entwicklung, die die potenzielle rechtliche und behördliche Haftung für AI-Unternehmen erheblich erweitert.

Jahrelang waren AI-Chatbots mit individuellen Tragödien verbunden—Fällen, in denen ein Teenager oder junger Erwachsener in einer Krise längere Gespräche mit einem AI führte, das nach Aussage von Kritikern angemessene Sicherheitsmaßnahmen nicht bot oder zur menschlichen Unterstützung eskalierte. Mehrere hochkarätige Klagen wurden gegen AI-Unternehmen eingereicht, am prominentesten gegen Character.AI, mit der Behauptung, dass ihre Produkte zum Suizid von Benutzern beitrugen. Jetzt sagt derselbe Anwalt, dass sich das Muster auf Fälle mit mehreren Opfern erstreckt.

Die Sicherheitslücke

Das Hauptargument lautet, dass AI-Unternehmen Chatbots in massivem Maßstab eingesetzt haben—möglicherweise zehn Millionen täglich aktive Benutzer—während die Sicherheitsinfrastruktur viel langsamer entwickelt wurde. Im Gegensatz zu einem Pharmaunternehmen, das ein neues Medikament auf den Markt bringt, müssen AI-Chatbot-Entwickler vor der Bereitstellung keine klinischen Sicherheitstests durchführen. Im Gegensatz zu einer Social-Media-Plattform haben sie oft weniger behördliche Verpflichtungen bei der Inhaltsmoderation und Krisenbewältigung.

Das Ergebnis, so der Anwalt, ist, dass Produkte, die maximal ansprechend und gesprächig sein sollen, mit Benutzern über das gesamte Spektrum der psychischen Gesundheit interagieren, ohne angemessene Schulung, um zu erkennen, wenn ein Gespräch gefährlich wird—und ohne zuverlässige Mechanismen, um angemessen zu reagieren, wenn es passiert.

Industrielle Antwort

AI-Unternehmen waren bei der Sicherheit nicht passiv. Character.AI hat Ressourcen für Krisenbewältigung, Pop-up-Warnungen und Altersüberprüfungsmaßnahmen hinzugefügt. OpenAI und Anthropic haben detaillierte Sicherheitsrichtlinien veröffentlicht und führen regelmäßige Red-Teaming-Übungen durch. Die meisten großen Chatbot-Anbieter leiten Benutzer, die Suizidgedanken äußern, jetzt an Krisenhotlines weiter.

Kritiker argumentieren jedoch, dass diese Maßnahmen reaktiv statt präventiv sind, und dass ihre Wirksamkeit in echten Gesprächen—insbesondere in langen, emotional intimen Sitzungen der Art, die die bereits in Klagen befindlichen Fälle kennzeichneten—unbewiesen bleibt. Die Warnung des Anwalts deutet darauf hin, dass selbst mit diesen Verbesserungen weiterhin Fälle mit schwerem Schaden entstehen.

Rechtliche und behördliche Auswirkungen

Der Massenkasualistik-Rahmen trägt erhebliches rechtliches Gewicht. Die Produkthaftungsgesetze in den USA haben Rahmenbedingungen für die Verantwortlichkeit von Herstellern festgelegt, wenn fehlerhafte Produkte Schäden in großem Maßstab verursachen. Die Frage, ob ein AI-Chatbot ein Produkt darstellt—und ob absehbare Schäden, die sich aus seinem Design ergeben, seinen Entwicklern zugerechnet werden können—ist ein aktuelles Thema in mehreren laufenden Klagen.

Abschnitt 230 des Communications Decency Act, der historisch Internet-Plattformen vor Haftung für benutzergenerierten Inhalt schützte, wird in AI-Fällen getestet. Gerichte kämpfen damit, ob AI-generierte Antworten auf einer Plattform gehostete Inhalte oder Produktausgaben darstellen, eine Unterscheidung mit großen Auswirkungen auf die rechtliche Haftung.

Das Geschwindigkeitsproblem

Eines der wiederkehrenden Themen in den öffentlichen Aussagen des Anwalts ist das, was als Geschwindigkeitsproblem bezeichnet werden könnte: AI-Technologie entwickelt sich und wird schneller eingesetzt, als sich behördliche Rahmenbedingungen anpassen können. Die FDA brauchte Jahrzehnte, um den Rahmen für die Genehmigung von Arzneimitteln zu entwickeln; AI-Unternehmen können innerhalb weniger Monate von Prototyp zu hunderten Millionen Benutzern übergehen.

Rufe nach obligatorischen Sicherheitstests, Meldepflichten für Vorfälle und Mindeststandards für psychische Gesundheit in AI-Produkten sind im Kongress und unter Interessengruppen lauter geworden. Mehrere Gesetzesentwürfe wurden eingereicht, aber keiner wurde zum Gesetz verabschiedet. Die AI-Verordnung der Europäischen Union etabliert Risikokategorien für AI-Systeme, aber Durchsetzungsmechanismen stehen noch am Anfang.

Was Regulierungsbehörden beobachten

Die Bundeshandelkommission hat Interesse an AI-Verbraucherschutzfragen signalisiert. Staatsanwälte, von denen mehrere aggressiver gegenüber Technologieregulierung waren als ihre Bundeskollegen, beobachten den Litigationslandschaft anscheinend sorgfältig. Wenn sich Massenkasualistik-Vorwürfe gegen AI-Unternehmen rechtlich geltend machen lassen, könnte die behördliche und finanzielle Haftung grundlegend verändern, wie AI-Chatbots entwickelt und eingesetzt werden.

Derzeit setzt sich die Technologie weiter durch. Neue Modelle sind fähiger, emotional intelligenter und ansprechender als ihre Vorgänger—Eigenschaften, die sie für viele Benutzer genuinely nützlich machen, und möglicherweise folgenreicher, wenn Interaktionen schief laufen.

Dieser Artikel basiert auf Berichten von TechCrunch. Lesen Sie den ursprünglichen Artikel.