ChatGPT als Tatwerkzeug: Ermittlungen gegen OpenAI wegen Amoklauf-Vorbereitung

Im April 2024 erschütterte ein Amoklauf die Florida State University in Tallahassee. Der mutmaßliche Täter, der damals 20-jährige Student Phoenix Ikner, richtete zwei Menschenleben aus und verletzte fünf weitere. Ikner hat auf “nicht schuldig” plädiert; der Prozess soll im Oktober beginnen. Neu aufgetauchte Gerichtsakten enthüllen nun, dass er in den Stunden und Minuten vor der Tat intensiv den KI-Chatbot ChatGPT zu Rate zog. Seine Anfragen reichten von der Handhabung seiner Waffen über die optimale Zeit für einen Angriff im Studentenwerk bis hin zur Frage, wie viele Opfer für landesweite Medienaufmerksamkeit nötig seien. Drei Minuten vor dem Anschlag fragte er, wie die Sicherung einer Remington-Schrotflinte zu entriegeln sei – ChatGPT lieferte detailreiche Anleitungen.

Ermittlungen gegen OpenAI wegen Mittäterschaft

James Uthmeier, der Generalstaatsanwalt von Florida, hat daraufhin strafrechtliche Ermittlungen gegen OpenAI eingeleitet. “Würde auf der anderen Seite des Bildschirms ein Mensch sitzen, würden wir ihn des Mordes anklagen”, betonte Uthmeier auf einer Pressekonferenz in Tampa. “Wir sind uns bewusst, dass wir uns mit KI auf rechtlichem Neuland bewegen, doch müssen wir klären, ob OpenAI strafrechtlich zur Verantwortung gezogen werden kann.” Laut seinen Angaben handelt es sich um die ersten strafrechtlichen Ermittlungen, die sich gezielt gegen ein KI-Unternehmen richten. Parallel dazu ist bereits eine Zivilklage der Familie eines der Opfer anhängig.

Die Ermittlungsbehörden fordern von OpenAI unter anderem Auskunft über interne Richtlinien, wie mit Anfragen zu potenziellen Gewalttaten umzugehen sei, sowie über die Kooperation mit Strafverfolgungsbehörden – und zwar rückwirkend bis März 2024.

OpenAI weist jede Verantwortung von sich

Das Unternehmen zeigt sich unbeeindruckt. Eine Sprecherin betonte, dass die Tragödie zu beklagen sei, ChatGPT jedoch nicht die Schuld trage. Der Chatbot habe lediglich sachliche Antworten auf Fragen erteilt, deren Inhalte ohnehin über öffentliche Quellen im Internet zugänglich seien. Er habe zu keinen illegalen oder schädlichen Handlungen ermutigt. Nach dem Anschlag habe OpenAI den Ikner zugeordneten Account freiwillig an die Strafverfolger übergeben.

Kein Einzelfall: die schwierige Balance der Verantwortung

Diese Debatte ist nicht neu. Bereits im Februar dieses Jahres sorgte ein Schulmassaker im kanadischen Tumbler Ridge (British Columbia) für ähnliche Diskussionen. OpenAI hatte das Konto der späteren Täterin Monate zuvor wegen gewaltbezogener Anfragen gesperrt – sich aber damals gegen eine Meldung an die Behörden entschieden, da die Aktivitäten nach eigenem Ermessen nicht die Kriterien für eine Strafanzeige erfüllten. Rund ein Dutzend OpenAI-Mitarbeiter hatte intern über die Weitergabe der Chatprotokolle diskutiert.

Das Unternehmen rechtfertigte seine Zurückhaltung unter anderem damit, dass eine Überberichterstattung an Strafverfolgungsbehörden für junge Nutzer und ihre Familien belastend sein könne – wenn Beamte unangekündigt vor der Tür stünden. Zudem könne dies unbeabsichtigten Schaden anrichten und Datenschutzbedenken aufwerfen.

Tatsächlich gestaltet sich die rechtliche und ethische Abgrenzung äußerst schwierig. Täglich konsultieren Nutzer KI-Chatbots zu tausenden sensiblen Themen – für journalistische Recherchen, Romane, wissenschaftliche Arbeiten oder therapeutische Zwecke. Eine pauschale Meldepflicht für bestimmte Suchanfragen würde nicht nur Datenschutzrechte verletzen, sondern könnte auch Unschuldige ins Visier der Behörden rücken. Dennoch gewinnt die Regulierung von Künstlicher Intelligenz zunehmend an juristischer und politischer Brisanz.

Mehr zum Thema – Nach der achten Wahl in fünf Jahren: Bulgariens Ex-Präsident wird wohl Regierungschef

Schreibe einen Kommentar