Willkommen |
|
|
myGully |
|
|
Links |
|
|
Forum |
|
|
|
|
Heute, 10:40
|
#1
|
|
Super Moderator
Registriert seit: Oct 2012
Beiträge: 8.720
Bedankt: 10.044
|
Präzedenzfall: US-Behörde identifiziert Darknet-Admin mit ChatGPT-Daten
Zitat:
Präzedenzfall: US-Behörde identifiziert Darknet-Admin mit ChatGPT-Daten
Der erste bekannt gewordene Beschlagnahmebeschluss für Nutzerdaten gegen OpenAI offenbart: US-Behörden können Prompt-Eingaben zur Strafverfolgung anfordern.

(Bild: Gorodenkoff / Shutterstock.com)
06:46 Uhr Lesezeit: 4 Min.
Von [ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ]
Das Department of Homeland Security (DHS) der USA hat OpenAI mit einem Beschlagnahmebeschluss dazu aufgefordert, Nutzerdaten und Prompts für ChatGPT-Anfragen herauszugeben. Dabei handelt es sich laut Forbes um einen Präzedenzfall aus dem Bundestaat Maine, da bislang keine entsprechenden Anordnungen bekannt seien. Das Vorgehen des Ministeriums zeige, dass US-Strafverfolgungsbehörden mittlerweile auch generative KI-Plattformen nutzen, um Beweise zu sammeln.
Spezialisierte Fahnder der Homeland Security Investigations (HSI), einer Einheit der Einwanderungs- und Zollbehörde des DHS (ICE), fahndeten [ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ] bereits seit 2019 nach der Identität eines mutmaßlichen Betreibers oder Moderators von mindestens 15 Darknet-Foren. Diese enthielten auch Darstellungen sexuellen Kindesmissbrauchs (CSAM) und wurden auf Tor betrieben. Die Seiten hatten mindestens 300.000 Nutzer.
Der Durchbruch gelang erst, als ein verdeckter Ermittler in einem der CSAM-Foren mit dem Administrator chattete. Der Verdächtige erwähnte dabei, ChatGPT genutzt zu haben. Er gab sogar einige seiner Prompts und die erhaltenen Antworten preis. Die mitgeteilten Anfragen wirkten zunächst harmlos. Eine lautete: "Was würde passieren, wenn Sherlock Holmes Q aus Star Trek trifft?" In einer zweiten ging es um ein langes Gedicht, woraufhin der Verdächtige wunschgemäß Verse im "Trump-Stil" über seine Liebe zum Song Y.M.C.A. von Village People erhielt und diese kopierte.
Identifizierung und Anklage
DHS-Mitarbeiter nutzten diese Informationen, um bei OpenAI die Herausgabe einer Reihe von Daten anzuordnen. Darunter waren Details zu allen anderen Konversationen des Nutzers mit ChatGPT sowie Namen, Adressen und alle Zahlungsdaten, die mit dem Konto verbunden waren.
Dieser Vorgang stellt den ersten dokumentierten Einsatz eines "Reverse AI Prompt Request" dar. Bislang waren [ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ]. Nicht die Inhalte der Prompts sind nun entscheidend, sondern die Metadaten. Die Ermittler setzten die Eingaben an den Chatbot als digitalen Fingerabdruck ein, um die anonyme Online-Identität mit der realen Person abzugleichen.
Der Beschlagnahmebeschluss zwang OpenAI zwar zur Herausgabe einschlägiger Daten. Der ChatGPT-Betreiber lieferte eine Excel-Tabelle dazu. Das DHS war letztlich aber nicht darauf angewiesen. Vielmehr gab der Verdächtige in den Foren-Chats selbst preis, dass er medizinische Untersuchungen durchlaufen, sieben Jahre in Deutschland gelebt und sein Vater in Afghanistan gedient hatte.
Die Fahnder konnten den Verdächtigen so als den 36-jährigen Drew H. identifizieren, der auf der Ramstein Air Force Base gearbeitet und sich für eine Tätigkeit im Pentagon beworben hatte. Die Behörden klagten ihn wegen Verschwörung zum Bewerben und Verbreiten von Missbrauchsmaterial an.
Chatbots als Überwachungswerkzeuge
Jennifer Lynch von der Electronic Frontier Foundation (EFF) forderte gegenüber Forbes, dass KI-Firmen die Menge der gesammelten Nutzerdaten dringend begrenzen müssten. OpenAI selbst gibt an, zwischen Juli und Dezember vorigen Jahres 31.500 CSAM-bezogene Inhalte an das National Center for Missing and Exploited Children (NCMEC) gemeldet und 71 Mal Anfragen zur Offenlegung von Nutzerinformationen oder Inhalten erhalten zu haben. Dabei hat die Firma Daten zu 132 Konten zur Verfügung gestellt.
Für den Strafrechtler Jens Ferner zeigt der Fall, dass mit dem Nutzen von Chatbots "das gesamte Verhalten ausgewertet und mittels KI ein Abbild der Persönlichkeit erstellt werden" könne. KI-Abfragen durch Ermittler schüfen "Möglichkeiten auf dem Niveau von Profiling und DNA-Spuren". OpenAI und andere Hersteller müssten ihre Datenschutzrichtlinien überprüfen und transparent machen, unter welchen Bedingungen sie was preisgeben. Die Gefahr, dass Chatbots zu Überwachungsinstrumenten werden, sei real.
|
[ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ]
beklemmend .....
|
|
|
Forumregeln
|
Du kannst keine neue Themen eröffnen
Du kannst keine Antworten verfassen
Du kannst keine Anhänge posten
Du kannst nicht deine Beiträge editieren
HTML-Code ist Aus.
|
|
|
Alle Zeitangaben in WEZ +1. Es ist jetzt 15:51 Uhr.
().
|