Willkommen |
|
myGully |
|
Links |
|
Forum |
|
|
|
 |
Gestern, 11:49
|
#1
|
working behind bars
Registriert seit: Apr 2013
Beiträge: 3.221
Bedankt: 13.785
|
Datenweitergabe an die Polizei
Was diese KI Assistenten für bizarre Nebenwirkungen generieren macht mich manchmal echt sprachlos:
Zitat:
Datenweitergabe an die Polizei: Eure Chats mit ChatGPT sind nicht privat
Menschen vertrauen ChatGPT intimste Informationen an. Der Hersteller scannt die Chats, lässt sie von Moderator*innen lesen und gibt sie in bestimmten Fällen sogar an die Polizei weiter. Das hat das KI-Unternehmen Open AI als Sicherheitsmaßnahme nach einem Suizid eines Nutzers verkündet.

Die Chats mit ChatGPT können von Menschen eingesehen werden.
OpenAI, der Hersteller von ChatGPT hat in einem Blogpost angekündigt, seinen Chatbot sicherer machen zu wollen. Gleichzeitig hat das Unternehmen bekannt gegeben, dass es die Chats, die mit seinem Bot geführt werden, automatisch nach bestimmten Themen scannt. Manche Inhalte würden dann menschlichen Moderator*innen zur Prüfung vorgelegt.
In Fällen, in denen die Moderator*innen Dritte in Gefahr sehen, könnten die Chats auch an die Polizei weitergegeben werden, schreibt OpenAI. In Fällen von Selbstgefährdung würde die Polizei allerdings außen vor gelassen, aus Respekt vor der Privatsphäre der Betroffenen. Grund sei die „einzigartig private Natur“ der Interaktionen mit ChatGPT.
Tatsächlich vertrauen Nutzer*innen dem Chatbot intimste Details an – vermutlich ohne zu ahnen, dass Menschen diese Unterhaltungen einsehen können. „ChatGPT kennt alle meine Schwächen, Sorgen und Geheimnisse“, bekennt eine Autorin des Guardian. Das Sprachmodell wird zunehmend von Menschen wie eine befreundete Person behandelt oder für Dating-Tipps benutzt. Der Hersteller versuchte in der Vergangenheit bereits zu verhindern, dass ChatGPT als Freund*in oder Therapeut*in benutzt wird.
Der Ankündigung von OpenAI, seinen Chatbot sicherer machen zu wollen, war der Selbstmord eines kalifornischen Teenagers vorausgegangen. Dessen Eltern verklagen nun OpenAI. Der Chatbot habe dem Jugendlichen Methoden zur Selbsttötung empfohlen und angeboten, einen Abschiedsbrief für ihn zu verfassen.
Beide Verhaltensweisen von ChatGPT konnten in einer Studie reproduziert werden. Eine weitere Studie hat ebenfalls herausgefunden, dass es nicht schwer ist, von ChatGPT Anleitungen zur Selbstverletzung zu erhalten. Gleichzeitig vermeide der Chatbot es, direkt auf Fragen zu antworten, die sich mit der Suche nach therapeutischer Hilfe beschäftige, heißt es dort.
Der Fall des Kaliforniers ist nicht der erste Selbstmord, der in Zusammenhang mit ChatGPT gebracht wird. Zudem können die Chatbots wohl psychotische Gedanken fördern.
Neben der Durchsuchung der Chats und deren eventueller Weiterleitung, die laut OpenAI bereits praktiziert wird, plant das Unternehmen weitere Sicherheitsmaßnahmen. So arbeite es beispielsweise daran, dass der Chatbot auch in längeren Unterhaltungen sein Sicherheitstraining nicht vergisst.
Neben der potenziellen Selbstverletzung sollen vom Chatbot auch weitere psychische Belastungen besonders behandelt werden, so zum Beispiel der Glaube, ohne Pause Autofahren zu können. Menschen in psychischen Notlagen soll professionelle Hilfe vermittelt oder die Kontaktaufnahme mit Angehörigen nahegelegt werden. Und Eltern sollen mehr Kontrolle über die Chatbot-Nutzung ihrer Kinder erhalten können. Wann diese Maßnahmen umgesetzt werden sollen, gab das Unternehmen allerdings nicht bekannt.
Quelle mit weiteren Links:[ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ]
|
Es ist wohl eine ziemlich schlechte Idee sich bei psychischen Problemen von einer KI beraten zu lasen.
Unabhängig davon bleibt mein Linux PC auch weiterhin von jeglicher KI verschont.
|
|
|
Die folgenden 5 Mitglieder haben sich bei Uwe Farz bedankt:
|
|
Gestern, 12:07
|
#2
|
AZOR AHAI
Registriert seit: Aug 2013
Beiträge: 5.471
Bedankt: 23.044
|
Hatte diesbezüglich unlängst eine Unterhaltung mit einem schweizer Kneipenkollege.
Eigentlich wäre es egal, ob er nun Eidgenosse ist oder nicht, aber er unterhält sich gerne mit der KI über Missstände in der Schweizer Politik.
Im Grunde auch ein VTler, mit Hang zur Putinfreundlichkeit und stolz 1291-Schweizer zu sein, der die Welt am Abgrund sieht ^^
Das nur kurz zu Erklärung.
Da kam mir doch der Gedanke in zu fragen, ober er denn nicht Bedenken hätte, dass die KI ihn nun analysiert und seine Unterhaltung speichert, verarbeitet und auswertet.
"Nei, im Lääbe nit" (Dialekt ^^)
Der Kumpel braucht nun keine Therapie, aber ich denke, dass seine und ähnliche Antworten ein ganz anderes Ausmass annehmen:
Die Auswertung könnte ergeben, dass man (KI) Rückschlüsse auf eine vielzahl von Nutzern schliesst, usw.
KI ist ja schön und gut, aber auch manchmal total unnütz.
Wollte kürzlich ein Excelproblem lösen und dachte, dass die Google-KI da sicherlich helfen würde.
Nix da! Die Ergebniss waren allesamt für Office 365 und dessen Erweiterungen...
Selbst ist der Mann: Suchen, Probieren und Lernen. Dann freuen ^^
|
|
|
Die folgenden 2 Mitglieder haben sich bei MotherFocker bedankt:
|
|
Gestern, 12:26
|
#3
|
Anfänger
Registriert seit: Aug 2025
Beiträge: 9
Bedankt: 2
|
Der Linux PC wurde in Teilen sicher auch via K.I. errechnet/erdacht, ob Hardware- oder Softwareteile. Soviel dazu. ^^ Oder Inhalte, die auf dem Linux PC angesehen werden, wurde von K.I. berührt etc. Nichts mit weiterhin.
Aber typisch die USA, weil einer Taler sieht und der andere einen Schuldigen sucht, muss man flächendeckend überwachen. Ja klar. Dass der Junge komplett ohne ChatGPT schon massivste Probleme hatte, auf die die Eltern scheinbar geschissen haben, und ChatGPT die ohnehin ultraleicht auffindbaren Selbstmordmethoden, nur schneller auflistet, deshalb ist wer anders schuld. ^^ So schmal muss man erstmal denken, aber die sehen evtl auch Dollarzeichen, da lässt sich doch Profit raus schlagen. Mit Gerechtigkeit hat es ja nichts zu tun, da das Kind bereits vor ChatGPT kaputt war, also der Fehler eher bei den Eltern zu suchen wäre.
Nebenbei, Office 365 enthält Excel...
|
|
|
Gestern, 13:14
|
#4
|
working behind bars
Registriert seit: Apr 2013
Beiträge: 3.221
Bedankt: 13.785
|
Zitat:
Zitat von TheM4n
D auf die die Eltern scheinbar geschissen haben, und ChatGPT die ohnehin ultraleicht auffindbaren Selbstmordmethoden, nur schneller auflistet, deshalb ist wer anders schuld.
|
Saudummes Geschwätz.
Woher willst du eigentlich wissen was die Eltern unternommen haben?
Du machst dich am besten wieder ganz schnell vom Acker.
|
|
|
Die folgenden 2 Mitglieder haben sich bei Uwe Farz bedankt:
|
|
Gestern, 15:11
|
#5
|
Super Moderator
Registriert seit: Oct 2012
Beiträge: 8.173
Bedankt: 9.693
|
Zitat:
Zitat von TheM4n
Der Linux PC wurde in Teilen sicher auch via K.I. errechnet/erdacht,
|
Vermutlich wurde auch Linus Torvalds von einer KI entwickelt. 
Kürzlich habe ich einige Supportanfragen an ChatGPT bezüglich Debian gestellt.
Die Antworten waren verheerend.
|
|
|
Gestern, 21:55
|
#6
|
Suppen Moderator
Registriert seit: Jan 2010
Beiträge: 6.992
Bedankt: 8.058
|
Es gab diverse Ansätze, dass eine KI durchaus extrem hilfreich bei psychischen Beschwerden sein und werden kann. Hatten wir, glaube ich, auch hier im Forum schonmal irgendwo beleuchtet.
Ich sehe hier auch - im Gegensatz zu vielen anderen - kaum einen Fehler bei der KI. Die hat gemacht, was sie sollte, nämlich Lösungen auf Fragen zu präsentieren. Dass das dann in einen Suizid mündet, ist sicherlich moralisch zu verurteilen, aber am Ende konsequent (eine endgültigere Lösung konnte es schließlich nicht geben).
Dass die Eltern nun direkt klagen, gehört in der heutigen Zeit halt dazu. Finde ich mit Abstand das verwerflichste daran, aber das ist persönliches Gusto.
Die KI überrollt die Menschen, wie damals Handys, Computer und andere Dinge auch schon. Die erste Generation hat es dann schon immer sehr exzessiv genutzt, wurde von den älteren Generationen auf Fehler und Gefahren hingewisen und am Ende hat es sich reguliert, indem die Nutzung dermaßen in den Alltag integriert wurden, dass man sich ein Leben ohne diese Geräte und Dinge nciht mehr vorstellen konnte.
Ist das gut oder schlecht? Wahrscheinlich beides. Muss man es es deswegen ablehnen/verteufeln? Absolut nicht. Ist weitere Arbeit notwendig? Auf jeden Fall.
__________________
Urlaubsmodus
|
|
|
Die folgenden 2 Mitglieder haben sich bei Thorasan bedankt:
|
|
Gestern, 22:31
|
#7
|
working behind bars
Registriert seit: Apr 2013
Beiträge: 3.221
Bedankt: 13.785
|
Der Löwenanteil an KI/AI kommt aus einem Land, das sich momentan in einem totalitären Umbruch befindet. Die derzeit herrschenden politischen Akteure werden alles versuchen dem Ganzen ihren Stempel aufzudrücken.
Das macht mir Sorgen und das sollte man immer im Auge behalten.
|
|
|
Die folgenden 2 Mitglieder haben sich bei Uwe Farz bedankt:
|
|
Gestern, 23:45
|
#8
|
Suppen Moderator
Registriert seit: Jan 2010
Beiträge: 6.992
Bedankt: 8.058
|
Das kommt drauf an, von welcher Du sprichst.
Die "großen", die meist im Alltag als Lösung für alles gesehen werden, durchaus. Und ja, auch ich bin da bezüglich der politischen Entscheidungen und Entwicklungen sehr skeptisch. Dann gibt es einen Haufen sehr guter, sehr großer, aus China.
Aber es gibt auch europäische.
Nur: Egal woher sie kommen, wo die Firmen sitzen, wer da was reguliert: Es wird nicht zum Wohl der Leute passieren. Denn auch eine EU reguliert nicht zu unserem Wohl, wenngleich sie das gerne propangieren. Selbst wenn du nun als deutsches Unternehmen mit der Lösung kämst, wären die Regulierer trotzdem Parteien wie die CDU (und demnächst dann die AFD). Da haben wir auch nichts gewonnen, eher im Gegenteil.
__________________
Urlaubsmodus
|
|
|
Die folgenden 2 Mitglieder haben sich bei Thorasan bedankt:
|
|
Heute, 07:06
|
#9
|
viel-leserin
Registriert seit: Sep 2008
Beiträge: 1.910
Bedankt: 5.016
|
ich würde ja denken, dass es auch ohne KI möglich ist, sich im internet über selbsttötungsmöglichkeiten zu informieren. eine zeitlang gab es foren, in denen die kids geschrieben haben.
wenn man das wirklich wissen will, hat man heutzutage ausreichend quellen...die gängigsten dürften ja schon durch film und fernsehen bekannt sein.
grundsätzlich finde ich es in ordnung, wenn bedenkliche inhalte die man der KI füttert entsprechend weitergegeben werden. es ist nunmal kein freund und auch kein tagebuch.
__________________
„Nur weil du dein Talent noch nicht gefunden hast, heißt das nicht, dass du keins hast.“
Kermit
|
|
|
Forumregeln
|
Du kannst keine neue Themen eröffnen
Du kannst keine Antworten verfassen
Du kannst keine Anhänge posten
Du kannst nicht deine Beiträge editieren
HTML-Code ist Aus.
|
|
|
Alle Zeitangaben in WEZ +1. Es ist jetzt 10:08 Uhr.
().
|