Willkommen |
|
myGully |
|
Links |
|
Forum |
|
|
|
 |
05.02.25, 12:42
|
#1
|
Erfahrener Newbie
Registriert seit: Jan 2010
Ort: Berlin
Beiträge: 191
Bedankt: 295
|
Google distanziert sich nicht mehr explizit von KI-Waffen
Zitat:
Neue Firmengrundsätze
Google distanziert sich nicht mehr explizit von KI-Waffen
Einst versprach Google öffentlich, künstliche Intelligenz nicht für Waffensysteme zur Verfügung zu stellen. Jetzt hat das US-Unternehmen seine Haltung offenbar geändert.
05.02.2025, 12.16 Uhr

Google hat sich von seinem öffentlichen Versprechen verabschiedet, keine künstliche Intelligenz (KI) für Waffen zu entwickeln. Das geht aus einer aktualisierten Version der Grundsätze für seine KI-Aktivitäten
hervor. In der neuen Variante ist die 2018 abgegebene Selbstverpflichtung nicht mehr enthalten.
Zur Begründung für die Neuauflage der KI-Grundsätze heißt es in einem Blogeintrag , die Technologie habe sich in den vergangenen Jahren schnell verändert. Dabei ging der Eintrag nicht speziell auf die nicht mehr erwähnten Vorsätze ein. In den neuen Grundsätzen steht allgemein, man wolle die KI mit »breit akzeptierten Prinzipien des internationalen Rechts und der Menschenrechte« in Einklang bringen.
»In einer zunehmend komplexen geopolitischen Landschaft läuft ein globaler Wettbewerb um die Führung im Bereich KI«, schreiben die Manager James Manyika und Demis Hassabis im Blogbeitrag. »Wir glauben, dass Demokratien die KI-Entwicklung anführen sollten, geleitet von Grundwerten wie Freiheit, Gleichheit und Achtung der Menschenrechte. Und wir glauben, dass Unternehmen, Regierungen und Organisationen, die diese Werte teilen, zusammenarbeiten sollten, um KI zu entwickeln, die Menschen schützt, globales Wachstum fördert und die nationale Sicherheit unterstützt.«
Das stand vorher im Text
In der vorherigen Fassung der Selbstverpflichtung war noch gesondert erwähnt worden, dass Google keine KI entwickeln werde, die zur Überwachung dienen könnte, die gegen international anerkannte Normen verstößt. Ebenso hieß es, man werde nicht an Technologien arbeiten, die allgemein schädlich sein könnten. Zum Thema Waffen versprach Google bis jetzt , es werde keine KI entwickeln oder einsetzen, die »für Waffen oder andere Technologien« gedacht ist, »deren Hauptzweck oder Anwendung darin besteht, Menschen zu verletzen oder dies unmittelbar zu erleichtern«.
Die ursprünglichen Grundsätze zum Thema KI waren 2018 verabschiedet worden, damals hatte es internen Widerstand im Unternehmen gegen die Mitarbeit an einem Drohnenprogramm des US-Militärs gegeben.
Was Google öffentlich einsehbar beteuert oder nicht beteuert, führte schon öfter zu Diskussionen. 2018 etwa geriet das Unternehmen in die Schlagzeilen, als es einen jahrelangen Wahlspruch aus seinem sogenannten Code of Conduct tilgte: »Don’t be evil«, sei nicht böse.
In der Einleitung zum Code of Conduct von Googles Dachkonzern heißt es im ersten Satz , Mitarbeiter von Alphabet und seinen Tochtergesellschaften sollten »das Richtige tun«, und zwar konkret: »das Gesetz befolgen, ehrenhaft handeln und ihre Kollegen mit Höflichkeit, Unterstützung und Respekt behandeln«.
mbö/dpa
|
[ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ]
War klar, dass das Dokument auf dem die Selbstverpflichtung stand, das Papier (die Elektronen) nicht wert ist, auf dem es stand.
KI im militärischem Bereich wird ja bereits von Israel und anderen Staaten genutzt. Einer Dokumentation entnahm ich einst, dass KI bzw. Algorithmen vorschlagen, wen es abzuknallen gilt und die Soldaten haben für das zu treffende Todesurteil weniger als 1 Minute Zeit. Würde mich nicht wundern, wenn das auch schon voll automatisiert passiert.
Geändert von Estorias (05.02.25 um 12:51 Uhr)
|
|
|
Die folgenden 2 Mitglieder haben sich bei Estorias bedankt:
|
|
Forumregeln
|
Du kannst keine neue Themen eröffnen
Du kannst keine Antworten verfassen
Du kannst keine Anhänge posten
Du kannst nicht deine Beiträge editieren
HTML-Code ist Aus.
|
|
|
Alle Zeitangaben in WEZ +1. Es ist jetzt 17:48 Uhr.
().
|