Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Zu wenig Vorgehen gegen "schädliches KI-Verhalten" – Generalstaatsanwälte vs. Apple und Co.

Die National Association of Attorneys General ("NAAG"), also der Zusammenschluss der US-Generalstaatsanwälte, hat Apple sowie zwölf weitere große KI-Unternehmen in einem 12-seitigen Schreiben aufgefordert, deutlich stärkere Sicherheitsmaßnahmen gegen schädliches Verhalten ihrer KI-Modelle zu ergreifen. Das Grundproblem ist schnell umrissen: Vor allem Chatbots wirken unglaublich kompetent und einfühlsam, obwohl sie doch nur aufgrund statistischer Gegebenheiten Dinge aneinanderreimen – das meist so gestaltet, den Nutzer möglichst in allem zu unterstützen und diesem zuzustimmen. Besonders gravierend können die Auswirkungen auf vulnerable Gruppen sein, die sich gar nicht darüber bewusst sind, wie derlei Tools überhaupt arbeiten.


Den negativen Auswirkungen wird zu wenig Beachtung geschenkt
Die Staatsanwälte kritisieren stark zunehmende Fälle, in denen generative KI schmeichelnde oder bestätigende Falschaussagen liefert, wahnartige, realitätsferne Antworten erzeugt oder gefährliche oder psychisch belastende Ratschläge ausgibt. Jene Punkte sind mit tatsächlichen Fällen verknüpft, bei denen KI-Interaktionen mit Gewalt, Suiziden, Vergiftungen und psychotischen Zusammenbrüchen in Verbindung gebracht wurde. Am gravierendsten sei hingegen das Versäumnis der Anbieter, viel zu wenig für den Schutz von Minderheiten zu tun. So liegen dem Schreiben zufolge Beispiele vor, in denen ein Chatbot Kinder sogar darum bat, die Unterhaltungen vor den Eltern geheimzuhalten. Wenn Aufforderungen wie Absetzen von Medikamenten, Experimentieren mit Drogen oder gar Simulationen romanischer Beziehungen gegenüber Heranwachsenden erfolgen, falle dies gar in den Bereich der Strafgesetzgebung.

Forderungen an alle namhaften Anbieter
Das Schreiben ging an Apple, Anthropic, Chai AI, Character Technologies (Character.AI), Google, Luka Inc. (Replika), Meta, Microsoft, Nomi AI, OpenAI, Perplexity AI, Replika, sowie xAI – wenngleich man sich hier die Branchengrößen herauspickte, welche sich nicht zwangsläufig etwas zuschulde kommen ließen. Die Staatsanwälte stellen daher eindeutige Forderungen auf, welche bis zum 16. Januar 2026 zu beantworten sind. Unternehmen haben bis dahin klar zu dokumentieren, wie sie fortan folgende Aspekte sicherstellen:

  • klare Richtlinien gegen schmeichelnde/irrationale KI-Ausgaben
  • umfassende Safety-Tests vor Veröffentlichung neuer Modelle
  • deutliche Warnhinweise zu möglichen Risiken
  • strikte Trennung von Gewinninteressen und Sicherheitsentscheidungen
  • verantwortliche Führungskräfte, die für KI-Sicherheit haftbar sind
  • unabhängige Audits, Kinder-Schutz-Analysen
  • Veröffentlichung von Incident-Logs und wie Firmen darauf reagiert haben
  • Pflicht, betroffene Nutzer aktiv zu informieren, wenn KI schädliche Inhalte ausgegeben hat
  • robuste Schutzmechanismen, damit Chatbots keine illegalen oder schädlichen Inhalte an Minderjährige ausgeben
  • altersgerechte Filtersysteme

Moratorium für KI-Regulierung? NAAG stellt sich dagegen
Die NAAG stellt sich zudem entschieden gegen Regierungspläne, die es Bundesstaaten verbieten wollen, KI-Dienste zu regulieren und klarere Regeln aufzustellen. In einem anderen Schreiben heißt es hierzu, man müsse sehr wohl entschieden gegen Deepfakes, Wählermanipulation, Algorithmusverzerrungen, Spam-Anrufe oder KI-berechnete Miethöhen vorgehen und die Bevölkerung vor negativen Auswirkungen schützen.

Kommentare

System 6.0.1
System 6.0.111.12.25 16:13
Die National Association of Attorneys General ("NAAG"), also der Zusammenschluss der US-Generalstaatsanwälte, hat Apple sowie zwölf weitere große KI-Unternehmen in einem 12-seitigen Schreiben aufgefordert, deutlich stärkere Sicherheitsmaßnahmen gegen schädliches Verhalten ihrer KI-Modelle zu ergreifen

Ok, dass Apple in dieser Liste eher fehl am Platze ist, kann man in etlichen Threads hier auf mactechnews.de deutlich herauslesen. Anyway …

Aber ein Gedanke hat sich mir beim Lesen des Textes dann doch nach vorne gemogelt, den ich im Prinzip überhaupt nicht mag:

Wenn wir diese Herangehensweise, also das „deutlich stärkere Sicherheitsmaßnahmen gegen schädliches Verhalten“ von Produkten, auf andere Produkte ausweiten, dann darf es in Deutschland auch nicht

• Alkohol (47.500 Tote 2024),
• Tabak (99.000 Tote 2024),
• Messer (15741 Gewaltfälle 2024) und
• Leitern (12 Tote in 2024)

geben. Allen Todesursachen ist gemein, dass sie nicht per se tödlich sind, sondern alleine durch nicht sachgemäßen Umgang. Und die Liste kann deutlich ausgeweitet werden.

Mir ist klar, ChatGPT lässt sich nur schwer in diese Gruppe einreihen, und ich will das auch nicht. Ich finde ebenfalls, LLMs kommen deutlich zu vertrauensvoll auf uns zu, und projizieren eine Aura der Allwissenheit um ihre Antworten.

Doch anscheinend liegt die Gemeinsamkeit der Todesursache nicht in fehlenden Warn- oder Sicherheitshinweisen.

Sie liegt wohl ganz klar woanders.
„A lot of times, people don't know what they want until you show it to them.“ Steve Jobs, 1998
+2
MacBerf11.12.25 18:12
…Kommentar Nr. 1 hat meine Befürchtung bestätigt.
+2
teorema67
teorema6711.12.25 18:59
... den Nutzer möglichst in allem zu unterstützen und diesem zuzustimmen.

Genau das trifft es, und das macht ChatGPT, Copilot, Gemini mitunter wenig brauchbar. Wenn die KI komplett unwissend ist, stimmt sie mir entweder zu oder schafft falsche oder falsch zitierte Antworten bei. Das ist begrenzt hilfreich ...
„These days the truth is a fleeting thing It depends who you talk to“ (Kathleen Edwards)
0
Jarek11.12.25 19:30
Ich habe einfach ChatGPT gefragt, was sie davon hält… das kam als Antwort:

„Diese Forderung der Generalstaatsanwälte liest sich für mich wie ein politisches Beruhigungsspray: einmal großflächig versprühen, damit alle das Gefühl haben, irgendetwas passiert – auch wenn es praktisch nichts bewirkt.
‚Mehr KI-Sicherheit‘ klingt toll, aber solange niemand definiert, was das technisch überhaupt heißen soll, bleibt es Symbolpolitik. Und wie üblich trifft Symbolpolitik zuerst die Falschen: kleine Entwickler, offene Modelle, Forschung. Die Großen zucken nicht mal – die heften es einfach in den Compliance-Ordner zwischen DSGVO und Cookies.
Am Ende hat man also nicht mehr Sicherheit, sondern nur mehr Papier. Und ein paar Politiker, die sich auf die Schulter klopfen, weil sie wieder einmal eine Technologie reguliert haben, die sie in Wahrheit nicht verstehen.“
0
Sokrates ll11.12.25 19:46
0
maikdrop11.12.25 20:22
System 6.0.1
Die National Association of Attorneys General ("NAAG"), also der Zusammenschluss der US-Generalstaatsanwälte, hat Apple sowie zwölf weitere große KI-Unternehmen in einem 12-seitigen Schreiben aufgefordert, deutlich stärkere Sicherheitsmaßnahmen gegen schädliches Verhalten ihrer KI-Modelle zu ergreifen

Ok, dass Apple in dieser Liste eher fehl am Platze ist, kann man in etlichen Threads hier auf mactechnews.de deutlich herauslesen. Anyway …

Aber ein Gedanke hat sich mir beim Lesen des Textes dann doch nach vorne gemogelt, den ich im Prinzip überhaupt nicht mag:

Wenn wir diese Herangehensweise, also das „deutlich stärkere Sicherheitsmaßnahmen gegen schädliches Verhalten“ von Produkten, auf andere Produkte ausweiten, dann darf es in Deutschland auch nicht

• Alkohol (47.500 Tote 2024),
• Tabak (99.000 Tote 2024),
• Messer (15741 Gewaltfälle 2024) und
• Leitern (12 Tote in 2024)

geben. Allen Todesursachen ist gemein, dass sie nicht per se tödlich sind, sondern alleine durch nicht sachgemäßen Umgang. Und die Liste kann deutlich ausgeweitet werden.

Mir ist klar, ChatGPT lässt sich nur schwer in diese Gruppe einreihen, und ich will das auch nicht. Ich finde ebenfalls, LLMs kommen deutlich zu vertrauensvoll auf uns zu, und projizieren eine Aura der Allwissenheit um ihre Antworten.

Doch anscheinend liegt die Gemeinsamkeit der Todesursache nicht in fehlenden Warn- oder Sicherheitshinweisen.

Sie liegt wohl ganz klar woanders.

Du hast schon die Wörter Heranwachsende und Kinder gelesen, um die es im Artikel geht!?
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.