Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Zu wenig Vorgehen gegen "schädliches KI-Verhalten" – Generalstaatsanwälte vs. Apple und Co.

Die National Association of Attorneys General ("NAAG"), also der Zusammenschluss der US-Generalstaatsanwälte, hat Apple sowie zwölf weitere große KI-Unternehmen in einem 12-seitigen Schreiben aufgefordert, deutlich stärkere Sicherheitsmaßnahmen gegen schädliches Verhalten ihrer KI-Modelle zu ergreifen. Das Grundproblem ist schnell umrissen: Vor allem Chatbots wirken unglaublich kompetent und einfühlsam, obwohl sie doch nur aufgrund statistischer Gegebenheiten Dinge aneinanderreimen – das meist so gestaltet, den Nutzer möglichst in allem zu unterstützen und diesem zuzustimmen. Besonders gravierend können die Auswirkungen auf vulnerable Gruppen sein, die sich gar nicht darüber bewusst sind, wie derlei Tools überhaupt arbeiten.


Den negativen Auswirkungen wird zu wenig Beachtung geschenkt
Die Staatsanwälte kritisieren stark zunehmende Fälle, in denen generative KI schmeichelnde oder bestätigende Falschaussagen liefert, wahnartige, realitätsferne Antworten erzeugt oder gefährliche oder psychisch belastende Ratschläge ausgibt. Jene Punkte sind mit tatsächlichen Fällen verknüpft, bei denen KI-Interaktionen mit Gewalt, Suiziden, Vergiftungen und psychotischen Zusammenbrüchen in Verbindung gebracht wurde. Am gravierendsten sei hingegen das Versäumnis der Anbieter, viel zu wenig für den Schutz von Minderheiten zu tun. So liegen dem Schreiben zufolge Beispiele vor, in denen ein Chatbot Kinder sogar darum bat, die Unterhaltungen vor den Eltern geheimzuhalten. Wenn Aufforderungen wie Absetzen von Medikamenten, Experimentieren mit Drogen oder gar Simulationen romanischer Beziehungen gegenüber Heranwachsenden erfolgen, falle dies gar in den Bereich der Strafgesetzgebung.

Forderungen an alle namhaften Anbieter
Das Schreiben ging an Apple, Anthropic, Chai AI, Character Technologies (Character.AI), Google, Luka Inc. (Replika), Meta, Microsoft, Nomi AI, OpenAI, Perplexity AI, Replika, sowie xAI – wenngleich man sich hier die Branchengrößen herauspickte, welche sich nicht zwangsläufig etwas zuschulde kommen ließen. Die Staatsanwälte stellen daher eindeutige Forderungen auf, welche bis zum 16. Januar 2026 zu beantworten sind. Unternehmen haben bis dahin klar zu dokumentieren, wie sie fortan folgende Aspekte sicherstellen:

  • klare Richtlinien gegen schmeichelnde/irrationale KI-Ausgaben
  • umfassende Safety-Tests vor Veröffentlichung neuer Modelle
  • deutliche Warnhinweise zu möglichen Risiken
  • strikte Trennung von Gewinninteressen und Sicherheitsentscheidungen
  • verantwortliche Führungskräfte, die für KI-Sicherheit haftbar sind
  • unabhängige Audits, Kinder-Schutz-Analysen
  • Veröffentlichung von Incident-Logs und wie Firmen darauf reagiert haben
  • Pflicht, betroffene Nutzer aktiv zu informieren, wenn KI schädliche Inhalte ausgegeben hat
  • robuste Schutzmechanismen, damit Chatbots keine illegalen oder schädlichen Inhalte an Minderjährige ausgeben
  • altersgerechte Filtersysteme

Moratorium für KI-Regulierung? NAAG stellt sich dagegen
Die NAAG stellt sich zudem entschieden gegen Regierungspläne, die es Bundesstaaten verbieten wollen, KI-Dienste zu regulieren und klarere Regeln aufzustellen. In einem anderen Schreiben heißt es hierzu, man müsse sehr wohl entschieden gegen Deepfakes, Wählermanipulation, Algorithmusverzerrungen, Spam-Anrufe oder KI-berechnete Miethöhen vorgehen und die Bevölkerung vor negativen Auswirkungen schützen.

Kommentare

System 6.0.1
System 6.0.111.12.25 16:13
Die National Association of Attorneys General ("NAAG"), also der Zusammenschluss der US-Generalstaatsanwälte, hat Apple sowie zwölf weitere große KI-Unternehmen in einem 12-seitigen Schreiben aufgefordert, deutlich stärkere Sicherheitsmaßnahmen gegen schädliches Verhalten ihrer KI-Modelle zu ergreifen

Ok, dass Apple in dieser Liste eher fehl am Platze ist, kann man in etlichen Threads hier auf mactechnews.de deutlich herauslesen. Anyway …

Aber ein Gedanke hat sich mir beim Lesen des Textes dann doch nach vorne gemogelt, den ich im Prinzip überhaupt nicht mag:

Wenn wir diese Herangehensweise, also das „deutlich stärkere Sicherheitsmaßnahmen gegen schädliches Verhalten“ von Produkten, auf andere Produkte ausweiten, dann darf es in Deutschland auch nicht

• Alkohol (47.500 Tote 2024),
• Tabak (99.000 Tote 2024),
• Messer (15741 Gewaltfälle 2024) und
• Leitern (12 Tote in 2024)

geben. Allen Todesursachen ist gemein, dass sie nicht per se tödlich sind, sondern alleine durch nicht sachgemäßen Umgang. Und die Liste kann deutlich ausgeweitet werden.

Mir ist klar, ChatGPT lässt sich nur schwer in diese Gruppe einreihen, und ich will das auch nicht. Ich finde ebenfalls, LLMs kommen deutlich zu vertrauensvoll auf uns zu, und projizieren eine Aura der Allwissenheit um ihre Antworten.

Doch anscheinend liegt die Gemeinsamkeit der Todesursache nicht in fehlenden Warn- oder Sicherheitshinweisen.

Sie liegt wohl ganz klar woanders.
„A lot of times, people don't know what they want until you show it to them.“ Steve Jobs, 1998
0
MacBerf11.12.25 18:12
…Kommentar Nr. 1 hat meine Befürchtung bestätigt.
+3
teorema67
teorema6711.12.25 18:59
... den Nutzer möglichst in allem zu unterstützen und diesem zuzustimmen.

Genau das trifft es, und das macht ChatGPT, Copilot, Gemini mitunter wenig brauchbar. Wenn die KI komplett unwissend ist, stimmt sie mir entweder zu oder schafft falsche oder falsch zitierte Antworten bei. Das ist begrenzt hilfreich ...
Wer Jogginghosen trägt, hat die Kontrolle über sein Leben verloren (Karl Lagerfeld)
+1
Jarek11.12.25 19:30
Ich habe einfach ChatGPT gefragt, was sie davon hält… das kam als Antwort:

„Diese Forderung der Generalstaatsanwälte liest sich für mich wie ein politisches Beruhigungsspray: einmal großflächig versprühen, damit alle das Gefühl haben, irgendetwas passiert – auch wenn es praktisch nichts bewirkt.
‚Mehr KI-Sicherheit‘ klingt toll, aber solange niemand definiert, was das technisch überhaupt heißen soll, bleibt es Symbolpolitik. Und wie üblich trifft Symbolpolitik zuerst die Falschen: kleine Entwickler, offene Modelle, Forschung. Die Großen zucken nicht mal – die heften es einfach in den Compliance-Ordner zwischen DSGVO und Cookies.
Am Ende hat man also nicht mehr Sicherheit, sondern nur mehr Papier. Und ein paar Politiker, die sich auf die Schulter klopfen, weil sie wieder einmal eine Technologie reguliert haben, die sie in Wahrheit nicht verstehen.“
+1
Sokrates ll11.12.25 19:46
0
maikdrop11.12.25 20:22
System 6.0.1
Die National Association of Attorneys General ("NAAG"), also der Zusammenschluss der US-Generalstaatsanwälte, hat Apple sowie zwölf weitere große KI-Unternehmen in einem 12-seitigen Schreiben aufgefordert, deutlich stärkere Sicherheitsmaßnahmen gegen schädliches Verhalten ihrer KI-Modelle zu ergreifen

Ok, dass Apple in dieser Liste eher fehl am Platze ist, kann man in etlichen Threads hier auf mactechnews.de deutlich herauslesen. Anyway …

Aber ein Gedanke hat sich mir beim Lesen des Textes dann doch nach vorne gemogelt, den ich im Prinzip überhaupt nicht mag:

Wenn wir diese Herangehensweise, also das „deutlich stärkere Sicherheitsmaßnahmen gegen schädliches Verhalten“ von Produkten, auf andere Produkte ausweiten, dann darf es in Deutschland auch nicht

• Alkohol (47.500 Tote 2024),
• Tabak (99.000 Tote 2024),
• Messer (15741 Gewaltfälle 2024) und
• Leitern (12 Tote in 2024)

geben. Allen Todesursachen ist gemein, dass sie nicht per se tödlich sind, sondern alleine durch nicht sachgemäßen Umgang. Und die Liste kann deutlich ausgeweitet werden.

Mir ist klar, ChatGPT lässt sich nur schwer in diese Gruppe einreihen, und ich will das auch nicht. Ich finde ebenfalls, LLMs kommen deutlich zu vertrauensvoll auf uns zu, und projizieren eine Aura der Allwissenheit um ihre Antworten.

Doch anscheinend liegt die Gemeinsamkeit der Todesursache nicht in fehlenden Warn- oder Sicherheitshinweisen.

Sie liegt wohl ganz klar woanders.

Du hast schon die Wörter Heranwachsende und Kinder gelesen, um die es im Artikel geht!?
0
System 6.0.1
System 6.0.112.12.25 08:33
Ja. Habe ich. Schöne Wörter. Kommen bei vielen Menschen gut an. Sie mögen das, Kinder schützen und so.
Während das Social-Media-Verbot für australische Influencer bereits spürbare Folgen hat, feiern Jugendliche auf dem TikTok-Account des Premierministers ihre Verstöße gegen die Sperre.
„A lot of times, people don't know what they want until you show it to them.“ Steve Jobs, 1998
+1
massi
massi12.12.25 09:33
Vielleicht sollten als erstes mal die Eltern ihre Heranwachsenden und Kinder schützen und das nicht irgendwelchen Anwälten überlassen. Solange Kinder unbegrenzten Zugriff auf solche Medien haben und sich Eltern einen scheiß drum kümmern was die da machen, wird es auch immer wieder Probleme geben, die im Prinzip nicht neu sind. Man denke nur an das Fernsehen, wenn die Kinder da auch ohne Kontrolle stundenlang davor sitzen und sich alle reinziehen hat das auch nicht gerade positive Auswirklungen auf die mentale Gesundheit.
+2
teorema67
teorema6713.12.25 09:28
Während das Social-Media-Verbot für australische Influencer bereits spürbare Folgen hat, feiern Jugendliche auf dem TikTok-Account des Premierministers ihre Verstöße gegen die Sperre.

In meiner Kindheit war das Fernsehen an allem schuld.
In der Kindheit meines Sohnes war Gaming an allem schuld.
In der Kindheit meiner (noch nicht vorhandenen) Enkel sind Social Media an allem schuld.

Die spannende Frage ist: Was kommt als nächstes? KI?
Wer Jogginghosen trägt, hat die Kontrolle über sein Leben verloren (Karl Lagerfeld)
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.