Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Social Media und bewusste Suchtförderung: Millionenstrafen gegen Google und Meta

In Los Angeles hat eine Jury Meta und Google/YouTube in einem wegweisenden Verfahren für fahrlässig mitverantwortlich erklärt, weil ihre Plattformen durch suchtförderndes Design zu den psychischen Problemen einer jungen Nutzerin beigetragen hätten. Besonders bedeutend dabei ist die Tatsache, mit dem Urteil nicht auf Inhalte, sondern auf die grundsätzliche Konzeption der Plattformen abzuzielen. Genau deshalb gilt die Entscheidung als potenziell folgenreich und könnte eine Debatte befeuern, die bislang von Gesetzgebern nur halbherzig betrachtet wurde. Meta muss übrigens 4,8 Millionen, Google 1,2 Millionen Dollar bezahlen. Die Hälfte davon geht an die Klägerin.


"Wir sind nicht verantwortlich", sagen die Anbieter
Konzerne verteidigen sich in solchen Fällen oft mit dem Hinweis, sie seien nicht für nutzergenerierte Inhalte verantwortlich. In diesem Verfahren lief die Argumentation aber anders, denn die Klägerseite griff gezielt Mechaniken der Plattformen an – also die Art, wie Instagram und YouTube Aufmerksamkeit binden, Verhalten verstärken und längere Nutzung begünstigen. Reuters bezeichnet das Urteil als Musterfall für tausende ähnliche Klagen in den USA. Gelingt dieser Ansatz häufiger, würde sich der Druck auf die Konzerne deutlich erhöhen.

Suchtverstärkende Grundprinzipien zur Nutzerbindung
Die Suchtdynamik lässt sich mit ganz bestimmten Funktionsweisen erklären. In den Argumenten zum Verfahren tauchen immer wieder Endlos-Scrollen, Autoplay, ständige Benachrichtigungen, Empfehlungsalgorithmen und teils auch Beauty-Filter auf. Solche Funktionen nehmen Nutzern natürliche Stoppsignale: Der Feed endet nie, das nächste Video startet automatisch, neue Reize kommen ohne aktive Entscheidung nach. Genau diese Mechaniken machen es schwerer, aufzuhören, selbst wenn man es eigentlich möchte.

Immer mehr Studien zu psychischem Schadensrisiko
Aus psychologischer Sicht arbeiten diese Systeme mit variabler Belohnung und permanenter Reizverdichtung. Ein Like, ein überraschend interessantes Video, eine neue Nachricht oder ein emotional aufgeladener Post kommen nicht planbar, sondern unregelmäßig. Die American Psychological Association nennt genau solche Features als besonders suchtverstärkend. Der juristische Fokus liegt vor allem auf Minderjährigen, weil sie Impulskontrolle, Selbstregulation und soziale Einordnung noch entwickeln. Der "US Surgeon General" hatte 2023 schon davor gewarnt, dass deutliche Hinweise auf ein erhebliches Schadensrisiko für die psychische Gesundheit von Kindern und Jugendlichen bestehen.


Ein Vergleich mit "Big Tobacco"
Der häufig genannte Vergleich mit der Tabakindustrie kommt daher, dass in beiden Fällen der Vorwurf lautet: Unternehmen haben lange gewusst, dass ihre Produkte gerade junge Nutzer auf problematische Weise binden oder schädigen können – und trotzdem setzte man weiter auf Wachstum. Ob dieser Vergleich juristisch voll trägt, bleibt offen. Strategisch ist er wirksam, weil er aus einer Debatte über "Inhalte im Internet" eine Debatte über Produktverantwortung macht. Genau diese Verschiebung sieht man jetzt in den US-Verfahren sehr deutlich.

Google und Meta wollen sich wehren
Sowohl Meta als auch Google wollen allerdings gegen das Urteil vorgehen. Google argumentiert unter anderem, YouTube sei überhaupt nicht "Social Media", Meta verweist auf hohe Investitionen in die Sicherheit der Nutzer. Außerdem bestreiten beide, Verantwortung für Nutzerverhalten zu tragen. Ungünstig für Meta: In dieser Woche hatte man einen sehr ähnlichen Fall in New Mexico verloren, die Strafe liegt sogar bei 375 Millionen Dollar.

Kommentare

TMS
TMS26.03.26 12:31
Das ist wie immer ein Thema, bei dem sich die Geister scheiden. Die einen setzen stark auf Schutz und die anderen eher auf Eigenverantwortung. Dahinter liegen ganze Weltbilder und politische Sichtweisen. In den USA läuft es halt tendenziell auf "This bag is not a toy" etc. hinaus. In Europa ist diese Haltung bislang nicht ganz so ausgeprägt.
-3
GoMaaad4Macs26.03.26 12:56
TMS
Eigenverantwortung
Schwierige Kiste, gerade bei Kindern und Jugendlichen. Die kommen auch mit strikten Beschränkungen an digitale Drogen. Und wie es um die Eigenverantwortung von Erwachsenen steht, kann man beispielsweise am Ernährungsverhalten und dem Zustand der Erde ablesen.
+15
Legoman
Legoman26.03.26 12:56
So sehr ich die Werbeblöcke hasse, aber wenn ich dann beim endlosen Scrollen gestoppt werde, um mir zwangsweise Werbung anzuschauen, liefert das den nötigen Impuls zum Verlassen der App.
+1
bmonno226.03.26 14:08
TMS
Das ist wie immer ein Thema, bei dem sich die Geister scheiden. Die einen setzen stark auf Schutz und die anderen eher auf Eigenverantwortung. Dahinter liegen ganze Weltbilder und politische Sichtweisen. In den USA läuft es halt tendenziell auf "This bag is not a toy" etc. hinaus. In Europa ist diese Haltung bislang nicht ganz so ausgeprägt.
Die junge Dame, die geklagt hatte, ist mit 6 - 8 Jahren da rein geraten. Ob man in dem Alter schon von "Eigenverantwortung" sprechen kann, möchte ich bezweifeln. Außerdem waren die eingesetzten Techniken (endlos Scrollen, automatische nächste Filmwiedergabe) Grundlage für das Urteil.
Europa setzt in dem Bereich ja auch nicht auf Eigenverantwortung, sondern geht eher den Weg zu Altersbeschränkungen.
+6
TorstenW26.03.26 14:35
Es gibt hier natürlich allerlei Aspekte zu beachten.

GoMaaad4Macs
Kindern und Jugendlichen. Die kommen auch mit strikten Beschränkungen an digitale Drogen.
Hier stimme ich prinzipiell zu, aber das Ziel ist es eben auch nicht, allen komplett den Zugang zu verbarrikadieren, sondern die Hürde so hoch zu legen, so dass eben nicht jeder Jugendliche einfach auf "Ja, ich darf diese App nutzen" klicken kann.
Es ist eine ganz andere Qualität von krimineller Energie nötig um z.B. einen Gesichts-Scan eines Elternteils zu faken.
Solche Maßnahmen werden also, alleine dadurch dass es schwieriger wird, viele Kinder schützen.
Außerdem wird die Gefahr auch noch einmal ins Bewusstsein gerückt, wenn eine App nur nach Altersverifikation funktioniert.
Wenn natürlich Eltern nicht mitziehen ist das alles vergebene Liebesmüh.
Wie in dem Fall hier: Wie kann ein 6-14jähriges Kind über 16 Stunden am Tag am Handy verbringen? Wo sind da die Eltern, wieso merken und unterbinden sie so eine Nutzung nicht? Absurd..

Die richtigen Maßnahmen sind Altersbeschränkungen, die technisch so umgesetzt sind, dass sie nicht direkt auszuhebeln sind, aber dann auch Alternativen die zur Verfügung stehen und das Vakuum füllen, das entsteht, wenn auf einmal zig Stunden am Tag frei werden. Aber das sind in weiten Teilen Dinge, die das Elternhaus und die umgebende Gesellschaft (Freunde, Schule, Vereine etc) tragen müssen.
+2
vobsi26.03.26 14:42
Eigenverantwortung ist gut… Wir sind alle abhängig von unseren Neurotransmittern. Meta und Co tun alles dafür genau diese Mechanismen zu bedienen. Eigenverantwortung ist da sehr schwierig bis unmöglich. Ständig werden von Sozialen Netzwerken und anderen Medien unsere primitivsten Hirnregionen angesprochen. Und da geht es nicht nur um Suchtmechanismen. Uns wird Angst vor Fremden gemacht, oder Angst davor aus unserer Gruppe ausgeschlossen zu werden. (Kriegsvideos, Fitnessinfluencer, Looksmaxxing etc…)

Klingt wie eine Verschwörungstheorie aber ist unser Alltag. Wir können natürlich mit dem evolutiontechnisch jüngsten Teil unseres Hirns dagegen angehen und reflektieren, aber so einfach ist das nicht, gerade wenn man süchtig nach Angst und schnellen Dopaminkicks dieser kurzen Videos ist…
Wir sind Tiere, die theoretisch zur Selbstreflexion fähig sind, aber das machen wir doch (noch) viel zu selten…
Ich bin mittlerweile sogar überzeugt, dass freier Wille nur eine Illusion ist.

Buchtipp: Behave (Gewalt und Mitgefühl) von Robert Sapolsky
+6
Fontelster
Fontelster26.03.26 15:51
»Meta verweist auf hohe Investitionen in die Sicherheit der Nutzer.«

Schön, Investitionen allein beweisen aber rein gar nix. Erstmal sind das »Investitionen«, die ihr eigenes Geschäftsmodell »beschädigen« würden. Meta lebt davon, Nutzer so lange wie möglich auf der Seite zu halten – und dabei möglichst viel Werbung zu sehen.
Ansonsten erinnert mich das an die häufige Kosmetik-Werbeaussage »Dermatologisch/von Hautärzten getestet«. Einen Test gemacht zu haben sagt überhaupt nichts darüber aus, wie der Test ausgefallen ist. Viele werden bei der Führerscheinprüfung getestet. Nicht alle davon bestehen den Test.
Eine Investition, welche die Werbeeinnahmen nicht verringert, ist keine, sondern nur ausgegebenes Geld, welches vielleicht sogar noch irgendwie steuerlich geltend gemacht werden kann.


»Außerdem bestreiten beide, Verantwortung für Nutzerverhalten zu tragen.«
Das ist natürlich an Zynismus nicht zu überbieten.
Firmen, die hunderttausende oder Millionen dafür ausgeben das Nutzerverhalten zu steuern, bestreiten dann die Verantwortung für dieses Verhalten zu haben?

Der Dealer zum Junkie: »Wenn du mit Heroin nicht umgehen kannst, ist das doch nicht meine Schuld«
+10
System 6.0.1
System 6.0.126.03.26 20:15
Ich denke, selbststartende Videos zu verbieten würde massiv das Suchtpotential senken. Wenn jedes Mal das nächste Video erst mit einem Klick auf Start angeschubst werden muss, geht der Tunneleffekt schnell verloren.

Die Anbieter der Droge werden sich mit allem dagegen wehren, was legal oder illegal zu bekommen ist. Der stetige Content-Strom macht die Sucht.

Ist das erledigt, wären verbindliche Desinformations-Filter der nächste Schritt. Dass die Erde eine Scheibe ist, ist keine Meinung, sondern eine Lüge. Die Meinungsfreiheit wäre also nicht eingeschränkt. Gibt es umstrittene Aussagen, werden diese farblich gekennzeichnet. Beleidigende Textbestandteile sollten ⌧⌧⌧⌧⌧-nochmal endlich ausgeblendet werden können.

Zu irgendwas muss diese KI, von der jetzt überall erzählt wird, doch gut sein.

Wenn wir das, was unsere Kinder oder die Demokratie nachhaltig beschädigt nicht sanktionieren, dann können wir auch gleich alle Drogen freigeben und Ampeln und Verkehrsschilder abreißen. Kapitalismus ist nicht sakrosankt.
„A lot of times, people don't know what they want until you show it to them.“ Steve Jobs, 1998
+4

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.