Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Steve Wozniak, Elon Musk und viele andere: Offener Brief gegen Weiterentwicklung von KI

ChatGPT sorgt seit geraumer Zeit wegen seiner Leistungsfähigkeit für Begeisterung, ruft aber bei vielen Zeitgenossen auch Ängste hervor. Der auf einer Künstlichen Intelligenz namens GPT-4 basierende Chatbot kann nämlich bekanntlich nicht nur kontextsensitiv mit den Nutzern kommunizieren und etwa Suchergebnisse in natürlicher Sprache ausgeben, sondern auch ganze Texte bis hin zu literarisch anmutenden Werken erstellen. Darüber hinaus erklärt die neueste Version auch Bilder und komponiert Musikstücke. Auf lange Sicht könnte das, so die Befürchtung, ganze Berufszweige verschwinden lassen. Zudem besteht nach Ansicht von Experten die Gefahr, dass KI-Systeme (politische) Meinungen beeinflussen und sogar der Diskriminierung gesellschaftlicher Gruppen Vorschub leisten könnten.


Über 1.000 Experten fordern KI-Moratorium
Mit den Chancen und Risiken des Einsatzes von Maschinellem Lernen und Künstlicher Intelligenz befasste sich vor Kurzem der Deutsche Ethikrat (siehe ). Das Gremium legte eine umfangreiche Stellungnahme vor und forderte unter anderem, dass der Mensch durch technische Systeme nicht ersetzt werden dürfe. Jetzt haben sich auch mehr als 1.000 zum Teil prominente Experten zu Wort gemeldet, darunter Apple-Mitgründer Steve Wozniak und Tesla- sowie Twitter-Chef Elon Musk. Sie unterstützen die Forderung des in den USA und Europa tätigen Future of Life Institute nach einem sofortigen, befristeten Stopp der Weiterentwicklung. Für sechs Monate sollen einem entsprechenden offenen Brief zufolge alle Trainingsmaßnahmen für KI-Systeme eingestellt werden, welche leistungsfähiger sind als GPT-4.

„Digitale Geister“ könnten außer Kontrolle geraten
Das Moratorium sei erforderlich, heißt es in dem Schreiben, denn in den vergangenen Monaten sei ein außer Kontrolle geratener Wettlauf entstanden. Man laufe daher Gefahr, dass mächtige „digitale Geister“ entstünden, die niemand – nicht einmal deren Schöpfer – verstehen oder beherrschen könne. Die derzeit mehr als 1.000 Unterzeichner des Briefs, überwiegend renommierte Wissenschaftler, warnen zudem davor, dass Maschinen die Informationskanäle möglicherweise mit „Propaganda und Lügen“ fluten. „Sollten wir nichtmenschliche Gehirne entwickeln, welche uns irgendwann überflüssig machen und riskieren, die Kontrolle über unsere Zivilisation zu verlieren?“ lautet eine der gestellten Fragen.

Verhaltensregeln und Sicherheitsprotokolle entwickeln
Die Pause soll Wozniak, Musk und den anderen Unterzeichnern zufolge genutzt werden, um Verhaltensregeln und Sicherheitsprotokolle zu entwickeln und zu implementieren. Deren Einhaltung sei anschließend von unabhängigen externen Experten zu überwachen. Sollte das geforderte Moratorium nicht auf freiwilliger Basis zu erreichen sein, müssten die Regierungen eingreifen und die Trainingsunterbrechung per Gesetz anordnen. Eine generelle Absage an die Weiterentwicklung von Künstlicher Intelligenz stellt der offene Brief allerdings nicht dar. Man müsse sich vielmehr lediglich für begrenzte Zeit aus dem gefährlichen Wettrennen zurückziehen, welches immer größere und im Hinblick auf die Ergebnissen nicht vorhersehbare "Blackbox-Modelle“ hervorbringe.

Kommentare

Gammarus_Pulex
Gammarus_Pulex29.03.23 15:10
Da öffnen sie die Augen ja reichlich früh

Die moderne Büchse der Pandora wurde geöffnet und wird sehr sehr vieles verändern. Für die einen zum Guten, für die anderen zum weniger Guten. Wie immer eine Sache der Perspektive.

Allerdings zu glauben, dass die Entwickler der Systeme jetzt bei ihren Goldeseln auf Pause drücken ist absurd. Das widerspricht unserer kurzsichtigen, kapitalistisch geprägten Welt.

Die Einsicht zur Weitsicht kommt reichlich spät.
+18
macuser22
macuser2229.03.23 15:12
Ich stelle mir gerade vor, Big Brother aus 1984 wäre eine KI …
Erkenne dich selbst –//– Nichts im Übermaß
+10
JackBauer
JackBauer29.03.23 15:20
Gammarus_Pulex
Die Einsicht zur Weitsicht kommt reichlich spät.

Nur weil du es hier das erste Mal liest, heißt es nicht, dass die beteiligten Personen erst jetzt darauf hinweisen. Musk & Wozniak gehören schon länger zu den Warnern und das trifft sicher auch auf viele Andere zu - selbst Forscher in den beteiligten Unternehmen, die angeblich ein kopfloses Wettrüsten veranstalten. Die Gefahren von AI sind ja kulturell auch allgemein gut diskutiert.
+18
Magicbuster
Magicbuster29.03.23 15:20
Gammarus_Pulex
Da öffnen sie die Augen ja reichlich früh

Die moderne Büchse der Pandora wurde geöffnet und wird sehr sehr vieles verändern. Für die einen zum Guten, für die anderen zum weniger Guten. Wie immer eine Sache der Perspektive.

Allerdings zu glauben, dass die Entwickler der Systeme jetzt bei ihren Goldeseln auf Pause drücken ist absurd. Das widerspricht unserer kurzsichtigen, kapitalistisch geprägten Welt.

Die Einsicht zur Weitsicht kommt reichlich spät.
Gammarus_Pulex
Da öffnen sie die Augen ja reichlich früh

Die moderne Büchse der Pandora wurde geöffnet und wird sehr sehr vieles verändern. Für die einen zum Guten, für die anderen zum weniger Guten. Wie immer eine Sache der Perspektive.

Allerdings zu glauben, dass die Entwickler der Systeme jetzt bei ihren Goldeseln auf Pause drücken ist absurd. Das widerspricht unserer kurzsichtigen, kapitalistisch geprägten Welt.

Die Einsicht zur Weitsicht kommt reichlich spät.
Für die Einen oder Anderen würde so ein wenig KI bei der Rechtschreibung schon hilfreich sein! Sorry - aber der musste einfach raus.. LG
-26
jmh
jmh29.03.23 15:30
die tech-promis fuerchten sich vielleicht vor ihrer zukuenftigen irrelevanz. es duerfte schwer fuer sie werden, wenn man nicht mehr an ihren lippen haengt ...
wir schreiben alles klein, denn wir sparen damit zeit.
-16
Gammarus_Pulex
Gammarus_Pulex29.03.23 15:42
Magicbuster
Für die Einen oder Anderen würde so ein wenig KI bei der Rechtschreibung schon hilfreich sein!

Da hat die KI hinter Apples automatischer Korrektur wohl noch etwas zu lernen. Verzeih mir den orthografischen Fauxpas auf der iPhone Tastatur.

JackBauer
Nur weil du es hier das erste Mal liest, heißt es nicht, dass die beteiligten Personen erst jetzt darauf hinweisen.

Dass einige der erwähnten Personen sich dagegen aussprechen und Bedenken äußern ist auch mir schon länger bekannt. Aber dass sich diese hier zusammen schließen, das ist neu. Und das kommt reichlich spät.
+2
sonnendeck29.03.23 15:59
Hier werde wieder Utopie als real verkauft, es wird wieder so getan als wenn wir künstliche Bewusstsein schaffen können. Das sind Algorithmen die Vergleiche zwischen unterschiedlichen Ergebnissen relationen herstellen und präsentieren dann ein Ergebnisse. Bin gespannt für was eine Moral sich Elon Musk entscheidet, wenn er entweder 42 Dollar für ein lizenzierte 24x7 Chat Instanz zahlen soll oder 2500 Dollar für einen 8x5 Support Mitarbeiter am Telefon
+6
.YuSuf.
.YuSuf.29.03.23 16:01
Obwohl ich Elon Musk sehr schätze (Unternehmen wie Tesla und SpaceX aufzubauen ist eine enorme Leistung) könnte es auch eine Strategie von Elon sein, um mit seinen eigenen KI-Bemühungen aufzuholen.
Vielleicht ist hier die Konkurrenz einfach richtig gut.
-4
MacKaltschale29.03.23 16:07
Magicbuster
Für die Einen oder Anderen würde so ein wenig KI bei der Rechtschreibung schon hilfreich sein! Sorry - aber der musste einfach raus.. LG

Die zwei Punkte hinter „raus“ stehen wofür? Ich nehme an, du wolltest eigentlich „Sorry – aber“ schreiben? Also mit Gedankenstrich. Du verwendest ein Bindestrich-Minus, das ist falsch.
+18
macimator29.03.23 16:31
alleine die Tatsache, dass man/frau diese Entwicklung bedenklich, gar schädlich finden kann, ist höchst bemerkenswert. Diese Entwicklung und Ausbreitung der KI per se als unausweichlich zu bezeichnen ist schlichtweg falsch und dumm. Der Mensch füttert die Bestie Er könnte ja seine Gier, nach immer neuer, besser, effizienter etwas zügeln. Ich hoffe "er" hat noch ein Bewusstsein für das, wofür der Mensch gemacht ist.
-2
Frank Drebin
Frank Drebin29.03.23 16:36
Ich sage nur "ChatGPT Dude!" (SouthPark)
-1
MacSquint
MacSquint29.03.23 16:56
Wichtige Mahnungen, hoffentlich noch nicht zu spät.
Ohne eine Einbettung in Regeln und Grenzen Für die Nutzung der KI könnte das ganze in eine sehr unschöne Richtung gehen. Die Menschheit muss sich hinsichtlich der Entwicklung der Technologie eine Menge Fragen stellen, ob das die Zukunft ist, die wir wirklich haben wollen. Technische Systeme als Hilfe und Unterstützung sind sehr wahrscheinlich allen willkommen, wenn sie aber am Ende das Regiment übernehmen, führt das eben nicht nur zum Verlust vieler Jobs, sondern auch zu einer grundsätzlichen Veränderung der Spielregeln einer Gesellschaft. Da gilt es drüber nachzudenken und Regeln aufzustellen.
+4
oooskar
oooskar29.03.23 17:03
Apelle an die Vernunft der Menschen haben schon immer geholfen, Schlimmeres zu verhindern ..
+15
MacBlack
MacBlack29.03.23 17:48
macimator
Ich hoffe "er" hat noch ein Bewusstsein für das, wofür der Mensch gemacht ist.
Nun, ich meine, schon darüber gibt es unterschiedliche Auffassungen.

Ich bin bei dem Thema hin und her gerissen. Auf der einen Seite ein faszinierend mächtiges Werkzeug und dadurch andererseits eine Gefahr in den falschen Händen. Die Mahnung, zuerst einmal über Regeln nachzudenken, bevor man das "Spielzeug" weiterentwickelt, ist schon angebracht.

Ein Großteil der Ängste rührt m. E. daher, dass dem Menschen dadurch ein Spiegel vorgehalten wird, in dem er erkennt, wie wenig von dem, woran er sein "Menschsein" festmachte, tatsächlich gottgegeben (im Sinne von unikal) ist. Wenn nun Vieles, was bisher als ureigenst "menschlich" galt, technisch nachkonstruierbar ist, wird die spannenden Frage "Was macht den Menschen aus" erneut aufgeworfen.
+4
Mecki
Mecki29.03.23 17:55
Eine KI kann nichts tun, das wir ihr nicht erlauben zu tun. Selbst eine KI die hundert mal besser ist als ChatGPT kann nur Texte erzeugen, wenn wir ihr nichts weiter erlauben als Texte zu erzeugen. Und es hat nie jemand behauptet, dass es eine gute Idee wäre, einer KI den Zugang zu einem roten Knopf zu geben, mit der man Atomraketen abfeuern kann. Solange wir einer KI keinen Zugriff auf ein Steuerinterface geben, kann eine KI auch nichts steuern. Und wenn eine KI bei mir daheim die Außenrollos steuert, geht davon keine Gefahr für Menschenleben aus, sie kann maximal meine Rollos kaputt machen. Da ist jede KI in selbstfahrenden Autos tausendmal gefährlicher.

Ich weiß, manche werden jetzt denken "Ja, aber was wenn KI sich in einen Server hackt und dann die Kontrolle über eine Steuerung erlangt ...", aber hier liegt ein grundsätzliche Denkfehler vor: Es gibt weltweit keine KI, die irgend etwas aus eigenem Antrieb heraus macht. ChatGPT erfindet nicht von sich auch Geschichten, ChatGPT tut das, wenn wir es auffordern das zu tun, also nur als direkte Reaktion auf unsere Eingabe. Noch nie hatte eine KI einen Eigenantrieb, denn so etwas müsste man explizit implementieren und das ist viel schwerer als alles was man bisher implementiert hat. KIs haben keine Ideen und keinen Willen, sie produzieren Ausgangsdaten anhand von Eingangsdaten und wir bestimmen die Eingangsdaten und ohne die tun KI exakt gar nichts.

Hier wird schon wieder der Fehler gemacht Mustererkennung und eigenständige Datenverarbeitung, bei denen es sich um Teilbereiche der Intelligenz handelt, mit Bewusstsein zu verwechseln. KIs haben kein Bewusstsein, nicht mal im Ansatz. Das was KIs aktuell leisten, mag uns beeindrucken, weil es so "menschlich ist", in Wahrheit aber leisten KIs was Intelligenz angeht immer noch weitaus weniger als die Summe der Denkprozesse eines Hundes und niemand hat Angst, das Hunde morgen die Weltherrschaft übernehmen könnten. Bei Hunden tritt die Intelligenz lediglich in anderer, nicht menschlicher Form auf, daher verkennen wir sie. Ein Hund kann eigenständig in freier Wildbahn überleben, wenn die Bedingungen nicht zu widrig sind, keine aktuelle KI in einem Hundekörper könnte das auch nur für einen Tag.
+4
system7
system729.03.23 17:58
Was genau sollen die Gefahren von ChatGPT mit den aktuellen Kenntnisse sein?
Urheberrecht? Ja. (es ist unklar, worauf generierte Inhalte basieren)
Meinungsfreiheit? Ja. (das Tool ist extrem restriktiv und sehr politisch korrekt)

Bei Deepfakes sehe ich die Gefahren schon als sehr groß an.

Die Forderung halte ich jedoch für Quatsch. Wollen die Unterzeichnenden denn nun auch die Löhne der Beschäftigten der AI-Firmen für die Zeit übernehmen?
-1
MacBlack
MacBlack29.03.23 18:25
Mecki
... in Wahrheit aber leisten KIs was Intelligenz angeht immer noch weitaus weniger als die Summe der Denkprozesse eines Hundes und niemand hat Angst, das Hunde morgen die Weltherrschaft übernehmen könnten.

Weil das den Hunden zugrundeliegende "Programm" nicht so leicht veränderbar ist. Wir können sie nicht weltweit darauf trainieren, schwarzhaarigen Menschen zu vertrauen und Blonde anzuknurren. Da haben sie schon ihre eigenen Vorstellungen, wem sie ihre Zuneigung schenken – und die können von Hund zu Hund verschieden sein.

Bei KI-geleiteten Programmen dürfte das schon wesentlich einfacher sein, solche Differenzierungen anzutrainieren.

Mecki
Es gibt weltweit keine KI, die irgend etwas aus eigenem Antrieb heraus macht. ChatGPT erfindet nicht von sich auch Geschichten, ChatGPT tut das, wenn wir es auffordern das zu tun, also nur als direkte Reaktion auf unsere Eingabe. Noch nie hatte eine KI einen Eigenantrieb, denn so etwas müsste man explizit implementieren und das ist viel schwerer als alles was man bisher implementiert hat. KIs haben keine Ideen und keinen Willen, sie produzieren Ausgangsdaten anhand von Eingangsdaten und wir bestimmen die Eingangsdaten und ohne die tun KI exakt gar nichts.

Bist du dir sicher, dass das in Zukunft nicht anders sein könnte?

Es gab schon vor vielen Jahren einen japanischen Roboterkonstrukteur, der einen menschengroßen (sich auf Rollen fortbewegenden) Roboter gebaut hat, der darauf programmiert war, ihn davon abzuhalten, den Stecker seines Stromkabels aus der Steckdose zu ziehen. Er versuchte stets, sich ihm in den Weg zu stellen, wenn der Konstrukteur sich Richtung Steckdose bewegte. Dadurch, dass er viel langsamer war als sein Konstrukteur, hatte er jedoch keine reale Chance, seinen "Willen" durchzusetzen.
-1
Mecki
Mecki29.03.23 19:02
MacBlack
Wir können sie nicht weltweit darauf trainieren, schwarzhaarigen Menschen zu vertrauen und Blonde anzuknurren.
Doch, natürlich könnten wir das. Wir müssten das zwar mit jedem Hund einzeln tun, aber nichts ist leichter als einen Hund derart abzurichten. Du solltest mal den Film "Der weiße Hund von Beverly Hills" anschauen ("White Dog" im Original). Das ist zwar nur ein Spielfilm, aber was der thematisiert, existiert auch real. Es geht um Hunde, die von Rassisten so abgerichtet werden, dass sie schwarze Menschen anfallen, sich aber gegenüber weißen Menschen komplett harmlos verhalten. Alles was dafür nötig ist, ist es den Hund von (vermeintlich) schwarzen Menschen misshandeln zu lassen, während weiße Menschen ihm nur Liebe schenken. Der Hund assoziiert dann ganz schnell die schlechte bzw. gute Behandlung mit der Hautfarbe und differenziert hier nicht länger.

Das geht aber an meiner Argumentation vorbei. Mir ging es darum, dass ein Hund von sich aus entscheidet Entscheidungen treffen, die für sein überleben essentiell sind. Das er Probleme erkennt (er hat Hunger, er muss essen finden) und von sich aus nach Lösungen sucht (da ist Essen, er kommt aber nicht ran - was kann er tun, um da ran zu kommen) und dabei eine enorme Kreativität entwickeln kann. Nichts dergleichen ist jemals für eine KI nachgewiesen worden. Wenn ich ChatGPT das Problem erkläre und nach einer Lösung frage, dann bekomme ich ggf. eine, aber von sich aus hätte die KI nicht nach einer Lösung gesucht, geschweige denn ein Problem erkannt. Denn ChatGPT baut nur aus bekannten Lösungen andere Menschen für ein ähnliches Problem eine Lösung zusammen und das nur deswegen, weil ich das einfordere.

Bist du dir sicher, dass das in Zukunft nicht anders sein könnte
Das habe ich nicht behauptet, nur dass wir aktuell noch weit davon entfernt sind und es noch Jahrzehnte dauern kann, bis wir in die Nähe davon kommen. Aktuell geht von KI weniger Gefahr aus als vom Klimawandel, aber niemand fordert ein Treibhausgas-Moratorium und den Ausstoß von Treibhausgasen sofort für 10 Jahre einzustellen. Naja, ein paar radikale Aktivisten vielleicht, aber niemand der vernünftig handelt. KI ist nicht gefährlich, außer wenn wir KI erlauben autonom Handlungen durchzuführen, die reale Konsequenzen für Geld, Sachwert oder Menschenleben haben und wo bitte steht geschrieben, dass wir so etwas tun müssen?

Es gab schon vor vielen Jahren einen japanischen Roboterkonstrukteur, der einen menschengroßen (sich auf Rollen fortbewegenden) Roboter gebaut hat, der darauf programmiert war, ihn davon abzuhalten, den Stecker seines Stromkabels aus der Steckdose zu ziehen.
Eben, er war darauf programmiert. Er hat das getan, weil man ihm gesagt hat, das zu tun, nicht weil er da selber drauf gekommen wäre oder erkannt hätte, dass das nicht gut für ihn wäre. Das hat nichts mit KI zu tun. Wenn ich einen Computer sage "Mach das", dann macht er das, was aber im Umkehrschluss heißt, er wird nichts machen, außer ich habe ihm das gesagt und was ich ihm sage, kann ich ja frei bestimmen.
+4
heubergen29.03.23 19:06
Ah, die Dinosaurier die versuchen die Pferde wieder vor den Karren zu spannen...

Die Erde dreht sich weiter und einige werden gewinnen und einige verlieren. Lieber die Zeit darauf verwenden zu den Gewinnern zu gehören als es (vergeblich) stoppen zu wollen.
+1
eyeofthestorm29.03.23 19:23
jmh
die tech-promis fuerchten sich vielleicht vor ihrer zukuenftigen irrelevanz. es duerfte schwer fuer sie werden, wenn man nicht mehr an ihren lippen haengt ...
Du bist auch ein Chatbot, oder? Wer weiß das schon, mit wem man sich unterhält. Das wird das Internet verändern, vielleicht geht es dann im RL wieder zur Sache. Das Web wird mit Texten zugemüllt und Informationen wird es nur noch auf kuratierten Seiten geben. Journalismus könnte wieder aufblühen.
+5
jens-ulrich
jens-ulrich29.03.23 19:30
Kleiner Ausblick auf GPT-5 gefällig:

Ich habe da recht gemischte Gefühle, was künftig möglich sein wird. KIs die KIs schreiben. Das klingt schon etwas nach »SkyNet«. Ich will ja nicht zu schwarz sehen, jedoch braucht Etwas kein Bewusstsein um gefährlich zu sein. Ein Virus ist auch ohne und kann tödlich sein und ein Virus »schreibt« neue Viren.

Aktuell sehe ich das Urheberrecht oder Copyright als größtes Problem, besonders bei Bildern und Filmen, die von der KI erstellt werden.
+2
jmh
jmh29.03.23 20:33
eyeofthestorm
Du bist auch ein Chatbot, oder?

nein – sonst haettest du bei mir einen account anlegen muessen ...
wir schreiben alles klein, denn wir sparen damit zeit.
-3
Mecki
Mecki29.03.23 20:35
jens-ulrich
Ein Virus ist auch ohne und kann tödlich sein und ein Virus »schreibt« neue Viren.
Ein Virus existiert aber auch in der realen Welt. Eine KI hat nur so viel Zugang zur realen Welt, wie wir ihr erlauben. SkyNet hat es nur gegeben, weil man einer KI erlaubt hat Roboter und Waffen in der realen Welt zu steuern. Wo steht bitte, dass wir das tun müssen? Wer bitte hat vor das zu tun? SkyNet hat sich nicht selber die Kontrolle gegeben, Menschen haben SkyNet die Kontrolle gegeben und gesagt "Tu was du für richtig hältst" und das hat SkyNet dann auch getan. Aktuell würde SkyNet aber schon daran scheitern, dass KI die reale Welt gar nicht kennt. Das glauben einige, weil doch ChatGPT über sich selber und die reale Welt philosophiert, richtig? Tut es aber nicht. ChatGPT gibt nur wieder was Menschen in Texten darüber philosophiert haben, die man da rein gefüttert hat. Nur weil ein Papagei nachplappert, was Menschen sagen, heißt das nicht, dass er auch nur im Ansatz versteht was er da sagt. ChatGPT hat keine Ahnung was es von sich gibt, das klingt nur alles so gut und logisch, weil er hier nachplappert was Menschen gesagt haben und es gelernt hat, wie man das zusammenstückeln muss, damit es für Menschen gut klingt.
+1
jens-ulrich
jens-ulrich29.03.23 20:50
Der aktuelle chatGPT ist ja nicht das Problem. Doch bei GPT-5 geht es weit darüberhinaus. Damit sollen sich Roboter in der realen Welt zurecht finden und letztlich interagieren sie dann mit Mensch und Tier.
Noch sind das alles Gedankenexperimente. Das Problem liegt jedoch wie immer daran, das eine kleine Gruppe daran arbeitet, die man nur schwer kontrollieren kann.
Schon der ital. Physiker Fermie sagte 1941 zum Thema Atomkraft: Geht weg mit euren Skrupeln, es ist so schöne Physik.
Kommt nicht oft die Forschung vor der Ethik?
+2
MacBlack
MacBlack29.03.23 20:54
Mecki
MacBlack
Wir können sie nicht weltweit darauf trainieren, schwarzhaarigen Menschen zu vertrauen und Blonde anzuknurren.

Doch, natürlich könnten wir das. Wir müssten das zwar mit jedem Hund einzeln tun, aber nichts ist leichter als einen Hund derart abzurichten. ...

Das geht aber an meiner Argumentation vorbei. Mir ging es darum, dass ein Hund von sich aus entscheidet Entscheidungen treffen, die für sein überleben essentiell sind.

Genau, da reden wir auch etwas aneinander vorbei. Ich wollte den Fokus darauf richten, dass eine Gefahr m. E. eher weniger davon ausgeht, dass die KI "intelligent und selbstbewusst" wird (Science fiction lässt grüßen), sondern eher davon, dass dieses Werkzeug (im Gegensatz zu einem Hund – der natürlich kein Werkzeug sein sollte) künftig relativ unkompliziert von wenigen Menschen gegen viele Menschen eingesetzt werden kann. Und da hätte man bei selbständig entscheidenden Hunden weltweit doch etwas mehr zu tun...

KI vergrößert also die Schlagkraft im Guten wie im Bösen und erweitert den Kreis von Menschen, die nun leistungsfähige Software anwenden können.
Mecki
MacBlack
Bist du dir sicher, dass das in Zukunft nicht anders sein könnte
Das habe ich nicht behauptet, nur dass wir aktuell noch weit davon entfernt sind und es noch Jahrzehnte dauern kann, bis wir in die Nähe davon kommen. ...
MacBlack
Es gab schon vor vielen Jahren einen japanischen Roboterkonstrukteur, der einen menschengroßen (sich auf Rollen fortbewegenden) Roboter gebaut hat, der darauf programmiert war, ihn davon abzuhalten, den Stecker seines Stromkabels aus der Steckdose zu ziehen.
Eben, er war darauf programmiert. Er hat das getan, weil man ihm gesagt hat, das zu tun, nicht weil er da selber drauf gekommen wäre oder erkannt hätte, dass das nicht gut für ihn wäre. Das hat nichts mit KI zu tun. Wenn ich einen Computer sage "Mach das", dann macht er das, was aber im Umkehrschluss heißt, er wird nichts machen, außer ich habe ihm das gesagt und was ich ihm sage, kann ich ja frei bestimmen.

Wie schon oben gesagt: Nicht die KI an sich ist potenziell gefährlich (da bin ich vollkommen bei dir), sondern der Mensch, der sie benutzt. Darauf sollte mein Beispiel aus den Vorläufer-Tagen der KI-Programmierung hinweisen: Menschen sind in der Lage, auch gegen sich selbst zu programmieren.
+3
MacBlack
MacBlack29.03.23 21:32
MacBlack
KI vergrößert also die Schlagkraft im Guten wie im Bösen und erweitert den Kreis von Menschen, die nun leistungsfähige Software anwenden können.

Das erinnert ein wenig an die Zeit, als die "Ghettoblaster" 📻 aufkamen: Plötzlich war jeder technisch und finanziell in der Lage, seine Mitmenschen überall zu beschallen. 🙉
+1
desko7529.03.23 22:00
jens-ulrich
Der aktuelle chatGPT ist ja nicht das Problem. Doch bei GPT-5 geht es weit darüberhinaus. Damit sollen sich Roboter in der realen Welt zurecht finden und letztlich interagieren sie dann mit Mensch und Tier.
Noch sind das alles Gedankenexperimente. Das Problem liegt jedoch wie immer daran, das eine kleine Gruppe daran arbeitet, die man nur schwer kontrollieren kann.
Schon der ital. Physiker Fermie sagte 1941 zum Thema Atomkraft: Geht weg mit euren Skrupeln, es ist so schöne Physik.
Kommt nicht oft die Forschung vor der Ethik?
Absolut Deiner Meinung.
KI (nicht nur GPT) ist ein Machtinstrument, mit dem Menschen beurteilt, kategorisiert und manipuliert werden können. Hier alles genau darzulegen würde den Rahmen sprengen. Demnächst z.B. wird jeder sein persönliches Stimmmodel erstellen können. So werden u.A. geschriebene Textnachrichten mit der Stimme des Absenders vorgelesen. Spotify hat neulich eine Firma übernommen, die sowas anbieten möchte.

„Spotify sei damit in der Lage, allen Künstlern, Podcastern und so weiter anzubieten, auf seiner Plattform benutzerdefinierte Sprach-Klone zu trainieren und zu hosten, schreibt Tech-Journalist Linus Ekenstam (https://twitter.com/LinusEkenstam). "Diese Klone können dann vermietet und lizenziert werden. Das ist genial." Daraus ergäben sich unendlich viele Möglichkeiten. Beispielsweise könne man auf Anfrage jeden Song der Welt vom Lieblingskünstler singen lassen.“


Musk & Co haben recht. Es sollten hier erstmal Regeln & Gesetze her, bevor es weiter geht. Also bitte ausnahmsweise umgekehrt: Ethik vor Forschung.
+2
svenski29.03.23 22:55
Am Wochenende war in der SZ ein langes Interview mit Herbert Grönemeyer, in dem es um seine Texte ging. „Gewürzt“ war es mit 3 Songtexten von ChatGPT “im Stil von“ H.G.
Genz deutlich war zu erkennen, dass das Sprachmodell durch sein statistisches Vorgehen über sehr mittelmäßige Texte nie hinauskam. Für durchschnittlich dämliche Schlagertexte braucht es wohl keine Menschen mehr. Von inhaltlich und sprachlich anspruchsvollen Lyrics war das ganz weit entfernt. In wahrscheinlichen Wortfolgen steckt keine Kunst. Im falschen Kontext möglicherweise aber Gefahr…

Ob es diese Pause nun braucht…🙄

Gruß, svenski.
-1
OliverCGN30.03.23 03:43
Mecki
Eine KI kann nichts tun, das wir ihr nicht erlauben zu tun. Selbst eine KI die hundert mal besser ist als ChatGPT kann nur Texte erzeugen, wenn wir ihr nichts weiter erlauben als Texte zu erzeugen. Und es hat nie jemand behauptet, dass es eine gute Idee wäre, einer KI den Zugang zu einem roten Knopf zu geben, mit der man Atomraketen abfeuern kann. Solange wir einer KI keinen Zugriff auf ein Steuerinterface geben, kann eine KI auch nichts steuern. Und wenn eine KI bei mir daheim die Außenrollos steuert, geht davon keine Gefahr für Menschenleben aus, sie kann maximal meine Rollos kaputt machen.

Es gibt genug alberne Horrorfilme die genau sowas zum Thema haben:

Ein Rollo, welches zum falschen Zeitpunkt hoch- oder runterfährt kann bei entsprechendem Gewicht tödlich sein. (Scream? - hab ich nicht mehr richtig in Erinnerung)

In "Fahrstuhl des Grauens" glaubten die Entwickler, es wäre eine gute Idee einen Bio-Chip zu verbauen.

Und in The Tower (furchtbar alberner Film) verwechselt die KI einen neuen Mitarbeiter mit einem Eindringling.

Das ist alles weit hergeholt, aber was ich damit sagen will:
Eine vermeintlich harmlose Funktion kann sich zur tödlichen Falle entwickeln, wenn etwas gehackt wird oder eine KI glaubt, sie hätte ein Bewusstsein. (I, Robot)

Und dennoch finde ich KI unglaublich faszinierend.
Und mir ist künstliche Intelligenz immer noch lieber, als natürliche Dummheit.
-1
Gammarus_Pulex
Gammarus_Pulex30.03.23 08:20
OliverCGN
Und mir ist künstliche Intelligenz immer noch lieber, als natürliche Dummheit.

Und genau da liegt ein großes Problem.
Die letzten drei Jahre haben uns wieder und wieder vor Augen geführt, dass ein nicht unerheblicher Teil der Menschheit einfach alles glaubt, was man ihnen vorsetzt. Und noch viel besorgniserregender: Alles auch noch als die Wahrheit weiter verbreitet.

Und jetzt kann nahezu jeder mit KI spielend leicht sehr glaubhafte Inhalte erstellen lassen. Kritisches Beispiel: Eine der hiesigen Parteien nutzt ein solches KI Motiv um Volkshetze zu schüren. In der offiziellen Aussage natürlich nicht. Da wird dann auch ganz klar gesagt „das erkennt man doch ganz eindeutig als Fake und nicht echt“.

Nein. Jemand, der nicht über das KI Thema Bescheid weiß oder gar ein Auge für die Anzeichen von KI Material hat, wird das nicht erkennen. Und manche davon glauben dann auch noch, was sie zu sehen glauben.

Weiter gehts mit Deepfakes und Deepvoices. Es ist jetzt schon möglich, täuschend echtes Material zu erstellen indem man das Gesicht einer realen Person in eine für sie nie existierende Situation einfügt.
Es gibt jetzt schon Bilder einer vermeintlichen Verhaftung Trumps. Hat das jemand beim ersten Blick geglaubt? Den ein oder anderen gab‘s da bestimmt. Ob es dann auch erstmal hinterfragt und geprüft wurde? Sicher nicht von jedem.

Viel gravierender sehe ich das Thema aber bei alltäglichen Personen aus dem eigenen Umfeld. Deepfakes und Deepvoices sind perfekt, um das Leben eines jeden Menschen instant zu zerstören. Einfach das Gesicht mal kurz woanders reinrechnen lassen und ab ins Netz damit.
Damit wird ein ganz neues Level des Mobbings freigeschaltet.

Pup egal, ob das entstehende Material glaubhaft ist. Es reicht, wenn die betroffene Person einen psychischen Knacks davonträgt und lieber im Erdboden versinken will.

Also nein, ich glaube (noch) nicht an Terminatoren, die die Menschheit auslöschen werden. Aber ich weiß, dass es Menschen gibt, die für den eigenen Vorteil gerne mal die Ethik beiseite schieben und denen andere Menschen nur so weit nicht egal sind, wie sie ihren Nutzen aus ihnen ziehen können. Und jetzt gibt es auch noch ein weiteres, leicht zu nutzendes Werkzeug.
+5
Weitere News-Kommentare anzeigen

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.