Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

KI soll verständlicher und sicherer werden: Meta, IBM, Intel und viele andere gründen „AI Alliance“

KI-Chatbots wie Googles Bard oder ChatGPT von OpenAI sowie Bildgeneratoren wie DALL-E machten in den vergangenen Monaten verstärkt Schlagzeilen. Sie riefen allerdings auch zahlreiche Bedenkenträger auf den Plan, welche in der zugrundeliegenden Technik potenzielle Gefahren ausmachen. Im März dieses Jahres forderten beispielsweise Steve Wozniak, Elon Musk und über 1.000 weitere Experten einen temporären Stopp der Weiterentwicklung von Künstlicher Intelligenz (siehe ). Vor Kurzem veröffentlichten zudem 22 Länder und zahlreiche Tech-Größen gemeinsame Sicherheitsforderungen im Hinblick auf Design, Betrieb und Wartung von KI-Modellen.


AI Alliance setzt sich für verantwortungsvolle KI-Entwicklung ein
Einer der Gründe für solche und weitere Initiativen ist die Tatsache, dass es sich bei der überwiegenden Mehrzahl aktuell verfügbarer und künftiger KI-Anwendungen um geschlossene Systeme handelt. Trainingsalgorithmen und weitere Techniken sind in aller Regel geheim, die Modelle entziehen sich somit jeglicher öffentlicher Kontrolle. Angesichts der Möglichkeiten, Chatbots, Bildgeneratoren und andere Dienste für diverse unlautere und sogar kriminelle Zwecke zu nutzen, stellt das eine potenzielle Gefahr dar. Hinzu kommt, dass ChatGPT, Bard & Co. häufig falsche Ergebnisse liefern und gern einmal „halluzinieren“, also alternative Fakten erfinden. Mehr als 50 Unternehmen, Forschungseinrichtungen und Institutionen haben jetzt die „AI Alliance“ ins Leben gerufen, welche sich für die verantwortungsvolle Entwicklung und einen ebensolchen Umgang mit Künstlicher Intelligenz einsetzt.

Intel, Meta, NASA und andere wollen quelloffene Modelle fördern
Zu den Gründungsmitgliedern der Organisation zählen unter anderem große Unternehmen wie Meta, IBM, Sony und Intel. Ebenfalls an Bord sind Linux Foundation, NASA und AMD sowie etliche renommierte Universitäten wie die ETH Zürich und Harvard. Die AI Alliance hat sich unter anderem zum Ziel gesetzt, quelloffene KI-Modelle zu fördern. Damit soll nicht nur mehr Transparenz geschaffen, sondern auch die Weiterentwicklung beschleunigt sowie auf eine breitere wissenschaftliche Basis gestellt werden. Gleichzeitig sorge Open Source für mehr Sicherheit und Vertrauen in KI-Modelle, heißt es in einer Mitteilung der Organisation; die mit der Technik einhergehenden Risiken würden minimiert. Darüber hinaus gebe es durch den quelloffenen Ansatz mehr Chancengleichheit, Startups und Einzelentwickler böten sich dadurch dieselben Chancen wie großen Tech-Unternehmen.

Kommentare

Mecki
Mecki05.12.23 18:14
Das ist nur der klägliche Versuch einer gesetzlichen Regulierung zuvor zu kommen, aber Selbstverpflichtungen haben noch nie wirklich funktioniert, weil am Ende niemand bereit ist sich selber schmerzhafte Einschnitte aufzuerlegen, genau diese braucht es aber bei echter Regulierung.

Wie wenig KI in Wahrheit kann sieht man in Bildgeneratoren. Wenn ich dort ein Bild "bestelle", dass 6 Elemente beinhaltet und im Ergebnis fehlen ganz klar 3 davon, dann sieht man, dass die KI nichts kann, weil jeder Mensch hätte problemlos alle 6 Elemente in ein Bild einarbeiten können.

Hier sagt das Bild mehr als 1000 Worte, wobei ich auch bei einer Text KI häufig Antworten bekomme, die gar nicht auf wesentliche Punkte der Frage eingehen. So frei nach dem Motto "Deine Frage ist mir zu kompliziert, ich erstelle einfach eine Antwort, die grob etwas mit dem Thema zu tun hat und zu einer einfacheren Frage gepasst hätte" Was aber nutzlos ist, weil diese einfache Antwort hätte ich mir auch selber geben können, da steht nichts, was ich nicht schon wusste.

Besonders liebe ich es, wenn die Antwort gar keine Antwort ist. Wenn ich z.B. nach einem konkreten Wert frage und die KI antwortet "Also das kann man wie folgt berechnen" und knallt mir dann eine Formel hin. Das war aber nicht meine Frage. Ich habe nie gefragt, wie man das berechnen kann, ich habe ganz konkret nach einem Wert in einem ganz konkreten Fall gefragt. Wie man das berechnen kann, hätte ich auch selber nachschauen können, aber ich war halt zu faul das selber zu berechnen, ich wollte dass die KI mir das Ergebnis nennt oder es selber ausrechnet, denn alles was man dafür braucht, hatte ich in der Frage geliefert, mal ganz davon abgesehen, dass das bestimmt schon viele Leute berechnet und veröffentlicht haben.

Daher halte ich diese Forderungen nach einem Stopp der KI Entwicklung für total übertrieben. Klar, manchmal liefern KIs grandiose Ergebnisse, aber was hier vergessen wird ist: Das ist der eine Fall von 1000 wo das Ergebnis mal wirklich gut war. Auch ein blindes Huhn... Die furchtbaren 999 anderen Ergebnisse hingegen verbreiten sich nicht im Netz, die teilt nämlich niemand.
+3
Raziel105.12.23 18:19
Mecki

also bei Bildern habe ich das von dir beschriebene nicht erlebt. Alles was gefordert wurde war enthalten. Die Erfahrungen bei textuellen Fragen sind da nicht anders. Die Antwort entspricht deiner Frage, dem Kontext etc. wenn du was bestimmtes erwartest musst du das mitteilen. Wie bei echten Menschen antwortet dein gegenüber sonst nach eigenem Ermessen und Erfahrung
+1
AJVienna05.12.23 18:43
Vielleicht helfen die Erkenntnisse die man für die KI erforscht um Halluzinationen einzudämmen auch bei unseren Politikern. Gibt da ja auch einige Modelle die beim Halluzinieren von Fakten ganz groß sind. Vielleicht hat Trump ja schon einen GPT Chip der 1. Generation implantiert. Zumindest halluziniert der mehr als GPT 3.
+1
Mecki
Mecki05.12.23 19:24
Raziel1
wenn du was bestimmtes erwartest musst du das mitteilen.
Das habe ich. Ich habe ganz konkret gefragt "wie schnell" und kein Mensch würde dann sagen "das kann man sich mit folgender Formel ausrechnen", denn das ist keine Antwort auf wie schnell. Eine Antwort auf wie schnell ist immer eine Geschwindigkeit. Ob die jetzt in km/h oder m/s oder "so schnell wie eine Ente fliegt" lautet, das wären alles valide Antworten gewesen, auch wenn die letzte relativ sinnlos ist, weil ich dann immer noch nicht weiß wie schnell ohne zu fragen wie schnell Enten fliegen.
+1
frankh05.12.23 20:22
Das ist leider eines der vielen Missverständnisse darüber was ein _Sprachmodell_ macht. Es reiht Wörter aneinander. Mehr nicht. Es kann nicht rechnen, logisch kombinieren oder schlussfolgern, d.h. es hat weder deklaratives noch prozedurales Wissen.
Wenn es so _erscheint_, dann nur weil es Texte gelernt hat, in denen bestimmte Wörter in der Nähe anderer Wörter häufig vorkamen. Wenn man z.B. fragt "Wieviel ist eins plus eins?" und es sagt "Diese Addition ergibt zwei." (es sagt auch nicht einfach "zwei"), dann weil es vermutlich viele Kinderlehrbücher gibt, die Addition erklären und da "eins und eins", "plus", "Addition", "ergibt" usw. häufig zusammen in bestimmer Reihenfolge vorkommen. Daraus baut es die Antwort. Es hat keinerlei Konzept von Zahlen oder Operationen.

Stichwort auch: Eliza-Effekt.
Mecki
Raziel1
wenn du was bestimmtes erwartest musst du das mitteilen.
Das habe ich. Ich habe ganz konkret gefragt "wie schnell" und kein Mensch würde dann sagen "das kann man sich mit folgender Formel ausrechnen", denn das ist keine Antwort auf wie schnell. Eine Antwort auf wie schnell ist immer eine Geschwindigkeit. Ob die jetzt in km/h oder m/s oder "so schnell wie eine Ente fliegt" lautet, das wären alles valide Antworten gewesen, auch wenn die letzte relativ sinnlos ist, weil ich dann immer noch nicht weiß wie schnell ohne zu fragen wie schnell Enten fliegen.
+2
Dunkelbier05.12.23 21:08
Mecki
...
Wie recht Du hast.

Deckt sich genau mit meinen Erfahrungen. Es findet das nächst wahrscheinliche Wort. Sonst rein gar nix. Es versteht nicht, es kennt keine Konsequenzen. Es "irrt" sich auch nicht, wenn es eine falsche Antwort gibt, was hier schon als "erste Anzeichen von Intelligenz" gewertet worden ist. Genau das ist aber nicht, denn zum sich irren gehört die Erkenntnis, dass man genau das getan hat.

Da muss noch sehr viel Wasser den Rhein runter laufen, bis da sowas wie tatsächliche Intelligenz zum Vorschein kommt. Ob das mit dem aktuellen Modell so klappt, erscheint mir schleierhaft.

Zum Glück lassen sich meine Anfragen an das Ding sehr schnell und leicht auf ungefähre Richtigkeit überprüfen.
+1
torsen putschnasz05.12.23 21:29
ChatGPT hilft mir recht gut dabei, mein Wissen zu erweitern. Macht mir zudem Freude, mich damit zu unterhalten. Unterm Strich doch recht faszinierend. Unabhängig davon, wie weit KI Stand heute ist: Die Büche ist offen, und wird nicht mehr verschlossen. Und wenn ich sehe, wie schnell sich das entwickelt, will ich (gar nicht) wissen, was da noch auf uns zukommt.
0
Raziel106.12.23 09:54
Dunkelbier
Mecki
...
Wie recht Du hast.

Deckt sich genau mit meinen Erfahrungen. Es findet das nächst wahrscheinliche Wort. Sonst rein gar nix. Es versteht nicht, es kennt keine Konsequenzen. Es "irrt" sich auch nicht, wenn es eine falsche Antwort gibt, was hier schon als "erste Anzeichen von Intelligenz" gewertet worden ist. Genau das ist aber nicht, denn zum sich irren gehört die Erkenntnis, dass man genau das getan hat.

Da muss noch sehr viel Wasser den Rhein runter laufen, bis da sowas wie tatsächliche Intelligenz zum Vorschein kommt. Ob das mit dem aktuellen Modell so klappt, erscheint mir schleierhaft.

Zum Glück lassen sich meine Anfragen an das Ding sehr schnell und leicht auf ungefähre Richtigkeit überprüfen.

Da muss ich Gegenfragen: Mit was getestet, mit welcher Version etc etc. Mir scheint das hier viele ihre Vorstellung von dem was wie gut/schlecht läuft nur auf Basis einzelner negativer Erfahrungen beziehen. In der Praxis sind wir in der Entwicklung schon sehr sehr weit. Viel weiter als die ein oder andere veraltete gratis Version eines Models irgendwo erahnen lässt.
-1
evanbetter
evanbetter07.12.23 13:50
Ich vermute einen Versuch von den in diesem Thema im Moment weniger gut Aufgestellten, den Schnellsten zu bremsen.
Es würde mich sehr wundern, wenn Leute, die täglich mit Gift und Galle um sich werfen (Zuckerberg) plötzlich ethische Massstäbe bei KI hätten – Meta (und die anderen, Ruhigeren) ist wahrscheinlich nicht so weit wie OpenAI und darum wollen die eine Bremse, um selber insgeheim aufzuholen.
Ich hoffe, ich liege falsch mit meiner Vermutung, aber im Marketing arbeitend befürchte ich, dass es stimmt. Uns wird alles so dämlich verkauft mit Argumenten, die sich toll anhören und mit Motivationen, die zum Himmel schreien.

Ich bin natürlich für die Regulierung durch die Öffentliche Hand bei der Verwendung von KI. Wie das aussieht, muss man noch klären.
Wer zuletzt lacht, hat's zuletzt geschnallt.
+1

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.