Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?
Forum>Software>KI. Alles Halluzinationen?

KI. Alles Halluzinationen?

Schens
Schens10.05.2517:59
Mo Gawdat hat einen Talk mit Brian Rose. Es geht um AI und den Entwicklungsstand jetzt.

Warum poste ich das hier? Mir scheint es, als wären wir im Jahr 1900 rum. Die ersten Autos fahren rum. Und wir sitzen am lokalen Gasthaus draußen. Einzelne vermuten, dass die Autos die Zukunft sein könnten, die meisten anderen denken das nicht.

Im Gegenteil, man findet in der Presse genügend Beispiele, warum das Pferd dem Auto nicht nur überlegen ist, sondern auch immer überlegen sein wird.

Es fallen Sätze wie: "Egal, wie gut Autos sein werden, ein Pferd zieht den Pflug intuitiv! Niemals werden "automatische Pferde" dies besser können."

Wer sich wirklich über den aktuellen Stand informieren möchte und einen 2h-Talk über die Auswirkungen von KI auf uns ansehen will:

https://londonreal.tv/mo-gawdat-ai-is-the-infant-that-will-become-your-master/



Ich habe jetzt wirklich lange überlegt, ob ich dieses Fass aufmachen soll. Ich schätze dieses Forum sehr. Die meisten Meinungen teile ich nur teilweise, bin aber trotzdem froh, diese Meinungen zu hören. Wie hier über KI gesprochen wird und wie - in meinen Augen - grundfalsch diese Annahmen sind, ist ja grundsätzlich mein Problem.

Aber die nächsten paar Jahre müssen gestaltet werden. Wenn wir uns in Gänze negierend hinstellen und die vermutlich größte Zäsur in der Geschichte der Menschheit passiv beobachten, kann das ungut werden.

In diesem Vortrag spricht Mo Gawdat sehr vieles davon an. Und sehr neutral. Aufrüttelnd. Möge sich jeder Interessierte rausziehen, was nützlich erscheint.

-2

Kommentare

B_Babb26.05.2518:59
Was aktuelles,
die neuesten KI Modelle halluzinieren mehr, werden also eigentlich schlechter.
Wenn man es merkt.
Daraus für mich ein Paradox:
je mehr man sich mit etwas auskennt, desto weniger hilft LLM KI bei Wissen weil man so viele Fehler erkennt,
je weniger man sich mit etwas auskennt desto mehr scheint das LLM KI zu helfen, man erkennt aber keine Fehler, weil man sie nicht sieht.



Hier ein recht aktueller video eines Informatikers, der die LLM Situation erklärt.

https://www.youtube.com/watch?v=KeEs3HpuH9I
+4
sudoRinger
sudoRinger26.05.2519:27
B_Babb
Daraus für mich ein Paradox:
je mehr man sich mit etwas auskennt, desto weniger hilft LLM KI bei Wissen weil man so viele Fehler erkennt,
je weniger man sich mit etwas auskennt desto mehr scheint das LLM KI zu helfen, man erkennt aber keine Fehler, weil man sie nicht sieht.
Ist es nicht stets so, dass von neuen Werkzeugen diejenigen profitieren, die das Werkzeug einzusetzen verstehen?
Bei KI also nicht als Suchmaschine oder unreflektierter Schreibknecht, sondern für Brainstorming, Routine, Recherche-Start und Strukturierung.
+3
Schens
Schens27.05.2508:16
B_Babb
, weil man sie nicht sieht.

Exakt das ist der "Dunning-Kruger-Effekt": Um zu erkennen, dass man in etwas scheiße ist, erfordert das selbe Skillset, das nötig wäre, um in dieser Sache gut zu sein. Im Regelfall wissen wir nicht, wann wir doof sind.

Deswegen finde ich es auch interessant, dass die Mehrheit der Techunternehmen sagen: "wir stehen Monate vor der Singularität" ["San Francisco Consensus"] und wir uns entscheiden auf diejenigen zu hören, die das genaue Gegenteil behaupten.
-2
macster10027.05.2509:10
Schens
Deswegen finde ich es auch interessant, dass die Mehrheit der Techunternehmen sagen: "wir stehen Monate vor der Singularität" ["San Francisco Consensus"] und wir uns entscheiden auf diejenigen zu hören, die das genaue Gegenteil behaupten.

Könnte daran liegen, dass ebendiese "Technunternehmen" aktuell in rasender Geschwindigkeit Geld verbrennen und darauf angewiesen sind, mit großen Versprechungen permanent weiteres Kapital zu aquirieren.
+5
Wauzeschnuff
Wauzeschnuff27.05.2510:41
Schens
Deswegen finde ich es auch interessant, dass die Mehrheit der Techunternehmen sagen: "wir stehen Monate vor der Singularität" ["San Francisco Consensus"] und wir uns entscheiden auf diejenigen zu hören, die das genaue Gegenteil behaupten.

Äh nein, das sagt eine Minderheit der Technunternehmen. Und genau genommen vor allem deren Manager (so wie der den Du zu beginn dieses Threads zitiert hast). Und es sind genau die Unternehmen, die entweder sehr viel Geld einwerben müssen (wie OpenAI, Anthropic, etc.), oder aber auf der Suche nach neuen Geschäftsfeldern sind und dabei sehr viel Geld einsetzen / rechtfertigen müssen - vor ihren Aktionären (Google, MS, Meta, etc.).

Aber solche / ähnliche Versprechen gibt es eben nicht zum ersten Mal in der IT Historie (und sicher auch nicht zum letzten Mal). In der Vergangenheit wurde bereits sehr viel Geld verbrannt mit z.B. Blockchain, Kryptowährungen, Augmented/Virtual Reality, 3D-Druck, etc.. Alle diese Technologien wurden - in Ihrem Bereich - als "Systemsprenger" gesehen (Digitale Identität / Vertragsgestaltung, Währungssystem, Realitätswahrnehmung, industrielle Produktion, etc.). Und alle diese Technologien hatten, haben und werden haben sicher einen gewissen Einfluss. Aber eben nichts disruptives, und vor allem nichts, dass die getätigten Investitionen auch nur halbwegs rechtfertigen würde.

Ich persönlich sehe in LLM-KI nichts anderes. Ja, sie werden einen gewissen Einfluss haben - insbesondere auch in der Grundlagenforschung. Sie werden bestimmte einfache Arbeiten übernehmen können und sicher einen gewissen Einfluss auf die Lebensrealität der meisten Menschen haben. Aber sie sind sicher - rein konzeptionell - nicht in der Lage "die Singularität " (aka allgemeine Intelligenz) zu erreichen. Da ist sich die überwiegende Mehrheit der Forschergemeinde sehr sicher.

Wichtig ist vor allem, dass die Menschen - mal wieder - lernen mit diesem Werkzeug umzugehen - ganz abseits von Marketing Versprechen und Weltuntergangsphantasien. Das rückt aber leider - mal wieder - sehr in den Hintergrund und ist "Neuland". Schließlich kann doch jeder mit einem Chat-Bot reden ...
+5
stargator27.05.2511:42
Wir sollten das Werkzeug KI (solange es sich selbst nicht bewusst ist) in seiner Art, seinen Fähigkeiten und deren Grenzen verstehen. Es gibt verschiedene Arten von LLMs, Machine Learning und Diffusionsmodellen, die sich in Komplexität und dem gelernten Datenbestand unterscheiden. All diese Faktoren müssen wir bei der Nutzung berücksichtigen.

LLMs funktionieren perfekt (aus ihrer eigenen Perspektive) und liefern eine der wahrscheinlichsten Lösungen für den gegebenen Prompt. Allerdings kann die KI primär nicht unterscheiden, was wahr ist und was nicht, da auch die Daten, die zur Entwicklung verwendet wurden, Fehler enthielten. Plausibilität und Referenzen sind für die meisten KI-Modelle nicht selbstverständlich. Wer versteht, dass eine wahrscheinliche Lösung nicht unbedingt eine wahre Lösung ist, verifiziert oder verlangt Referenzen und Begründungen, die er zu validieren hat. Dies muss man allerdings lernen und verstehen.

Neuere Modelle verfügen auch über Gedächtnisfunktionen, die es ihnen ermöglichen, aus bisherigen Gesprächen Daten zu extrahieren und diese bei zukünftigen Antworten zu verwenden. Man könnte das auch als Lernen bezeichnen. Business-KI erhält Datenbanken mit zusätzlichen Referenzdaten (z. B. FAQ, Prozesse, Fehler-Antworten). Modelle können durch zusätzlichen Input “getuned” also spezialisiert werden. Neue Modelle werden durch synthetische Daten generiert, weil die echten Daten zu viele Fehler haben und redundant sind. Die chinesischen Modelle nutzen echte Daten und könnten auch ungeliebte Dinge sagen, deswegen sind sie mit Guardrails versehen. Ausgaben, die gegen die Regeln verstoßen, werden einkassiert. Amerikanische KI haben solche für kriminelle und sexuelle Inhalte. Das heißt, man hat nicht das Wissen korrigiert, sondern nur einen Maulkorb verpasst.

Die Gefahr, dass in der KI jedoch alles ausgewertet werden kann (ich vermeide hier das Wort gedacht), ermöglicht jedoch auch bei einer Kenntnis der Guardrails, diese zu umgehen. Hier muss eine Veränderung der Lernmatrix durch entsprechende Konzepte erfolgen. Die Gefahren sind erstmal in der Arbeitswelt zu finden. Programmierer mit Standardkenntnissen werden stark reduziert. Marketing Mitarbeiter, die fertige Konzepte ausarbeiten, werden ersetzt usw. Wir können diese Büchse der Pandora nicht wieder zu machen. Wir müssen uns anpassen. Die eher unbekannteren KI Varianten, die beim Militär eingesetzt werden, machen mir mehr Sorgen.
+4
Free27.05.2513:02
Schens
Deswegen finde ich es auch interessant, dass die Mehrheit der Techunternehmen sagen: "wir stehen Monate vor der Singularität" ["San Francisco Consensus"] und wir uns entscheiden auf diejenigen zu hören, die das genaue Gegenteil behaupten.
Das mit der Singularität ist doch wieder so ein unverstandenes buzz word dropping. Eine Singularität wird es nie geben. Es wird viele KI-Systeme geben, nicht nur eines, das - kleiner geht es scheinbar nicht - dann natürlich die Welt beherrschen würde. Technik wird wie immer zu sehr anthropisch verzerrt gesehen und menschliche Eigenschaften ohne Hemmung (und ohne wissenschaftliche Grundlage) auf Technik projiziert.
Dahinter steht Marketing in eigener Sache von Apologeten des Grauens, die mit Skandalisieren die eigene Wichtigkeit betonen (weil sie es ja blicken) und für Aufmerksamkeit sorgen, da gute Nachrichten eben keine verlautbaren nachrichten sind.
+4
Unwindprotect27.05.2515:29
sudoRinger
Ist es nicht stets so, dass von neuen Werkzeugen diejenigen profitieren, die das Werkzeug einzusetzen verstehen?
Bei KI also nicht als Suchmaschine oder unreflektierter Schreibknecht, sondern für Brainstorming, Routine, Recherche-Start und Strukturierung.

Naja... Leute die sich mit Werkzeugen gut auskennen profitieren typischerweise am meisten von ihrem Einsatz... das gilt für jedes Werkzeug, neu wie alt. Wenn ein Kleinkind nicht gut mit Messer und Gabel ist, dann profitiert es weniger von dessen Einsatz als ein Erwachsener der es kann

Aber dieser Sachverhalt ist ja in der Ursprünglichen Aussage gar nicht gemeint gewesen. Das Problem ist eben, dass man zu einem Sachthema bei dem man sich nicht auskennt nur schlecht prüfen kann ob ein LLM Bullshit produziert oder nicht. Kennt man sich aber zumindest ein bisschen aus, so besteht eine Chance, dass man zumindest Bullshit auf großer Ebene erkennen kann. Dennoch können aber fiese kleine Dinge durchrutschen. Kennt man sich jedoch perfekt mit dem Thema aus, dann braucht man auch kein LLM Fragen. Das ist in der Tat paradox.

Daraus allerdings abzuleiten, LLMs wären als Werkzeug nicht nützlich, wäre auch falsch. Du hast ja bereits gute Beispiele gebracht: Wenn es nur um Ideenfindung (ohne richtig/falsch) oder "Automatisierungen" (zB. generieren/transformieren von Daten die leicht überprüft werden können) geht, dann ist der Einsatz ziemlich unkritisch. Auch ein Recherche-Start wie Du ihn nennst ist natürlich legitim - immer mit ausreichend hoher Grundskepsis.

Faszinierend ist ja, das viele Menschen hier auch ein Tool großes Vertrauen setzen, das einfach extrem unzuverlässig ist. Wie wohl die Antworten wären, wenn man die großen LLM-Gläubigen fragt, ob sie auch mit Flugzeugen in den Urlaub fliegen würden die in 80% der Fälle nicht abstürzen?
+4
Unwindprotect27.05.2515:38
Schens
Deswegen finde ich es auch interessant, dass die Mehrheit der Techunternehmen sagen: "wir stehen Monate vor der Singularität" ["San Francisco Consensus"] und wir uns entscheiden auf diejenigen zu hören, die das genaue Gegenteil behaupten.

Diese Art des Marketings ist eben finanziell erfolgreich. Phony Stark hat dieses Prinzip gewissermaßen perfektioniert und ist so aus Bullshit zum "reichsten Mann der Welt" geworden... zumindest solange die Träume noch von genügend Leuten geglaubt werden und die Blase nicht doch irgendwann platzt.
0
sudoRinger
sudoRinger27.05.2515:43
B_Babb
Was aktuelles,
die neuesten KI Modelle halluzinieren mehr, werden also eigentlich schlechter.
Was gibt die Grafik eigentlich wieder? Die Bullshit-Quote?
Wenn ich das richtig sehe, sind die neueren und besseren Modelle eher links als rechts.
+2
B_Babb27.05.2516:22
Y Achse ist die Halluzination %
die grafik ist aus dem youtube link den ich gepostet hatte.
Und die unerwartete Verschlechterung versucht wird zu erklären.

Die AI Firmen wissen selber noch nicht warum die Modelle mehr halluzinieren.
Vor allem die reasoning modelle halluzinieren mehr, je neuer.
Aber auch einige neue nicht r werden schlechter.
Beispiel war ja aktuell in einer US Zeitung die Buchempfehlungen für den Sommer in der 10 von 15 Bücher erfunden wurden.
https://gizmodo.com/chicago-paper-summer-reading-list-fake-books-ai-2000604708
Eine derzeitige Erklärung ist das die AI ein "Model of the World" erzeugen und in diesem kohärente Wortkombinationen mit Wahrscheinlichkeiten erschaffen, die jedoch mit der Realität nicht übereinstimmen, sondern nur mit den gefütterten Daten.
0
tobias.reichert27.05.2516:45
Deine Grafik behauptet das Gegenteil.
B_Babb
Was aktuelles,
die neuesten KI Modelle halluzinieren mehr, werden also eigentlich schlechter.
Wenn man es merkt.
Daraus für mich ein Paradox:
je mehr man sich mit etwas auskennt, desto weniger hilft LLM KI bei Wissen weil man so viele Fehler erkennt,
je weniger man sich mit etwas auskennt desto mehr scheint das LLM KI zu helfen, man erkennt aber keine Fehler, weil man sie nicht sieht.



Hier ein recht aktueller video eines Informatikers, der die LLM Situation erklärt.

https://www.youtube.com/watch?v=KeEs3HpuH9I
-1
sudoRinger
sudoRinger27.05.2516:55
B_Babb
die grafik ist aus dem youtube link den ich gepostet hatte.
Und die unerwartete Verschlechterung versucht wird zu erklären.
Was produziert mehr Bullshit: KI oder YouTube?
0
rmayergfx
rmayergfx27.05.2517:02
B_Babb
....
Die AI Firmen wissen selber noch nicht warum die Modelle mehr halluzinieren. ....
Vielleicht haben sie ihre Modelle mit zu vielen ihrer selbst erzeugten Halluzinationen gefüttert?
https://www.basicthinking.de/blog/2024/08/08/studie-ki-lernt-von-ki/
https://www.heise.de/news/KI-Kollaps-droht-wegen-KI-generierter-Trainingsdaten-9823352.html
sudoRinger
Was produziert mehr Bullshit: KI oder YouTube?
YouTube ist nur eine Plattform, die produziert nichts, wenn das sind das die Influencer die sich auf der Plattform tummeln....
„Der Computer soll die Arbeit des Menschen erleichtern, nicht umgekehrt !“
+2
Marcel Bresink27.05.2518:07
Man hört oft, dass viele Leute denken: "Die KI-Systeme nach dem LLM/GPT-Prinzip lernen aus dem Internet. Da im Internet viel Unsinn steht, wird Vieles falsch erlernt. Also sind auch die Antworten falsch."

Aber da traut man dieser Art von KI schon viel zu viel zu. In Wirklichkeit ist es so, dass solche Systeme überhaupt keine Fakten über die Welt lernen. Provokativ gesagt lernen sie nur, wie man in mehreren Sprachen gut klingend über die Welt sprechen kann, ohne etwas über die Welt wissen zu müssen. Dadurch lassen sich Menschen leicht täuschen. Dass manche Leute Kompetenz nur vorgaukeln, kennt man aus dem Alltag …

Wenn man einen KI-Assistenten danach fragt, was Multiplikation ist, wird man eine gute Antwort bekommen, da das System bestimmt Mathematiklehrbücher für Grundschüler "gelesen" hat und den Inhalt zusammenfassen kann. Aber das heißt nicht, dass die KI etwas über dieses Thema "weiß". Wenn man wortwörtlich fragt, "was ist einhundertdreiundzwanzig mal vierhundertsechsundfünfzig" wird man selten das korrekte Ergebnis bekommen. Es gibt ein paar Assistenten, die die richtige Antwort liefern, manche liefern keine brauchbare Antwort, manche einen Näherungswert, manche liefern mehrere Ergebnisse, die sich widersprechen, manche liefern halluzinierte Rechentricks, die kompletter Blödsinn sind.

Ich habe das spaßeshalber gerade mit ein paar kleinen und großen Sprachassistenten ausprobiert und folgende Ergebnisse bekommen:
  • 56088 (ja, stimmt!)
  • 59515
  • 58915
  • 60595
  • 60615
  • 120615
  • 60720
  • 561288
  • 570972
+10
B_Babb27.05.2519:19
[quote=tobias.reichert]
Deine Grafik behauptet das Gegenteil.


hier eine andere nach einem anderen Hallucination Benchmark.

es gibt Ausnahmen, aber es wird eher mehr.



wird nun hoffentlich sichtbarer.
+2
tobias.reichert27.05.2520:47
Ok, bei allen bis auf OpenAI wenn man die Bezeichnungen versteht. Hatte aber heute was das angeht mit Copilot eine krasse Erfahrung, was sich ja eigentlich an ChatGPT bedient?
0
Marcel Bresink28.05.2508:53
tobias.reichert
Ok, bei allen bis auf OpenAI wenn man die Bezeichnungen versteht.

Woraus liest Du das ab? Die Grafik sagt doch, dass sich die Halluzinationsrate dieses standardisierten Tests von beispielsweise "OpenAI GPT" zwischen Version 4.0 und 4.1 von 1,8% auf 2,0% verschlechtert hat.

Im Moment deuten alle Daten darauf hin, dass die Weiterentwicklung dieser speziellen Art von KI an ihr Ende gekommen ist und nur noch Verschlechterungen zu erwarten sind, wenn man nicht ganz neue Ansätze verfolgt.
+5
Unwindprotect28.05.2510:59
Marcel Bresink
Man hört oft, dass viele Leute denken: "Die KI-Systeme nach dem LLM/GPT-Prinzip lernen aus dem Internet. Da im Internet viel Unsinn steht, wird Vieles falsch erlernt. Also sind auch die Antworten falsch."

Oh ja! Viele scheinen unter "Halluzinationen" einfach "falsche Antworten" zu verstehen und begründen diese mit Fehlern in den Trainingsdaten. Ein... "korrekt" wiedergegebener Fehler ist jedoch eben gerade KEINE Halluzination sondern ein Beispiel für die Wiedergabe erlernter Dinge... wenn diese im Trainingsmaterial falsch waren dann sind sie halt auch falsch... aber trotzdem richtig gelernt .
Marcel Bresink
Aber da traut man dieser Art von KI schon viel zu viel zu. In Wirklichkeit ist es so, dass solche Systeme überhaupt keine Fakten über die Welt lernen. Provokativ gesagt lernen sie nur, wie man in mehreren Sprachen gut klingend über die Welt sprechen kann, ohne etwas über die Welt wissen zu müssen. Dadurch lassen sich Menschen leicht täuschen. Dass manche Leute Kompetenz nur vorgaukeln, kennt man aus dem Alltag …

Exakt - leider kommt noch hinzu, dass nicht gewährleistet werden kann, dass eine Antwort "halluziniert" ist, wenn die richtige Antwort womöglich gar im Trainingsmaterial irgendwo zu finden ist... denn je nach Kontext, Fragestellung und Qualität des Trainings in diesem Bereich wird eben eine Antwort erzeugt ohne dass dieses Trainingsmaterial darauf einen ausreichenden Einfluss hat. Oder kurz: Nicht einmal bei Dingen die Jahre alt sind, wohlbekannt und öffentlich einsehbar kann man sich auf eine korrekte Antwort ohne Halluzinationen verlassen.
Marcel Bresink
Wenn man wortwörtlich fragt, "was ist einhundertdreiundzwanzig mal vierhundertsechsundfünfzig" wird man selten das korrekte Ergebnis bekommen. Es gibt ein paar Assistenten, die die richtige Antwort liefern, manche liefern keine brauchbare Antwort, manche einen Näherungswert, manche liefern mehrere Ergebnisse, die sich widersprechen, manche liefern halluzinierte Rechentricks, die kompletter Blödsinn sind.

Und jene, welche eine korrekte Antwort liefern, bedienen sich teilweise eines Tricks: Man erkennt die Frage nach einer einfachen Rechnung und veranlasst das LLM die Frage in ein einheitliches Format umzuformen, dass dann an ein externes, Mathesystem (nicht LLM sondern z.B. sowas wie Mathematica) geleitet wird um die Antwort zu berechnen. Die Antwort wird dann schlicht abgelesen und wieder in einen Satz eingebaut. Ähnliches funktioniert beim Zugriff auf Faktenbasen. Die Frage kann in einen Datenbankquery umformuliert werden, der dann die Fakten aus einer festen Datenbank ausliest.
+3
sYn28.05.2512:53
Fontelster
»Er fürchtet die Zeit zwischen jetzt und diesem Zeitpunkt.«
Wenn er die Zeit davor fürchtet, dann muss die also (für Menschen) negativ sein.

Ich glaube du denkst da zu einseitig. Schon allein dass fast alle deine Beispiele sich um die Machtübernahme der KI oder um Krieg (u.a. gegen die KI) drehen...

Wandel ist immer schwer. Für machen Menschen mehr, für manche weniger. Je größer der Wandel ist, desto schwerer ist er und desto weniger Menschen kommen wirklich damit klar.
Auch ohne Krieg oder Machtübernahme wird KI höchstwahrscheinlich einen WIRKLICH einschneidenden Einfluss auf unsere Gesellschaft haben.
Beispiele:
- Wir sind nicht mehr sehr weit weg davon dass wir nicht mehr unterscheiden können ob eine Filmaufnahme Echt oder KI generiert ist. Was macht das mit unserer Gesellschaft wenn man nachrichten nicht mehr trauen kann? Also, so gar nicht mehr?

- Meta nutzt inzwischen Fake-AI-Profile die wirken wie reale Menschen. Das wird sich verbreiten und auch in andere Bereiche des Internets schwappen: Was macht das mit unserer Gesellschaft wenn du jemanden im Internet kennenlernst und ich unterscheiden kannst ob es eine KI ist oder ein echter Mensch? Wie verändert sich die Kommunikation in Social Media, auf Newsseiten oder auch ganz generell, wenn du dir nicht sicher sein kannst ob da am anderen Ende ein echter Mensch sitzt oder eine KI die so tut als wäre sie ein echter Mensch?

- KI wird aller Voraussucht nach eine Menge Berufe überflüssig machen. Mit der Zeit garantiert auch noch einige Berufe von denen es heute immer noch heisst "Job ist sicher". Es wird also eine MENGE mehr arbeitslose Menschen geben. "Arbeitslos" wird eher zur Normalität und "Arbeiten" zur Ausnahme. Gesellschaftlich stecken wir aber voll im Kapitalismus und der "Nur wer Arbeitet, leistet auch etwas für die Gesellschaft"-Denkweise fest. Wir sind NULL auf diesen Wandel vorbereitet. Unser derzeitiges System wird einfach irgendwann zusammenbrechen. Das wird eine Menge Armut und dadurch auch Tode/weniger Lebenszeit mit sich ziehen.

Der Mensch ist leider im allgemeinen ein Gewohnheitstier mit großem Talent Probleme zu verdrängen. Es wird also erst dann wirklich reagiert wenn man wirklich muss, wenn man absolut keine andere Wahl mehr hat. Bis dahin werden aber eine Menge Menschen auf der Strecke bleiben bis sich etwas ändert. Sobald sich dann aber etwas ändert könnte es besser für alle werden ("Garten Eden")
0
Schens
Schens28.05.2515:40
sYn
KI wird aller Voraussucht nach eine Menge Berufe überflüssig machen.

Als die Maschinen die Fabriken übernommen haben, wurden die "Handwerker" arbeitslos. Es ist irgendwie "Witzig", dass es nun die Kulischubser/Knowledgeworker (wie ich es einer bin) um ihren Job bangen müssen.
0
Performant8429.05.2500:01
Unwindprotect
Oh ja! Viele scheinen unter "Halluzinationen" einfach "falsche Antworten" zu verstehen und begründen diese mit Fehlern in den Trainingsdaten. Ein... "korrekt" wiedergegebener Fehler ist jedoch eben gerade KEINE Halluzination sondern ein Beispiel für die Wiedergabe erlernter Dinge... wenn diese im Trainingsmaterial falsch waren dann sind sie halt auch falsch... aber trotzdem richtig gelernt .
...nur halt eben kein Beispiel für "Intelligenz".
Und auch nicht für echtes lernen - sondern blosses Memorieren.

Intelligenz ist dann, wenn man (er)schliessen kann, ob etwas falsch oder richtig ist.
Ich würde sogar sagen: Gerade auch dann, wenn jemand oder etwas das Gegenteil behauptet.
+2
xcomma30.05.2511:45
Paar interessante Artikel:

"Wie uns wegen ChatGPT die Verblödung droht" ,
basierend auf diesem Blogpost "KI lässt uns Menschen das Denken verlernen – und wir halten es für Fortschritt" vom bekannten deutschen Sicherheitsforscher Mike Kuketz

"Das dreckige Geheimnis von OpenAI – gehypte KI basiert auf menschlichen Schmutz-Filtern"
+2
Free30.05.2512:52
Marcel Bresink
...
In Wirklichkeit ist es so, dass solche Systeme überhaupt keine Fakten über die Welt lernen. Provokativ gesagt lernen sie nur, wie man in mehreren Sprachen gut klingend über die Welt sprechen kann, ohne etwas über die Welt wissen zu müssen. Dadurch lassen sich Menschen leicht täuschen. Dass manche Leute Kompetenz nur vorgaukeln, kennt man aus dem Alltag …
Und wo genau ist da jetzt der Unterschied zum Menschen?
Ich denke, Du benutzt Begriffe, von denen Du annimmst, das sie klar und leicht definierbar wären.
Z.B. Wirklichkeit, Fakten, sprechen, lernen und vor allem: wissen
Dem ist aber nicht so.

Marcel Bresink
... Aber das heißt nicht, dass die KI etwas über dieses Thema "weiß". Wenn man wortwörtlich fragt, ...
Also, was ist wissen? Wie hast Du Dein "Wissen" erworben? War das Magie oder darf man solche Fragen nicht fragen, weil dann die Unklarheit der Argumentbasis, also der impliziten Prämissen, sichtbar werden?

Ist es nicht so, dass sich LLMs "in Wirklichkeit" ziemlich menschlich verhalten, und zwar zum ersten mal in der Technikgeschichte?
Menschen kommen als nur gering programmiertes Lernsystem auf die Welt. Vorhanden sind ein paar basale Triebe, ansonsten die Fähigkeit Sprache durch Training zu erlernen. Dahinter steckt ein biologisches neuronales Netz, das bewertet, extrahiert, Modelle bildet und sortiert und so - gerade im kommunikativen Austausch mit anderen Menschen - Bewertungsrichtlinien und Handlungskonzepte intern aufbaut, die mehr oder weniger gut funktionieren.
Ein LLM macht etwas Ähnliches. Kein Wunder dass etwas Ähnliches dabei herauskommt.
Es gibt allerdings Unterschiede, sowohl im verwendeten "Trainingsmaterial" als auch in der Art des Spracherwerbs (was sicher einen unterschied macht) und hinzu kommt die Rechenleistung (bei LLM wohl höher als die eines individuellen Menschen) und der Struktur des lernfähigen Netzes - was beim LLMs wohl noch nicht mit der Qualität und schon gar nicht der Effizienz des menschlichen Pendants mithalten kann.
Noch nicht.
Aber diese Unterschiede erklären Unterschiede in den Antworten im Vergleich zum Menschen. Und man bedenke, wie lange es braucht, bis ein Mensch die Sprache wirklich gut beherrscht. Er muss quasi erwachsen sein. Also mehr als 1,5 Jahrzehnte des permanenten Lernens. So lange gibt es effektive LLMs noch gar nicht.

Nach meiner Meinung (ist bloß ne Meinung, recht umfundiert) ist ein LLM dennoch das Beste in Sachen KI, was je zustande gebracht wurde. Dass da sehr viel Luft nach oben drin ist - keine Frage.
Menschen fabulieren und reden viel Müll, wenn sie zu Sachen außerhalb ihrer Kompetenz (= Gebiet mit Spezialtraining) gefragt werden. Maschinen tun das lustigerweise auch. Wieder ne Parallele.
LLMs verhalten sich scheinbar nicht so simpel-deterministisch, wie wir das von einer Maschine aus historischen Gründen erwarten. Daher die große Enttäuschung über das Fabulieren.
Doch man bedenke, wie Menschen so fabulieren und wie unsicher und divergent das ist, von dem wir glauben, das es sicher = Wissen sei.
Ergo: Man muss die Antworten auf Fragen sowohl bei Menschen wie Maschinen immer selbst bewerten, weil es keine Sicherheit über "Richtigkeit" oder "Wahrheit" gibt, nicht einmal über die Brauchbarkeit. Und das ist doch schon wieder die nächste Parallele: Wir müssen Menschen und Maschinen faktisch nahezu gleich behandeln: Nicht alles glauben und selbst prüfen und Schlüsse draus ziehen, nicht wahr?

Diese Überlegungen ändern nichts daran, dass für mich und meine potentiellen Anwendungen KI zur Zeit noch weitgehend unbrauchbar ist. Es ändert nur etwas daran, dass ich mich über die "vertane Zeit" bei meinen Nutzungsversuchen nicht mehr so ärgere, weil ich durch diese Logik ein Stück desillusioniert bin. Man könnte sagen: LLMs sind einfach nicht nicht erwachsen.
Für bestimmte Aufgaben sind sie allerdings heute schon nützlich, und sei es nur für simple Coding-Aufgaben. Aber Sechsjährige können auch schon helfen, den Tisch zu decken
-5
Free30.05.2513:52
xcomma
Paar interessante Artikel: ...
In meiner Sicht ist das vor allem Clickbaiting. Alles ganz ultrahyperfurchtbar schlimm und früher war alles besser.
-7
Unwindprotect31.05.2511:00
Performant84
Unwindprotect
Oh ja! Viele scheinen unter "Halluzinationen" einfach "falsche Antworten" zu verstehen und begründen diese mit Fehlern in den Trainingsdaten. Ein... "korrekt" wiedergegebener Fehler ist jedoch eben gerade KEINE Halluzination sondern ein Beispiel für die Wiedergabe erlernter Dinge... wenn diese im Trainingsmaterial falsch waren dann sind sie halt auch falsch... aber trotzdem richtig gelernt .
...nur halt eben kein Beispiel für "Intelligenz".
Und auch nicht für echtes lernen - sondern blosses Memorieren.

Klar! Habe ja auch nicht behauptet es sei echtes Denken 😉
+2
rmayergfx
rmayergfx31.05.2512:16
Free
xcomma
Paar interessante Artikel: ...
In meiner Sicht ist das vor allem Clickbaiting. Alles ganz ultrahyperfurchtbar schlimm und früher war alles besser.
Mike Kuketz und Clickbaiting YMMD
Es gibt einige Studien die gezeigt haben, das Generationen die mit der neuen Technik aufgewachsen sind verlernt haben sich Dinge zu merken. Warum auch, es ist einfacher das in eine Suchmaschine einzugeben. Problematisch wird es dann, wenn die Technik nicht mehr zur Verfügung steht, denn was man sich nicht gemerkt hat, kann man dann offline nicht mehr aus dem Gehirn abrufen.
Da reden wir nur von Suchmaschinen.....
„Der Computer soll die Arbeit des Menschen erleichtern, nicht umgekehrt !“
+2
Marcel Bresink31.05.2512:53
Free
Ich denke, Du benutzt Begriffe, von denen Du annimmst, das sie klar und leicht definierbar wären.
[...]Dem ist aber nicht so.

Das stimmt nicht. Im Kontext der KI sind diese Begriffe wohldefiniert.
Free
Also, was ist wissen?

Wissen ist die Gesamtheit der Datenmenge über die Umwelt, auf die ein intelligentes Wesen Zugriff hat, um Entscheidungen für sein Verhalten zu treffen. Dabei spielt keine Rolle, ob dieses Wissen falsche Daten enthält.

Es war oben mit Absicht in Anführungszeichen geschrieben, da eine KI des LLM/GPT-Typs weder eine Wahrnehmung, noch eine Interaktion mit der realen Welt hat. Die einzige Interaktion ist Textverarbeitung, d.h. es wird kein Wissen über die Welt, sondern ein Wissen über Sprachäußerungen der Welt erworben, also quasi nur Metadaten. Es ist nachgewiesen (und kann auch die Halluzinationen erklären), dass die KIs dieses Typs weder ein Modell ihrer Umwelt noch ein Modell über sich selbst bilden, woher auch.
Free
Ist es nicht so, dass sich LLMs "in Wirklichkeit" ziemlich menschlich verhalten, und zwar zum ersten mal in der Technikgeschichte?

Nicht wirklich. Schon 1966 wurde mit dem ELIZA-Programm (Joseph Weizenbaum) nachgewiesen, dass sich Menschen leicht über die angebliche "Menschlichkeit" von primitiven Computerprogrammen täuschen lassen, sobald plausibel wirkende Sprachäußerungen ins Spiel kommen.
+8
Free31.05.2515:43
Marcel Bresink
Wenn Du Begriffe wir Lernen auf die Verwendung im KI-Kontext beschränkst, kannst Du nicht sagen, dass LLMs nicht lernen. Ansonsten kontert man leicht, dass das Lernen bei LLMs wäre🤪
Und meinem zentralen Argument bist Du ausgewichen: wie lernst Du so? Alles durch Wahrnemung? Faktisch machst Du es ganz ähnlich wie LLMs. Durch Sprache. Und auch Du hast keinen direkten Zugang zur Welt oder Wirklichkeit. Du bildest Dir Modelle davon. Via Sprache und Kommunikation. Zwar etwas anders als LLMs, aber genau darauf gehen due Beschränkungen von LLMs zurück.
Und gemäß Deiner Wissensdefinition: Weshalb sollten LLMs kein Wissen haben? Das erschließt sich nicht.
-8
frankh31.05.2517:54
Nein, Free, wir lernen überhauptnicht nur durch Sprache; lies mal was aus der Kognitionslehre, Psychologie und Psychomotorik. Modelle und Konzepte die wir bilden haben „auch Wörter dran“. Beim LLM gibt‘s NUR Wörter / Tokens und ihre Beziehungen zueinander!
+4
B_Babb31.05.2519:54
Sprachkompetenz ohne die Bedeutung der Worte zu kennen oder Wissen zu haben.

Wie funktionieren LLMs ?

in dem sie Unmengen an Texten als input bekommen, verarbeiten und die Wahrscheinlichkeiten von Wortkombinationen errechnen und darauf trainiert werden gefällige Sprache zu produzieren.

Zum Wissen.
LLM produzieren Sprache aus dem Input welches aus der Verknüpfung von Wahrscheinlichkeiten von Worten kommt.
Wenn wir sagen: Das Gras ist …. grün - wissen wir das Gras grün ist, aus der Beobachtung und dem Abgleich mit der Realität.
Wenn ein LLM sagt: das Gras ist grün, sagt es dies, weil aus den Traningsdaten (TD) errechnet wurde, daß auf die Worte “das” “Gras” ist” mit höchster Wahrscheinlichkeit “grün” folgt. Das LLM weiss nicht was grün ist, was grün bedeutet.

“Vermenschlichung” von AI / LLM ist die Ursache für Fehlbedienung von LLM.
Ähnlich wie wir Tieren Absichten, Emotionen, Verständnis und Einsichten zuschreiben tun wir das auch den LLM,
sie sprechen sehr “gescheit” daher, und können auf alles eloquent antworten. Wir glauben daher LLM würden denken, verstehen und wissen,
in Wirklichkeit sind sie nur sehr gut geworden Worte und Zusammenhänge zu erraten. Der Begriff der stochastischen Papagaien ist daher ausgekommen. Sie simulieren Verständnis und Kompetenz und das sehr gut. Viele lassen sich daher mit der Vermenschlichung beeindrucken.
Und vermuten also sind sie wohl sehr schlau und wissen sehr viel. Das ist eine Täuschung.
In der Psychologie gibt es ein ähnliches Phänomen in der Kommunikation, wenn non-verbale (Mimik, Gesten, Körperhaltung, Tonfall) mit verbaler zusammen wiedergegeben wird. Wenn jemand mit charismatischen Gesten, guter Körperhaltung und klarem Tonfall Blödsinn erzählt wird ihm trotzdem geglaubt und für kompetent gehalten, weil die non-verbalen Informationen so wirken. Oder ein lispelnder, scheuer, sozial inkompetenter “Nerd” kann die wichtigsten, tollsten Erkenntnisse vortragen, aber wird nicht ernst genommen oder geglaubt.
Das bedeutet der Inhalt das “was” wird durch das non-verbale das “wie” interpretiert und bewertet. Leider kommt man dadurch auf falsche Schlüsse, Bewertungen und wird hereingelegt. Man kennt das, wenn ein “Blender” und “Aufschneider” toll daher reden und alle schwer imponieren, aber nur die Experten, die auf die Inhalte achten erkennen, das alles nur heisse Luft ist und eigentlich keine Ahnung hat.
Es merken eben nur wenige. Der tolle Eindruck wird auf den Inhalt übertragen.
Bei den LLM läuft es ähnlich.
Die LLM sind mittlerweile so gut in der Sprach- Beherschung und -Erzeugung, dass der Laie mit diese Kompetenz auf den Inhalt überträgt.
Durch die enormen TD ist der Inhalt nicht totaler Unsinn, sondern oft ganz ok, aber das ist eher Zufall, oder besser gesagt Wahrscheinlichkeit.
Wenn man einer LLM eine Logikaufgabe, oder ein Rätsel stellt, welches nicht direkt gelöst werden kann, und auf die Fehler hinweist merkt man, das es die Worte, die Bedeutungen und die Aufgabe nicht wirklich versteht, denn manche Verbesserungen oder Antworten zeigen, das nicht Wissen dahinter steckt oder Verständnis sondern nur viel reden = spracherzeugen.
Manchmal kommt es mir so vor wie wenn ich einen Prüfling habe der keine Ahnung hat und versucht die Prüfung zu bestehen.

LLM sind ein geniales mittlerweile extrem leistungsfähiges Produktionsmittel - welche oft einen tollen Eindruck machen, aber zu glauben, dass sich dahinter ein wissendes, verstehendes, intelligentes, denkendes Wesen befindet ist eine Illusion und Trugschluss.

Das Problem ist das zu viele glauben das LLM sagt die Wahrheit, es wisse etwas, es ist kompetent und schlau - blöd das es KI genannt wird, und mittlerweile der Turing Test besteht - das hilft nicht aufzuklären wie es richtig zu benutzen ist - als Kommunikationspartner, Sprachbearbeiter und -erzeuger. Die immanente Stochastik und Halluzination und TD Bias darf nicht übersehen werden.
Wir leben in interessanten Zeiten.
+8
Marcel Bresink31.05.2520:50
Free
Wenn Du Begriffe wir Lernen auf die Verwendung im KI-Kontext beschränkst, kannst Du nicht sagen, dass LLMs nicht lernen.

Das haben weder ich noch sonst jemand behauptet. Es ging in der Diskussion nur darum, dass ein LLM etwas anderes lernt, als die meisten Leute denken.
Free
Faktisch machst Du es ganz ähnlich wie LLMs. Durch Sprache.

Nein, der Unterschied ist, dass ein LLM nur den Umgang mit Sprache lernt. Aber das ist ein alter philosophischer Streit, der schon auf Leibniz zurückgeht und heutzutage unter dem Namen "Chinesisches-Zimmer-Argument" bekannt ist.
Free
Weshalb sollten LLMs kein Wissen haben?

Du fantasierst ständig Dinge hierbei, die niemand behauptet hat. Erstellst Du die Beiträge selbst per KI? Ich hatte oben geschrieben, dass ein LLM Wissen über Sprachäußerungen erwirbt, das aber nicht mit Faktenwissen über die Welt gleichgesetzt werden kann.
+4
Schens
Schens01.06.2504:55
Marcel Bresink

Wenn man wortwörtlich fragt, "was ist einhundertdreiundzwanzig mal vierhundertsechsundfünfzig" wird man selten das korrekte Ergebnis bekommen. Es gibt ein paar Assistenten, die die richtige Antwort liefern, manche liefern keine brauchbare Antwort, manche einen Näherungswert, manche liefern mehrere Ergebnisse, die sich widersprechen, manche liefern halluzinierte Rechentricks, die kompletter Blödsinn sind.

Ich habe das spaßeshalber gerade mit ein paar kleinen und großen Sprachassistenten ausprobiert und folgende Ergebnisse bekommen:
  • 56088 (ja, stimmt!)
  • 59515
  • 58915
  • 60595
  • 60615
  • 120615
  • 60720
  • 561288
  • 570972

Perplexity, aktuelles Modell, Modus „Labs“

Bild 1: schriftprompt diktiert mit Siri, Bild 2 PerplexityProbSprachinterface.



-2
Wauzeschnuff
Wauzeschnuff01.06.2505:34
Schens
Das hilft jetzt eher wenig bei Deiner Argumentation. Suchmaschinen können bereits seit mehr als 20 Jahren rechnen. Das von Dir gepostete Ergebnis stammt daher mit sehr hoher Wahrscheinlichkeit nicht aus der LLVM, sie hat einfach einen „Taschenrechner gefragt“.

Aber das befähigt eben nicht, z.B. einen Beweis für eine mathematische Aussage zu finden, wenn dieser nicht in den Trainingsdaten enthalten war. Denn dazu fehlt eben die Fähigkeit zum logischen Schlussfolgern.





Dieses Problem ist inhärent und erfordert die Synthese mit anderen Ansätzen aus der Forschung.
+2
Schens
Schens01.06.2506:06
Mag ja alles richtig sein. Aber die Aussage KI rechnet falsch stimmt schlicht so nicht. Auch simple PvS Fragen werden korrekt beantwortet. Und das sind Fragestellungen mit welchen ein Großteil der Leute Probleme haben.
Oben Perplexity, Modus Suche. Unten ChatHPT 4o


-2
Schens
Schens01.06.2506:17
Hochinteressant!
ChatGPT 4o (das älteste Modell der drei) rechnet FALSCH, der Rest korrekt.




-3
Sitox
Sitox01.06.2507:21
Geminis lange Erklärung für Menschen mit Rechenschwäche.
+1
Marcel Bresink01.06.2510:35
Schens
schriftprompt diktiert mit Siri

Damit hast Du die Aufgabenstellung stark vereinfacht, denn durch die Vorarbeit von Siri erkennt das nachfolgende LLM die Fragestellung sofort als Rechenaufgabe. Um den Test tatsächlich durchzuführen, musst Du "was ist einhundertdreiundzwanzig mal vierhundertsechsundfünfzig" eingeben. Das war oben ausdrücklich mit dem Hinweis wortwörtlich versehen.

Und aus dem Test von nur zwei Systemen kann man nichts Aussagekräftiges schließen. Ich hatte oben mehr als 6 verschiedene Systeme getestet.
+9
Free01.06.2515:19
Marcel Bresink
...
Du fantasierst ständig Dinge hierbei, die niemand behauptet hat. Erstellst Du die Beiträge selbst per KI? Ich hatte oben geschrieben, dass ein LLM Wissen über Sprachäußerungen erwirbt, das aber nicht mit Faktenwissen über die Welt gleichgesetzt werden kann.
Das war ziemlich unterhalb der Gürtellinie und deutlich ad hominem. Vermutlich haben meine Argumente bei Dir etwas getroffen, bei dem Du Dir nicht anders zu helfen weißt. Schade.
-10
Unwindprotect01.06.2521:42
Schens
Mag ja alles richtig sein. Aber die Aussage KI rechnet falsch stimmt schlicht so nicht. Auch simple PvS Fragen werden korrekt beantwortet. Und das sind Fragestellungen mit welchen ein Großteil der Leute Probleme haben.

Du begehst einen typischen logischen Fehler, den viele Menschen naturgemäß machen, den der Mensch insgesamt jedoch durch Wissenschaft, Mathematik und Logik überwunden hat: Du schließt aus (oft sehr wenigen) Einzelereignissen auf einen pauschalen Fakt.
LLMs in ihrer Funktionsweise als Sprachmodelle sind grundsätzlich schlecht beim rechnen. Man kann aber ein Programm schreiben, damit Sprachmodelle eine Matheaufgabe in ein für einen Taschenrechner geeignetes Eingabeformat umformen und dieses dann an ein solches externes Programm übergeben. Die Antwort wird dann wieder in einen Satz eingebaut. Das ist NICHT das gleiche wie „Rechnen können“, sonst würden wir an der Schule auch nur lernen Zeichen in Taschenrechner einzutippen.
+6
frankh01.06.2521:55
@Schens Deine letzten Beispiele zeigen, dass Du die wesentliche Funktionsweise von LLMs noch immer nicht verstanden hast.
Es ist etwas völlig Anderes "2 x 2" oder "24556 x 575875" oder "siebenhundertdrei mal sechtzehn" zu prompten.
Die Ergebnisse fallen auch anders aus, wenn das LLM direkt eine Anwort gibt oder wenn es erst die Einzelschritte auflistet.
Ausserdem muss man auch prüfen, ob diese Prompts wirklich vom LLM verarbeitet wurden oder nicht per data analytics, d.h. z.B. durch generierten python code im Hintergrund (bei ChatGPT sieht man das meist gut, bei anderen nicht unbedingt) - s.a. "tool calling", "prompt refinement".

Schau doch mal Grundlagenvideos, statt Dich hier immer weiter in Deine falschen Annahmen zu versteifen.
Bzgl. "Tokenisierung", "Kontextfenster", "Rechnen" und "Logik" gitb es seit Jahren haufenweise Analysen, Beispiele und Prompting-Tipps, s. z.B. "chain of thought".

Wenn Du WIRKLICH verstanden hast, warum "Zähle die "e" in Erdbeere" scheitert(e), aber "Buchstabiere Erdbeere, dann zähle die "e" darin" das erwartete Ergebnis liefert, die Antworten auf "wo?" oder "warum?" trotzdem oft falsch sind/waren, bist Du einen wesentlichen Schritt weiter, Sprach KI richtig anzuwenden.

+3
Schens
Schens01.06.2522:22
frankh
@Schens Deine letzten Beispiele zeigen, dass Du die wesentliche Funktionsweise von LLMs noch immer nicht verstanden hast.

Danke, sehr freundlich. Trotz meiner Dummheit, meines simplen Intellekts, kommen ALLE Modelle auf das korrekte Ergebnis.

Möglicherweise müsste ich weniger dumm sterben, wenn die Experten dieser Runde einfach mal Screenshots der falschen Ergebnisse posten würden. Marcel zu Liebe mit sechs Modellen getestet. Mit Ausnahme von OpenAI alles frische Accounts.







-2
Unwindprotect01.06.2522:24
Free
Das war ziemlich unterhalb der Gürtellinie und deutlich ad hominem. Vermutlich haben meine Argumente bei Dir etwas getroffen, bei dem Du Dir nicht anders zu helfen weißt. Schade.

Das sehe ich vollkommen anders. Tatsächlich habe ich gestern selbst begonnen eine lange Antwort auf Dein Post zu schreiben, dass leider nur so strotzt von falschen Vorstellungen mit welcher Technologie wir es zu tun haben. Marcel Bresinks Post hat mir dazu dann jedoch komplett den Wind aus den Segeln genommen, weil er perfekt wiedergegeben hat was ich auch schreiben wollte. Ich erlaube mir daher zu vermuten, dass in dem von Dir monierten Absatz kein ad hominem Angriff steckt sondern eine gewisse Frustration die ich zumindest bei mir auch feststelle, wenn Du auf ausführliche Erklärungen und Aussagen mit völlig an den Haaren gezogenen Behauptungen antwortest. Ich würde das an Deiner Stelle eher als Bitte verstehen, Dir etwas mehr Mühe zu geben auch das zu verstehen auf das Du antworten möchtest.
+5
Unwindprotect01.06.2522:33
Schens
frankh
@Schens Deine letzten Beispiele zeigen, dass Du die wesentliche Funktionsweise von LLMs noch immer nicht verstanden hast.

Danke, sehr freundlich. Trotz meiner Dummheit, meines simplen Intellekts, kommen ALLE Modelle auf das korrekte Ergebnis.

Du hast offensichtlich nicht gelesen was ich und andere Dir dazu geschrieben haben. Nochmal etwas direkter: Wenn Du einen Dienst wie ChatGPT nutzt, promptest Du nicht nur in ein rohes LLM, sondern in ein System, das solche Prompts mitunter auch umformt um externe NICHT LLM Programme zur Berechnung zu beauftragen. Die so gelieferte korrekte Antwort wird dann in den Antworttext integriert. Das LLM selbst ist jedoch nicht geeignet um korrekt zu rechnen.

Solche „Tool-Calls“ funktionieren für manche Sachen, aber nicht für alles. Auch kann der für das Tool generierte Prompt fehlerhaft sein. Die Dienste sind eben doch unzuverlässig in der Allgemeinheit.
+5
Schens
Schens01.06.2522:37
Nachtrag: „Wo in Erdbeere sind die e?“
Musste ich ein paar mal lesen, um die Frage zu verstehen.

Claude Sonnet 4 und Gemini falsch

Rest korrekt.
-1
frankh02.06.2507:24
Ach Schens, fühle Dich doch nicht angegriffen. Wir versuchen hier m.E. schon recht hartnäckig, Dir (und anderen) zu helfen.

Wie Unwindprotect richtig schrieb, siehst Du ein Chat-PRODUKT immernoch als Blackbox an, da steckt aber mehr dahinter. Es kommt nicht darauf an, DASS ein Chat-Produkt eine richtige oder falsche Antwort liefert, sondern WIE es das tut. Alle Modelle durchzuprobieren, bringt Dich nicht weiter und ist Zeitverschwendung.

Dein Rechenbeispiel mit o3 zeigt das z.B.: "Nachgedacht für 7 Sekunden" - Was bedeutet das? Wieso kommt o3 auf das richtige Ergebnis? Was unterscheidet dieses Modell von z.B. 4o? Warum kann 4o das AKTUELL, aber vor ein paar Monaten noch nicht? Weshalb ist die "Alice, Bob" Aufgabe von weiter oben garkeine Rechenaufgabe und welche Art von Modellen können soetwas (nicht). Wieso können SPRACH-Modelle (nicht PRODUKTE) überhaupt irgendeine Rechenaufgabe lösen, wo doch Zahlen keine Wörter sind?
DAS wären wichtige, nachhaltige Erkenntnisse. Nicht, welches Produkt in Version xy, diese oder jene konkrete Aufgabe lösen kann - das ist morgen schon wieder anders.
+5
Schens
Schens02.06.2509:01
frankh
Ach Schens, fühle Dich doch nicht angegriffen. (...) [steht alles direkt drüber]

Die Hilfe schätze ich sehr, wirklich.
Nur: Marcel sagt: KI rechnet falsch. Tut sie nicht, überprüfbar.
Du sagst: falsch gepromptet: Auch mir dem "richtigen Prompt" rechnen alle korrekt.
Du postet einen. Artikel von Juni 24 mit der Aussage: Einfachste Logikaufgaben können nicht gelöst werden. Können sie von jedem aktuellen Modell. Überprüfbar.

Mein Ausgangspost bezog sich auf eine Situation, wie wir sie um den Wechsel vom 19. und 20.Jh schon einmal hatten. Damals waren nicht wenige der Meinung, dass alles nennenswerte schon erfunden sei. Lord Kelvin sagte noch 1895, dass Flugmaschinen, welche schwerer als Luft seien, unmöglich sind. Die Gebrüder Wright wussten das nicht.

Und hier verstehe ich die Punkte, die aufgeführt werden. Die von unwindproject angeführten Toolcalls sind meiner Meinung nach zu diskutieren. Ich halte diese Information gleichzeitig für richtig und falsch. Denn etwas umgeformt wäre ja dann auch der Satz: "Chirurgen können gar nicht operieren, Sie nutzen Skalpelle." richtig und falsch. Ebenso, wie ein Pilot ja auch schlecht selbst fliegt.

Der Punkt ist (ich beziehe mich auf Alice), dass ein Bericht, welcher keine 12 Monate alt ist, weitgehend obsolet ist. Ich kenne eine solche Entwicklungsgeschwindigkeit nicht. Oder eher "kannte".

Auch der überprüfbare und reproduzierbare Fakt, dass der "Satz" "wo in Erdbeere sind die e?" (der ja nicht mal im Ansatz korrektes Deutsch darstellt) ebenso von 4 von 6 getesteten Modellen korrekt interpretiert wurde. Allerdings blieb das Ergebnis bei den zwei Losern auch falsch, nachdem die Frage in korrekter Formulierung gestellt wurde.

Mir geht es hier nicht um Details. Es geht mir nicht ums Recht haben. Es geht mir darum, die fast schon exponentiell anwachsende Verbesserung der Leistung der LLMs darzustellen. Und die umformulierte Aussage: "Dat is nach 3d-Brillen die nächste Sau, die durchs Dorf jetrieben wird" für eine maximale Fehleinschätzung.

Und bei aller Liebe: Dass wir nicht wissen, warum eine KI auf ein Ergebnis kommt, wird wohl noch eine Weile so bleiben.
-2
Unwindprotect02.06.2513:15
Schens

Die Hilfe schätze ich sehr, wirklich.

Das ist manchmal schwer wahrnehmbar
Nichts für ungut, aber manchmal wirkt es einfach "beratungsresistent".
Schens
Nur: Marcel sagt: KI rechnet falsch. Tut sie nicht, überprüfbar.

Marcel hat allerdings in mehrfacher Hinsicht recht.
Für die Aussage "KI rechnet falsch" reicht eine einzige falsche Rechnung in irgendeinem der Modelle, schon kann es passieren. Du behauptest "KI rechnet nicht falsch" und willst es mit einzelnen Tests überprüfen. Du müsstest aber beweisen, das KI _immer_ richtig rechnet. Eben jenes kannst Du realistisch überhaupt nicht schaffen, selbst wenn nicht bereits durch viele Fälle _bewiesen_ ist, das KI eben doch falsch rechnet.

Heißt nochmal kurz:
1) Marcel hat recht, weil LLMs selbst tatsächlich reproduzierbar falsch rechnen
2) Marcel hat recht, weil "KI-Produkte" ebenso immer wieder falsch gerechnet haben und es noch immer tun.

Ich lasse zum Beispiel öfter KI-Modelle Lösungen für Matheaufgaben meiner Tochter lösen. Das klappt manchmal auch gut. Oft genug ist es aber auch in trivialer Weise falsch. Wenn man verstehen möchte wieso dies eben so ist, dann ist es hilfreich zu verstehen wie diese Systeme eben aktuell funktionieren. KI-Gläubigkeit und Techno-Religion ist eben hier wenig sinnvoll.
Schens
Du sagst: falsch gepromptet: Auch mir dem "richtigen Prompt" rechnen alle korrekt.
Du postet einen. Artikel von Juni 24 mit der Aussage: Einfachste Logikaufgaben können nicht gelöst werden. Können sie von jedem aktuellen Modell. Überprüfbar.

Du sprichst immer von bestimmten Beispielen es geht aber um die Generalität. Wenn z.B. bestimmte Logikaufgaben in der Vergangenheit fehlerhaft gelöst wurden, dann kann man davon ausgehen, das dieses Beispiel im nächsten Trainingsmaterial für weitere Optimierung des Modells landen werden. Der Zweck ist dabei aber nicht, dass das LLM plötzlich höhere Logik versteht und wirklich besser wird, sondern das Leute welche irgendwo lesen, dass das KI-Produkt dafür eine falsche Antwort liefert dann die richtige kriegen und denken "schau es wurde gefixt jetzt ist es wirklich perfekt". Damit wird die Illusion aufrecht erhalten, dass diese Systeme wirklich systematisch korrekt antworten - in Wirklichkeit handelt es sich aber um "Flickwerk".
Schens
Mein Ausgangspost bezog sich auf eine Situation, wie wir sie um den Wechsel vom 19. und 20.Jh schon einmal hatten. Damals waren nicht wenige der Meinung, dass alles nennenswerte schon erfunden sei. Lord Kelvin sagte noch 1895, dass Flugmaschinen, welche schwerer als Luft seien, unmöglich sind. Die Gebrüder Wright wussten das nicht.

Deine Behauptung kam durchaus an: Du findest, dass wir alle dumm sind und den Wald vor lauter KI-Bäumen nicht sehen, und dass Du einer der wenigen Erleuchteten bist. Was Du womöglich übersiehst ist, dass wir deshalb über die Details und auch Grenzen dieser neuen Technologien so gut bescheid wissen, weil wir sie natürlich auch spannend und oft nützlich finden. Allerdings sehen wir in Deinen Aussagen eben eine gewisse laienhafte "Verblendung". Das ist auch nicht ehrenrührig, denn die meisten Menschen werden durch die Vermarktung dieser Produkte in solcher weise Verblendet.
Schens
Und hier verstehe ich die Punkte, die aufgeführt werden. Die von unwindproject angeführten Toolcalls sind meiner Meinung nach zu diskutieren. Ich halte diese Information gleichzeitig für richtig und falsch. Denn etwas umgeformt wäre ja dann auch der Satz: "Chirurgen können gar nicht operieren, Sie nutzen Skalpelle." richtig und falsch. Ebenso, wie ein Pilot ja auch schlecht selbst fliegt.

Das sind falsche Beispiele. Du hörst das Wort "tool" und denkst jegliche menschliche Werkzeugnutzung ist damit vergleichbar. Es geht hier jedoch darum, dass eine "KI" an einer Aufgabe scheitert, welche die _KERNKOMPETENZ_ was KI ausmacht betrifft (eine Tätigkeit wie ein Mensch auszuführen). Wenn LLMs bei derartigen Datenmengen die auf sie geworfen werden trotzdem nicht lernt korrekt zu rechnen, dann passt etwas am Prinzip nicht.

Oder kurz: Wenn korrektes logisches Denken nicht funktioniert und das dann für bestimmte Ausnahmefälle durch speziell dazu kodierte Systeme ersetzt wird, macht aus der "KI" eben eine Attrappe. Vorher war "rechnet falsch" eben ein klarer Beweis für die Unzulänglichkeit des gesamten Ansatzes. Indem man hier ein Pflaster drüber klebt, glaubt man die Nutzer noch etwas länger täuschen zu können. Das funktioniert wieder bis zum nächsten Problem. Mit Notfallpflastern behobene Probleme tauchen mitunter sogar wieder auf.
Schens
Der Punkt ist (ich beziehe mich auf Alice), dass ein Bericht, welcher keine 12 Monate alt ist, weitgehend obsolet ist. Ich kenne eine solche Entwicklungsgeschwindigkeit nicht. Oder eher "kannte".

Auch der überprüfbare und reproduzierbare Fakt, dass der "Satz" "wo in Erdbeere sind die e?" (der ja nicht mal im Ansatz korrektes Deutsch darstellt) ebenso von 4 von 6 getesteten Modellen korrekt interpretiert wurde. Allerdings blieb das Ergebnis bei den zwei Losern auch falsch, nachdem die Frage in korrekter Formulierung gestellt wurde.

Es liegt in der Natur von LLMs, dass solche _einzelnen_ Probleme mitunter schnell durch hinzutrainieren von Beispielen memoriert werden. Genauso schnell können sie auch wieder verloren gehen. Das Grundproblem, dass diese Systeme das nicht selbst logisch erarbeiten können bleibt.
Schens
Mir geht es hier nicht um Details. Es geht mir nicht ums Recht haben. Es geht mir darum, die fast schon exponentiell anwachsende Verbesserung der Leistung der LLMs darzustellen. Und die umformulierte Aussage: "Dat is nach 3d-Brillen die nächste Sau, die durchs Dorf jetrieben wird" für eine maximale Fehleinschätzung.

Auch hier obliegst Du leider Werbeversprechen. Was exponentiell zugenommen hat sind Rechenaufwand für Training und Daten (soweit Verfügbar). Wenn nach einem weiteren exponentiell aufwändigeren Training kleine Verbesserungen bei "KI Benchmarks" festgestellt wurden, dann wurde das als Erfolg gefeiert. Im Großen und Ganzen sind die Modelle aber nicht "exponentiell besser" sondern nur exponentiell teurer, bei im Vergleich marginaler Verbesserung.

Hier lohnt sich wiederum der Blick auf das Vorbild - die Natur: Natürliche Lebewesen lernen Sachverhalte mit bei WEITEM weniger Daten und sind zu weit besseren Planungs/Reasoning-Fähigkeiten fähig. Die Wissenschaft ist sich hier weitgehend einig, dass man noch grundlegend andere Modelle braucht und man hat noch nichts am Schirm, das wirklich funktioniert. Heißt: Die Idee, das wir jeden Tag einer "AGI" näher kommen ist nicht korrekt. Geschweige denn mit "exponentieller Geschwindigkeit" wie unter KI-Bros gehyped. Im Moment wissen wir überhaupt noch nicht wie man diesem Ziel näher kommt. Es gibt Ideen aber noch keine Ergebnisse.
Schens
Und bei aller Liebe: Dass wir nicht wissen, warum eine KI auf ein Ergebnis kommt, wird wohl noch eine Weile so bleiben.

Auch das ist so nicht ganz richtig. Hier handelt es sich um ein häufiges Missverständnis. Wenn davon die Rede ist, dass wir nicht wissen wie eine KI auf ein Ergebnis kommt, dann meinen Experten damit, das nicht einfach nachvollziehbar ist wie sie auf ein _konkretes_ Ergebnis kommt. Das liegt in der Natur von neuronalen Netzen mit derartig vielen Parametern. Natürlich kann man da zurückrechnen und sehen wie es deterministisch genau zu dem Ergebnis kam, allerdings ist es eben schwer im Nachhinein festzustellen, welchen Einfluss bestimmtes Trainingsmaterial am Ergebnis hatte. Das Funktionsprinzip ist jedoch durchaus wohlbekannt. Es gibt auch Arbeiten dazu wie man die Repräsentation der Gewichte zu bestimmten Themen und Konzepten besser visualisieren oder analysieren kann. Ebenso wie diese Netze während des Trainingsvorgangs "lernen".

Aus diesem Sachverhalt wird von Laien oft ein plumpes: "Wissenschaftler haben eine KI erschaffen und wissen nicht wie sie funktioniert". So als ob man irgendwie rumprobiert hat (vermutlich mit Blitzen und radioaktiver Strahlung) und dann nach einem Riesenknall plötzlich eine KI da stand ^^.
+8
Wauzeschnuff
Wauzeschnuff02.06.2513:59
So als ob man irgendwie rumprobiert hat (vermutlich mit Blitzen und radioaktiver Strahlung) und dann nach einem Riesenknall plötzlich eine KI da stand ^^.
+1
rmayergfx
rmayergfx02.06.2518:42
Ironie on:

Wenn ich mir den Thread so anschaue, verstehe ich schon warum das mit AI,KI so schwierig ist. Manche Forenteilnehmer verstehen es ja noch nicht einmal, weshalb sollte es die KI dann können

Ironie off.
„Der Computer soll die Arbeit des Menschen erleichtern, nicht umgekehrt !“
+3

Kommentieren

Sie müssen sich einloggen, um sich an einer Diskussion beteiligen zu können.