Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

KI-Bubble und KI-Boom: Ein Missverständnis menschlicher Intelligenz

Große Sprachmodelle wie ChatGPT oder Gemini wirken oft erstaunlich intelligent. Sie sind Meister darin, Dinge in perfekte Sprache zu gießen und den Eindruck entstehen zu lassen, hier arbeite eine überlegene, allwissende Intelligenz. Inzwischen hat sich jedoch etwas mehr Realismus breitgemacht, wie auch aus der kürzlichen Umfrage unter Brancheninsidern hervorging (siehe Artikel). Ein Essay des Gründers von Cognitive Resonance (spezialisiert darauf, Menschen die Chancen und Grenzen von KI nahezubringen) wirft einen kritischen Blick auf den KI-Hype, welcher auch unter Neurowissenschaftlern widersprechen lässt.


AGI? Nicht mit den heutigen Ansätzen
Mehrere namhafte Forscher, darunter Evelina Fedorenko und Steven Piantadosi, kritisieren beispielsweise die verbreitete Annahme, große KI-Modelle stünden kurz vor einer "Allgemeinen künstlichen Intelligenz" (AGI). Tech-CEOs wie Sam Altman oder Marc Zuckerberg wollen dabei ein Bild vermitteln, welches Investoren sehr gerne hören. Aus neurowissenschaftlicher Sicht sei diese Behauptung jedoch gänzlich unbelegt – und basiere zudem auf einer zentralen Falschannahme. Sprache sei bei Menschen ein Werkzeug und nicht die Grundlage des Denkens. Das menschliche Gehirn besitze gesonderte Netzwerke hierfür, die unabhängig voneinander fungieren können.

Überhöhung der Fortschritte
Wenn Altman und Zuckerberg nun über AGIs philosophieren, überhöhen sie die tatsächlichen Fortschritte von KI-Tools massiv und begehen den Denkfehler, sprachliche Kompetenz mit menschlicher Intelligenz gleichzusetzen. Der aktuelle Hype beruhe somit auf einem fundamentalen Missverständnis, was unser Denken ausmacht. Selbstwahrnehmung, echtes Verständnis und kein starres konzeptionelles Denken seien Aspekte, die komplett anderen Prinzipien folgen, als aktuelle Sprachmodelle. Damit könne ein Sprachmodell, das nur Texte verarbeitet, nie dieselben kognitiven Fähigkeiten entwickeln wie ein Mensch.

Echte Intelligenz möglich, doch nicht mit aktuellen Ansätzen
Allerdings: Die Kritik soll keineswegs darauf abzielen, dass hier nur unrealistische Science Fiction verkauft wird. Die Forscher argumentieren, echte maschinelle Intelligenz sei durch Abbilden von Weltwissen-Strukturen, Physik und Kausalität durchaus möglich. In der Branche wähle man aber konsequent einen Ansatz, der KI zwar intelligent erscheinen lässt, allerdings in erster Linie auf Imitation menschlicher Sprache beruht. Der "Large Language Mistake" bestehe darin, dass die heutige "KI-Bubble" darauf baue, derlei Kritik vollständig zu ignorieren.

Kommentare

Peter Eckel26.11.25 08:56
Meine persönliche Prognose: Lange vor dem Erreichen der AGI wird die aktuelle "AI"-Blase platzen, weil die Unternehmen langsam bemerken, daß die Vorteile der derzeitigen Lösung begrenzt sind und sich die enormen Investitionen dafür nicht rechnen.

Dann wird das Thema erstmal so verbrannt sein, daß die notwendigen Investitionen in Grundlagenforschung nicht mehr erfolgen und das AGI-Thema ist bis auf weiteres auch erstmal vom Tisch. Die bisherigen Akteure, allen voran OpenAI, sind zu dem Zeitpunkt an der Börse erledigt und ihre Technologie wird zu Ramschpreisen von universeller aufgestellten Firmen einkassiert, wenn bis dahin überhaupt noch ein Vorteil daraus erkennbar ist.
Ceterum censeo librum facierum esse delendum.
+27
System 6.0.1
System 6.0.126.11.25 10:21
👆 Was Peter Eckel sagt!

Anfügen möchte ich allenfalls, dass es — möglicherweise — bereits einen weiteren Teil-Fortschritt für eine AGI gibt, dessen Entwicklungskosten aus dem aktuellen LLM-Hype der 2020er Jahre finanziert wird.

Wenn das so sein sollte, müssten die Unternehmen, allen voran OpenAI, innerhalb der nächsten 1 - 2 Jahre, ein vermarktbares Produkt vorweisen. Sonst passiert es, wie oben beschrieben.

Perplexity meint dazu:

„Der nächste entscheidende Fortschritt hin zu einer Artificial General Intelligence (AGI) wird voraussichtlich durch AI-Systeme markiert, die eine konsistente Expertenleistung bei offenen, komplexen Problemstellungen zeigen, also etwa sehr anspruchsvolle Prüfungen oder neue, unbekannte Aufgaben mit minimalen Fehlern bewältigen können. Ebenso ist die Fähigkeit wichtig, als Generalist flexibel zwischen unterschiedlichen Aufgaben zu wechseln, anstatt nur auf eng begrenzte Einzelszenarien spezialisiert zu sein.

Aktuelle Meilensteine, die als Fortschritt zu AGI gesehen werden, umfassen:
• Verbesserungen in multimodalen Modellen, die verschiedene Datentypen wie Text, Bilder und Audio integrieren können.
• Fortschritte in fortgeschrittenem Verstärkungslernen für autonome Entscheidungsfindung.
• Kombination von symbolischer Logik mit neuronalen Netzen (neuro-symbolische AI).
• Stärkere Selbstüberwachungs- und föderierte Lernmethoden, die weniger auf gelabelte Daten angewiesen sind und Datenschutz verbessern.
• Systeme, die über längere Zeiträume komplexe Aufgaben autark bewältigen können, was eine exponentielle Entwicklung der Leistung bei “Task Length” darstellt.

Große Erwartungen bestehen, dass die Weiterentwicklung bestehender Transformer-Modelle durch Skalierung von Rechenleistung und Daten in den nächsten Jahren entscheidend zum Erreichen von AGI beiträgt. Solche Systeme wie GPT-5 (veröffentlicht 2025) zeigen bereits wichtige Fortschritte in Schlussfolgerungsfähigkeit und multidisziplinärer Kompetenz.

Expertenmeinungen gehen davon aus, dass AGI in den späten 2020er Jahren bis etwa 2030 erreicht werden könnte, wobei kritische Fortschrittsindikatoren das Bestehen anspruchsvoller Tests, das Beherrschen von Generalistenfähigkeiten und die Fähigkeit zu autonomen, langanhaltenden Tätigkeiten sind. Ein fundamentaler Durchbruch könnte auch durch neuartige Architekturen jenseits der Transformer entstehen, die die aktuellen methodischen Grenzen überwinden.

Kurz gesagt: Der nächste Fortschritt zu AGI wird vor allem durch AI-Modelle erkennbar, die deutlich über eng spezialisierte Systeme hinausgehen, komplexe, multi-domain Probleme auf Expertenniveau lösen und dabei flexibel und autonom agieren können.“


Tja nun …
„A lot of times, people don't know what they want until you show it to them.“ Steve Jobs, 1998
-3
gfhfkgfhfk26.11.25 10:23
Das was wir im aktuellen Hype erleben ist eine seit Jahrzehnten bekannte Technologie – neuronale Netze. Neuronale Netze (englisch auch Machine Learning ML genannt) sind in der Lage durch zuvor antrainierte Muster diese Muster in anderen Daten wieder zu finden. Sie sind darin so gut, dass sie das auch können, wenn Menschen daran scheitern bzw. sie können Menschen helfen in dem sie riesige Datenberge automatisiert durcharbeiten können und die Daten finden, die von einem Menschen persönlich in Augenschein genommen werden sollten. Dann sind die aktuellen System in der Lage auf Basis der bekannten Muster neue Dinge zu erschaffen, in dem sie Linearkombinationen des Bekannten zu „erschaffen“. Neu ist daran nur die Kombination des Bekannten. Diese Systeme sind nicht in der Lage Dinge zu erschaffen, die außerhalb des Raums der möglichen Lösungen liegt.

Die Ergebnisse sind sicherlich beeindruckend, aber eben sind das keine KIs sondern nur neuronale Netze. Die US Computerindustrie ist schon immer exzellent gewesen banale Dinge mit sehr viel Hype zu sehr viel mehr aufzubauschen als sie in Realität sind. Trotzdem sollte man nicht den realen Nutzen von neuronalen Netzen unterschätzen. Die Sprachmodelle von OpenAI & Co. sind sehr viel erfolgreicher als alles was bisher aus den Geistenwissenschaften zu diesem Themenkomplex erschaffen wurde. Es gibt dadurch auch mannigfaltige (oh welch schönes Wort, wenn man dessen Bedeutung aus der Mathematik kennt) Anwendungsmöglichkeiten, und „AI“ wird in Zukunft Teil unser aller Leben sein. Daher wird das nicht mehr verschwinden, es wird sich zu einem normalen Bestandteil des Lebens wandeln. Der Markt wird sich entsprechend normalisieren, und die Goldgräberstimmung wird verschwinden.

Wer nun meint, dass die MINT-Fraktion den Fuß vom Pedal nimmt irrt. Man ist sich in MINT-Kreisen einig, dass mit hoher Wahrscheinlichkeit eine echte KI ein System auf Basis eines Quantenrechners sein wird. Die bloße Anhäufung klassischer deterministischer Computerpower wird nicht die Lösung sein. Nun ist das so, dass diverse Firmen daran arbeiten Quantencomputer zu bauen. Das Problem hierbei ist, dass es für Normalos (d.h. Nicht-MINTler) noch halbwegs nachvollziehbar ist, wie klassische Computer und neuronale Netze funktionieren. Bei einem Quantenrechner muss man verstehen wie die Quantenmechanik funktioniert. Prof. Anton Zeilinger hat einmal das Doppelspalt-Experiment mit EPR-Paaren als Paradigma für das Verständnis der modernen Physik benannt. Viel Spaß dabei als Normalo das intellektuell (d.h. auch die Mathematik dahinter) wirklich zu verstehen. Mannigfaltigkeiten sind da nur eines der Probleme.
+14
Roobert
Roobert26.11.25 10:37
Ein grundlegendes Mißverständnis zum aktuellen Stand der KI ist wohl darin begründet, dass der Ausdruck „Intelligence” aus dem Englischen kommt, wie etwa auch in „CIA”: Bei der Central Intelligence Agency bedeutet „Intelligence” nicht „Intelligenz” wie im Deutschen, sondern „nur” so etwas wie „Informationsbeschaffung”.
+2
sudoRinger
sudoRinger26.11.25 11:04
Roobert
Ein grundlegendes Mißverständnis zum aktuellen Stand der KI ist wohl darin begründet, dass der Ausdruck „Intelligence” aus dem Englischen kommt, wie etwa auch in „CIA”: Bei der Central Intelligence Agency bedeutet „Intelligence” nicht „Intelligenz” wie im Deutschen, sondern „nur” so etwas wie „Informationsbeschaffung”.
Ist dann ein 'intelligence test' im Englischen nur eine Prüfung zur Informationsbeschaffung und der 'intelligence quotient' ein Maß für die Spionagefähigkeit?
+3
gfhfkgfhfk26.11.25 11:11
Roobert
Ein grundlegendes Mißverständnis zum aktuellen Stand der KI ist wohl darin begründet, dass der Ausdruck „Intelligence” aus dem Englischen kommt, wie etwa auch in „CIA”: Bei der Central Intelligence Agency bedeutet „Intelligence” nicht „Intelligenz” wie im Deutschen, sondern „nur” so etwas wie „Informationsbeschaffung”.
AI ist aber nicht in diesem Sinne zu verstehen. AI meint exakt KI, und man verkauft das aktuell Vorhandene als AI obwohl man weiß, dass es das nicht ist.
+4
maikdrop26.11.25 11:46
gfhfkgfhfk

Der Quantencomputer ist wie die Kernfusion immer 50 Jahre in der Zukunft. Aber ja, erst damit ist eine KI möglich. Ob man das will, ist eine ganz andere Frage. Was noch viel mehr unterschätzt wird, ist die Entwicklung von Algorithmen, die Probleme (auch mathematische) mit der Quantenmechanik lösen. Heutiges ML (dazu gehören u.a. neuronale Netze, aber FYI: ML != neuronale Netze) basiert auf Algorithmen aus den 80/90igern.
+2
gfhfkgfhfk26.11.25 12:14
maikdrop
gfhfkgfhfk

Der Quantencomputer ist wie die Kernfusion immer 50 Jahre in der Zukunft.
Es gibt bereits Quantenrechner. Nur sind die Anwendungsmöglichkeiten der real existierende System noch relativ begrenzt, weil sie zu klein sind. Das Faktorisieren des RSA-Moduls aus dem gleichnamigen kryptographischen System ist wohl die bekannteste Anwendung => Shor-Algorithmus, und sie scheitert momentan an der notwendingen Bitlänge. Denn das typische RSA-Modul hat mehr als 4096 Bit Länge. Trotzdem muss man sich bereits damit befassen, da RSA auch zur Signatur von Verträgen genutzt wurde, und man diese Signaturen in Zukunft fälschen könnte, so dass bereits geschlossene Vertragstexte angegriffen werden könnten. D.h. man wäre in der Lage ältere Dokumente zu verfälschen.
maikdrop
Was noch viel mehr unterschätzt wird, ist die Entwicklung von Algorithmen, die Probleme (auch mathematische) mit der Quantenmechanik lösen.
Das ist richtig. Shors-Algorithmus ist eine der wenigen bekannten Algorithmen. Informatiker lernen üblicherweise keine QM, so dass sie Probleme haben in diesen Kategorien zu denken.
+1
Roobert
Roobert26.11.25 12:37
Ok, ich ziehe meine Wortmeldung in Sachen „Datenbeschaffung” zurück. Habe ChatGPT gefragt und es meint auch: „Der Begriff hat nichts mit „intelligence“ im Sinn von Geheimdienst-Informationen (CIA etc.) zu tun.”
Sorry for intruding.
+5
fleissbildchen26.11.25 13:09
Evelina Fedorenko, Steven Piantadosi et al.
... Sprache sei bei Menschen ein Werkzeug und nicht die Grundlage des Denkens ...

Das ist auch der Grund, warum Rassismus nicht weniger wird, wenn keiner mehr "Neger" sagt
+3
macster10026.11.25 14:48
fleissbildchen
Evelina Fedorenko, Steven Piantadosi et al.
... Sprache sei bei Menschen ein Werkzeug und nicht die Grundlage des Denkens ...

Das ist auch der Grund, warum Rassismus nicht weniger wird, wenn keiner mehr "Neger" sagt

Ganz so einfach ist es dann auch wieder nicht. Es gibt Wechselwirkungen zwischen Denken und Sprache.
+3
guentersen26.11.25 15:18
@fleissbildchen
Für die so Bezeichneten dürfte es einen Unterschied machen das Wort nicht zu verwenden. Und darum geht’s!
Gesellschaften nutzen (u.a.) Sprache zur Ausdifferenzierung und strukturell ist es dysfunktional (ausgrenzend) abwertend codierte Bezeichnungen für Menschen zu verwenden. Strukturell ist es intelligent zu wählen wertschätzend zu sprechen. Das wirkt integrierend und stabilisierend.
0
Langer
Langer26.11.25 16:20
Der Kanal ScienceClic English visualisiert und erklärt die Zusammenhänge aus meiner Sicht sehr gut in "The Physics of A.I."

(Ich übe mich noch im verstehen )
0
maikdrop26.11.25 19:32
gfhfkgfhfk
maikdrop
gfhfkgfhfk

Der Quantencomputer ist wie die Kernfusion immer 50 Jahre in der Zukunft.
Es gibt bereits Quantenrechner. Nur sind die Anwendungsmöglichkeiten der real existierende System noch relativ begrenzt, weil sie zu klein sind. Das Faktorisieren des RSA-Moduls aus dem gleichnamigen kryptographischen System ist wohl die bekannteste Anwendung => Shor-Algorithmus, und sie scheitert momentan an der notwendingen Bitlänge. Denn das typische RSA-Modul hat mehr als 4096 Bit Länge. Trotzdem muss man sich bereits damit befassen, da RSA auch zur Signatur von Verträgen genutzt wurde, und man diese Signaturen in Zukunft fälschen könnte, so dass bereits geschlossene Vertragstexte angegriffen werden könnten. D.h. man wäre in der Lage ältere Dokumente zu verfälschen.
maikdrop
Was noch viel mehr unterschätzt wird, ist die Entwicklung von Algorithmen, die Probleme (auch mathematische) mit der Quantenmechanik lösen.
Das ist richtig. Shors-Algorithmus ist eine der wenigen bekannten Algorithmen. Informatiker lernen üblicherweise keine QM, so dass sie Probleme haben in diesen Kategorien zu denken.

Wenn es danach geht, ist mit Quantencomputern mehr oder weniger die ganze aktuelle Kryptographie “im Arsch”. Wie du schon sagtst, gibt es Quantencomputer. Aber halt im kleineren Forschungsmaßstab. Genauso wie es Forschungsreaktoren zur Kernfusion bzw. deren Erforschung gibt. Und die QBit Herstellung ist aktuell auch nicht gerade energiearm und “einfach”. Das muss schon noch einiges an Forschung passieren. Aber wahrscheinlich gibt’s den ersten kommerziellen Quantencomputer eher als ein kommerzielles Kernfusionskraftwerk. Einfach weil die Forschung weniger gefährlich ist und sich StartUps daran versuchen können. Wenn denen der Quantencomputer um die Ohren fliegt, ist halt was anderes als wenn der Reaktor sich verabschiedet.
-1
Unwindprotect27.11.25 10:31
System 6.0.1
Perplexity meint dazu:

... (gekürzt, ist ja oben nachlesbar)

Die Antwort von Perplexity spiegelt sehr deutlich das wieder was ich manchmal "Industriemeinung" nenne. Dort ist man weitgehend der Ansicht, das man AGI einfach durch "hochskalieren" und ein paar angeflanschte Taschenspielertricks wie "Reasoning" (das was man bei LLMs darunter versteht).

Diese Meinung steht im Konflikt mit der KI-Forschung, welche eben fundamentale Probleme beim aktuellen Ansatz sieht. Man stelle sich einfach mal vor: Was wir durch ein paar Sekunden ausprobieren und beobachten unserer Hände an Gesetzmäßigkeiten lernen kann, lässt sich nunmal nicht, wenn überhaupt nur unvollständig, fehlerhaft, naiv und auf jeden gigantisch ineffizient durch trainieren auf Büchern, Bildern oder Videos lernen. Yann LeCun bedient hier ja immer wieder mal das Beispiel, das Katzen immer noch bei weitem intelligenter sind als alle heutige LLM-KI-Systeme. Viele missverstehen dieses Zitat und denken dabei an die gut funktionierende adaptive Wiedergabe von erlerntem Bücherwissen bei LLMs, die man so bei Katzen ja nicht findet. Das Zitat bezieht sich schlicht darauf, dass Katzen über die physische Welt weit mehr Details kennen und diese auch schneller und besser lernen können.

Dann gibt es die Neuro-Wissenschaftler. Diese stehen seit eh und je im Konflikt mit der Informatik und KI-Forschung, weil viele sich dort strikt jeder Idee verweigern, dass man das was menschliche Intelligenz ist mit einer schnöden deterministischen Maschine nachbilden könne. Das sind gewissermaßen teilweise Zweifel ob menschliche Intelligenz überhaupt "berechenbar" ist.

Manche die zwischen Neurowissenschaften und Informatik stehen sehen hier den Schlüssel hinter "Quanten-Computern"... nachdem diese seit eh und je so etwas wie der "Heilige Gral" der Informatik darstellen. Hintergrund: Alonso Church hat mit seinem "Lambda-Kalkül" ebenso wie Turing mit seiner "Turing-Maschine" die theoretische Grundlage dafür gefunden, was man als "Berechenbar" finden kann. Alle heutigen herkömmlichen Computer müssen diesen Theorien unterworfen werden... egal wie toll NVidias Grafikkarten sind oder wie groß die Rechenfarmen. Die Berechenbarkeit von Turing-Maschinen basiert in der Theorie auf einem unendlich großen Speicher... und keines unser existierenden Systeme hat einen unendlichen Speicher. Solange der Speicher endlich ist, lässt sich jedes dieser Systeme auf einen "endlichen Automaten" reduzieren. Weiterhin kann man bei den meisten nicht-trivialen Algorithmen (Programmen) nicht entscheiden ob irgendwann noch eine Lösung gefunden wird oder das Programm einfach unendlich lange weiter sucht. Es wird vermutet, das sich die grundätzliche "Berechenbarkeit" auch mit Quantencomputern nicht ändert. D.h. auch ein herkömmlicher Computer kann theoretisch alles berechnen, was ein Quantencomputer kann... allerdings braucht er dafür potentiell exponentiell lange.

Deshalb ist ein wichtiger Aspekt hier auch die "Komplexität" der Probleme. Jene die "Polynomial" (P) lösbar sind, sind "einfach" und Probleme für die man nur "Nicht-Polynomiale" (NP) Lösungsvorschriften kennt sind "hart". Sehr vereinfacht: Manche Probleme benötigen z.B. exponentiell viele Schritte auch wenn eine vorliegende Lösung sehr leicht (linear, quadratisch...) _überprüfbar_ ist. NP Probleme kann man vereinfacht so sehen, dass deren Komplexität so groß ist, das heutige Computer sie schon bei relativ kleinen Problemgrößen schon nicht mehr in vertretbarer Zeit lösen können.

Eine der ungelösten Grundfragen der Informatik ist, ob es zu jedem Problem, zu dem eine Lösung polynomial überprüfbar ist auch eine polynominale Lösungsvorschrift gibt - also man ein Programm finden kann, welches die Lösung effizient berechnet.

Quantencomputer sollen bestimmte Probleme _exponentiell_ schneller lösen können. Das erklärt, warum sie so sehr als "heiliger Gral" gelten, denn das könnte typische NP-Probleme plötzlich auch für große Zahlen realistisch lösbar machen. Zumindest für manche Quantencomputer-lösbare Probleme könnte dann also möglicherweise P=NP gelten.

Klassiker sind hier Themen wie Kryptographie, denn deren Funktionsweise basiert oft auf NP-Vollständigen Problemen wie der Primzahlfaktorzerlegung. Wenn diese plötzlich in P lösbar wären, wären darauf basierende kryptographische Algorithmen geknackt.

Wer sich allerdings heute erhofft, das es in auch nur bei weitem absehbarer Zeit Quantencomputer geben könnte, welche eine "AGI" realisieren, der lebt schon seehr deutlich im Bereich der Science Fiction.
-1
zactech28.11.25 09:27
Vielleicht hat der Autor grundsätzlich recht, aber verfehlt dennoch den Punkt:

"Selbstwahrnehmung, echtes Verständnis und kein starres konzeptionelles Denken seien Aspekte, die komplett anderen Prinzipien folgen, als aktuelle Sprachmodelle."

Das mag zwar sein, aber es braucht eben keine Selbstwahrnehmung oder gefühltes echtes Verständnis um intelligente Jobs auszuführen.
Letztlich überhöht dieser Anspruch auch einen Großteil der Menschen, die auch nicht alle Erfinder, Mathematiker oder geniale Grundlagenforscher sind.
Die KI in der aktuellen Form kann bereits mit einem kurzem Prompt funktionierende Programme schreiben, Skizzen in 3D-Modelle überführen, komplexe Texte übersetzen usw.
Welcher Mensch kann das schon? Und dazu in der Geschwindigkeit.

Die Frage wird sein, ob der Ki-Hype auch finanziell aufgeht oder ob die Investitionen und Betriebskosten nie die nötigen Umsätze erwirtschaften werden.
Zu denken, das KI wieder verschwindet, weil sie nicht intelligent genug ist, halte ich anhand der bereits erfolgten Durchdringung in viele Tools und Abläufe für ähnlich naiv wie die damalige Meinung das Internet sei nur ein vorübergehender Hype.
+1

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.