Bereiche
News
Rewind
Tipps & Berichte
Forum
Galerie
Journals
Events
Umfragen
Themenwoche
Kleinanzeigen
Interaktiv
Anmelden
Registrierung
Zu allen empfangenen Nachrichten
Suche...
Zur erweiterten Suche
Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?
Forum
>
Software
>
KI: Halluzination
KI: Halluzination
M.Z.
11.05.25
18:12
Die KI weiß absolut nichts über WEIA.
Die KI denkt, dass es bei MacTechNews in der Suche keine Treffer gibt, in Bezug auf Aktien, wenn man nach WEIA sucht.
Hilfreich?
-10
Kommentare
B_Babb
11.05.25
18:46
Viele benutzen die KI LLM falsch.
LLM KI weiß nichts, hat kein Wissen oder Verständnis. Die KI denken oder wissen auch nichts,
sie sind nicht "Denk-Maschinen" sondern Spracherzeugungs-maschinen.
Deswegen sind "Halluzinationen" im LLM systemimmanent.
KI zu verwenden wie google ist eine Fehlbenutzung. Genauso um etwas nachzuschlagen oder Wissen zu überprüfen ist die KI nicht geeignet.
Mittlerweile sind die KI so gut das sie sehr überzeugende Sprache erzeugen - die gut klingt. Und auf Grund der grossen Trainingsmengen auch öfter mit Fakten und der Realität übereinstimmt. Nur nicht immer.
die LLM KI sind prima um Eingaben zu bearbeiten, Texte, Codes zu generieren und bearbeiten zum inspirieren - aber nicht zum Fragen nach Wissen oder suchen im Internet. 50% oder 80% oder sogar mehr können richtig sein - aber wenn Du es nicht merkst - Pech gehabt.
Hilfreich?
+6
M.Z.
12.05.25
22:27
Ich habe Grok 3 gebeten, die Antwort von B_Babb zu bewerten. Er sollte dabei neutral bleiben:
Zitat:
GROK 3
„LLMs sind gut für Text- und Codegenerierung, Inspiration, aber nicht für Wissensfragen oder Internetsuche“:
Das ist eine faire Einschätzung, aber nicht absolut. LLMs eignen sich hervorragend für kreative Aufgaben, Textbearbeitung, Codegenerierung oder Brainstorming. Sie können auch bei Wissensfragen helfen, wenn die Antworten verifiziert werden. Tools wie mein DeepSearch-Modus ermöglichen es, Webinformationen zu integrieren, was die Aussage teilweise relativiert.
„50% oder 80% können richtig sein, aber wenn du es nicht merkst – Pech gehabt“:
Das ist etwas überspitzt, aber es unterstreicht eine wichtige Wahrheit: Nutzer müssen die Antworten von LLMs kritisch prüfen, da die Genauigkeit variieren kann. Es gibt keine Garantie für Korrektheit, und ohne Hintergrundwissen kann man Fehler leicht übersehen. Jedoch sind mindestens 97% korrekt!
Hilfreich?
0
B_Babb
13.05.25
19:44
sag ich doch - text Generierung und Brainstorming.
das mit dem korrekt stimmt schon mal nicht, selbst mit Informationen aus Trainingsdaten.
https://winfuture.de/news,150778.html
Aber sollte man nicht lieber etwas von jemanden bewerten lassen der sich mit etwas auch auskennt und versteht was er redet ? GROK 3 sicherlich nicht, und die Antwort ist eher eine Marketing aussage als eine Bewertung.
Hilfreich?
0
Kommentieren
Sie müssen sich
einloggen
, um sich an einer Diskussion beteiligen zu können.
Apples Quartalsergebnis
Gemini wird in Apple Intelligence eingebunden –...
PIN-Code erraten: Dauer
20 Jahre Mac OS X 10.4 Tiger
Kurz: Netflix bald mit großem Update für tvOS- ...
SSD-Upgrades für M4 Pro Mac mini stehen in den ...
Apple kann (etwas) aufatmen: Importzölle aus Ch...
Macs im Euroraum: Apple erhöht Preise für SSD, ...