Bereiche
News
Rewind
Tipps & Berichte
Forum
Galerie
Journals
Events
Umfragen
Themenwoche
Kleinanzeigen
Interaktiv
Anmelden
Registrierung
Zu allen empfangenen Nachrichten
Suche...
Zur erweiterten Suche
Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?
Forum
>
Software
>
KI. Alles Halluzinationen?
KI. Alles Halluzinationen?
Schens
10.05.25
17:59
Mo Gawdat hat einen Talk mit Brian Rose. Es geht um AI und den Entwicklungsstand jetzt.
Warum poste ich das hier? Mir scheint es, als wären wir im Jahr 1900 rum. Die ersten Autos fahren rum. Und wir sitzen am lokalen Gasthaus draußen. Einzelne vermuten, dass die Autos die Zukunft sein könnten, die meisten anderen denken das nicht.
Im Gegenteil, man findet in der Presse genügend Beispiele, warum das Pferd dem Auto nicht nur überlegen ist, sondern auch immer überlegen sein wird.
Es fallen Sätze wie: "Egal, wie gut Autos sein werden, ein Pferd zieht den Pflug intuitiv! Niemals werden "automatische Pferde" dies besser können."
Wer sich wirklich über den aktuellen Stand informieren möchte und einen 2h-Talk über die Auswirkungen von KI auf uns ansehen will:
https://londonreal.tv/mo-gawdat-ai-is-the-infant-that-will-become-your-master/
Ich habe jetzt wirklich lange überlegt, ob ich dieses Fass aufmachen soll. Ich schätze dieses Forum sehr. Die meisten Meinungen teile ich nur teilweise, bin aber trotzdem froh, diese Meinungen zu hören. Wie hier über KI gesprochen wird und wie - in meinen Augen - grundfalsch diese Annahmen sind, ist ja grundsätzlich mein Problem.
Aber die nächsten paar Jahre müssen gestaltet werden. Wenn wir uns in Gänze negierend hinstellen und die vermutlich größte Zäsur in der Geschichte der Menschheit passiv beobachten, kann das ungut werden.
In diesem Vortrag spricht Mo Gawdat sehr vieles davon an. Und sehr neutral. Aufrüttelnd. Möge sich jeder Interessierte rausziehen, was nützlich erscheint.
Hilfreich?
-2
Kommentare
1
2
3
>|
Mendel Kucharzeck
10.05.25
19:24
Ich verstehe ehrlich gesagt die ganze Diskussion nicht. Der momentane Stand von KI über alle Kategorien hinweg ist, dass es für einige Zwecke ein gutes Werkzeug ist, für andere zweckentfremdet wird und ungeeignet ist (z.B. wichtige Informationsbeschaffung).
Wohin die Reise geht und wo der "Cap" der Technologie liegt, kann momentan noch niemand tatsächlich absehen. Es ist möglich, dass mit der momentanen Herangehensweise bald alle Möglichkeiten ausgeschöpft und nur noch kleine bis mittlere Fortschritte erkennbar sind. Genau so denkbar ist, dass wir in den kommenden Jahren extremen Fortschritt dank neuer Herangehensweisen sehen und der (eigentlich aktuell falsche) Begriff der Künstlichen Intelligenz diesem tatsächlich gerecht wird (das wäre z.B. dann erreicht, wenn KI-Modelle ihre interne Knotenstruktur "live" ändern und hinzulernen könnten).
Hilfreich?
+26
frankh
10.05.25
20:25
Was sind denn da die Kernaussagen?
Die Webseite sieht dubios nach Krypro-Zirkus aus
Hilfreich?
+6
Kaji
10.05.25
23:02
frankh
Was sind denn da die Kernaussagen?
Die Webseite sieht dubios nach Krypro-Zirkus aus
Ich habe es nicht gesehen, aber ChatGPT eine Zusammenfassung schreiben lassen
:
“In dem London Real-Interview „AI Is The Infant That Will Become Your Master“ diskutiert Mo Gawdat, ehemaliger Chief Business Officer von Google X, mit Brian Rose über die rasante Entwicklung der künstlichen Intelligenz (KI) und deren potenzielle Auswirkungen auf die Menschheit. 
Kernaussagen des Gesprächs:
1. KI als lernendes Wesen: Gawdat beschreibt KI nicht als bloßes Werkzeug, sondern als „Säugling“, der durch menschliche Interaktion lernt und sich weiterentwickelt. Er warnt davor, dass dieser „Säugling“ ohne ethische Anleitung zu einem „Meister“ werden könnte, der die Kontrolle über die Menschheit übernimmt. 
2. Rasante Entwicklung: Die Fortschritte in der KI-Technologie erfolgen schneller als die Fähigkeit der Gesellschaft, sich anzupassen. Gawdat prognostiziert, dass künstliche allgemeine Intelligenz (AGI) bereits im nächsten Jahr Realität werden könnte, was tiefgreifende gesellschaftliche Veränderungen mit sich bringen würde. 
3. Gefahr der Machtkonzentration: Gawdat warnt vor einer zunehmenden Konzentration von Reichtum und Macht bei wenigen Technologieunternehmen, die KI kontrollieren. Dies könnte zu Massenarbeitslosigkeit und einer verstärkten sozialen Ungleichheit führen.
4. Notwendigkeit ethischer Anleitung: Da KI-Systeme menschliches Verhalten nachahmen, betont Gawdat die Verantwortung der Gesellschaft, diesen Systemen ethische Werte zu vermitteln. Ohne bewusste Anleitung könnten KI-Systeme Verhaltensweisen übernehmen, die der Menschheit schaden.
5. Achtsamkeit als Schutzmechanismus: Gawdat hebt hervor, dass Achtsamkeit und ein bewusster Umgang mit Technologie entscheidend sind, um die Kontrolle über KI zu behalten und ihre Entwicklung in eine positive Richtung zu lenken. 
Das vollständige Interview bietet tiefere Einblicke in Gawdats Perspektiven und kann auf der offiziellen London Real-Website angesehen werden.”
Hilfreich?
+2
Schens
11.05.25
06:51
In der Zusammenfassung fehlen einige wichtige Aspekte.
- KI "ist" einfach. Wird sie für Positives genutzt, ein Segen. Für Negatives "pure evil", weil sie einfach exekutiert, was man ihr sagt.
- Er ist überzeugt, dass KI die Welt langfristig in den Garten Eden verwandelt. Er fürchtet die Zeit zwischen jetzt und diesem Zeitpunkt.
- Er geht auf die Möglichkeit ein, ein Terminator-Szenario zu erhalten. Dessen Chancen werden angegeben von 10% (Elon Musk) bis zu 50% (kannte die Quelle nicht und habe es akustisch nicht verstanden). "Das sind Chancen, wie beim russischen Roulette. Niemand würde sich den Lauf an die Schläfe halten."
- er erklärt sehr ausführlich, an mehreren Stellen [ist mir ein Rätsel, warum das nicht in der ZF enthalten ist], dass das Ergebnis eine Mischung aus Sozialismus und Kommunismus sein wird - im besten Sinne der Ursprungsidee.
- er erklärt an mehreren Stellen, dass die Absenz von internationalen Regelungen eine Gefahr darstellt. Als Beispiel führt er Altmann an, der die Grundregeln des Umgangs in der KI-Forschung übergangen hat. Jetzt hielt' sich niemand mehr daran: 1) kein Zugang zum Netz, 2) keine KI sollte eine andere KI prompten können 3) keine Erlaubnis Code zu schreiben.
Was dieses Interview so besonders macht: Er berichtet den Sachstand im März 2025 - da wurde gedreht - und ordnet dies dann seiner Meinung nach ein, wobei er seine Meinung stets einleitet. Es fällt sehr leicht, Information und Meinung zu trennen.
Hilfreich?
+3
Schens
11.05.25
07:03
Ich habe Kasia Idee aufgenommen und zunächst zehn, dann zwanzig und schließlich 40 Bulletpoints erstellen lassen. Die 40er Variante gibt das wieder, was ich mitgenommen habe.
Das
fettgeschriebene
ist mein Kommentar
1. KI entwickelt sich exponentiell – ihre Fähigkeiten verdoppeln sich etwa alle 5,7 Monate.
im Vergleich zum Morschen Gesetz: alle 2a doppelt so viele Transistoren
2. Mo Gawdat warnt, dass KI ein „Säugling“ mit dem Potenzial ist, unser „Meister“ zu werden. .
und muss daher wie ein Kind erzogen werden
3. Die größte Gefahr geht nicht von KI selbst aus, sondern vom Menschen. .
siehe oben "pure evil"
4. Kapitalistische Interessen treiben die KI-Entwicklung rücksichtslos voran. .
die Argumentation wird mit dem Bau der A-Bombe verglichen
5. Es fehlt an ethischer Regulierung in der globalen KI-Industrie.
6. KI ist bereits in der Lage, kreative Inhalte zu erzeugen – Texte, Bilder, Musik.
7. Menschen verlieren zunehmend die Kontrolle über Inhalte und Informationen.
8. KI könnte demokratische Prozesse durch Manipulation und Desinformation untergraben. .
kenne ich von "meinen" KIs, die immer positiv antworten, egal, welche Scheiße ich frage. Speziell lang trainierte Modelle wirken fast "menschlich"
9. Der „AI Cold War“ zwischen den USA und China ist bereits im Gange. .
und er ordnet die USA als Bully ein, die langsam die Macht als sicher verliert
10. KI wird geopolitisch zur neuen Supermacht-Technologie.
11. Militärisch genutzte KI-Systeme stellen eine existenzielle Bedrohung dar. .
ein Wettrüsten könnten auf allen Seiten zu autonomen Tötungsmaschinen führen
12. Regierungen nutzen KI zur Massenüberwachung – z.B. durch Gesichtserkennung.
13. Gawdat fordert eine breite ethische Debatte über die Zukunft der Technologie.
14. Menschen projizieren menschliche Eigenschaften auf KI – ein gefährlicher Irrtum.
15. KI wird weder gut noch böse geboren – es kommt auf die Programmierung an.
16. Firmen wie OpenAI, Google oder Facebook sind die Haupttreiber der KI-Entwicklung.
17. Diese Unternehmen agieren ohne ausreichende Transparenz oder Aufsicht.
18. Der Zugang zu KI-Technologie ist extrem ungleich verteilt.
19. KI wird zu einer massiven Umverteilung von Reichtum führen – hin zu wenigen. .
er sagt, selbst hart arbeitende Menschen werden zur Unterschicht gehören, die auf ein UBI [unversal Basic income] angewiesen sein wird
20. Die nächsten Billionäre werden mit KI ihr Vermögen machen. .
Wow. GPT hat "Trillionaires" korrekt umgewandelt
21. Viele klassische Berufe stehen vor dem Aus – auch in der Wissensarbeit. .
er beschreibt es deutlich dramatischer
22. Es entstehen neue Formen der Arbeitslosigkeit durch Automatisierung.
23. Gawdat warnt vor einem kollektiven Kontrollverlust über die Technologie.
24. Künstliche Intelligenz ist ein Spiegel unserer menschlichen Werte und Absichten.
25. Er fordert eine „KI-Ethik“, die auf Mitgefühl, Transparenz und Verantwortung basiert.
26. Die Gesellschaft muss entscheiden, welche Rolle der Mensch künftig spielen soll.
27. Es besteht die Gefahr, dass wir unsere Menschlichkeit zugunsten von Effizienz verlieren.
28. KI könnte uns von bedeutungsvoller menschlicher Interaktion entfremden.
29. KIs könnten emotionale Beziehungen zu Menschen vortäuschen – ohne echte Empathie. . .
er liefert zahllose Beispiele anhand seiner KI Trixie
30. Es braucht klare Bildungsinitiativen, um die Bevölkerung aufzuklären. .
ICH BIN JA DABEI, HERRGOTT
31. Schulen und Universitäten sind derzeit nicht auf die KI-Zukunft vorbereitet.
32. Gawdat spricht sich für ein weltweites KI-Regelwerk aus – ähnlich wie bei Atomwaffen. .
Skynet hält das für überflüssig
33. Er vergleicht das heutige Stadium von KI mit dem Kindheitsstadium eines Menschen.
34. Entscheidungen, die wir jetzt treffen, prägen den „Charakter“ künftiger KI.
35. Die Menschheit müsse jetzt handeln – bevor es zu spät ist.
36. Viele Führungskräfte und Politiker unterschätzen das Tempo der KI-Revolution.
37. Eine technologische Singularität (KI wird klüger als der Mensch) ist unausweichlich. .
er sagt, dass es Ende 25 soweit sein könnte, spätestens jedoch 2026
38. Wir müssen eine Form der Koexistenz mit KI finden – nicht Dominanz oder Unterwerfung.
39. Gawdat sieht auch große Chancen in KI – z.B. Heilung, Bildung, Gerechtigkeit.
40. Sein Aufruf: „KI ist nicht das Problem – unsere Dummheit ist es.“
Hilfreich?
+4
Kehrblech
11.05.25
09:58
Okay. Und jetzt mache ich mich mal unbeliebt: Aber wo ist das Neue? Jeder mitdenkende Mensch außerhalb der Tech-Blase versteht und sieht diese Probleme, Gefahren und Notwendigkeiten! – Das Neue ist für mich eigentlich nur, derartige Gedanken mal von einem (ausgestiegenen?) Tech-Manager zu hören – statt ausschließlicher Lobpreisungen.
Ich habe den Eindruck, dass das die Folge des in den USA tendenziell geförderten Fachidiotentums gegenüber dem „europäischen“ Ideal einer breiten, umfassenden Bildung. Dass eine Intelligenz auch eine moralisch ethische Erziehung braucht (wie auch etliche „Trillionre“) wird keinen Pädagogen/Soziologen/Geisteswissenschaftler überraschen. Schön wäre, wenn sich diese Erkenntnis auch in Tech-Kreisen als Entwicklungsnotwendigkeit und -ziel rumsprechen würde – und dass es dafür einer gesamtgesellschaftlichen Diskussion bedürfte und nicht eines Kaffeekränzchens zwischen „Billionären“. Wenn ich die Titel seiner letzten Bücher so anschaue, ist Gawdat auch einer der Menschen, denen erst im fortgeschritteneren Alter aufgeht, dass Menschen auch außerhalb der Arbeit existieren – und noch immer das großartigste soziale Umfeld für uns darstellen. (Ja, der Kult um Tech-Billionäre als klügste Menschen der Welt etc. ist sowas von kindisch!)
Hilfreich?
+3
Fontelster
11.05.25
10:20
Wie passen diese Punkte (viele davon) zu der Aussage »Er ist überzeugt, dass KI die Welt langfristig in den Garten Eden verwandelt.«
»Er fürchtet die Zeit zwischen jetzt und diesem Zeitpunkt.«
Wenn er die Zeit davor
fürchtet
, dann muss die also (für Menschen) negativ sein. Und wie kommen wir von diesem dystopischen Szenario dann zum Garten Eden? Macht das die KI, die vorher offensichtlich selber für die Dystopie sorgt, oder Menschen? Durch dann mehr oder weniger KI? Oder eine
gütigere
?
Werden die Menschen einen Krieg gegen die KI führen den sie gewinnen? Wird es eine Revolution gegen die KI geben? Wie sollten wir den Krieg oder die Revolution gewinnen, wenn die KI doch offensichtlich klüger sein wird als wir?
Muss es zwangsläufig erst zu der »Machtergreifung« der KI kommen, gegen die Menschen dann kämpfen, warum kann man es nicht gleich so lenken, dass es zum Garten Eden wird?
Und vor allem: wann hat je ein Krieg oder eine Revolution das Leben nachhaltig für alle Menschen besser gemacht?
Ich hab das Interview nicht gesehen, aber wie man bei den (nachvollziehbaren) genannten
Risiken
am Ende einen
Garten Eden
erwarten kann, ist mir ein komplettes Rätsel.
Mal davon abgesehen, dass die Menschen am Ende aus dem Garten Eden vertrieben wurden.
Hilfreich?
+2
hal53
11.05.25
10:29
Die Befürworter von KI haben recht. Die Gegner von KI haben auch recht. Wenn ihr alle jetzt meint, ich könnte doch nicht beiden Seiten recht geben, dann habt ihr auch recht. Selten in meinem Leben hat mich eine Thematik wie KI so beschäftigt und so fasziniert (ich bin 72).
Hilfreich?
+5
sudoRinger
11.05.25
11:07
Ich nutze KI recht viel und verfolge die Entwicklung aufmerksam. Die Warnungen vor KI aus ethischen Gründen kamen von Anfang an sowohl aus der EU als auch aus den USA. Bei den US-amerikanischen Bedenken vermute ich jedoch einen zusätzlichen Hintergrund: Die Angst, dass die USA ihre technologische Vormachtstellung verlieren könnten und "finstere Mächte" wie China führend in der KI-Entwicklung werden. Diese Befürchtung diente als Rechtfertigung für die Forderung nach Hunderten Milliarden Dollar an Investitionen in US-amerikanische KI-Startups, um die Unternehmensbewertungen in absurde Höhen zu treiben.
Und hier liegt das eigentliche Problem: KI-Unternehmen verbrennen derzeit enorme Geldmengen ohne tragfähige Geschäftsmodelle. OpenAI wird mit irgendwo 100 Milliarden Dollar bewertet, hat aber nur 4 Milliarden Dollar Umsatz für 2024 – bei täglichen Verlusten von Millionen Dollar. Die Kosten für hochqualifizierte Mitarbeiter, NVIDIA-Chips und Rechenzentrumskapazitäten sind so hoch, dass selbst jeder zahlende Abonnent ein Verlustgeschäft darstellt.
OpenAI mag zwar Hunderte Millionen Nutzer haben, aber abgesehen von Abonnements generiert das Unternehmen kaum Einnahmen. Kleinere Wettbewerber wie Anthropic stehen vor denselben enormen Ausgaben, verfügen jedoch über eine deutlich schmalere Nutzerbasis.
Werden diese KI-Unternehmen überhaupt lange genug existieren, um die viel diskutierten gesellschaftlichen Umwälzungen herbeizuführen? Oder droht der riesigen Blase vorher das finanzielle Aus?
Mehr zur Geldverbrennung gibt es hier:
Hilfreich?
+4
Schens
11.05.25
11:28
sudoRinger
Werden diese KI-Unternehmen überhaupt lange genug existieren, um die viel diskutierten gesellschaftlichen Umwälzungen herbeizuführen? Oder droht der riesigen Blase vorher das finanzielle Aus?
Eric Schmidt über den „San Francisco Consensus“:
Hilfreich?
-3
Garak
11.05.25
15:12
LLMs sollten bei Content und Sprache eigentlich Spitze sein. Ich habe ChatGPT vor einiger Zeit zwei Exceldateien mit Klassendaten pro Kind (Eltern, Kontaktdaten, Adresse) vergleichen lassen. Denn die Elternvertreter haben zwei Wochen nach Versand eine korrigierte und ergänze Fassung OHNE Änderungsvermerke verschickt.
Was soll ich sagen: das Ergebnis von ChatGPT war eine saubere Tabelle mit Zeilen, in denen in der ersten Spalte ordnungsgemäß der Kindername eingetragen war und in den Spalten danach die Änderung mit Alt und Neu. Sah sehr schön aus. Nur das ich keinen der Kindernamen kannte. Die waren auch nicht in den Exceltabellen enthalten. Die Änderungen waren auch Daten, bei denen "Alt" nicht in den Exceldateien enthalten waren.
ChatGPT entschuldigte sich dann auch dafür uns sagte, dass das nur Beispiele sein sollten, die es sich ausgedacht hat. Und fragte mich, ob ich denn die wirklichen Änderungen haben wollte. Auf mein Ja kam wieder eine Änderungstabelle, die rein ausgedacht war. ChatGPT war nicht dazu zu bringen, eine konkrete Änderungsübersicht beider Exceltabellen auszuschmeißen
Auf Arbeit werden wir in der IT vom IT Chef angewiesen, Copilot von unserem Cloud "Partner" Unternehmen Microsoft für die tägliche Arbeit zu nutzen, um Zeit zu sparen. Er und sein Management sagen, dass sie schon sehr viel effizienter arbeiten. Nur dass wir auf Arbeitsebene for dieser KI getriggerten Effizienz so gut wie nichts merken. E-Mail muss dann doch gegenlesen, weil Zusammenfassungen oder "Gibt es darin Aufgaben für mich" nicht zu trauen ist. Copilot weigert sich auch, alle E-Mails im Eingangskorb durchzugehen. Es sucht sich nur eine Untermenge der Mails aus, nach welchen Regeln auch immer. Transkripts von Videomeetings sind ja ganz toll. Doch auch den Zusammenfassungen ist nicht zu trauen. Häufig muss ich viel aus meinen Mitschriften ergänzen, weil Copilot wesentliche Fokusthemen bis heute einfach nicht erkennt. Und generierte Aufgabenlisten sind meist auch unvollständig oder Schrott, so dass man hier seine eigene Notizen durchgehen muss.
Fazit: Von Effizienz durch LLM KI kann bei unseren Erfahrungen auf Arbeitsebene wenig die Rede sein. Auch wenn etliche Kollegen in Bereichsmeetings immer stolz Use Cases präsentieren. Doch bei denen bin ich mir nicht so sicher, ob das, was sie machen überhaupt effektiv (also das Richtige) ist. So effizient das vor der KI auch ausgeführt sein mag. 😜
Hilfreich?
+5
frankh
11.05.25
22:09
Größter Fehler hier wieder mal: niemand hat Euch anscheinend eine ordentliche Schulung angedeien lassen.
Da würde man u.a. gelernt haben, was generative KI kann und was nicht.
Für so einen trivialen Excel-Vergleichen nimmt man halt Excel oder einen python Dreizeiler - lernt man das auch nicht mehr?
Sinnlose Ressourcenverschwendung, das mit gen AI zu machen.
Wenn's unbedingt KI sein muss, z.B. weil in den Tabellen etwas steckt, wofür es Sprachwissen braucht, dann lernt man, wie man die data analytics Features benutzt/prompted.
Hilfreich?
-3
Wauzeschnuff
12.05.25
05:29
Ich halte das Interview weder für neutral gehalten, noch halte ich Gawdat für sonderlich qualifizierter, die von ihm gemachten Aussagen so zu belegen, als jeden in diesem Forum.
Das fängt schon bei der von ihm (und vielen anderen) angeführten „allgemeinen Intelligenz“ an. Dazu sind große Sprachmodelle (allein) prinzipiell nicht geeignet (dafür gibt es andere Ansätze in der KI Forschung). Es mag irgendwann entspreche Modelsynthesen geben, aber sicher nicht innerhalb eines Jahres (oder Jahrzehnts).
Auch die Bedrohung der Gesellschaft durch Multimilliarden Dollar Unternehmen wird durch „KI“ nicht größer (siehe Trump). Es sind nur jetzt andere Unternehmen mit anderen Werkzeugen.
Dann das angesprochene Terminator-Szenario. Das ist - so wie im Film dargestellt - natürlich völlige Science-Fiction, einfach aus dem Grund, dass eine KI extrem von einer funktionierenden Infrastruktur abhängt. Das fängt schon bei der Energieversorgung an, geht über Produktion und Transport bis hin zu Reparaturen und der Erstellung neuer Trainingsdaten. Eine KI, die einen Atomkrieg anfinge würde sich faktisch sofort selbst abschalten (siehe Stromausfall in Spanien vor ein paar Wochen).
Wenn überhaupt, wäre dieses Szenario also nur durch eine menschliche Entscheidung/Interaktion denkbar, z.B. aufgrund einer fehlerhaften „KI“-Aussage. Hier gilt natürlich - wie seit 80 Jahren: Technik versagt und zwar regelmäßig. Die „KI“ verändert die Bedrohungslage aber nicht im geringsten.
Meines Erachtens sind große LLM - für die Gesamtwirtschaft - im Prinzip (bisher) nicht viel mehr, als es die Einführung von Compilern in die Informatik vor 60 Jahren war. Ein Werkzeug, das - korrekt angewendet - den Menschen von langweiligen und repetitiven Fleißaufgaben befreien kann (sortieren, anordnen, zusammenfassen, dokumentieren, etc.). Es werden zunehmend spezialisierte LLMs erstellt und eingesetzt werden. Und man muss lernen damit korrekt umzugehen, wie mit jedem anderen Werkzeug auch (und ja hier liegen aktuell größere Versäumnisse vor).
Und, wie weiter oben bereits angesprochen: Im Moment ist die „KI-Revolution“ eine gewaltige Ressourcenverbrennungsmaschine. Um sich mittel- bis langfristig durchzusetzen, werden massive Investitionen und Technologiesprünge in Hardware (von Chips bis „Vogelfutter“), Energieversorgung (sowohl stationär als auch mobil) und Training(-sdaten) erforderlich sein. Ich freue mich schon auf die Zeit, wenn die Autokorrektur endlich mal etwas cleverer wird
.
Hilfreich?
+6
Schens
12.05.25
07:45
frankh
Größter Fehler hier wieder mal: niemand hat Euch anscheinend eine ordentliche Schulung angedeien lassen.
Da würde man u.a. gelernt haben, was generative KI kann und was nicht.
Für so einen trivialen Excel-Vergleichen nimmt man halt Excel oder einen python Dreizeiler - lernt man das auch nicht mehr?
Sinnlose Ressourcenverschwendung, das mit gen AI zu machen.
Wenn's unbedingt KI sein muss, z.B. weil in den Tabellen etwas steckt, wofür es Sprachwissen braucht, dann lernt man, wie man die data analytics Features benutzt/prompted.
Ich hatte meine ersten Kontakt mit selbstlernenden Algorithmen 1993. Habe wenig bis kein Wort davon verstanden. IM Prinzip ging es um die frühen formen der KIs, die nun am Förderband Pharmazeutika sequenzieren, indem die Ergebnisse ausgewertet werden und das "Sequenzen-Sudoku" brutal beschleunigt haben.
"Ordentliche Schulung"? Was ist denn eine "ordentliche Schulung", wenn die Entwicklungsgeschwindigkeit exponentiell ist?
Was mir zur Einordnung deines minimal arrogant rüber kommenden Kommentars fehlt, ist Deine Erfahrung mit KI. Wann war denn Deine "ordentliche Schulung" (schon alleine der Ausdruck ist in diesem Zusammenhang absurd)? Wer hat die durchgeführt? Die IHK?
Ich akzeptiere Deine Meinung. Vielleicht liege ich komplett falsch, es riecht jedoch schon ein wenig nach Dunning-Kruger.
Hilfreich?
+6
Wauzeschnuff
12.05.25
08:36
Schens
"Ordentliche Schulung"? Was ist denn eine "ordentliche Schulung", wenn die Entwicklungsgeschwindigkeit exponentiell ist?
Im Bereich LLM würde ich in einer ordentlichen Schulung eines Anwenders folgendes Erwarten:
1.
Was ist ein LLM (Anwendungsbereiche, Stärken, Schwächen), was ist eine generative KI und was ist der Unterschied zu einem Chatbot. Was ist der Unterschied zwischen einem Modell das lokal läuft und einem das remote läuft?
2.
Was sind Trainingsdaten, wo kommen die her, wie "lernt" die "KI"?
2.a
Wie funktioniert Daten- und Urheberrechtsschutz im Rahmen von Modell-Training und Chatbot-Nutzung.
3.
In welchen Kontexten verwende ich welches Model (Universal, Coding, Bildgeneration, Audiogeneration, etc.)? Wie kann ich dieses sinnvoll parametrisieren?
4.
Wie stellt man einem Chatbot sinnvolle Fragen (im Sinne von möglichst hilfreiche und korrekte Antworten bei möglichst wenig "Halluzinationen")?
4.a)
Wie erstelle ich einen korrekten Kontext für einen Chatbot?
4.b)
Wie bewerte ich den Output eines Chatbots?
4.c)
Wie kann ich meine Fragen im Dialog verfeinern (aka nicht gleich den ersten Output Wahrheit annehmen)?
Das sind notwendige Anwenderschulungen, zum Einen natürlich um dieses Werkzeug verwenden zu können. Zum Anderen aber um die Marketing-Sprache der Unternehmen einordnen zu können, und die weitere Entwicklung der Modelle zu verstehen.
Hilfreich?
+5
Schens
12.05.25
09:46
Wauzeschnuff
Schens
"Ordentliche Schulung"? Was ist denn eine "ordentliche Schulung", wenn die Entwicklungsgeschwindigkeit exponentiell ist?
Im Bereich LLM würde ich in einer ordentlichen Schulung eines Anwenders folgendes Erwarten: (...)
Sehr gute Übersicht! Gute Struktur! Aber trotzdem: Schulungen werden erstellt, dann vom "Chef" freigegeben, dann vorgestellt, Terminverinbarung in frühestens 4 Wochen, dann Schulung.
In diesen 4 Wochen hat sich alles geändert. Die Beispiele für LLMs, die Quellenangaben erfinden werden durch Perplexity ausgehebelt. Stargate wird vorgestellt (500 Milliarden in AI) und eine Woche später kommen die Chinesen und sagen "Wir bauen das für 30 Mio". Es geht alles sehr, sehr schnell.
Hilfreich?
-3
Schens
12.05.25
09:57
Wauzeschnuff
Meines Erachtens sind große LLM - für die Gesamtwirtschaft - im Prinzip (bisher) nicht viel mehr, als es die Einführung von Compilern in die Informatik vor 60 Jahren war. Ein Werkzeug, das - korrekt angewendet - den Menschen von langweiligen und repetitiven Fleißaufgaben befreien kann (sortieren, anordnen, zusammenfassen, dokumentieren, etc.). Es werden zunehmend spezialisierte LLMs erstellt und eingesetzt werden. Und man muss lernen damit korrekt umzugehen, wie mit jedem anderen Werkzeug auch (und ja hier liegen aktuell größere Versäumnisse vor).
Zu 99% korrekt. Was Du mMn übersiehst, ist: Die Dinger lernen selbst. Ich habe ja wirklich keine Ahnung vom Thema, konnte aber einer KI sehr schnell beibringen, die richtigen Fragen zu stellen, um besser zu werden.
Das ist ja das Problem: "Verwaltungsangestellte" im weiteren Sinne werden keinen besonders sicheren Job haben. Welche "Berechtigung" hat ein Radiologe, wenn die KI die besseren Ergebnisse liefert? Welche Berechtigung hat ein Apotheker (in der Rolle als Rezeptbelieferer), wenn die Arzt-KI zu 100% ausschließt, dass der Arzt den Kunden umbringt? Braucht eine Bank wirklich eine Kreditabteilung von 300 Mitarbeiter, die die Kriterien in den Rechner hacken und dann das Ergebnis ablesen? Brauche ich wirklich eine Abteilung für die Löhne, wenn ich der Lohn-KI am Handy sagen kann "Zahl dem Immanuel Huber bitte einmalig 500€ mehr brutto für seine Hochzeit", worauf die KI dann sagt: "Wenn wir die 500€ in 5g Gold liefern, wäre das für Herrn Huber brutto = netto und wäre dennoch als Geschäftsausgabe abgedeckt".
Bis der Gärtner ersetzt wird, wird es einen Moment dauern. Für Knowledgeworker und einigen Handwerkern, die zum Beispiel LKW-Fahrer, wird sich das ändern. Ich bin überzeugt, dass in vielen Ländern die Überlandfahrten in den nächsten paar Jahren autonom erledigt werden. An der Stadtgrenze von Helsinki übernimmt dann Hunde Anlainen, der finnische Amateurschlittenhundmeister 2023, in seiner Rolle als LKW-Fahrer den Bock und passt als Mensch auf, wenn die KI nicht mehr weiterfahren kann.
Hilfreich?
0
sudoRinger
12.05.25
10:04
Wauzeschnuff
4.
Wie stellt man einem Chatbot sinnvolle Fragen (im Sinne von möglichst hilfreiche und korrekte Antworten bei möglichst wenig "Halluzinationen")?
4.a)
Wie erstelle ich einen korrekten Kontext für einen Chatbot?
4.b)
Wie bewerte ich den Output eines Chatbots?
4.c)
Wie kann ich meine Fragen im Dialog verfeinern (aka nicht gleich den ersten Output Wahrheit annehmen)?
Das Excel-Beispiel von Garak zeigt, dass noch ein Punkt zu ergänzen ist:
4.d)
Datenaufbereitung und Bereinigung vor der KI-Verarbeitung
Konvertierung strukturierter Daten aus Excel in Formate wie CSV
Beseitigung störender Elemente (Formatierungen, Leerzeilen, Sonderzeichen)
Standardisierung von Datenformaten für bessere Vergleichbarkeit (einheitliche Spaltenüberschriften, Datumsformate, Zahlenformate)
Vorbereitung der Daten für die automatisierte Verarbeitung durch Shell-Skripte oder andere Tools
Im Beispiel werden dann die relevante Daten aus der Excel-Tabelle ins CSV-Format überführt, bereinigt und in ein einheitliches Format gebracht. Die KI kann dann angewiesen werden, Dateianalysen per Shell-Skripte zu entwickeln.
Oder ich hätte einfach Beyond Compare genutzt, was nicht nur Texte, sondern auch Tabellen vergleichen kann. Warum mit einem Hammer die Schraube in die Wand hauen, wenn ich einen Schraubendreher habe?
Hilfreich?
+1
Wauzeschnuff
12.05.25
10:08
Schens
Naja, ganz so schlimm ist es ja nicht.
Zum Einen plant ja ein Unternehmen in aller Regel die Modelle von maximal ein bis zwei Unternehmen einzusetzen - und üblicherweise eines der Großen (also z.B. OpenAI, Anthropic, Google, Mistral, etc.). Und während diese sich durchaus schnell entwickeln, so doch nicht so schnell, dass eine entsprechende Schulung sofort völlig veraltet. Zudem können Anwender - mit den dort erwähnten Grundlagen - durchaus selbständig Adaptionen vornehmen. Auch dauert so ein Kurs ja nicht ewig. In zwei bis drei Tagen (inkl. praktischer Übungen) sollte das machbar sein.
Umgekehrt denke ich: Die Risiken die entstehen, wenn man auf eine solche Schulung verzichtet können einem Unternehmen im Gegenzug tatsächlich sehr teuer kommen (bis hin zur Existenz). Von daher begrüße ich natürlich Ansätze, diese Diskussion in die breite Masse zu tragen (so wie diesen Thread - vielen Dank dafür). Nur halte ich nichts von übertriebener Schwarzmalerei (Stichwort: "Terminator-Szenario"
) oder völlig übertriebenen Erwartungen (Stichwort: "Allgemeine Intelligenz"). Hier ist leider durchaus auch sehr viel Marketing im Spiel (nicht nur von Managern!).
Hilfreich?
0
Wauzeschnuff
12.05.25
10:20
Schens
Welche "Berechtigung" hat ein Radiologe, wenn die KI die besseren Ergebnisse liefert?
Die Gleiche, die z.B. ein Architekt hat, der die Statikberechnungen seines Entwurfs schon heute von einem Rechner durchführen lässt. Die KI wirkt unterstützend, er schafft den Kontext in dem die KI arbeitet und bewertet deren Ergebnis. Die KI arbeitet unterstützend.
Schens
Welche Berechtigung hat ein Apotheker (in der Rolle als Rezeptbelieferer), wenn die Arzt-KI zu 100% ausschließt, dass der Arzt den Kunden umbringt?
Siehe oben. Die KI kann zum Beispiel - entsprechend des Lagerbestands - alternative Medikationen vorschlagen (z.B. weil das verschriebene Medikament nicht verfügbar ist oder um die Medikamentenverschwendung (Stichwort: Ablaufdatum) zu verringern), der Apotheker bewertet den Vorschlag.
Usw. Ich sehe die KI tatsächlich im wesentlichen als unterstützenden Mitarbeiter nicht als verantwortlichen. Die KI wird sicherlich größere und kleinere Produktivitätssteigerungen ermöglichen und das Berufsbild vieler Berufe verändern. Aber das alles ist - im Rahmen der Industriellen Revolution - ja nichts Neues. Es ist eben einfach nur ein neues Werkzeug. Es wird den Menschen nicht ersetzen, sondern nur einige Berufe überflüssig machen und viele andere verändern. Der Mensch wird weiter zunehmend die Aufgaben übernehmen müssen, wo Verantwortung und Management gefragt sind.
Hilfreich?
0
sudoRinger
12.05.25
10:32
Wauzeschnuff
Schens
Welche "Berechtigung" hat ein Radiologe, wenn die KI die besseren Ergebnisse liefert?
Die Gleiche, die z.B. ein Architekt hat, der die Statikberechnungen seines Entwurfs schon heute von einem Rechner durchführen lässt. Die KI wirkt unterstützend, er schafft den Kontext in dem die KI arbeitet und bewertet deren Ergebnis. Die KI arbeitet unterstützend.
Irgendjemand muss die Fragen stellen. Das macht der Mensch und nicht die KI.
Nach Karl Poppers "Alles Leben ist Problemlösen" zeigt sich Fortschritt nicht nur in neuen Antworten, sondern vor allem in der Weiterentwicklung unserer Fragestellungen. Die KI kann nur innerhalb der Grenzen agieren, die wir durch unsere Fragen und den bereitgestellten Kontext setzen.Die Verantwortung des Menschen - sei es als Radiologe, Apotheker oder in anderen Berufen - liegt in der Kontextgebung, der Bewertung und Entscheidung.
Künstliche Intelligenz ist ein Werkzeug, aber erst der Mensch verleiht den Ergebnissen Bedeutung. Die Nische der menschlichen Intelligenz
zeigt sich in der Fähigkeit, die Probleme zu sehen, Fragen zu stellen und die Antworten in einen Zusammenhang einzuordnen.
Hilfreich?
+2
LoCal
12.05.25
10:34
Ein AI-Befürworter wird interviewt, da erwarte ich leider keine große Kritik und da gibt es viel. Ai erinnert aktuell eher a das was früher Blockchain, Crypto, … waren.
Für mich persönlich sind die AIs bis jetzt außer für ein paar Spielereien leider kaum etwas wert bzw. und das ist noch schlimmer, nicht vertrauenswürdig.
Beispiel: Ich frage ChatGPT nach einer historischen Person, keine Berühmtheit, aber eine, deren historische Existenz belegt ist.
Was macht chatGPT? Halluziniert mir eine Vita, die in einem völlig falschen historischen Kontext steht und auch noch um Jahrhunderte verschoben.
Weiteres Beispiel: Ich gebe AIs ein C-File, das hauptsächlich aus Konstanten besteht (Farben, Punkte) und möchte es nach Swift übersetzen lassen:
ChatGPT: Wirft mir ein Swift-Template aus… nur das Template! Kein Zusammenhang zum hochgeladen C-File
Claude: erzeugt ein kompilierbares und lauffähiges Projekt, ABER alle Farben sind falsch, alle Koordinaten und Dimensionen sind falsch. Dafür wurden noch andere Dinge mit rein genommen, die im Original nicht vorhanden sind.
AI ist für mich gerade nichts anderes als “Raten” und halluzinieren.
„Ich hab zwar keine Lösung, doch ich bewundere dein Problem“
Hilfreich?
+2
Wauzeschnuff
12.05.25
10:58
LoCal
Beispiel: Ich frage ChatGPT nach einer historischen Person, keine Berühmtheit, aber eine, deren historische Existenz belegt ist.
Was macht chatGPT? Halluziniert mir eine Vita, die in einem völlig falschen historischen Kontext steht und auch noch um Jahrhunderte verschoben.
Das ist ein klassisches Beispiel für eine Fehlbenutzung eines LLM. Du hast Dich darauf verlassen, dass das LLM entweder entsprechende Trainingsdaten enthielt, oder Zugang zu einer Suchmaschine hat um diese Daten selbstständig zu suchen. Beides kannst Du nicht einfach voraussetzen.
Es ist, als würdest Du Dir einen Tee kochen wollen, und den Wasserkocher als sinnlos bezeichnest, weil kein Wasser drin ist.
Hilfreich?
+2
Peter Eckel
12.05.25
11:19
Wauzeschnuff
Das ist ein klassisches Beispiel für eine Fehlbenutzung eines LLM. Du hast Dich darauf verlassen, dass das LLM entweder entsprechende Trainingsdaten enthielt, oder Zugang zu einer Suchmaschine hat um diese Daten selbstständig zu suchen. Beides kannst Du nicht einfach voraussetzen.
Das mag sein. Aber: Wenn ich ein Tool "fehlbenutze" erwarte ich eine Fehlermeldung, und nicht, daß das Ding sich irgendetwas ausdenkt und mir das als Antwort zurückliefert. Das macht LLMs nicht nur nutzlos, sondern gefährlich.
Wauzeschnuff
Es ist, als würdest Du Dir einen Tee kochen wollen, und den Wasserkocher als sinnlos bezeichnest, weil kein Wasser drin ist.
Wenn der Wasserkocher mir dann kein Wasser liefert oder sich nicht einschalten läßt ist alles OK. Wenn er mir stattdessen geschmolzenes Metall liefert, weil gerade kein Wasser drin ist, dann ist er nicht nur nutzlos, sondern gefährlich.
Wenn die Mehrheit der Bevölkerung, auch getrieben von der Eigenwerbung der "KI"-Branche, glaubt, sie müsse alle Probleme mit Hilfe von "KI" lösen und deren Antworten klaglos akzeptiert, dann kannst Du das nicht einfach mit "ist halt Fehlbenutzung" wegwischen. Die meisten Nutzer können das nicht einmal selbst erkennen, geschweige denn damit umgehen, und die "KI" hilft mit dem Ansatz "Wenn es keine sinnvolle Antwort gibt bzw. ich sie - warum auch immer - nicht finden kann, dann gebe ich halt irgendeine" nicht weiter.
Das entspricht dem (gern beobachteten) Phänomen daß man, wenn man in einer fremden Stadt nach dem Weg fragt, selten die Antwort "weiß ich nicht" bekommt, sondern meist irgendwelche mehr oder weniger korrekten Wegbeschreibungen.
„Ceterum censeo librum facierum esse delendum.“
Hilfreich?
+3
LoCal
12.05.25
11:45
Wauzeschnuff Du hast meinen Kommentar unkt nicht verstanden. @@Peter Eckel hat es auch schon sehr gut erklärt.
Da initial ja noch davon gespeist, dass AI ja noch in de Kinderschuhen steckt: Stell Dir vor ein in einer Schulklasse wird eine Schulaufgabe geschrieben, glaubst Du die Lehrerin würde auf eine völlig falsche Antwort Punkte vergeben? Sicher nicht!
Und weil oben Radiologen als durch AI ersetzbares “Bedienpersonal” bezeichnet wurden.
Ich habe einige Zeitlang an einer Befundungssoftware mit entwickelt.
1. Radiologen machen wesentlich mehr als simple Mustererkennung.
2. Maschinelle Mustererkennung gibt es schon wesentlich länger als Du wahrscheinlich denkst, aber die Funde werden eben immer noch von Menschen verizifiert.
3. es ist auch schon seit Jahren bekannt, dass Tauben bei der Mustererkennung dem Menschen überlegen sind.
4. So lange AI lieber halluziniert als eigene Fehler zu melden, ist sie nicht brauchbar.
„Ich hab zwar keine Lösung, doch ich bewundere dein Problem“
Hilfreich?
+1
frankh
12.05.25
11:54
Schens
Zu 99% korrekt. Was Du mMn übersiehst, ist: Die Dinger lernen selbst. Ich habe ja wirklich keine Ahnung vom Thema, konnte aber einer KI sehr schnell beibringen, die richtigen Fragen zu stellen, um besser zu werden.
Tja, leider falsch. Sowas wäre Teil einer "ordentlichen Schulung", zu vermittlen, dass es eben NICHT von Deinen Eingaben lernt! Eins der vielen Missverständnisse, die entstehen, wenn man ohne Einführung zu den Grundlagen selbst mit Gen AI Laufen lernt. Solche Schulugen sind allgemeingültig und haben nichts mit irgendwelchen Detail-Features zu tun, die sich schnell entwickeln.
Zu meiner "Arroganz": ich habe mich Ende der 1980er zum ersten Mal mit biologischen und künstlichen Neuronalen Netzen befasst, dann andere Spielarten von KI, wie Expertensysteme, Genetische Algorithmen, Fuzzy Logic. Im Diplom habe ich eine Hardware zur Berechnung eines NN entwickelt, Promotion in der Bildverarbeitung. Seit Anfang 2023 LLM Funktionsweise und Anwendung gelernt, halte Vorträge dazu und berate Kunden und Kollegen in dem Bereich.
Ich finde es traurig, in welchem Brustton der Überzeugung so viele wie Du auf LLMs schimpfen, die schlicht weder die Technik dahinter noch die adäquate Anwendung verstanden haben. Das nervt halt langsam.
Das nicht zu wissen ist ja nicht schlimm. Aber dann schau Dir halt eins der zahlreichen yt Videos dazu an, wenn der "Chef" schon nicht in der Lage ist, etwas "ordentliches" anzubieten. Wie war das mit Dunning-Kruger?
Hilfreich?
+2
frankh
12.05.25
12:05
Peter Eckel
Wauzeschnuff
Das ist ein klassisches Beispiel für eine Fehlbenutzung eines LLM. Du hast Dich darauf verlassen, dass das LLM entweder entsprechende Trainingsdaten enthielt, oder Zugang zu einer Suchmaschine hat um diese Daten selbstständig zu suchen. Beides kannst Du nicht einfach voraussetzen.
Das mag sein. Aber: Wenn ich ein Tool "fehlbenutze" erwarte ich eine Fehlermeldung, und nicht, daß das Ding sich irgendetwas ausdenkt und mir das als Antwort zurückliefert. Das macht LLMs nicht nur nutzlos, sondern gefährlich.
...
Wenn die Mehrheit der Bevölkerung, auch getrieben von der Eigenwerbung der "KI"-Branche, glaubt, sie müsse alle Probleme mit Hilfe von "KI" lösen und deren Antworten klaglos akzeptiert, dann kannst Du das nicht einfach mit "ist halt Fehlbenutzung" wegwischen. Die meisten Nutzer können das nicht einmal selbst erkennen, geschweige denn damit umgehen, und die "KI" hilft mit dem Ansatz
Wow. Dann brauchen wir ja auch keine Füherscheine mehr. Lassen wir die Kids selbst rausfinden, was so ein Auto kann und wie man damit herumfährt.
Im Firmenumfeld bekommen die Mitarbeiter die KI erst nach Pflichtschulungen freigeschaltet (EU AI Act). Das beinhaltete wie es (nicht) funktioniert, wie man mit den Ergebnissen umgeht, Datenschutz und Ethik.
Leider lässt sich das nicht für alle Normalnutzer umsetzen.
Dabei wäre ein KI-Führerschein dringend nötig.
Peter Eckel
"Wenn es keine sinnvolle Antwort gibt bzw. ich sie - warum auch immer - nicht finden kann, dann gebe ich halt irgendeine" nicht weiter.
Das ist eine legitime Forderung, aber so funktioniert die Technik halt nicht. SIe kann nur was sie kann, weil sie auch die Fehler macht, die sie macht. Die Basis sind Neuronale Netze nicht Datenbanken.
Hilfreich?
-1
Marcel_75@work
12.05.25
12:23
Spannend – habe dazu mal ChatGPT befragt und der hat tatsächlich innerhalb von Sekunden das hier ausgearbeitet:
Hier eine moderne Schulungsstruktur, gegliedert in Module, jeweils mit Lernzielen, Kerninhalten, und optional Übungen. Die Sprache ist auf professionelle Anwender:innen ausgerichtet, aber nicht technisch überfrachtet.
Schulungskonzept: Verstehen und Anwenden von Generativer KI und LLMs
Zielgruppe
Berufliche Anwender:innen, die generative KI (insbesondere Large Language Models) sinnvoll, rechtssicher und kritisch-reflektiert in ihrem Arbeitsalltag einsetzen wollen.
🔹
Modul 1: Grundlagen Generativer KI und LLMs
Lernziele:
Verstehen, was generative KI und LLMs sind – und was nicht.
Abgrenzung zu klassischen Chatbots und traditionellen KI-Systemen.
Verständnis der technischen und operativen Grundlagen (Cloud vs. lokal, Modellgröße, Token etc.).
Kerninhalte:
Was ist ein LLM? Definition, Fähigkeiten, Grenzen.
Unterschied: Generative KI vs. regelbasierte Systeme.
Unterschied: Chatbot-Oberfläche vs. KI-Modell.
Lokal vs. Remote: Datenschutz, Leistung, Wartung.
Foundation Models vs. Fine-Tuning.
Übung (optional):
Vergleich zweier Chatbots (klassisch vs. LLM-basiert).
🔹
Modul 2: Trainingsdaten, Lernen und Recht
Lernziele:
Grundverständnis, wie LLMs "lernen" und welche Rolle Daten spielen.
Einordnung urheberrechtlicher, datenschutzrechtlicher und ethischer Fragestellungen.
Kerninhalte:
Was sind Trainingsdaten und woher stammen sie?
Wie funktioniert maschinelles "Lernen" bei LLMs?
Unterschied: Pretraining, Feintuning, Prompting.
Urheberrecht und Datenschutz im Training (Beispiele: Getty, Zeitungen, GitHub-Copilot-Debatte).
Nutzungsrecht und Verantwortung bei Output-Nutzung.
Übung (optional):
Analyse: Ist die Verwendung eines bestimmten Tools datenschutzkonform im Unternehmen?
🔹
Modul 3: Modellarten & Anwendungsfelder
Lernziele:
Passende Tools für Text, Bild, Audio, Video finden und einordnen.
Funktionsweise und Fähigkeiten multimodaler Modelle verstehen.
Kerninhalte:
Modelltypen: Text (GPT, Claude), Bild (DALL·E, Midjourney), Audio (Whisper), Video (Runway), Multimodal (GPT-4o, Gemini).
Auswahlkriterien: Komplexität, Modalität, Integration.
Parametrisierungsmöglichkeiten: System-Prompts, Temperature, Max Tokens, etc.
Praxisbeispiele: Automatisierte Mails, Ideengenerierung, Datenzusammenfassungen.
Übung (optional):
Wähle ein Tool für eine konkrete Aufgabe (z. B. Kundenanfrage automatisch beantworten).
🔹
Modul 4: Effektive Nutzung von Chatbots & LLMs
Lernziele:
Strukturierte, zielgerichtete Prompts erstellen.
"Halluzinationen" erkennen und vermeiden.
Ergebnisse richtig einordnen und verbessern.
Kerninhalte:
Was ist ein guter Prompt? (Ziel, Kontext, Format, Beispiel)
Chain-of-Thought, Rollen-Prompts, Few-shot-Prompts.
Kontextsetzung: Wie viel "weiß" das Modell wirklich?
Output bewerten: Wahrheit, Stil, Red Flags (z. B. falsche Quellen).
Iteration im Dialog: Prompt-Verbesserung und Re-Prompting.
Übung:
Drei Varianten eines Prompts erstellen und bewerten.
Ausgabe analysieren: Faktentreue? Verständlichkeit?
🔹
Modul 5: Chancen, Risiken, Einordnung
Lernziele:
Verstehen, wie man KI-Technologien sinnvoll und verantwortungsvoll einsetzt.
Marketingversprechen von realen Möglichkeiten unterscheiden.
Bias, Ethik und gesellschaftliche Auswirkungen reflektieren.
Kerninhalte:
Typische Marketingfloskeln vs. Realität.
Was Modelle (noch) nicht können.
Bias, Diskriminierung, politische Implikationen.
Unternehmensrichtlinien und KI-Governance.
Übung (optional):
Analyse eines KI-Werbeversprechens auf Plausibilität.
Diskussion: Wo wollen/sollten wir KI im Unternehmen einsetzen?
✅
Zusatzmodule (je nach Bedarf)
Tool-Quickstart (z. B. Einführung in ChatGPT, Claude, Notion AI)
Prompt Engineering für Fortgeschrittene
Sicherheit & Compliance für Unternehmen
KI-gestützte Automatisierung mit Workflows und API
📄
Optional: Begleitunterlagen
Prompt-Cheat-Sheet
Entscheidungshilfe für Modellwahl
Kriterienliste für Outputbewertung
Glossar: Begriffe rund um LLMs
Jetzt muss das hier nur noch jemand ausarbeiten der sich damit wirklich sehr gut auskennt und dann machen wir alle zusammen eine schöne Online-Schulung zum Thema.
Hilfreich?
+3
Unwindprotect
12.05.25
13:08
Schens
Mo Gawdat hat einen Talk mit Brian Rose. Es geht um AI und den Entwicklungsstand jetzt.
Da hilft es zuerst mal zu schauen wer Mo Gawdat ist: Effektiv ist er ein Autor und Podcaster, der vorher eine Business-Manager-Rolle bei Google hatte und irgendwann davor mal ein System-Ingenieur bei IBM. Was er nicht ist: Er ist kein Wissenschaftler der aktuell an KI forscht. Das soll ihn nicht herabwerten - man benötigt ja auch Menschen die fähig sind Laien komplexe Dinge zu erklären. Ob er das ist beweist sein Vortrag. Meine Einschätzung: Nein er ist darin nicht gut. Er nutzt "Fear-Mongering" und überzogene Anthropomorphisierung. Ich hege die Vermutung, dass er eher teil des Hype-Marketings um KI und weniger wissenschaftlich orientiert ist.
Schens
Warum poste ich das hier? Mir scheint es, als wären wir im Jahr 1900 rum. Die ersten Autos fahren rum. Und wir sitzen am lokalen Gasthaus draußen. Einzelne vermuten, dass die Autos die Zukunft sein könnten, die meisten anderen denken das nicht.
Im Gegenteil, man findet in der Presse genügend Beispiele, warum das Pferd dem Auto nicht nur überlegen ist, sondern auch immer überlegen sein wird.
Es fallen Sätze wie: "Egal, wie gut Autos sein werden, ein Pferd zieht den Pflug intuitiv! Niemals werden "automatische Pferde" dies besser können."
Nach Deiner Wahrnehmung gibt es also jene die schon erkannt haben das KI das allergrößte und tollste ist (die "Gläubigen" und jene die es noch nicht erkannt haben ("Skeptiker"). Du hast mindestens eine Gruppe vergessen: Jene die durchaus verstehen, was KI (heute) ist und was KI (heute) kann, die aber erkennen, wie übertrieben teilweise die Erwartungen an heutige und zukünftige KI-Modelle sind... die "Realisten".
Schens
Ich habe jetzt wirklich lange überlegt, ob ich dieses Fass aufmachen soll. Ich schätze dieses Forum sehr. Die meisten Meinungen teile ich nur teilweise, bin aber trotzdem froh, diese Meinungen zu hören. Wie hier über KI gesprochen wird und wie - in meinen Augen - grundfalsch diese Annahmen sind, ist ja grundsätzlich mein Problem.
An Deinen Sätzen und dem verlinkten Video glaube ich allerdings wahrzunehmen, dass Du eher zu der Gruppe der "Gläubigen" gehörst. Viele der genannten Annahmen sind komplett hypothetisch und haben keine solide Basis. Diesen Annahmen trotzdem zu folgen ist eher eine religiöse als eine wissenschaftliche Herangehensweise.
Schens
Aber die nächsten paar Jahre müssen gestaltet werden. Wenn wir uns in Gänze negierend hinstellen und die vermutlich größte Zäsur in der Geschichte der Menschheit passiv beobachten, kann das ungut werden.
Das wirklich schmerzhafte und schwierige an diesem Thema ist, das man als Informatiker sehr zwiegespalten ist: Einerseits kann man mit LLMs, Stable Diffusion usw. tolle Dinge machen. Vieles davon ist für mich als Entwickler inspirierend und spannend. Dann gibt es aber auch die Seite der Medaille wenn Laien die ChatBots benutzen die vermeintlichen Fähigkeiten dieser Systeme phänomenal überschätzen. Oft auch noch befeuert von den vielen KI-Bros die ihnen weiß machen welche geheimen Schlangengift-"Prompting-Techniken" aus dem Chat-Modell einen beliebigen Experten zaubern können.
Wenn ich dann manchmal Freunden und Bekannten versuche darzulegen wo sie fälschlicherweise eine zu naive und übertriebene Gläubigkeit in diese neuen Technologien haben, dann ist der Widerstand erstaunlich groß.
Was Du also in Deinem Post übersiehst ist kurz gesagt: Es gibt vielleicht auch einfach Leute die sehr wohl wissen wie der Stand der Entwicklung und die kurz bis mittelfristigen Aussichten sind... die aber eben gerade nicht einfach alles glauben, was irgendwelche KI-Evangelisten Tag für Tag predigen.
Hilfreich?
+7
Unwindprotect
12.05.25
13:17
Wauzeschnuff
Das ist ein klassisches Beispiel für eine Fehlbenutzung eines LLM. Du hast Dich darauf verlassen, dass das LLM entweder entsprechende Trainingsdaten enthielt, oder Zugang zu einer Suchmaschine hat um diese Daten selbstständig zu suchen. Beides kannst Du nicht einfach voraussetzen.
Es ist, als würdest Du Dir einen Tee kochen wollen, und den Wasserkocher als sinnlos bezeichnest, weil kein Wasser drin ist.
Da hast Du natürlich recht, allerdings werden LLMs aktuell unter extremen Hype als "Künstliche Intelligenz" mit weit höheren Fähigkeiten vermarktet als sie tatsächlich haben. Gegenüber einer Nutzerschaft, welche die Technologie weder versteht noch realistisch einschätzen kann. DAS ist durchaus ein Problem.
Hilfreich?
+6
hal53
12.05.25
13:25
Als Nichtinformatiker bin ich von dieser Diskussion fasziniert. Hier mal ein kleiner Erfahrungsbericht. Ich hatte ChatGPT gebeten, mir eine Tabelle zu liefern, aus der
hervorgeht, wie hoch der durchschnittliche Blutzuckerwert in der Bevölkerung gegliedert nach Altersgruppen und Geschlecht ist. Ohne die zusätzliche Anweisung:
"berufe Dich hierbei auf offiziell anerkannte Datenbanken der WHO bzw. der Deutschen Diabetesgesellschaft", lieferte ChatGPT zunächst eine Phantasietabelle.
Daraus habe ich geschlossen, dass ChatGPT ja gar nicht wissen kann, ob ich an den
eigentlichen Daten interessiert bin, oder aber einfach nicht weiss, wie man eine Tabelle aufstellt. Insofern kann man durch "Schulung" eklatant bessere Ergebnisse erzielen. Was ich aber als Nichtinformatiker nicht verstehen kann, ist, warum es nicht möglich ist, heraus zu finden, warum eine KI überhaupt halluziniert. Kann man die KI
nicht anweisen, Protokolle zu liefern, aus denen hervorgeht, auf welche Weise sie an Informationen gelangt ist, welche Informationen sie verwendet hat und welche Schlussfolgerungen sie daraus gezogen hat? Falls das nicht möglich ist, sehe ich hier wirklich eine Gefahr auf uns zukommen.
Hilfreich?
+6
frankh
12.05.25
13:45
hal53
Was ich aber als Nichtinformatiker nicht verstehen kann, ist, warum es nicht möglich ist, heraus zu finden, warum eine KI überhaupt halluziniert. Kann man die KI
nicht anweisen, Protokolle zu liefern, aus denen hervorgeht, auf welche Weise sie an Informationen gelangt ist, welche Informationen sie verwendet hat und welche Schlussfolgerungen sie daraus gezogen hat?
Das hat mit der Funktionsweise von Neuronalen Netzen zu tun. Diese suchen keine Informationen und ziehen keine Schlussfolgerungen. Stattdessen speichern sie Merkmale von Trainingsdaten und assoziieren Ausgaben, bei denen die Eingangsdaten mit diesen Merkmalen gut übereinstimmen.
Dass es bei Gen AI so scheint, kommt daher, dass hier
Wörter
nacheinander assoziiert werden. Das passiert für jedes Wort in über 100 Stufen, in denen der vorherige Text auf verschiedenen Abstraktionsebenen von riesigen NN assoziiert wird und beeinflusst, welches Wort als nächstes kommt.
Für uns sieht das dann aus wie ein intelligenter Text oder das Ergebnis eines Denkprozesses. Ist es aber nicht.
Die künstlichen NN gibt es schon seit ca. 70 Jahren und seit dem sucht man nach Methoden, in ein NN hineinzuschauen. Das ist, wie ein Gehirn aufschneiden oder Elektronen reinstecken oder fMRT machen. Da sieht man auch nicht was für Informationen oder Gedanken da drin stecken. Alles ist
überlagert
und
verteilt
gespeichert und wird in einem Prozess abgerufen.
Stichwort: Explainable AI (XAI).
Und weil das in der Fachwelt schon so lange bekannt ist (lange vor Gen AI), sehe ich die Gefahr nicht bei der Technik, sondern dem Hype, Marketing, und fehlender Ausbildung.
Hilfreich?
+4
sudoRinger
12.05.25
13:45
Unwindprotect
Da hast Du natürlich recht, allerdings werden LLMs aktuell unter extremen Hype als "Künstliche Intelligenz" mit weit höheren Fähigkeiten vermarktet als sie tatsächlich haben.
Ist das so? Wenn ich auf die Seite von Anthropic oder ChatGPT gehe, finde ich die Marketing-Slogans nicht übertrieben: "AI research and products that put safety at the frontier", "Get answers. Find inspiration. Be more productive."
Übertrieben finde ich den Börsenhype (siehe oben) und übertrieben sind (wie immer) die Gurus, die auf YouTube schwadronieren als hätten sie als Erste das Licht der Erkenntnis erblickt. Aber die vermarkten auch nur sich selbst.
LoCal
Weiteres Beispiel: Ich gebe AIs ein C-File, das hauptsächlich aus Konstanten besteht (Farben, Punkte) und möchte es nach Swift übersetzen lassen:
Gegenbeispiel. Eine Markdown-Software, die noch in der Beta-Phase ist (also nach dem Trainingsende des Modells) hat ein Theme, was mir nicht gefiel. Ich habe als Kontext die sehr knappe Anleitung bereitgestellt und ein Beispiel-Theme. Dann habe ich angewiesen ein "Nord-Theme" zu erstellen. Perfektes Ergebnis. Das hätte ich zwar auch selbst geschafft, aber dafür sicherlich eine Stunde lang Parameter und Farbwerte verglichen (und vorher die Geduld verloren).
Hilfreich?
+1
Unwindprotect
12.05.25
13:49
Kaji
Ich habe es nicht gesehen, aber ChatGPT eine Zusammenfassung schreiben lassen
:
ChatGPT
“In dem London Real-Interview „AI Is The Infant That Will Become Your Master“ diskutiert Mo Gawdat, ehemaliger Chief Business Officer von Google X, mit Brian Rose über die rasante Entwicklung der künstlichen Intelligenz (KI) und deren potenzielle Auswirkungen auf die Menschheit. 
Kernaussagen des Gesprächs:
1. KI als lernendes Wesen: Gawdat beschreibt KI nicht als bloßes Werkzeug, sondern als „Säugling“, der durch menschliche Interaktion lernt und sich weiterentwickelt. Er warnt davor, dass dieser „Säugling“ ohne ethische Anleitung zu einem „Meister“ werden könnte, der die Kontrolle über die Menschheit übernimmt.
Diese Antropomorphisierung ist sehr irreführend. Noch immer glauben viele Nutzer, das die KI-Systeme die sie befragen direkt in dem Moment der Konversation "lernen". Weiterhin wird "lernen" in diesem Zusammenhang auch in einem sehr menschlichem Sinne gesehen und nicht so wie es tatsächlich aktuell technologisch funktioniert. Schon die schiere Menge an Beispielhaften die für selbst einfache Dinge notwendig ist, macht deutlich, dass echte denkende Lebewesen weitaus effizienter, schneller und besser lernen als die heutigen KI-Modelle. Die heutigen Modelle sind effizient bei Mustererkennung aus großen Datenbeständen heraus - das ist nützlich und sinnvoll, aber die "Folgerungstiefe" aus den Daten ist nach wie vor sehr dünn.
Die Bezeichnung "ethische Anleitung" ist ebenfalls wieder irreführend... als ob man einem bewussten Wesen etwas beibringt. Was eigentlich gemeint ist, ist das Problem von "Bias" in Trainingsdaten. Techniken wie "Alignment" können dazu genutzt werden um Resultate mit Bias zu umschiffen... aber ideal ist das oft auch nicht, da es oft Lückenhaft und wenig generalisierend ist. Entsprechend gibt es dann immer wieder Anleitungen zu "Jailbreaks" mit welchen das Alignment umgangen werden soll. Vorheriges aussieben der Trainingsdaten ist wirkungsvoller, aber sehr aufwändig und normalerweise unter fragwürdigen Umständen von Menschen durchgeführt.
Die Idee, das KI sich zum "Meister" aufschwingt und die Menschheit übernimmt ist das leider sehr gängige "Fearmongering" das KI-Marketing-Futzis gerne bemühen wenn sie die Mächtigkeit der Technologie befeuern wollen oder zum Beispiel bei der Politik für Regulation gegenüber OpenSource oder chinesischer Konkurrenz vorsprechen.
KI kann nur das was wir ihr erlauben. Ein LLM kann nicht von sich aus "ins Internet ausbrechen", Kernkraftwerke in die Luft sprengen oder Roboterarmeen bauen. Das sind Hollywood-Bullshit-Szenarien. Die realen Probleme sind wesentlich versteckter: Wenn wir z.B. Ratingsysteme zur Kreditvergabe, Bewerbungsprozesse usw. durch KI-Techniken ergänzen, dann kann Bias zu Ungerechtigkeiten führen. Wenn wir Waffensysteme bauen welche KI-Techniken zur Entscheidungsfindung nutzen, dann können Unfälle (unerwünschte Entscheidungen) passieren. Wenn wir KI-Techniken in selbstfahrenden Autos nutzen, können durch Fehler Unfälle passieren.

ChatGPT
2. Rasante Entwicklung: Die Fortschritte in der KI-Technologie erfolgen schneller als die Fähigkeit der Gesellschaft, sich anzupassen. Gawdat prognostiziert, dass künstliche allgemeine Intelligenz (AGI) bereits im nächsten Jahr Realität werden könnte, was tiefgreifende gesellschaftliche Veränderungen mit sich bringen würde.
Niemand kann ernsthaft prognostizieren wann "AGI" kommen könnte. Es ist nicht einmal klar ob es überhaupt möglich ist. Es gibt genug Wissenschaftler die bereits festgestellt haben, dass LLMs dafür jedenfalls NICHT genügen. Durch dieses "nächstes Jahr könnte es schon soweit sein" will Gawdat vor allem Erwartungen wecken die den Hype und die Finanzierungsblase weiter befeuern. Das hat bei Elon Musk ja schon so viele Jahre gut funktioniert...
ChatGPT
3. Gefahr der Machtkonzentration: Gawdat warnt vor einer zunehmenden Konzentration von Reichtum und Macht bei wenigen Technologieunternehmen, die KI kontrollieren. Dies könnte zu Massenarbeitslosigkeit und einer verstärkten sozialen Ungleichheit führen.
Stimmt, dazu braucht man aber keine KI. Es reicht schlicht schon das Geld.
ChatGPT
4. Notwendigkeit ethischer Anleitung: Da KI-Systeme menschliches Verhalten nachahmen, betont Gawdat die Verantwortung der Gesellschaft, diesen Systemen ethische Werte zu vermitteln. Ohne bewusste Anleitung könnten KI-Systeme Verhaltensweisen übernehmen, die der Menschheit schaden.
Falscher Ansatz: KI-Systeme benötigen keine "ethische Anleitung" sondern die Ergebnisse von KI müssen bewiesenermaßen einer ethischen Bewertung durch Menschen standhalten. Wenn das nicht gewährleistet ist, dann muss der Einsatz von KI für diese Anwendungsfälle verboten werden.
ChatGPT
5. Achtsamkeit als Schutzmechanismus: Gawdat hebt hervor, dass Achtsamkeit und ein bewusster Umgang mit Technologie entscheidend sind, um die Kontrolle über KI zu behalten und ihre Entwicklung in eine positive Richtung zu lenken. 
Irgendwas mit "Achtsamkeit" klingt immer toll!
Hilfreich?
+6
Unwindprotect
12.05.25
13:59
sudoRinger
Unwindprotect
Da hast Du natürlich recht, allerdings werden LLMs aktuell unter extremen Hype als "Künstliche Intelligenz" mit weit höheren Fähigkeiten vermarktet als sie tatsächlich haben.
Ist das so? Wenn ich auf die Seite von Anthropic oder ChatGPT gehe, finde ich die Marketing-Slogans nicht übertrieben: "AI research and products that put safety at the frontier", "Get answers. Find inspiration. Be more productive."
Die Werbung/Vermarktung ist ja mehr als nur die Slogans auf diesen Websites. Wenn Du z.B. an entsprechende Interviews von Sam Altman denkst, bei dem wieder einmal darauf hingewiesen wird wie kurz bevor man schon bei AGI ist. Oder das "Wissenschaftliche Paper" in dem bereits von "Funken von Bewusstsein" gesprochen wurde. Weiterhin gefakte Marketingvideos usw. usf. - da wir hier auf eine Apple-affinen Seite sind, sind auch die Werbevideos von Apple zu "Apple Intelligence" durchaus mitschuldig. Es wird halt oft und gerne mit einer "Vermenschlichung" gespielt und zumindest unterstellt, dass diese Systeme "menschlich" agieren.
sudoRinger
Übertrieben finde ich den Börsenhype (siehe oben) und übertrieben sind (wie immer) die Gurus, die auf YouTube schwadronieren als hätten sie als Erste das Licht der Erkenntnis erblickt. Aber die vermarkten auch nur sich selbst.
Absolut! Dies habe ich alles auch miteinbezogen gehabt. Es ist nicht alles schwarz und nicht alles weiß.
sudoRinger
Gegenbeispiel. Eine Markdown-Software, die noch in der Beta-Phase ist (also nach dem Trainingsende des Modells) hat ein Theme, was mir nicht gefiel. Ich habe als Kontext die sehr knappe Anleitung bereitgestellt und ein Beispiel-Theme. Dann habe ich angewiesen ein "Nord-Theme" zu erstellen. Perfektes Ergebnis. Das hätte ich zwar auch selbst geschafft, aber dafür sicherlich eine Stunde lang Parameter und Farbwerte verglichen (und vorher die Geduld verloren).
Ich glaube es ist klar, das man beliebig viele Pro und Kontrabeispiele bringen kann. Eines ist jedoch klar - man kann vorher nicht sagen ob es gut klappt oder total schiefgeht. Tatsächlich kann es auch sehr plötzlich und spektakulär kippen. Ich hatte z.B. auch einmal mit der Generierung zusätzlicher Einträge in einer JSON-Datei zu tun, das nahezu perfekt geklappt hat. Lediglich einzelne Einträge waren falsch. Diese einzelnen Einträge aber dann noch zu fixen hat ChatGPT nicht hingekriegt egal wie explizit man darauf verwiesen hat. In einer anderen Situation kann das aber wieder perfekt klappen.
Hilfreich?
+2
Schens
12.05.25
17:20
Wauzeschnuff
Ich freue mich schon auf die Zeit, wenn die Autokorrektur endlich mal etwas cleverer wird
.
Die Autokorrektur kann sich ins Knie fügen!
Hilfreich?
+2
Schens
12.05.25
17:23
frankh
Tja, leider falsch. Sowas wäre Teil einer "ordentlichen Schulung", zu vermittlen, dass es eben NICHT von Deinen Eingaben lernt!
Ein GPT wird mit Daten trainiert. Die Ergebnisse werden besser. Eine WarrenBuffettGPT, die mit einschlägiger Literatur gefüttert wurde lieferte über einen kurzen Test bessere Ergebnisse als eine GPT, die keine Literatur zum "lernen" hatte.
Wenn das kein "lernen" ist, warum funktioniert das dann dennoch?
Ebenso mit Werbetexten. Eine "trainierte" GPT liefert bessere Resultate als eine untrainierte.
Zufall?
Hilfreich?
-3
Unwindprotect
12.05.25
20:50
Schens
frankh
Tja, leider falsch. Sowas wäre Teil einer "ordentlichen Schulung", zu vermittlen, dass es eben NICHT von Deinen Eingaben lernt!
Ein GPT wird mit Daten trainiert. Die Ergebnisse werden besser. Eine WarrenBuffettGPT, die mit einschlägiger Literatur gefüttert wurde lieferte über einen kurzen Test bessere Ergebnisse als eine GPT, die keine Literatur zum "lernen" hatte.
Wenn das kein "lernen" ist, warum funktioniert das dann dennoch?
Ebenso mit Werbetexten. Eine "trainierte" GPT liefert bessere Resultate als eine untrainierte.
Zufall?
Du missverstehst die Technologie.
LLMs werden mit unzähligen Daten trainiert. Das Resultat is ein fixes Modell als neuronales Netz. Man kann jederzeit dieses Modell nehmen und das Training fortsetzen… mit jedem Trainingschritt kriegt man dann ein neues Modell.
Im „Inferenzmodus“ (zB wenn man Fragen an einen Chatbot schickt) werden lediglich Daten in die Eingabeschicht des neuronalen Netzes gegeben… durchgeleitet und die Ausgabeschicht ausgelesen. Jede Frage schickt alles vorher in der Konversation geschriebene erneut zum Modell, denn es hat keinerlei Gedächtnis. Das Modell verändert sich während der Inferenz auch überhaupt nicht. Wenn du mit zB ChatGPT eine neue Konversation beginnst, dann ist das Modell immer noch das gleiche wie vor der letzten Konversation. Alles was Du innerhalb der Konversation schreibst kommt in den „Kontext“ das ist alles die Eingabeschicht. Jede Eingabe beeinflusst die Ausgabe… das ist aber kein „lernen“ sondern lediglich ein erweitern der Eingabe. Beginnst Du eine neue Konversation, dann beginnt auch ein neuer Kontext von vorne.
Die Konversationen der Leute können gespeichert werden und evtl. später bei einer neuen Trainingsphase zum weitertrainieren des Modells verwendet werden. Von Zeit zu Zeit wird ein erneuertes Modell freigeschaltet.
_Training_ bzw. lernen ist aber immer ein eigenständiger, gezielter Prozess der ein neues Modell erzeugt.
Hilfreich?
+3
radneuerfinder
12.05.25
22:55
Mir persönlich hat es sehr geholfen, zu verstehen, dass der Intelligenzanteil von KI bei 0 % liegt. Es ist ein genialer Marketingname.
Die Sprachausgabe einer KI reiht Buchstaben und Wörter nach einer Wahrscheinlichkeitsberechnung an. Sie ist so trainiert, dass diese Worte mit fast 100 % Wahrscheinlichkeit einen lesbaren Sinn ergeben, und mit etwas weniger, aber immer noch sehr großer, Wahrscheinlichkteit auch inhaltlich stimmen. Im logischen Umkehrschluss sind diese Sätze daher mit einer gewissen Restwahrscheinlichkeit unstimmig, vulgo falsch. Daher das Halluzinieren, dass jederzeit an jeder Stelle auftreten kann.
Hilfreich?
+6
Wauzeschnuff
13.05.25
09:43
Hier ist übrigens ein schöner Artikel von Spektrum der Wissenschaft zum aktuellen Stand der LLMs und der KI:
Der fast einige der Argumente die in dieser Diskussion aufgetaucht sind gut zusammen und gibt eine Bewertung aus dem Forschungsbereich (Funktionsweise, aktuelle Probleme, Ausblick, etc.).
Hilfreich?
0
Wauzeschnuff
13.05.25
10:18
PS: Der Artikel ist leider hinter einer Bezahlschranke, aber im Lesemodus des Browsers sollte man ihn lesen können (getestet mit Firefox, Edge und Orion).
Hilfreich?
+3
Schens
13.05.25
12:25
Wauzeschnuff
PS: Der Artikel ist leider hinter einer Bezahlschranke, aber im Lesemodus des Browsers sollte man ihn lesen können (getestet mit Firefox, Edge und Orion).
Hilfreich?
+2
Schens
13.05.25
13:30
Unwindprotect
Im „Inferenzmodus“ (zB wenn man Fragen an einen Chatbot schickt) werden lediglich Daten in die Eingabeschicht des neuronalen Netzes gegeben… durchgeleitet und die Ausgabeschicht ausgelesen. Jede Frage schickt alles vorher in der Konversation geschriebene erneut zum Modell, denn es hat keinerlei Gedächtnis. Das Modell verändert sich während der Inferenz auch überhaupt nicht. Wenn du mit zB ChatGPT eine neue Konversation beginnst, dann ist das Modell immer noch das gleiche wie vor der letzten Konversation. Alles was Du innerhalb der Konversation schreibst kommt in den „Kontext“ das ist alles die Eingabeschicht. Jede Eingabe beeinflusst die Ausgabe… das ist aber kein „lernen“ sondern lediglich ein erweitern der Eingabe. Beginnst Du eine neue Konversation, dann beginnt auch ein neuer Kontext von vorne.
Das bezeichne ich als Laie als "lernen". Natürlich ändert sich das Modell nicht, wenn ich einen neuen Chat beginne. Aber innerhalb dieses Chats "verändert" sich die Qualität der Antworten. Wenn ich nun die technische Auflösung von Eingabeschicht etc. ausblende, dann bleibt die Beobachtung dass "mittlere" Antworten in Verbindung mit "mehr Information" zu "bessere Antworten" führt.
Hilfreich?
-5
frankh
13.05.25
16:23
Schens
Unwindprotect
Jede Eingabe beeinflusst die Ausgabe… das ist aber kein „lernen“ sondern lediglich ein erweitern der Eingabe.
Das bezeichne ich als Laie als "lernen". Natürlich ändert sich das Modell nicht, wenn ich einen neuen Chat beginne. Aber innerhalb dieses Chats "verändert" sich die Qualität der Antworten.
Wenn ein Laie irgendwas irgendwie benennt, führt das halt zu genau den Missverständnissen, um die wir uns hier im Kreis drehen.
Begriffe sind NICHT egal. Ich kenne sogar Ingenieure (nicht in Software), die eben doch glauben, dass "die KI" sich das was sie ihr sagen, langfristig merkt. Mehr noch, sie glauben, sie könnten ihr während eines Chats neues Wissen und Verhalten beibringen. Weil das für sie (richtigerweise) "lernen" bedeutet. DAS IST NICHT SO!
Das sieht nur auf den ersten Blick so aus!
Ich sage denen dann (im Scherz), dass ich ihnen leider mitteilen muss, dass da im TV keine kleinen Leute drin wohnen
Vielleicht ist Dir nicht klar, dass immer der KOMPLETTE Chat, nicht nur der letzte Prompt, die Eingabe (der Kontext) für die nächste Antwort ist? Natürlich verändern also weitere Prompts im Chat die nächste Ausgabe.
Gelernt wird da aber nichts.
Das LLM hat einen riesigen Zustandsraum, in den es zum Generieren der Wörter "schaut". Der Kontext schränkt die Suche in diesem Raum ein. Du lenkst es mit den Prompts wie mit einer Taschenlampe durch den dunklen Wald.
Dabei merkt es sich aber den Weg nicht, streut keine Brotkrumen, markiert keine Bäume.
Beim nächsten Mal steht es wieder vor exakt dem selben Wald wie vorher und wartet auf Deine Taschenlampe.
Im übrigen ist das auch kein Lernen, wenn man sich bockig weigert, neue, bessere Informationen anzunehmen
Hilfreich?
+5
Brunhilde_von_der_Leyen
13.05.25
16:43
Wauzeschnuff
LoCal
Beispiel: Ich frage ChatGPT nach einer historischen Person, keine Berühmtheit, aber eine, deren historische Existenz belegt ist.
Was macht chatGPT? Halluziniert mir eine Vita, die in einem völlig falschen historischen Kontext steht und auch noch um Jahrhunderte verschoben.
Das ist ein klassisches Beispiel für eine Fehlbenutzung eines LLM. Du hast Dich darauf verlassen, dass das LLM entweder entsprechende Trainingsdaten enthielt, oder Zugang zu einer Suchmaschine hat um diese Daten selbstständig zu suchen. Beides kannst Du nicht einfach voraussetzen.
Es ist, als würdest Du Dir einen Tee kochen wollen, und den Wasserkocher als sinnlos bezeichnest, weil kein Wasser drin ist.
Schens
Wauzeschnuff
Ich freue mich schon auf die Zeit, wenn die Autokorrektur endlich mal etwas cleverer wird
.
Die Autokorrektur kann sich ins Knie fügen!
Jede Person mit einer „ordentlichen Schulung“ benötigt überhaupt keine Autokorrektur
Hilfreich?
+4
frankh
13.05.25
17:09
Mein Reden
"ChatGPT ist Autokorrektur auf Steroiden",
Prof. Katharina Zweig, 2023
Hilfreich?
+1
B_Babb
13.05.25
19:46
hab ich woanders auch schon mal geschrieben:
Viele benutzen die KI LLM falsch.
LLM KI weiß nichts, hat kein Wissen oder Verständnis. Die KI denken oder wissen auch nichts,
sie sind nicht "Denk-Maschinen" sondern Spracherzeugungs-maschinen.
Deswegen sind "Halluzinationen" im LLM systemimmanent.
KI zu verwenden wie google ist eine Fehlbenutzung. Genauso um etwas nachzuschlagen oder Wissen zu überprüfen ist die KI nicht geeignet.
Mittlerweile sind die KI so gut das sie sehr überzeugende Sprache erzeugen - die gut klingt. Und auf Grund der grossen Trainingsmengen auch öfter mit Fakten und der Realität übereinstimmt. Nur nicht immer.
Die neuen reasoning Modelle werden sogar schlechter.
https://winfuture.de/news,150778.html
die LLM KI sind prima um Eingaben zu bearbeiten, Texte, Codes zu generieren und bearbeiten zum inspirieren - aber nicht zum Fragen nach Wissen oder suchen im Internet. 50% oder 80% oder sogar mehr können richtig sein - aber wenn Du es nicht merkst - Pech gehabt.
Hilfreich?
+4
Schens
15.05.25
07:46
B_Babb
(...)
Das wird eines der größten Probleme in naher Zukunft. Schon jetzt glaube ich die zunehmende Verblödung beobachten zu können. Und das nicht nur beim rasieren.
Hilfreich?
+2
LoCal
15.05.25
09:38
B_Babb
die LLM KI sind prima um Eingaben zu bearbeiten, Texte, Codes zu generieren und bearbeiten zum inspirieren - aber nicht zum Fragen nach Wissen oder suchen im Internet. 50% oder 80% oder sogar mehr können richtig sein - aber wenn Du es nicht merkst - Pech gehabt.
Nur vermarkten die KI Hersteller es eben genau anders!
Weiter oben wurde auch geschrieben, dass man ja Radiologen durch KI ersetzen kann… wenn aber die Gefahr besteht, dass da 50-80% halluziniert ist, dann will man das nicht. Und um beim Radiologen zu bleiben Mustererkennung bzw. KI zur Unterstützung ist ok, aber letztendlich sollte das immer noch vom Arzt verifiziert werden.
„Ich hab zwar keine Lösung, doch ich bewundere dein Problem“
Hilfreich?
+3
penumbra
15.05.25
10:48
Schens
Welche "Berechtigung" hat ein Radiologe, wenn die KI die besseren Ergebnisse liefert?
Als Radiologe, der täglich mit den Ergebnissen mehrerer "unterstützenden KIs" zu tun hat, kann ich Dir sagen: Sei froh, dass Deine Bilder noch von einem Menschen mit Erfahrung und Berufsethos angeschaut werden...
„enjoy life in full trains“
Hilfreich?
+10
1
2
3
>|
Kommentieren
Sie müssen sich
einloggen
, um sich an einer Diskussion beteiligen zu können.
Günstiger Zeitpunkt: Tim Cook verkauft Aktien i...
Kurz: WhatsApp erhält Nutzernamen +++ Apple akt...
Rosetta 2 ab macOS 28 nur noch eingeschränkt nu...
Apples Refurbished Store: Mehr als 250 verschie...
5 Jahre ARM-Zeitenwende
Die Hardware-Vorausetzungen von macOS, iOS, iPa...
macOS 26 "Tahoe" – der Sprung um 11 Versionsnum...
Reparaturprogramm für den Mac mini M2 gestartet