Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Jim Keller: KI macht Software und dessen Hersteller in 10 Jahren obsolet

Es kommt nicht oft vor, dass Jim Keller, seit knapp vier Jahren bei Tenstorrent tätig, sich derart ausgiebig über die Zukunft seiner Branche äußert. Der ehemalige Intel-, AMD- und Apple-Angestellte wagt in einem Interview mit Linus Tech Tips momentan noch bizarr anmutende Prognosen. Keller ist kein Unbekannter, seit über zwanzig Jahren beschäftigt er sich mit Mikroprozessoren und ist mit der aktuellen Entwicklung bestens betraut. Bei Apple war er unter anderem als Chefdesigner für die ersten eigenen SoCs zuständig – dem A4 und A5. Im Rahmen seiner aktuellen Tätigkeit entwickelt er KI- und Risc-V-Chips, weswegen seine Haltung gegenüber künstlicher Intelligenz natürlich nicht ganz unvoreingenommen ist (siehe ).


Quelloffen muss es sein
Doch neben dem Trend, die KI-Hardware zu den bestehenden Limits zu treiben, stehen Keller zufolge auch weitere wichtige KI-relevanten Entwicklungen im Zentrum der Forschung. Neben Software und den zugrunde liegenden LLMs sei auch auf den Bereich Infrastruktur zu achten. Hier sieht Keller deutliche Unterschiede zwischen den milliardenschweren Größen der Branche und dem kanadischen „500-Millionen-Dollar-Startup“, dem er mittlerweile seit etwa einem Jahr als CTO vorsteht. Die beinahe unvorstellbaren Summen, die derzeitiger Marktführer Nvidia hier mit riesigen Rechenzentren erwirtschafte, seien für Keller „kaum erstrebenswert“. Für ihn stelle sich eher die Frage, wie man Computer „billiger gestaltet“ und vor allem, wie neben der Open-Source-Software ebenso ein „offenes Chipdesign“ gelinge – was am Ende die wahren Sieger ausmache.

Software „verschwindet“
Wenn Keller über einen Zehnjahreszeitraum spekulieren sollte, dann stellt er sich vor, dass etwa die Filmindustrie von diesem Trend stark profitieren wird. Ginge es nach dem Chip-Ingenieur dürften künftige Filme, ähnlich einem Rollenspiel aufgebaut sein. Man werde „darin leben“ und mit den Charakteren „Unterhaltungen führen“. Als Beispiel führt er an, dass diese mitunter eigenwillig antworten könnten: „Halt den Mund, ich muss jemanden erschießen.“ Aber selbst das Software-Gewerbe, wie wir es kennen, solle es bald nicht mehr geben – „mit hundertprozentiger Sicherheit wird sämtliche Software verschwinden“. Auf den Tensor-Prozessoren sei dies bereits heute Realität: Die KI schreibe ihren Code einfach selbst. Ist eine neue Funktionalität vonnöten, muss diese lediglich beschrieben werden – Software-Hersteller würden somit großteils überflüssig.

Kommentare

Rob
Rob23.04.24 11:52
Und ab morgen kaufen alle einen ZUNE
+17
Dunkelbier23.04.24 12:02
In braun!
+13
sudoRinger
sudoRinger23.04.24 12:20
Die KI schreibe ihren Code einfach selbst. Ist eine neue Funktionalität vonnöten, muss diese lediglich beschrieben werden
Ist Code nicht eigentlich das präzise Beschreiben von Funktionalität?
+16
Mendel Kucharzeck
Mendel Kucharzeck23.04.24 12:25
sudoRinger
Gemeint ist, dass die Funktionalität oberflächlich in "normaler menschlicher Sprache" beschrieben wird – und die KI das Programmcode übersetzt.
+6
Electric Dave23.04.24 12:33
+23
teorema67
teorema6723.04.24 12:33
Abwarten ... 😀

Die meisten derartigen Innovationen haben viele Arbeitsplätze verschwinden lassen - und anderswo ebenso viele neue entstehen lassen, nur mit viel höherem Anspruch als die alten
Wenn ich groß bin, geh ich auch auf die Büffel-Universität! (Ralph Wiggum)
+5
Velasco23.04.24 12:35
Oh je, so einen Schrott habe ich schon öfters gehört! "Wir brauchen bald keine Administratoren, das wird alles einfacher!" "Wir brauchen keine Buchhalter mehr, das macht alles das ERP!" "Wir brauchen keine Börsenbroker mehr, das macht alles die Software!" (Ach ja, da fällt mir ein: 1998 wussten die meisten Firmen nicht, dass jemals das Jahr 2000 kommt und 1999 hieß es, wir werden alle sterben!)
+4
sudoRinger
sudoRinger23.04.24 12:39
Mendel Kucharzeck
Gemeint ist, dass die Funktionalität oberflächlich in "normaler menschlicher Sprache" beschrieben wird
Ah, Apple Script 3.0
+3
Mendel Kucharzeck
Mendel Kucharzeck23.04.24 12:50
Velasco
Nur weil irgendwer mal irgendwann eine Fehleinschätzung traf, muss diese nicht auch falsch sein. KI hat schon jetzt Einfluss auf viele Berufs- und Bildungszweige. Extrapoliert man den aktuellen Fortschritt, ist die Einschätzung nicht völlig von der Hand zu weisen.
+6
deus-ex
deus-ex23.04.24 12:53
Eines hab ich gelernt. 10 Jahres Prognosen in der IT sind so gut wie NIE eingetreten.
+13
deus-ex
deus-ex23.04.24 12:54
Mendel Kucharzeck
sudoRinger
Gemeint ist, dass die Funktionalität oberflächlich in "normaler menschlicher Sprache" beschrieben wird – und die KI das Programmcode übersetzt.
Bin seit 20 Jahren Softwareentwickler. Was Menschen definitiv nicht können ist konkret zu beschreiben was sie wollen.
+49
bernddasbrot
bernddasbrot23.04.24 13:21
Da ist schon sehr viel dran, denke ich. Es sind in den letzten Jahren schon sehr viele Berufe de facto verschwunden, etwa im gesamten Bankwesen, um. Ur ein offensichtliches Beispiel zu nehmen.
+2
desko7523.04.24 13:38
Mendel Kucharzeck
Velasco
Nur weil irgendwer mal irgendwann eine Fehleinschätzung traf, muss diese nicht auch falsch sein. KI hat schon jetzt Einfluss auf viele Berufs- und Bildungszweige. Extrapoliert man den aktuellen Fortschritt, ist die Einschätzung nicht völlig von der Hand zu weisen.
Ich bin da dieses Mal auch eher der Meinung, dass es klappen könnte.
Man kann heute schon mit ChatGPT programmieren. Alles natürlich in einem eingeschränkten Rahmen, aber es geht. Hier mal ein paar Auszüge eines Dialogs zwischen ChatGPT und einem Programmieren:

P: Schreibe ein Programm in Java, dass mir das Wetter in Berlin für eine Woche anzeigt.
G: Hier ist das Programm. fertiges Programm wird gezeigt.
P: Jetzt von München.
G: Hier ist das Programm. fertiges Programm wird gezeigt.
P: Fasse bitte Beide Programme zusammen und Füge eine Abfrage des Ortes ein.
G: Hier ist das Programm. fertiges Programm wird gezeigt.
P: Der Code scheint mir etwas lang zu sein. Kann man den auch kürzen?
G: Ja, das kann man. Hier ist das Programm. fertiges Programm wird gezeigt.

usw. usf.

Grad die Syntax einer Programmiersprache folgt einer Logic, die für LLMs leicht zu verstehen oder nachzubauen ist. Und die LLM kennt vermutlich Unmengen von Beispielcode für Probleme, die schon gelöst wurden. Fehlt nur noch das präzise formulieren von Anforderungen und Features durch den Menschen.

Ja, ich denke auch, die Schwelle, Programme selbst zu schreiben, wird jetzt allmählich sinken, bis es wirklich jeder in einem gewissen Rahmen kann. Das bedeutet aber nicht zwangsläufig, das der Beruf des Programmierens aussiebt.
+6
teorema67
teorema6723.04.24 13:49
Hey Siri, schreib mir mal schnell einen Publisher, aber bitte mit Absatzsetzer, wie beim großen Abospezialisten!
Wenn ich groß bin, geh ich auch auf die Büffel-Universität! (Ralph Wiggum)
+6
deus-ex
deus-ex23.04.24 13:51
desko75
Mendel Kucharzeck
Velasco
Nur weil irgendwer mal irgendwann eine Fehleinschätzung traf, muss diese nicht auch falsch sein. KI hat schon jetzt Einfluss auf viele Berufs- und Bildungszweige. Extrapoliert man den aktuellen Fortschritt, ist die Einschätzung nicht völlig von der Hand zu weisen.
Ich bin da dieses Mal auch eher der Meinung, dass es klappen könnte.
Man kann heute schon mit ChatGPT programmieren. Alles natürlich in einem eingeschränkten Rahmen, aber es geht. Hier mal ein paar Auszüge eines Dialogs zwischen ChatGPT und einem Programmieren:

P: Schreibe ein Programm in Java, dass mir das Wetter in Berlin für eine Woche anzeigt.
G: Hier ist das Programm. fertiges Programm wird gezeigt.
P: Jetzt von München.
G: Hier ist das Programm. fertiges Programm wird gezeigt.
P: Fasse bitte Beide Programme zusammen und Füge eine Abfrage des Ortes ein.
G: Hier ist das Programm. fertiges Programm wird gezeigt.
P: Der Code scheint mir etwas lang zu sein. Kann man den auch kürzen?
G: Ja, das kann man. Hier ist das Programm. fertiges Programm wird gezeigt.

usw. usf.

Grad die Syntax einer Programmiersprache folgt einer Logic, die für LLMs leicht zu verstehen oder nachzubauen ist. Und die LLM kennt vermutlich Unmengen von Beispielcode für Probleme, die schon gelöst wurden. Fehlt nur noch das präzise formulieren von Anforderungen und Features durch den Menschen.

Ja, ich denke auch, die Schwelle, Programme selbst zu schreiben, wird jetzt allmählich sinken, bis es wirklich jeder in einem gewissen Rahmen kann. Das bedeutet aber nicht zwangsläufig, das der Beruf des Programmierens aussiebt.

Und hier kommt das große Problem der programmierenden KI. Ein KI kann nur etwas was schon mal jemand GEMACHT HAT! Sie lebst also immer in der Vergangenheit.

Sie kann auch nichts neues Erfinden. Ihre Fähigkeiten beruhen alleine auf Dinge die Menschen in der Vergangenheit einmal getan haben.
+7
MrWombat
MrWombat23.04.24 13:54
deus-ex
Und hier kommt das große Problem der programmierenden KI. Ein KI kann nur etwas was schon mal jemand GEMACHT HAT! Sie lebst also immer in der Vergangenheit.
Es lernt aus der Vergangenheit, wenn die KI die Anforderung mit den bekannten vergleichen kann, wird's auch mit neuen Anforderungen klappen.
Meist ist ja bei Software ein Prozess abzubilden - wird sehr abstraktes, kreatives gefragt, das die AI nicht versteht - wird die KI wohl mit Zusatzfragen kommen.
+2
Wellenbrett23.04.24 13:56
sudoRinger
Die KI schreibe ihren Code einfach selbst. Ist eine neue Funktionalität vonnöten, muss diese lediglich beschrieben werden
Ist Code nicht eigentlich das präzise Beschreiben von Funktionalität?
Mendel Kucharzeck
sudoRinger
Gemeint ist, dass die Funktionalität oberflächlich in "normaler menschlicher Sprache" beschrieben wird – und die KI das Programmcode übersetzt.
Ich verstehe beide Standpunkte: KIs können (bereits jetzt) aus menschlicher Sprache Code erzeugen und Programmiersprachen sind - je nach Paradigma, also deklarativ-funktional,deklarativ-logisch, imperativ-objektorientiert, imperativ-prozedural mehr oder weniger eine Beschreibung dessen, was die Anwendung nachher können oder tun soll. Ich glaube jedoch dass eine Computersprache eine besser geeignete Sprache ist, das Gewünschte effizient zu spezifizieren, als menschliche Sprache. Mit einer KI dagegen promptartig in menschlicher Sprache zu interagieren, bis dann nach sagen wir 100, 1000, oder vielleicht noch mehr nötigen Interaktionsschritten die Anwendung endlich genau das macht, was ich wollte, ist dann doch sehr mühselig...

Kleines Beispiel vom 117. Interaktionsschritt:
die Daten aus der Tabelle der XY sollen unter der Bedingung, dass sie zum ersten Mal angefragt werden immer absteigend nach dem Feld Kundenummer sortiert in der dritten Listendarstellung von rechts dargestellt werden. Die Datenbank muss immer folgende Verschlüsselung aufweisen und nicht wie jetzt unverschlüsselt angelegt sein. Erfinde für die Verschlüsselung eine neue Methode, die folgende Eigenschaften...
+3
desko7523.04.24 14:06
deus-ex
Ein KI kann nur etwas was schon mal jemand GEMACHT HAT! Sie lebst also immer in
Ja, Kreativität wird uns Menschen wohl auf absehbare Zeit vorbehalten bleiben.
Aber für die Lösung der meisten Probleme wird nicht sonderlich viel Kreativität benötigt.
Und Du wirst erstaunt sein, wieviel Kreativität in Codebeispielen stecken kann.
Ich behaupte mal 80% der Probleme kann die KI locker lösen. Entweder, weil jemand anderes es schön gelöst hat, oder aber weil der Weg auf eine Art vorgegeben ist. Man muss ihn nur "freilegen".

Die restlichen, wirklich kniffeligen Probleme, grad an der "bleeding edge", wo wirklich Neues geschaffen wird, können dann die Programmieren-Koryphäen lösen.
Aber den Rest?

Das ist wie mit diesen unsäglichen KI-Bildern oder KI-Musik. So als "Hintergrund" im Wartezimmer (Musik) wird das vermutlich reichen und es wird ja auch schon so eingesetzt. Aber einen Musikliebhaber, dem die Person, der Charakter des Komponisten wichtig ist, wirst Du damit nicht hinterm Ofen hervorlocken können.
Und einen wirklich guten Programmierer wirst Du mit KI-Code auch erstmal nicht beeindrucken können. So, wie es Dich ja scheinbar auch nicht beeindruckt.
+5
Wellenbrett23.04.24 14:15
Gentoo-Linux hat kürzlich KI-Beiträge im Code verboten, u.a. aus folgenden Grund: "LLMs sind wirklich gut darin, plausibel aussehenden Blödsinn zu produzieren." Mal sehen, wie das in Zukunft wird...
+6
Troubadixderdritte23.04.24 14:25
deus-ex
Mendel Kucharzeck
sudoRinger
Gemeint ist, dass die Funktionalität oberflächlich in "normaler menschlicher Sprache" beschrieben wird – und die KI das Programmcode übersetzt.
Bin seit 20 Jahren Softwareentwickler. Was Menschen definitiv nicht können ist konkret zu beschreiben was sie wollen.

+3
deus-ex
deus-ex23.04.24 14:30
desko75
deus-ex
Ein KI kann nur etwas was schon mal jemand GEMACHT HAT! Sie lebst also immer in
Ja, Kreativität wird uns Menschen wohl auf absehbare Zeit vorbehalten bleiben.
Aber für die Lösung der meisten Probleme wird nicht sonderlich viel Kreativität benötigt.
Und Du wirst erstaunt sein, wieviel Kreativität in Codebeispielen stecken kann.
Ich behaupte mal 80% der Probleme kann die KI locker lösen. Entweder, weil jemand anderes es schön gelöst hat, oder aber weil der Weg auf eine Art vorgegeben ist. Man muss ihn nur "freilegen".

Die restlichen, wirklich kniffeligen Probleme, grad an der "bleeding edge", wo wirklich Neues geschaffen wird, können dann die Programmieren-Koryphäen lösen.
Aber den Rest?

Das ist wie mit diesen unsäglichen KI-Bildern oder KI-Musik. So als "Hintergrund" im Wartezimmer (Musik) wird das vermutlich reichen und es wird ja auch schon so eingesetzt. Aber einen Musikliebhaber, dem die Person, der Charakter des Komponisten wichtig ist, wirst Du damit nicht hinterm Ofen hervorlocken können.
Und einen wirklich guten Programmierer wirst Du mit KI-Code auch erstmal nicht beeindrucken können. So, wie es Dich ja scheinbar auch nicht beeindruckt.
Nicht falsch verstehen. Ich nutzt selbst KI um mit Code generieren zu lassen der mir zu stupide ist herunterzuprogrammieren. Aber den kann ich dann auch auf Sinnhaftigkeit überprüfen.

Ich Zukunft soll man der KI blind vertrauen was die da für Code generiert? Um Gottes willen.
+2
Mecki
Mecki23.04.24 14:38
Also ChatGPT versagt regelmäßig die einfachsten Softwareaufgaben zu lösen. Oft schreibt er Code, der nicht mal baut und wenn man ihn dann solange alle Fehler zeigt, bis er eine Version liefert, die baut, dann tut sie selten das, was sie tun sollte. Das funktioniert wirklich nur bei super einfachen Funktionen, für die sich die Mühe nicht mal lohnt, ChatGPT zu starten. Und ja, ich kann ChatGPT solange auf seine Fehler hinweisen, bis er mir endlich eine korrekte Version liefert, nur habe ich dann am Ende 15-30 Minuten mit ChatGPT herumgespielt, um Code zu erhalten, den ich in unter 5 Minute hätte direkt schreiben können.

Und am Ende habe ich aber nur eine einfache Funktion erhalten. Eine komplexe App besteht aus tausender solcher Funktionen und selbst wenn jede davon korrekt arbeitet, muss man diese Funktionen ja immer noch sinnvoll miteinander verdrahten, damit eine sinnvolle Gesamt-App entsteht. Und hier steigt die Komplexität exponentiell, d.h. wenn ChatGPT schon an einzelnen Funktionen versagt, dann ist der Aufwand für ein ganze App 1000x komplexer, da sind wir noch ewig weit von entfernt. Selbst wenn ChatGPT also jede Funktion auf Anhieb korrekt liefern würde, erspart mir das kaum Arbeit, weil zwischen "Guck mal, ich kann eine Fließe korrekt zuschneiden" und "Ich habe ein komplettes Badezimmer gebaut" liegt halt doch ein bisschen was dazwischen und aktuell schaffen KIs mit Mühe und Not gerade mal so ersteres.

Auch übersieht der Typ, dass ChatGPT selber keinen Code schreiben kann, den es selber nicht in ähnlicher Form bereits gesehen hat. ChatGPT hat noch nie etwas erzeugt, was die Menschheit bisher nicht kannte. Wenn kein Programmierer der Welt weiß, wie man X löst, dann weißt ChatGPT das auch nicht. ChatGPT kann nur Probleme lösen, für die es bereits Lösungen gibt, die veröffentlicht wurden und ChatGPT bekannt sind. Ohne Programmierer, die Code schreiben, den man in ChatGPT füttert, kann ChatGPT gar nichts programmieren. Sämtliches Wissen über Programmiersprachen und Code hat ChatGPT nur durch Code erlernt, den Menschen geschrieben hat und deswegen kann nichts was ChatGPT produziert besser sein als das, was diese Menschen hätten produzieren können, es wird eher schlechter sein. Keine KI kann z.B. beantworten ob N = NP ist oder nicht. Warum nicht? Weil auch kein Mensch die Antwort kennt und erst wenn ein Mensch die Antwort kennt, werden auch KIs die Antwort kennen.

Habe z.B. ChatGPT gerade Tetris schreiben lassen. Die erste Version war schon mal gar nicht lauffähig. Die zweite Version ist lauffähig, aber in dieser Form komplett unbrauchbar, der Code ist extrem schlecht, komplett inperformant und das ganze sieht auch nicht im Ansatz so aus wie ich das hätte haben wollen. Klar könnte ich jetzt drei Seiten lang ChatGPT jedes Detail beschrieben und bekomme dann eine besser Version, jedoch ist die komplette Implementierung nur 156 Zeilen Code und selbst eine optimale Version, wäre vielleicht 300-500 Zeilen Code, was deutlich weniger Text als 3 Bildschirmseiten Beschreibung ist (denn einige der Code Zeilen bestehen ja gerade mal aus 6 bis 8 Zeichen).

Der Punkt ist aber der: Wenn ich irgend eine markante Code-Zeile von dem nehme, was ChatGPT da produziert hat und danach suche, dann lande ich jedes mal auf GitHub bei irgend einer Tetrisimplementierung, die exakt diese Codezeile verwendet. ChatGPT hat hier zwar nicht eine Implementierung exakt kopiert, keine davon sieht genau aus wie die von ChatGPT, aber letztlich ist das was ChatGPT produziert aus diversen Einzelimplementierungen zusammengesetzt, die Menschen zuvor schon geschrieben hatten.

Und ich nenne ChatGPT deswegen hier explizit, weil das aktuell das Beste ist, was wir haben und schon der Abstand zu Platz 2 gravierend ist. Das was KIs auf den Plätzen 3-5 so liefern ist praktisch schon komplett unbrauchbar für irgendwas.
+9
Wauzeschnuff23.04.24 14:44
Das Problem der LLM-basierten KIs: Sie verstehen weder die Frage/Aufgabe, noch die ihre eigene Antwort. Sie arbeiten ausschließlich mit Wahrscheinlichkeiten/Statistiken. Und genau darum wird sie Softwareentwickler immer nur unterstützen, aber niemals ersetzen können. Die Antworten dieser KIs sehen sinnvoll aus (Wahrscheinlichkeiten halt), sind zu oft aber eben auch völliger Unsinn - und die KI kann das eben nicht unterscheiden - unter anderem deshalb sind ja "manuelle" Sperren für rassistischen, misogynen, verschwörungstheoretischen, etc. Unsinn erforderlich.

Und aktuell kann ich nicht erkennen, wie LLM Modelle da qualitativ noch eine Schippe drauf legen wollen. Ich fürchte diese Technologie ist weitgehend ausgereizt und jetzt werden andere Ansätze erforderlich.
+2
der Wolfi
der Wolfi23.04.24 14:59
deus-ex
Eines hab ich gelernt. 10 Jahres Prognosen in der IT sind so gut wie NIE eingetreten.
Das ist fast richtig. Meist war es in 5 Jahren oder noch früher so weit.
Nach 10 Jahren sind die Prognosen dann gefühlt nie eingetreten weil sie bis dahin schon mehrfach überholt worden sind und sich niemand mehr an die alten Prognosen erinnern will.
Ich habe gelernt das IT-Entwicklungen (fast) immer viel schneller und umfangreicher sind als in Prognosen beschrieben.
Normal is für die Andern
+1
andreasm23.04.24 15:00
deus-ex
Mendel Kucharzeck
sudoRinger
Gemeint ist, dass die Funktionalität oberflächlich in "normaler menschlicher Sprache" beschrieben wird – und die KI das Programmcode übersetzt.
Bin seit 20 Jahren Softwareentwickler. Was Menschen definitiv nicht können ist konkret zu beschreiben was sie wollen.
Und das trifft nicht nur auf IT zu
Verzweifelte grüße aus einer anderen Branche
+6
Wellenbrett23.04.24 15:27
Es ist ja schon denkbar, dass zukünftige KIs wirklich kreativ neue und auf Anhieb funktionierende Lösungen entwickeln. Was aber meiner Meinung nach bleibt ist in der Kommunikation Mensch-KI zu spezifieren was Mensch genau will.

Grundsätzlich muss ja kein Unterschied bestehen, ob ich mit einem Menschen oder mit einer KI kommuniziere.

Allerdings einige technische Besonderheiten hat das "Gehirn Version 10hoch irgendwas" eines Homo Sapiens dann doch: es (bzw. seine Vorläufer) entwickelte sich in der Evolution über die Jahrmillionen und musste sich dabei ständig bewähren, es ist die im bekannten Universum komplexeste Struktur dieses Volumens, es bietet in Echtzeit massive Parallelverarbeitung und verbraucht dabei nur etwa 20Watt Energie.
+4
sudoRinger
sudoRinger23.04.24 15:37
Mecki
Sämtliches Wissen über Programmiersprachen und Code hat ChatGPT nur durch Code erlernt, den Menschen geschrieben hat und deswegen kann nichts was ChatGPT produziert besser sein als das, was diese Menschen hätten produzieren können, es wird eher schlechter sein. Keine KI kann z.B. beantworten ob N = NP ist oder nicht. Warum nicht? Weil auch kein Mensch die Antwort kennt und erst wenn ein Mensch die Antwort kennt, werden auch KIs die Antwort kennen.
Wenn Du die Latte so hoch legst (P-NP-Problem aus der Graphentheorie), dann müsste man fast sämtliche Menschen als nicht intelligent bezeichnen. Nur wenige Menschen sind in der Lage bislang ungelöste Probleme zu lösen.

Ich denke, es ist aber schon sehr gut ("intelligent"), die vielen bekannten Komponenten auszuwählen, anzupassen und zu Neuem sinnvoll zusammenzusetzen.
+2
morphologics23.04.24 15:39
Könnte dann ja zu den neuen, essenziellen Jobfeldern im LLM-KI-Zeitalter gehören:
Herausarbeiten und Vermitteln bzw. Übersetzen von Kundenbedürfnissen (und Wünschen) hin auf KI-Prompts und KI-Lösungen; Reliabilisieren / Validieren / Autorisieren bzw. ggf. Gegen-Zertifizierungen von Ergebnissen, etc.
+4
desko7523.04.24 15:50
Wellenbrett
Es ist ja schon denkbar, dass zukünftige KIs wirklich kreativ neue und auf Anhieb funktionierende Lösungen entwickeln.
Ich denke auch, dass es nicht unerreichbar ist.
Kreativität ist ja im Grunde auch nichts anderes als die Kombination von Bestehendem und zwar aus unterschiedlichsten Bereichen. Es gibt nicht diese eine Vision und dann erscheint dem erleuchteten Kreativen etwas völlig Neues vor den Augen, wie durch Zauberhand.
Vielmehr ist es das finden von neuen, unüblichen Verknüpfungen, die für sich neuartig sind und etwas Neues ermöglichen. Oder das Anwenden von Techniken, die so noch nie auf ein anderes Gebiet übertragen wurden. Dazu muss man aber die "Standard-Verknüpfungen" kennen, damit man die unüblichen und vielversprechenden finden kann. Es braucht also viel Erfahrung in unterschiedlichen Bereichen, um wirklich kreativ zu werden. Und das kann KI wunderbar. Erfahrungen sammeln.
+3
frankh23.04.24 18:16
https://www.cognition-labs.com/introducing-devin
-1
Weitere News-Kommentare anzeigen

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.