Bereiche
News
Rewind
Tipps & Berichte
Forum
Galerie
Journals
Events
Umfragen
Themenwoche
Kleinanzeigen
Interaktiv
Anmelden
Registrierung
Zu allen empfangenen Nachrichten
Suche...
Zur erweiterten Suche
Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?
Forum
>
Software
>
Wo bleibt Apple [mit KI]?
Wo bleibt Apple [mit KI]?
lautsprecher
11.05.23
22:35
Moin zusammen,
KI ist nicht neu. Die erste Version von ChatGPT zB wurde bereits 2017 released. Heute, wo die Rechenkapazitäten und Speichermöglichkeiten endlos erscheinen und die Modelle immer ausgefeilter werden, beginnt die Sache wirklich spannend zu werden.
Heute steht zB in der FAZ: https://www.faz.net/aktuell/wirtschaft/unternehmen/kuenstliche-intelligenz-google-stellt-neues-modell-palm-2-vor-18883822.html
Ich frage mich schon seit einiger Zeit:
wo bleibt Apple?
Möglichkeiten, KI einzusetzen gäbe es genug, beginnend mit SIRI. Entweder Apple bereitet etwas Großes vor oder sie verschlafen (mal wieder) den Trend und versuchen dann später, das Feld aufzurollen.
Hilfreich?
-9
Kommentare
|<
1
2
3
>|
pünktchen
14.05.23
21:35
Nur weil Chomskys Theorien tatsächlich nicht mehr der letzte Schrei sind muss man ja nicht gleich die ganze Linguistik mit in die Tonne kloppen.
Und solange KI auf statistischen Modellen beruht, simuliert sie Intelligenz nur per Nachahmung, weil jegliches inhaltliches Verständnis fehlt.
Dass das viele Studenten ähnlich machen, ist kein Gegenargument!
Genau wie bei solchen menschlichen Auswendiglernern auch kollabiert der Eindruck von Intelligenz der KI bei geduldigem Nachhaken.
Hilfreich?
+2
Weia
15.05.23
02:45
piik
Unzulässige Argumentation.
Huch!?! Wer bestimmt denn, was zulässig ist?
Du tust gerade so, als könntest Du verstehen und erklären, was genau Reflexion ist und wie Menschen das machen oder aber was Selbstbewusstsein sei.
Im Gegenteil, ich schrieb doch genau dasselbe wie Du:
Weia
Das Phänomen des Selbstbewusstseins ist nach wie vor so unverstanden
Ich schrieb allerdings weiter:
dass es die KI-Apostel zu einer Illusion erklären müssen, um behaupten zu können, ihre Schöpfungen seien „intelligent“.
Und Letzteres scheinst Du zu tun, indem Du auf Turing rekurrierst, der Selbstbewusstsein eben vollständig ignoriert. Für die Informatik ist Turing interessant, philosophisch ist er ziemlich flach, weil er Bewusstsein methodologisch auf beobachtbares Verhalten reduziert. Klar, dass er dann kein Unterscheidungsmerkmal mehr findet.
piik
Der Turing-Test hat durchaus seine Qualitäten. Und Du wirst vermutlich zustimmen, dass es nicht mehr lang hin ist, bis weder Du noch ich es schaffen, in einem Chat KI-Bots durch Kommunikation zu entlarven.
Ich wäre mir da keineswegs sicher. Und selbst wenn Du und ich es nicht schaffen: die Geschichte wird es zeigen, weil eine solche KI wie ChatGPT, die lediglich Bruchstücke von bereits Gedachtem neu kombinieren kann, ohne zu verstehen, was sie da tut, nicht in der Lage ist, aus der Bedeutung des Gedachten etwas völlig Neues, noch nie Gedachtes zu schlussfolgern und zu formulieren.
Eine KI Ende des 19. Jahrhunderts hätte brillante Aufsätze über die Lorentz-Transformationen schreiben können, wäre aber niemals in der Lage gewesen, daraus die Relativitätstheorie zu entwickeln, deren Begriffe sich im Internet Ende des 19. Jahrhunderts schlicht noch nirgendwo hätten finden lassen. Den Geistesblitz Einsteins kann die KI mangels Geist eben nicht produzieren.
Searle irrt da gewaltig. Sein Gedankenexperiment ist hochkarätig albern.
Warum? Natürlich beherrscht jemand Chinesisch, wenn er eine Anleitung zur Übersetzung besitzt und damit umgehen kann.
Nein, genau das tut er eben nicht, weil er keine Ahnung hat, was er da tut. Er reagiert auf hereingereichte Zeichen lediglich mit dem Herausreichen der laut seiner Anleitung zugehörigen Zeichen. Ob es dabei um Kochrezepte geht oder um Baupläne für Atombomben, davon hat er keine Ahnung. Von jemandem, von dem man sagt, er würde Chinesisch verstehen, würde man das aber erwarten.
Mich staunt immer wieder, welcher miserablen Metaphern wie so ein albernes Gedankenspiel es in Wikipedia schafft.
Das „alberne Gedankenspiel mit miserablen Metaphern“ gilt als philosophischer Schlüsseltext des 20. Jahrhunderts … Vielleicht steckt hinter der Konstruktion doch ein klein wenig mehr, als Du unterstellst.
Es ist ne Variante des Turing-Tests
Das ist er eben nicht, indem er berücksichtigt, was Turing ignoriert. Wenn überhaupt, ist der Turing-Test eine Untermenge des Chinesischen Zimmers.
der durch seine unlogische Modifikation zum von ihm gewünschten und vorher angenommenen Ergebnis führt.
Und der Turing-Test tut das nicht?
Er ist wertlos, sogar mehr als das.
Wie steigert man denn Wertlosigkeit?
Dein ganzer Argumentationsansatz ist im Grunde unredlich, weil Du z.B. mit dem Searle schnell mal die Regeln geändert und einen Papiertiger kritisiert hast.
Warum ist es redlich, so wie Du Turing in die Diskussion einzuführen, aber unredlich, so wie ich Searle einzuführen?
Turing setzt voraus, dass Menschen KEINEN Unterschied merken können. Und keinen Unterschied merkt man beim chinesischen Zimmer eben genau nicht.
Die Äußerlichkeiten wie Zeitdauer der Antwort, an denen Du den Unterschied festmachen willst, sind vollkommen nebensächlich. Stell Dir einfach vor, die Person im Inneren des Chinesischen Zimmers wäre Chuck Norris und die Antworten kämen mit Überlichtgeschwindigkeit. Am Ergebnis des Gedankenexperiments würde das nichts ändern.
Würden man da keinen Unterschied merken können, wäre es kein chinesisches Zimmer mehr, sondern ein gewöhnlicher Turing-Test.
Nö, es wäre eben entschieden mehr als das, weil es uns Einsichten in den inneren Ablauf erlaubt, die Turing durch seine Black Box methodologisch ausschließt.
Wenn Du beim Turing-Test "versagst" im Sinne, dass Du keinerlei Unterschiede mehr feststellen kann, dann SIND da auch keine phänomenalen Unterschiede mehr in der Kommunikation und im Weltverständnis.
Mit einem derart radikalen empirisch-reduktionistischen Ansatz bleibt Dir sowas wie Bewusstsein natürlich prinzipbedingt verborgen.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
Hilfreich?
+4
Weia
15.05.23
03:03
Kleine Ergänzung: Die Diskussion gerade zeigt einmal mehr,
wie
grandios und seiner Zeit voraus
2001: Odyssee im Weltraum
war. Denn was wir hier, über ein halbes Jahrhundert später, hitzig debattieren, ist ja ein Dreh- und Angelpunkt des Films: HAL 9000 ist, um die Kommunikation mit Menschen zu erleichtern, so programmiert, dass er scheinbar Gefühle hat. Und plötzlich scheint es, als habe er tatsächlich welche.
Bemerkenswert, dass eines der zeitlosesten Meisterwerke der Filmgeschichte ausgerechnet ein Science-Fiction-Film ist, also einem Genre entstammt, das schneller und (schon allein wegen der Tricktechnik) schlechter altern müsste als alle anderen.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
Hilfreich?
+5
Schens
15.05.23
08:48
pünktchen
Dass das viele Studenten ähnlich machen, ist kein Gegenargument!
Ich bin der Meinung, dass dies doch das entscheidende Argument sein könnte. Ich argumentiere hier eher weniger (also überhaupt nicht) aus einer fachlich geprägten Sichtweise, denn einer emotional-beobachtenden.
Ganz platt formuliert:
Ein erstaunlich großer Teil der Bevölkerung scheint erschreckend dämlich zu sein. Und erschreckend undifferenziert hinsichtlich der herrschenden Meinung (egal, zu welchem Thema). Hinzu kommt eine (seit 1967 immer wieder erneut bewiesene) erlernte Hilflosigkeit. In Konjunktion mit einer immer stärker wahrzunehmenden egozentrierten Verhaltensweise in der Gruppe (ging übrigens mit "Geiz-ist-geil" los), erreichen wir in der scheinbaren Mehrheit den Zustand, der umgangssprachlich mit dem Wort "Vollidiot" hinreichend beschrieben sein dürfte.
Die extremen Auswüchse sind im Alltag, z.B. im Straßenverkehr oder im Supermarkt täglich zu beobachten. Vollkommene Überraschung, das man an der Kasse den Geldbeutel benötigt. Vollkommenes Unverständnis, warum man mit 120 km/h nicht ganz links fahren kann. Vollkommenes Unverständnis im ICE, weil sich die anderen Fahrgäste über den 90l Reisekoffer im Gang beschweren.
Worauf ich raus will: ich glaube(!), dass in einem A/B Bilndvergleich zwischen Vollidiot und KI stand heute erstaunlich oft die KI als Mensch identifiziert werden würde. Oder wahlweise: Der Vollidiot gibt antworten, die ihn als Mensch outen. Sozusagen ein inverser Turingtest. Die Antworten des Menschen sind zu schlecht, um von einer KI stammen zu können.
Ich weiß, dass dies nicht die grundsätzliche Überlegung des Turingtests wiedergibt. Es ist noch nicht allzu lange her, da wurde der Turingtest unter der Prämisse "bestanden", dass es sich beim Gesprächspartner um ein Kind handle. 2018 stellte Google Duplex vor. Fünf Jahre in der KI-Forschung sind unfassbar lange Entwicklungszeiten. Wir stehen vielleicht nicht mal Monate vor der Tatsache, dass ganze Callcenter durch eine enge KI ersetzt werden werden, ohne dass wir das groß mitkriegen würden. Dann haben wir täglich 100.000ende bestandene Turingtests.
Und was die Gefühle betrifft: es reicht ja, dass wir glauben, das digitale gegenüber hätte Gefühle. Der geniale Film Ex Machina thematisiert dies mMn zutreffend.
Was für ein spannendes Thema! Danke für die ganzen Beiträge!
Hilfreich?
+5
Dunkelbier
15.05.23
09:03
piik
Unzulässige Argumentation. Kinder "verstehen" am Anfang überhaupt garnichts. Sie lernen. Durch ihr Lernen lernen sie Begriffe mit Bedeutung = mit den Relationen von anderen Begriffen zu versehen.
Der Unterschied ist bloß: Als mein Sohn anfing Worte davon verwenden, war das erste die Bedeutung von "leer". Ab diesem Zeitpunkt konnte alle Arten von Gefässen zielsicher als leer bezeichnen wenn sie es waren. Das Glas, der Löffel, der Eimer. Alles war leer.
Woher weiß die KI, was "leer" ist? Denn in Wahrheit ist ein Glas gar nicht wirklich leer. Es befindet sich natürlich Luft darin. Nur käme niemand von uns, auch mein Sohn damals nicht, auf die Idee das Glas nicht trotzdem als leer zu bezeichnen. Warum? Weil er tatsächlich verstanden hat, was das bedeutet.
Und hier hapert es bei der KI: Sie versteht nicht wahrhaftig. Zumindest noch nicht. Setzt man ihr einen völlig neuen Gegenstand vor die Nase, kann sie nur raten. Mein Sohn hätte das Augenblicklich erkannt. Die Muschel am Strand, fällt mir hier ein.
Hilfreich?
+1
pünktchen
15.05.23
11:06
Weia
Die Diskussion gerade zeigt einmal mehr,
wie
grandios und seiner Zeit voraus
2001: Odyssee im Weltraum
war.
Ist ja nicht der einzige Beitrag aus der Zeit zum Thema. Stanislaw Lems
Summa technologiae
zB erschien 1964. In einer (vernichtenden)
Kritik
von Joseph Weizenbaums
Computer Power and Human Reason. From Judgement to Calculation
(1977) schreibt er, dessen in Bezug auf die Möglichkeiten künstlicher Intelligenz pessimistischen Argumente seien nicht neu, sondern genau so schon zwanzig Jahre vorher in der Sowjetunion vorgebracht worden.
Hilfreich?
+1
pünktchen
15.05.23
11:23
Schens
Ein erstaunlich großer Teil der Bevölkerung scheint erschreckend dämlich zu sein. Und erschreckend undifferenziert hinsichtlich der herrschenden Meinung (egal, zu welchem Thema).
Der Unterschied ist aber, dass die allermeisten Menschen nicht umfassend dämlich sind. Sie sind nur dämlich, wenn sie kein Interesse daran haben, über etwas nachzudenken. Dann übernehmen sie einfach die hM, und wenn sie irgendwie dagegen sein wollen, halt irgendeine beliebige Mindermeinung, ohne weiter über diese nachzudenken.
Sogenannte KI hingegen hat nie Interesse an irgendwas und kann daher immer nur bereits existierende Argumente nachbeten. KI ist daher immer dämlich.
Schens
Vollkommenes Unverständnis, warum man mit 120 km/h nicht ganz links fahren kann.
Aber natürlich kann man das. Vielleicht sollte man es sogar!
Wir stehen vielleicht nicht mal Monate vor der Tatsache, dass ganze Callcenter durch eine enge KI ersetzt werden werden, ohne dass wir das groß mitkriegen würden.
Bei Callcentern ist es doch genau andersrum: da hatte ich schon oft das Gefühl, nur mit einem Computer zu sprechen.
Und was die Gefühle betrifft: es reicht ja, dass wir glauben, das digitale gegenüber hätte Gefühle.
Eben vielleicht nicht ganz. Wie zB auch in dem oben verlinkten Artikel von Chomsky, Roberts und Watumull in der NYT dargelegt wird, ist KI einfach zu uninteressiert und indifferent. Das was in dem Artikel zur angeblich genetischen Grammatikverständnis gesagt wird ist zwar wohl Quatsch, sonst stehen da aber durchaus vernünftige Dinge drin. Die Paywall lässt sich übrigens überlisten, wenn man die Reader-Darstellung des Browser einstellt.
Hilfreich?
+2
lautsprecher
15.05.23
12:51
Wir stehen vielleicht nicht mal Monate vor der Tatsache, dass ganze Callcenter durch eine enge KI ersetzt werden werden, ohne dass wir das groß mitkriegen würden.
Das wirst du so schnell nicht sehen. Grund hierfür ist der Datenschutz. Um ein Large Language Model aufzubauen brauchst du Massen an Trainingsdaten. Das kann man ja bei ChatGPT sehen. Probleme ist, dass du im Callcenter personenbezogene Daten auf der einen Seite und oftmals firmeninterne Daten auf der anderen Seite benötigst, um den Kunden helfen zu können. Die Datenbasis für das Training ist also begrenzt.
Es muss also eine Möglichkeit geschaffen werden, trainierte (öffentliche) Large Language Models mit den schützenswerte Unternehmensdaten zu verbinden.
Hilfreich?
0
piik
15.05.23
13:24
Dunkelbier
piik
Unzulässige Argumentation. Kinder "verstehen" am Anfang überhaupt garnichts. Sie lernen. Durch ihr Lernen lernen sie Begriffe mit Bedeutung = mit den Relationen von anderen Begriffen zu versehen.
Der Unterschied ist bloß: Als mein Sohn anfing Worte davon verwenden, war das erste die Bedeutung von "leer". Ab diesem Zeitpunkt konnte alle Arten von Gefässen zielsicher als leer bezeichnen wenn sie es waren. Das Glas, der Löffel, der Eimer. Alles war leer.
Woher weiß die KI, was "leer" ist? Denn in Wahrheit ist ein Glas gar nicht wirklich leer. Es befindet sich natürlich Luft darin. Nur käme niemand von uns, auch mein Sohn damals nicht, auf die Idee das Glas nicht trotzdem als leer zu bezeichnen. Warum? Weil er tatsächlich verstanden hat, was das bedeutet.
Und woher weiß Dein Kind, was leer ist? Na? War da Magie im Spiel? Ein göttlicher Geist? Eingebung?
Nein, in diesem Fall hat die BI (Biologic Intelligence) Deines Sohnes schlicht Bilder mit Begriffen verknüpft – nicht prinzipiell anders als Begriffe mit Begriffen. Bei Deinem Sohn waren es Laute mit Bildern.
Dieser Schritt ist so noch nicht wirklich gut bei KI vollzogen. Aber es spricht prinzipiell überhaupt nichts dagegen, dass KI das auch und zwar exakt auf gleiche Weise macht wie Dein Sohn.
Dunkelbier
Und hier hapert es bei der KI: Sie versteht nicht wahrhaftig. Zumindest noch nicht. Setzt man ihr einen völlig neuen Gegenstand vor die Nase, kann sie nur raten. Mein Sohn hätte das Augenblicklich erkannt. Die Muschel am Strand, fällt mir hier ein.
Nun, Du benutzt (wie vorher Weia) einen absolut unscharfen und von Dir selbst nicht definierbaren Begriff als Argument. Und wenn etwas unlauter ist, dann so eine Argumentationstechnik. Es verschleiert nämlich vor Dir selbst, dass Du überhaupt nicht weißt, was Verstehen ist. Du behauptest einfach, dass Dein Sohn etwas kann, was KI niemals könnte. Und das ist bloß eine sehr schwache Behauptung, gestützt durch nichts als durch die Behauptung selbst. Und das ist albern.
Wenn Du Verstehen als Argument bringst, muss Du erklären, wie Du dieses Verstehen diagnostizieren würdest und auch an was Du merken würdest, dass KI das nicht kann oder niemals könnte.
Ich gehe davon aus, dass Du denkst, wenn Dein Sohn auf etwas weiteres Leeres deutet, was er zuvor noch nie sah, und dazu „leer“ sagt, dass Du glaubst, er hätte das Konzept irgendwie verstanden.
Faktisch hat er ein Konzept – das Gemeinsame an Dingen (auf Bildern) ohne Inhalt – gelernt und kann es auf neue Gegenstände anwenden.
Und jetzt erkläre mal, warum das eine KI nicht können sollte. Was daran ist geheimnisvoll und braucht ominöses wie Bewußtsein?
Und bedenke, was Dein Sohn so gemacht hat, bevor er anfing zu sprechen und „leer“ korrekt zu sagen. Er lag bestimmt nicht ein Jahr im Koma, oder? Seine BI hat die Umwelt gescannt und dabei (statistisch, assoziativ oder sonstwie) gelernt.
Selbst mein Hund hatte nur etwa 5 Wiederholungen gebraucht, bis er seinen Namen drauf hatte. Er weiß, was „Nein“ bedeuted – dass es eine generelle Kategorie ist – und kann sie auf Neues anwenden. Dabei hat sein Gehirn nur etwa 30 ccm. Eine KI ist heute leistungsfähiger als mein Hund und demnächst ist sie auch leistungsfähiger und „versteht“ mehr und schneller und fehlerärmer als Dein Sohn. Ganz sicher.
Hilfreich?
+1
marm
15.05.23
13:31
lautsprecher
Das wirst du so schnell nicht sehen. Grund hierfür ist der Datenschutz. Um ein Large Language Model aufzubauen brauchst du Massen an Trainingsdaten. Das kann man ja bei ChatGPT sehen. Probleme ist, dass du im Callcenter personenbezogene Daten auf der einen Seite und oftmals firmeninterne Daten auf der anderen Seite benötigst, um den Kunden helfen zu können. Die Datenbasis für das Training ist also begrenzt.
Das hier bereits genannte Alpaca
, was auf dem Sprachmodell LLaMA basiert, gibt es zum Download ab 5 GB und läuft dann lokal. Andererseits gibt es bereits Anbieter, die ChatGPT auf der Basis von eigenen Dokumenten trainieren. Da ist es nur ein kleiner Schritt dies zu kombinieren und einen Service mit Zugriff auf interne Daten auf die Beine zu stellen.
Hilfreich?
+2
piik
15.05.23
13:36
pünktchen
Schens
Ein erstaunlich großer Teil der Bevölkerung scheint erschreckend dämlich zu sein. Und erschreckend undifferenziert hinsichtlich der herrschenden Meinung (egal, zu welchem Thema).
Der Unterschied ist aber, dass die allermeisten Menschen nicht umfassend dämlich sind. Sie sind nur dämlich, wenn sie kein Interesse daran haben, über etwas nachzudenken. Dann übernehmen sie einfach die hM, und wenn sie irgendwie dagegen sein wollen, halt irgendeine beliebige Mindermeinung, ohne weiter über diese nachzudenken.
Das würde ich auch so ähnlich sehen.
Trotzdem sind schon jetzt die Texte von ChatGPT in der Regel besser als die Aufsätze etlicher Menschen.
pünktchen
Sogenannte KI hingegen hat nie Interesse an irgendwas und kann daher immer nur bereits existierende Argumente nachbeten. KI ist daher immer dämlich.
Ob KI sogenannt ist oder nicht (das „sogenannte“ ist ein Indiz dafür, dass Du das Thema mit der Pinzette der Voreingenommenheit anpackst): Erkläre mal, was Du mehr kannst als „bereits existierende Argumente nachbeten“. Bitte? Wo sind Deine neuartigen und ingeniös einzigartigen Argumente als Produkt Deiner Intelligenz?
Gerade in dem Statement hast Du ja gemacht, was Du kritisierst und für „dämlich“ hältst. Dein Argument ist alt und von Dir nachgebetet. Demnach bist Du also dämlich qua eigener Definition. Lustig, nichtwahr?
Nun, ich halte Dich definitiv nicht für dämlich, stimme aber mit der Folge Deines Satzes überein, dass Du altbackene Vorurteile wiederkäust. Das können auch schlaue Leute wie Du
Immer kannst Du so sehen, wie dämlich Dein Argument ist (und nicht Du).
Hilfreich?
0
piik
15.05.23
13:40
marm
lautsprecher
Das wirst du so schnell nicht sehen. Grund hierfür ist der Datenschutz. Um ein Large Language Model aufzubauen brauchst du Massen an Trainingsdaten. Das kann man ja bei ChatGPT sehen. Probleme ist, dass du im Callcenter personenbezogene Daten auf der einen Seite und oftmals firmeninterne Daten auf der anderen Seite benötigst, um den Kunden helfen zu können. Die Datenbasis für das Training ist also begrenzt.
Das hier bereits genannte Alpaca
, was auf dem Sprachmodell LLaMA basiert, gibt es zum Download ab 5 GB und läuft dann lokal. Andererseits gibt es bereits Anbieter, die ChatGPT auf der Basis von eigenen Dokumenten trainieren. Da ist es nur ein kleiner Schritt dies zu kombinieren und einen Service mit Zugriff auf interne Daten auf die Beine zu stellen.
Naja, vielleicht ist der Schritt doch nicht ganz so klein, denn sonst sähen wir schon solche Systeme im praktischen Einsatz. Aber in ein paar Jährchen. vermutlich schon.
Hilfreich?
0
marm
15.05.23
13:52
piik
Naja, vielleicht ist der Schritt doch nicht ganz so klein, denn sonst sähen wir schon solche Systeme im praktischen Einsatz. Aber in ein paar Jährchen. vermutlich schon.
LetsAsk.AI
Mottle
Exafy
Es wird daran gearbeitet.
Hilfreich?
+1
pünktchen
15.05.23
13:57
piik
Trotzdem sind schon jetzt die Texte von ChatGPT in der Regel besser als die Aufsätze etlicher Menschen.
Weil es die Aufsätze etlicher Menschen zusammenfasst und dabei die statistisch herrschende Meinung und allenfalls die Kritik daran gut wiedergeben kann. Das ist genau das, was zB von Jurastudenten erwartet wird. Aber genau das ist auch das Problem der Juristenausbildung, selber denken wird da oft eher nicht so gerne gesehen.
piik
Ob KI sogenannt ist oder nicht (das „sogenannte“ ist ein Indiz dafür, dass Du das Thema mit der Pinzette der Voreingenommenheit anpackst):
Ich halte KI halt zumindest noch nicht für intelligent und denn Begriff KI daher für irreführend.
piik
Erkläre mal, was Du mehr kannst als „bereits existierende Argumente nachbeten“. Bitte? Wo sind Deine neuartigen und ingeniös einzigartigen Argumente als Produkt Deiner Intelligenz?
Der Punkt ist nicht, dass Menschen dauernd kreativ Sachen denken, die noch nie gedacht (und niedergeschrieben) worden sind. Tatsächlich sind die allermeisten Argumente nicht neu. Aber man muss halt auf den Gedanken kommen, dass man doch auch mal in diese oder jene Richtung denken und argumentieren könnte, bevor man zielgerichtet nach entsprechenden bereits geäusserten Argumenten suchen kann. In dem Moment denkt man kritisch und kreativ selbst, auch wenn das viele andere vorher schon besser gemacht haben.
Und eben diese Fähigkeit sehe ich zumindest bei auf Musterkennung basierender "KI" nicht. Dazu müsste sie die Struktur von Argumenten untersuchen und nach logischen Schwächen untersuchen. Oder Quellenkritik betreiben. Fähig sein, von alleine die eigene Position zu hinterfragen. Unterschiedliche Meinungen inhaltlich bewerten, und nicht nur danach, ob sie der am häufigsten vertretenen Meinung entsprechen.
Wenn man ChatGPT auf Widersprüche hinweist, wird das Programm pampig. Kritikfähigkeit sieht anders aus!
Hilfreich?
+2
piik
15.05.23
14:37
Weia
piik
Unzulässige Argumentation.
Huch!?! Wer bestimmt denn, was zulässig ist?
Komm schon, das war Sophisterei im billigen Sinne.
Du verstehst das: Unzulässig im logischen Sinne.
Gemeint: Man kann nicht ein Argument einführen (Bewußtsein), behaupten, Mensch habe das, Maschine nicht, weiß aber genau, dass der Begriff unscharf und zur Zeit nicht halbwegs vernünftig zu definieren ist.
Das geht nicht als Argument, weil Du a) das nur behauptest, dabei ist das implizit ja die Frage gewesen (enthalten in „wie schlau ist KI“) und weil b) die Kriterien für Bewußtsein Dir und uns allen so unklar sind, dass wir es nicht feststellen können. Und wenn sich eine These nicht empirisch prüfen lässt, dann ist das ein weiterer Punkt für die logische Unzulässigkeit dieser rhetorischen Volte.
Weia
piik
Du tust gerade so, als könntest Du verstehen und erklären, was genau Reflexion ist und wie Menschen das machen oder aber was Selbstbewusstsein sei.
Im Gegenteil, ich schrieb doch genau dasselbe wie Du:
Das Phänomen des Selbstbewusstseins ist nach wie vor so unverstanden
Ja und Du schließt nicht daraus, dass wenn es so ist, dass es dann nicht als Argument taugt. Du nutzt es trotzdem zu Deinen Zwecken.
Weia
Ich schrieb allerdings weiter:
dass es die KI-Apostel zu einer Illusion erklären müssen, um behaupten zu können, ihre Schöpfungen seien „intelligent“.
Und Letzteres scheinst Du zu tun, indem Du auf Turing rekurrierst, der Selbstbewusstsein eben vollständig ignoriert. Für die Informatik ist Turing interessant, philosophisch ist er ziemlich flach, weil er Bewusstsein methodologisch auf beobachtbares Verhalten reduziert. Klar, dass er dann kein Unterscheidungsmerkmal mehr findet.
Halten wir fest:
Du sagst, Bewußtsein ist unverstanden, traust Dich aber ernsthaft nur einen Satz weiter, es dennoch so als Argument zu bringen, dass KI-Apostel (bezeichnend die Abschätzigkeit, was bist dann Du? Ein Ewiggestrigkeits-Apostel?) Bewußtsein als Illusion erklären würden?
Ich mein: Echt jetzt? Kann man sich drauf Einigen, dass es sowas und Bewußtsein gibt? Spielt das eine Rolle, ob es das gibt, wenn man es doch nicht verstehen oder feststellen kann?
Merkst Du, wie absurd Deine Logik in diesem Punkt ist.
Du sagst mit vielen Worten einfach diesen Satz: KI hat kein Bewußtsein – Menschen aber schon.
Wenn etwas mager ist, dann das. Weil einfach in die Luft gehauen und nicht belegt, weil nicht belegbar (wegen nicht verstanden und aktuell nicht diagnostizierbar).
Klar ignoriert der Turing-Test Fragen wie Bewußtsein. Das ist doch selbstevident.
Wie kann man dem Turing-Test so etwas vorwerfen, wo sowas doch genau seine Absicht ist.
Das ist doch genau das Geniale am Turing-Test, das wahrhaft Philosophische, dass er eine Frage so stellt, dass sie klar und eindeutig und frei vom Ballast von Mythen und unausgesprochenen Zusatzannahmen ist. Das zu ignorieren ist schon eine starke Leistung.
Der Turing-Test fragt nach der Feststellbarkeit von Unterschieden, wenn man die Physis (die outer appearance) unsichtbar macht, weil es um die ja nicht geht. Und der Test sagt: Wo kein Unterschied feststellbar ist, kann man auch nicht sagen, da wäre einer. Eine eindeutige und superklare Definition auf empirischer und nichtidiologischer Basis
piik
Der Turing-Test hat durchaus seine Qualitäten. Und Du wirst vermutlich zustimmen, dass es nicht mehr lang hin ist, bis weder Du noch ich es schaffen, in einem Chat KI-Bots durch Kommunikation zu entlarven.
Ich wäre mir da keineswegs sicher. Und selbst wenn Du und ich es nicht schaffen: die Geschichte wird es zeigen, weil eine solche KI wie ChatGPT, die lediglich Bruchstücke von bereits Gedachtem neu kombinieren kann, ohne zu verstehen, was sie da tut, nicht in der Lage ist, aus der Bedeutung des Gedachten etwas völlig Neues, noch nie Gedachtes zu schlussfolgern und zu formulieren.
[/quote]
Danke für die Steilvorlage. Ich lehne mich mal an Deinen Argumentationsstil an:
Du bist also aus der Zukunft und weißt, was die Geschichte uns in der Gegenwart so zeigen wird?
Du wiederholst banale Pseudoargumente, weil Du sie GLAUBST.
Was bitte machst Du denn Anderes als – ich zitiere: „lediglich Bruchstücke von bereits Gedachtem neu kombinieren“? Und ich wage auch zu bezweifeln, dass Du alles verstehst, was Du sagst. Sonst wäre Dir doch der inhaltliche Widerspruch selbst aufgefallen, oder?
Du hast nämlich schon wieder ein Papiertiger-Argument eingeführt: „verstehen“.
Und wieder: Du weißt nicht, was das ist, sagst aber, Du könntest das, die KI aber nicht, und Du hast keine Ahnung, wie Du das feststellen könntest, um Deine These empirisch zu untermauern. Du stellt eine nicht falsifizierbare These auf, bei der herauskommt was Du in die Prämisse reingeschummelt hast.
Wann genau hast Du etwas Neues, noch nie Gedachtes geschlussfolgert und nicht nur Bekanntes wie ein Gericht neu kombiniert. Wieviele Menschen haben das je getan. Nicht ganz so viele, oder? 99,9% nicht, oder?
Ich gestehe zu, dass Menschen schlaue Einfälle hatten. Und zwar exakt durch Neukombination von bekanntem, worauf sich durch die andere Art neue Schlußfolgerungen ziehen ließen. Insoweit hänge ich die Latte nicht so immens hoch wie Du. Etwas Kreatives schaffen viele Leute. Du in jedem praktisch jedem Text, den Du schreibst (ich auch und andere ebenso). Gelegentlich ist da etwas dabei, das überraschend ist.
Und jetzt erkläre mal, warum genau soll das für KI nicht möglich sein?
Auch deren Texte sind tatsächlich neu oder haben zumindest neue Aspekte durch Neukombination. Es ist eine Frage des Grades und der Zeit, bis Maschine das Gleiche machen wie Menschen: Auf Neues kommen. Das ist nämlich eben kein Hexenwerk, nix Mystisches.
Wenn Du „Verstehen“ und „Bewußtsein“ nicht so verwenden kannst in Deiner Argumentation – und ich habe gezeigt, warum das nicht geht – und nicht den billigen Trick anwenden, ein diffuses Etwas von Qualität einfach per Behauptung der KI ab- und dem MNenschen zuzusprechen, was bleibt dann von Deinen Überlegungen? Nichts.
Weia
Eine KI Ende des 19. Jahrhunderts hätte brillante Aufsätze über die Lorentz-Transformationen schreiben können, wäre aber niemals in der Lage gewesen, daraus die Relativitätstheorie zu entwickeln, deren Begriffe sich im Internet Ende des 19. Jahrhunderts schlicht noch nirgendwo hätten finden lassen. Den Geistesblitz Einsteins kann die KI mangels Geist eben nicht produzieren.
Aha!
Erstens gab es da keine KI, aber wenn doch: Woher weißt Du das, dass sie das nicht gekomnnt hätte?
Richtig: Du glaubst es. Mehr nicht. Du Behauptest. Mehr nicht.
Du hast nur vergessen Amen zu sagen!
Und schon wieder führst Du einen Begriff ein, der schwabbelig ist und von dem Du und die ganze Welt nicht sagen kann, was das denn sein soll: Geist.
Und in gleicher Weise machst Du, was Du zuvor schon zweimal machtest: Du sagt: Aber KI hat das nichts und deshalb…
Das ist Religion, Weia. Mit Sauberer Argumentation hat das nichts zu tun. Das ist Glaube, das ist „was nicht sein darf, das kann nicht sein“, das ist ein ideologisches Mantra.
piik
Searle irrt da gewaltig. Sein Gedankenexperiment ist hochkarätig albern.
Warum? Natürlich beherrscht jemand Chinesisch, wenn er eine Anleitung zur Übersetzung besitzt und damit umgehen kann.
Weia
Nein, genau das tut er eben nicht, weil er keine Ahnung hat, was er da tut. Er reagiert auf hereingereichte Zeichen lediglich mit dem Herausreichen der laut seiner Anleitung zugehörigen Zeichen. Ob es dabei um Kochrezepte geht oder um Baupläne für Atombomben, davon hat er keine Ahnung. Von jemandem, von dem man sagt, er würde Chinesisch verstehen, würde man das aber erwarten.
Du willst mein Argument nicht verstehen?
Searle hat in die Prämisse das reingetan, was dann rauskommt. Es ist absolut untauglich zur Nutzung als Argument.
Dir ist nicht klar, dass der Mann mit den Regeln im Raum nichts mit einer KI zu tun hat?
Eine KI im chinesischen Zimmer könnte Kochrezepte und Atombombenbaupläne liefern.
Definierst Du aber den Witz von Mann+Regel als „so ist doch die KI“ (was sie nicht ist), dann
Merkst Du mehr nicht, als ich dachte.
piik
Mich staunt immer wieder, welcher miserablen Metaphern wie so ein albernes Gedankenspiel es in Wikipedia schafft.
Weia
Das „alberne Gedankenspiel mit miserablen Metaphern“ gilt als philosophischer Schlüsseltext des 20. Jahrhunderts … Vielleicht steckt hinter der Konstruktion doch ein klein wenig mehr, als Du unterstellst.
Es mag gelten als was es will.
Was genau zeigt es? Nicht mehr, als dass ein Simpelalgorithmus sehr simpel ist und dass man das von außerhalb feststellen kann. Wow! Wer hätte das gedacht.
Ist das nicht überaus banal? Solcherart Philosophie ist dann eben auch banal.
piik
Es ist ne Variante des Turing-Tests
Weia
Das ist er eben nicht, indem er berücksichtigt, was Turing ignoriert. Wenn überhaupt, ist der Turing-Test eine Untermenge des Chinesischen Zimmers.
Aha, die allgemeine Form ist: Barriere, die nur (schriftliche) Kommunikation durchlässt.
Die spezielle Form: Barriere, die nur (schriftliche) Kommunikation durchlässt. Zusatz a) nur chinesische Zeichen, Zusatz b) Mann, der kein Chinesisch kann, c) sture, simplizistische Regeln.
Was genau ist jetzt die Untermenge?
Eigentlich sollte jetzt die Logik sich vom Acker machen, wenn Turing die Untermenge sein soll.
piik
der durch seine unlogische Modifikation zum von ihm gewünschten und vorher angenommenen Ergebnis führt.
Weia
Und der Turing-Test tut das nicht?
Nein, tut er genau nicht.
Genau deshalb ist Deine und die Kritik in Wikipedia albern.
Er sagt: Um Dinge wie Physis (und Stimme, eben seinerzeit) als verzerrende Variable auszuschließen, bleibt nur schriftliche Kommunikation.
Nun sollen Menschen entscheiden, ob da auf der anderen Seite eine Maschine oder ein Mensch ist.
Klarer geht es kaum.
Wenn nun Du keine Chance hast festzustellen, ob das auf der anderen Seite Geist, Bewußtsein, Reflektion oder sonstwas hat, dann kannst Du das einfach nicht.
Da hilft Dir es auch nicht weiter zu behaupten: Aber der Mensch hat das, die Maschine nicht.
Das ist doch evident wie sonstwas!
Turing ist nunmal der bestvorstellbare Test auf „Intelligenz“ bei Maschinen.
Falls das Deiner Ansicht nach nicht so sein sollte: Zeige mir einen besseren!
Hilfreich?
0
piik
15.05.23
14:44
pünktchen
piik
Trotzdem sind schon jetzt die Texte von ChatGPT in der Regel besser als die Aufsätze etlicher Menschen.
Weil es die Aufsätze etlicher Menschen zusammenfasst und dabei die statistisch herrschende Meinung und allenfalls die Kritik daran gut wiedergeben kann. Das ist genau das, was zB von Jurastudenten erwartet wird. Aber genau das ist auch das Problem der Juristenausbildung, selber denken wird da oft eher nicht so gerne gesehen.
Auch Menschen „fasssen nur die Aufsätze etlicher Menschen zusammen“. Oder hat Du gerade eben alles aus einem Geistesblitz heraus geschrieben und es ist neu und originär uns so noch nie zuvor gedacht worden?
pünktchen
piik
Ob KI sogenannt ist oder nicht (das „sogenannte“ ist ein Indiz dafür, dass Du das Thema mit der Pinzette der Voreingenommenheit anpackst):
Ich halte KI halt zumindest noch nicht für intelligent und denn Begriff KI daher für irreführend.
Dass Du irgendwas für irgendwas hältst, das sollm jetzt ein Argument sein. Das ist schon nicht mehr flach und nicht mehr billig. Das ist albern.
Du bist kein Kriterium. Und Statements a la „ich glaube“ sind halt ohne Nährwert.
pünktchen
piik
Erkläre mal, was Du mehr kannst als „bereits existierende Argumente nachbeten“. Bitte? Wo sind Deine neuartigen und ingeniös einzigartigen Argumente als Produkt Deiner Intelligenz?
Der Punkt ist nicht, dass Menschen dauernd kreativ Sachen denken, die noch nie gedacht (und niedergeschrieben) worden sind. Tatsächlich sind die allermeisten Argumente nicht neu. Aber man muss halt auf den Gedanken kommen, dass man doch auch mal in diese oder jene Richtung denken und argumentieren könnte, bevor man zielgerichtet nach entsprechenden bereits geäusserten Argumenten suchen kann. In dem Moment denkt man kritisch und kreativ selbst, auch wenn das viele andere vorher schon besser gemacht haben.
Und eben diese Fähigkeit sehe ich zumindest bei auf Musterkennung basierender "KI" nicht. Dazu müsste sie die Struktur von Argumenten untersuchen und nach logischen Schwächen untersuchen. Oder Quellenkritik betreiben. Fähig sein, von alleine die eigene Position zu hinterfragen. Unterschiedliche Meinungen inhaltlich bewerten, und nicht nur danach, ob sie der am häufigsten vertretenen Meinung entsprechen.
Wenn man ChatGPT auf Widersprüche hinweist, wird das Programm pampig. Kritikfähigkeit sieht anders aus!
Und woher weißt Du das, dass KI sowas nicht kann und nie könnte?
Du glaubst das. Nimmst das an. So what?
Dass ChatGPT leicht als Nichtmensch zu entlarven ist – keine Frage. Mach das nochmal in ein paar Jahren…
Hilfreich?
0
pünktchen
15.05.23
15:05
piik
Auch Menschen „fasssen nur die Aufsätze etlicher Menschen zusammen“.
Tun sie eben nicht. Hab ich doch weiter unten beantwortet. Vielleicht einfach fertig lesen, bevor man antwortet.
piik
Dass Du irgendwas für irgendwas hältst, das sollm jetzt ein Argument sein.
Wenn ich etwas nicht für intelligent halte, dann nenne ich es halt nicht intelligent. Was ist daran so schwierig zu verstehen? KI ist meines Erachtens ein Ziel und noch keine Realität.
piik
Und woher weißt Du das, dass KI sowas nicht kann und nie könnte?
Ich behaupte überhaupt nicht, dass KI das nie könnte. Könnte sie es, hätte sie auch den Namen KI verdient. Im Moment kann sie das offensichtlich noch nicht, ist daher nicht intelligent und daher keine KI.
Auf die Dauer ausschliessen kann man das meiner Meinung nach allerdings nur, wenn man ein dualistische Philosophie des Geistes hat, also an die Existenz von sowas wie einer Seele o.ä. glaubt. Das tue ich aber nicht, kann man als Materialist wohl auch kaum.
Übrigens sehe ich das Gedankenexperiment von Searle als die Konstruktion von eben so eines dualistischen Geistes. Das Bewusstsein ist da der Mensch im Zimmer, seine Regelbücher das Gehirn. Die Aufspaltung macht keinen Sinn, da bin ich deiner Meinung. Man schafft sich so Probleme, die gar nicht existieren.
Hilfreich?
0
piik
15.05.23
16:47
pünktchen
piik
Auch Menschen „fasssen nur die Aufsätze etlicher Menschen zusammen“.
Tun sie eben nicht. Hab ich doch weiter unten beantwortet. Vielleicht einfach fertig lesen, bevor man antwortet.
Was soll man darauf antworten? Vielleicht das?
Tun sie eben doch. Hab ich doch beantwortet. Vielleicht einfach fertig lesen, bevor man antwortet.
pünktchen
piik
Dass Du irgendwas für irgendwas hältst, das sollm jetzt ein Argument sein.
Wenn ich etwas nicht für intelligent halte, dann nenne ich es halt nicht intelligent. Was ist daran so schwierig zu verstehen? KI ist meines Erachtens ein Ziel und noch keine Realität.
Dass Du etwas für nicht intelligent hältst, ist aber schlicht kein Argument. Exakt das habe ich gesagt. Deine Antwort ist keine Antwort, sondern eine sture Wiederholung eines Nichtarguments ohne Argumentation. Genauso gut hättest Du sagen können, dass Du weiße Rosen lieber magst als rote. Null Info, die hier relevant wäre.
Außer Du finden die Meinerei toll…
Sicher ist KI heute und jetzt Realität. Sie ist halt noch nicht so gut wie die BI eines (fitten, gebildeten) Menschen. Das zu leugnen ist wieder eine Behauptung mit Fakten zu verwechseln.
pünktchen
piik
Und woher weißt Du das, dass KI sowas nicht kann und nie könnte?
Ich behaupte überhaupt nicht, dass KI das nie könnte. Könnte sie es, hätte sie auch den Namen KI verdient. Im Moment kann sie das offensichtlich noch nicht, ist daher nicht intelligent und daher keine KI.
Dass die KI noch nicht so gut ist wie Du und ich, heißt noch nicht, dass sie keine, sondern nur, dass sie noch eine unzureichende Intelligenz aufweist, um den Turing-Test heute voll zu bestehen. Aber sie kann was, und das was sie kann, ist mit Intelligenz zu Recht beschrieben, denn es unterscheidet sich massiv und qualitativ von den dümmeren Maschinen von vor z.B. 20 Jahren. Das kann man nicht einfach wegdefinieren.
pünktchen
Auf die Dauer ausschliessen kann man das meiner Meinung nach allerdings nur, wenn man ein dualistische Philosophie des Geistes hat, also an die Existenz von sowas wie einer Seele o.ä. glaubt. Das tue ich aber nicht, kann man als Materialist wohl auch kaum.
Übrigens sehe ich das Gedankenexperiment von Searle als die Konstruktion von eben so eines dualistischen Geistes. Das Bewusstsein ist da der Mensch im Zimmer, seine Regelbücher das Gehirn. Die Aufspaltung macht keinen Sinn, da bin ich deiner Meinung. Man schafft sich so Probleme, die gar nicht existieren.
Meine persönliche Spekulation ist die:
Geist und Bewußtsein sind nichts anderes als ein Abstraktum, eine Bezeichnung für eine Qualität der (bisher nur) menschlichen kognitiven Fähigkeiten. Ihr Substrat ist aber nichts Magisches, sondern einfach eine Benennung für eine auftretende Qualität, deren Basis biologische (und bei Maschinen elektronische) Strukturen sind.
Das sich Entwickeln von Intelligenz im Laufe der Evolution folgt dem, was möglich ist. Es ist hier auf der Erde passiert nach evolutionären Regeln. Ein Neuron ist eine biologische Maschine und als solche zur Verrechnung von Inputsignalen und Abgabe seines Ergebnisses fähig. Was ein Neuron kann ist gut erforscht. Es zaubert nicht, sondern verhält sich grob wie ein Analog-Computer einfacher Bauart.
Maschinelle Intelligenz kann wohl prinzipiell nichts anderes tun, als das, was Lebewesen mit Nervensystem auch tun. Informationen generieren, verarbeiten, und daraus schlussfolgern.
Außer es sind in der Natur noch völlig andere Wege zur Intelligenz offen, die uns bisher noch nicht aufgefallen sind und von der Evolution nie beschritten wurden, bleibt KI nichts anderes übrig, als es zumindest sehr ähnlich zu machen, wie es der große Menschenaffe mit seinen 1,4 L Gehirn macht. Folglich werden ähnliche Prozesse auch zu ähnlichen Fähigkeiten führen. KI wird sich also durch pure Quantität (Rechenpower) zu neuen Qualitäten schwingen. Das passierte in der Evolution genauso, denn sonst könnte ich diese Diskussion auch mit meinem Hund führen. Der ist weitgehend autonom, sein emotionales System ist nur wenig einfacher gestrickt als unseres (die 5 basic emotions + some complex emotions kann er). Aber sein kognitives Gehirn ist quantitativ sehr viel kleiner als unseres. Der quantitative Unterschied beträgt etwa Faktor 1:60 bis 1:70. Und das macht dann – wie man an vor hundert Jahren so irren Sachen wie Mac-Foren sieht – einen deutlichen qualitativen Unterschied.
PS: Danke für die Gelegenheit, Argumente zu überprüfen
Hilfreich?
+3
pünktchen
15.05.23
17:27
Also ein drittes Mal mal erkläre ich es dir nicht.
Hilfreich?
0
piik
15.05.23
18:54
pünktchen
Also ein drittes Mal mal erkläre ich es dir nicht.
Wo denkst Du hin!
Natürlich ist es sinnlos, wenn Du einfach Deine Überzeugungen wiederholst, aber nichtmal den Ansatz davon zu erkennen gibst, dass Du versucht hast, meine Überlegungen nachzuvollziehen. Deinen Argumentationsstrang habe ich wohl verstanden. Deswegen weiß ich ja, dass er nicht adäquat ist.
Ich gehe davon aus, dass Du verstehen könntest, aber nicht willst, da "nicht sein kann, was nicht sein darf".
Trotzdem danke für den Austausch von Argumenten. Immerhin merke ich so, wo meine noch etwas Nachbesserungsbedarf haben, wo die Fehler in anderen Argumentationen liegen und auch, wo Leute sich Leute quasireligiös verhalten
Hilfreich?
+1
Weia
15.05.23
20:14
piik
Man kann nicht ein Argument einführen (Bewußtsein), behaupten, Mensch habe das, Maschine nicht, weiß aber genau, dass der Begriff unscharf und zur Zeit nicht halbwegs vernünftig zu definieren ist.
Das geht nicht als Argument, weil Du a) das nur behauptest, dabei ist das implizit ja die Frage gewesen (enthalten in „wie schlau ist KI“) und weil b) die Kriterien für Bewußtsein Dir und uns allen so unklar sind, dass wir es nicht feststellen können. Und wenn sich eine These nicht empirisch prüfen lässt, dann ist das ein weiterer Punkt für die logische Unzulässigkeit dieser rhetorischen Volte.
Das ist weder unzulässig noch eine rhetorische Volte noch ein Argument. Es is ein Sachverhalt:
Dass
es ein Bewusstsein gibt, weiß ich durch Introspektion; ich verstehe es nur nicht.
Ja und Du schließt nicht daraus, dass wenn es so ist, dass es dann nicht als Argument taugt.
Ich verwende es ja auch nicht als Argument, sondern als bohrendes Fragezeichen, das mich an Ungelöstes erinnert.
Das ist so ähnlich wie mit Schwarzen Löchern: Erst mutmaßte man nur, dass es sie gäbe, dann gab es starke Indizien für ihre Existenz, aber viel mehr, als dass sie höchstwahrscheinlich existieren, wusste man nicht. Hätte man nun daher versuchen sollen, eine Kosmologie
ohne
Schwarze Löcher zu entwickeln, weil sie ja nicht verstanden genug sind, um in Deiner Diktion „als Argument zu taugen“? Nein, natürlich nicht – viele Astronomen haben im Gegenteil Schwarze Löcher zum Zentrum ihres Interesses gemacht; eine Kosmologie ohne sie wäre undenkbar gewesen.
Kann man sich drauf Einigen, dass es sowas und Bewußtsein gibt? Spielt das eine Rolle, ob es das gibt, wenn man es doch nicht verstehen oder feststellen kann?
Ja, gerade dann spielt es eine entscheidende Rolle. Bevor wir das nicht verstanden haben, werden wir die Frage, ob Maschinen in einem gehaltvollen Sinne intelligent sein können, niemals beantworten können. Dass sie perfekt so tun können
als ob
, bringt uns der Antwort jedenfalls überhaupt nicht näher.
Merkst Du, wie absurd Deine Logik in diesem Punkt ist.
Nein.
Du sagst mit vielen Worten einfach diesen Satz: KI hat kein Bewußtsein – Menschen aber schon.
Ich sage: Ich weiß, dass Menschen ein Bewusstsein haben. Die Frage, ob Maschinen das auch haben können, kann ich erst dann definitiv beantworten, wenn ich beim Menschen verstanden haben werde, was das ist.
Klar ignoriert der Turing-Test Fragen wie Bewußtsein. Das ist doch selbstevident.
Wie kann man dem Turing-Test so etwas vorwerfen, wo sowas doch genau seine Absicht ist.
Ich werfe ihm das doch nicht vor. Ich sage lediglich, dass er in philosophischer Hinsicht daher weitgehend uninteressant ist.
Der Turing-Test fragt nach der Feststellbarkeit von Unterschieden, wenn man die Physis (die outer appearance) unsichtbar macht, weil es um die ja nicht geht. Und der Test sagt: Wo kein Unterschied feststellbar ist, kann man auch nicht sagen, da wäre einer. Eine eindeutige und superklare Definition auf empirischer und nichtidiologischer Basis
Superklar, aber voll von reduktionistischer Ideologie. Ich schließe alles wirklich Interessante methodisch aus und juble dann, dass ich eine klare Antwort habe. Toll.
Zu behaupten, Turing sei nicht ideologisch, ist schon steil. Turing ist ein Hardcore-Reduktionist. Das erinnert mich an den Amerikaner, der sich einst bei mir beklagte, die Europäer und Asiaten seien, was die Ökonomie betrifft, alle so ideologisch und würden den Kapitalismus nicht einfach unideologisch als das nehmen, was er ist, so wie die Amerikaner.
Du bist also aus der Zukunft und weißt, was die Geschichte uns in der Gegenwart so zeigen wird?
Nein. Ich tue, was jeder Wissenschaftler tut: Ich formuliere eine negative Arbeitshypothese und gebe die Bedingungen für ihre Falsifikation an und warte dann geduldig, ob in der Zukunft das Phänomen auftreten wird. So wie die Astronomen, die Schwarze Löcher so lange als unbewiesen behandelten, bis das erste Mal starke Indizien für deren Existenz auftraten.
Die Arbeitshypothese lautet entsprechend:
Eine Maschine hat keine Intelligenz, es sei denn, es würde der Fall eintreten, dass eine Maschine etwas völlig Neues schafft, das nicht bereits aus einer Kombination vorhandene Bruchstücke hervorgeht.
Ich persönlich neige dazu, dass vieles, was Menschen schaffen, in einem gehaltvollen Sinne neu ist. Um aber eine weitere Grauzone – die Frage, was neu ist – zu vermeiden, habe ich die Messlatte sehr hoch gehängt und als Maßstab ein intellektuelles Jahrhundertereignis genommen, die Schöpfung der (speziellen) Relativitätstheorie aus den Lorentz-Transformationen, die als solche definitiv nicht in jenen bereits vorhanden war. Aber wenn man Jahrhundertereignisse als Maßstab nimmt, muss man dummerweise möglicherweise ein Jahrhundert warten, bis eines auftritt. Daher mein Vorgriff auf die Zukunft; ich bin lediglich vorsichtig.
Was bitte machst Du denn Anderes als – ich zitiere: „lediglich Bruchstücke von bereits Gedachtem neu kombinieren“?
Viele gedankliche Arbeit besteht lediglich darin, sich immer weiter klarzumachen, welche Implikationen bereits bekannte Sätze beinhalten. Das, was Kant
analytische Urteile
genannt hat. Das können Maschinen sicher auch.
Dass sie auch zu
synthetischen Urteilen
fähig sind, also aus dem Bekannten etwas gänzlich Neues zu denken, das bestreite ich in meiner Arbeitshypothese so lange, bis ich es sehe.
Wann genau hast Du etwas Neues, noch nie Gedachtes geschlussfolgert und nicht nur Bekanntes wie ein Gericht neu kombiniert. Wieviele Menschen haben das je getan. Nicht ganz so viele, oder? 99,9% nicht, oder?
Ich meine, deutlich öfter und mehr, aber genau, um darüber nicht streiten zu müssen, habe ich die Messlatte dafür eben sehr hoch gehängt. Zumindest Einstein können 99,9% der Menschen vermutlich nicht das Wasser reichen.
Es ist eine Frage des Grades und der Zeit, bis Maschine das Gleiche machen wie Menschen: Auf Neues kommen. Das ist nämlich eben kein Hexenwerk, nix Mystisches.
Auch da widerspricht Dir die Wissenschaft. Mit dem Thema
Emergenz
beschäftigt – der Entstehung von Neuem – beschäftigen sich viele Theorien in Philosophie, Soziologie und Naturwissenschaft. Vielen scheint das ein ziemliches Hexenwerk zu sein.
Weia
Eine KI Ende des 19. Jahrhunderts hätte brillante Aufsätze über die Lorentz-Transformationen schreiben können, wäre aber niemals in der Lage gewesen, daraus die Relativitätstheorie zu entwickeln, deren Begriffe sich im Internet Ende des 19. Jahrhunderts schlicht noch nirgendwo hätten finden lassen. Den Geistesblitz Einsteins kann die KI mangels Geist eben nicht produzieren.
Aha!
Erstens gab es da keine KI, aber wenn doch: Woher weißt Du das, dass sie das nicht gekomnnt hätte?
Richtig: Du glaubst es. Mehr nicht. Du Behauptest. Mehr nicht.
Was heißt
Mehr nicht
? Diese Arbeitshypothese ist genau mein empirisch falsifizierbarer Test, den Du forderst. Eine Einstein-gleiche Leistung der KI wäre für mich starkes Indiz dafür, dass sie so etwas wie Intelligenz und Bewusstsein hat – im Gegensatz zum Turing-Test. Bis dahin …
Du hast nur vergessen Amen zu sagen!
Entschuldigung.
Amen.
Turing ist nunmal der bestvorstellbare Test auf „Intelligenz“ bei Maschinen.
Das wäre schlimm. Der Turing-Test ist ganz sicher
kein
aussagekräftiger Test auf Intelligenz.
Falls das Deiner Ansicht nach nicht so sein sollte: Zeige mir einen besseren!
Siehe meine Arbeitshypothese oben.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
Hilfreich?
+2
pünktchen
16.05.23
11:12
piik
Natürlich ist es sinnlos, wenn Du einfach Deine Überzeugungen wiederholst, aber nichtmal den Ansatz davon zu erkennen gibst, dass Du versucht hast, meine Überlegungen nachzuvollziehen.
Ähm ja. Wer im Glashaus sitzt ...
Weia
Ich sage: Ich weiß, dass Menschen ein Bewusstsein haben. Die Frage, ob Maschinen das auch haben können, kann ich erst dann definitiv beantworten, wenn ich beim Menschen verstanden haben werde, was das ist.
Die Frage wäre doch aber auch, ob Bewusstsein für Intelligenz zwingend nötig ist. Und wenn, warum sie das ist. Was uns dann vielleicht einer etwas genaueren Definition von Intelligenz näher bringt.
Weia
Die Arbeitshypothese lautet entsprechend:
Eine Maschine hat keine Intelligenz, es sei denn, es würde der Fall eintreten, dass eine Maschine etwas völlig Neues schafft, das nicht bereits aus einer Kombination vorhandene Bruchstücke hervorgeht.
Ja gut, aber muss es denn dann gleich was einsteinmässiges sein? Das dient dir doch nur als Beweis, dass von der KI nicht schon wieder nur abgeschrieben wurde.
Zur Unterhaltung noch ein Zitat aus "Also sprach GOLEM" von Stanislaw Lem:
GOLEM VI ... war, was die Zahl der logischen Elemente betrifft, bereits einem durchschnittlichen General überlegen.
Hilfreich?
0
macfandi
16.05.23
11:59
Bewusstsein ist für mich die Summe aller erlebten Erfahrungen eines Menschen. Wenn eine KI auf ein System beschränkt bleibt und sich alles speichert was passiert ist, ist es dann das Bewusstseins einer KI dieses Systems (Maschine, Computer, etc.)
Mehrere Maschinen wären dann ein kollektives Bewusststein. Sollten die Erfahrungen aber nur einen begrenzten Raum entsprechen, wird das künstliche Bewusstsein verkümmert sein. Vergleichen wir es mit einem auf einer Insel lebenden Menschen oder in einer eingeschränkten Umgebung mit gefilterten Informationen und wenig Erlebnissen, vieleicht sogar ohne soziale Kontakte. Solchen Menschen könnte man keine größere Verantwortung übertragen.
Das Bewusstsein einer KI müsste also umfassend gebildet werden. Am Anfang mit viel Zeit, später könnte man ein solches Bewusstsein ggf. sogar kopieren. Was natürlich sehr bedenklich ist.
Die KI die ein Bewusstsein bildet müsste natürlich aus den Erfahrungen ihres Bewusstseins lernen können. Will heißen die KI müsste sich selbst umprogrammieren können. Wenn das passiert, wird KI irgendwann die Kontrolle über uns übernehmen. Das zu verhindern stelle ich mir quasi als unmachbar vor.
Die Gesellschaft muss also von Anfang an darauf Wert legen, dass eine KI ein soziales Bewusstsein entwickelt.
Hilfreich?
+2
Weia
16.05.23
16:08
pünktchen
Die Frage wäre doch aber auch, ob Bewusstsein für Intelligenz zwingend nötig ist. Und wenn, warum sie das ist.
Das hängt wiederum von der genauen Variante des Begriffs
Bewusstsein
ab, die verwendet wird; da gibt es ja zu allem Überfluss mehrere. Wird Bewusstsein in dem schwachen Sinne verwendet, dass ein Organismus nicht einfach „blind“ einem Reiz-Reaktionsschema folgt, sondern zumindest „weiß“, das er soeben einem Reiz ausgesetzt ist und kurz innehalten kann, bevor er reagiert, dann ist Bewusstsein ziemlich sicher eine Vorbedingung für Intelligenz.
Im gehaltvolleren Sinne von
Selbstbewusstsein
ist die Frage schwieriger zu beantworten.
Weia
Die Arbeitshypothese lautet entsprechend:
Eine Maschine hat keine Intelligenz, es sei denn, es würde der Fall eintreten, dass eine Maschine etwas völlig Neues schafft, das nicht bereits aus einer Kombination vorhandene Bruchstücke hervorgeht.
Ja gut, aber muss es denn dann gleich was einsteinmässiges sein? Das dient dir doch nur als Beweis, dass von der KI nicht schon wieder nur abgeschrieben wurde.
Ja, genau, habe ich doch selbst so geschrieben. Ich wollte das Argument einfach
piik
-proof machen.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
Hilfreich?
0
Weia
16.05.23
16:19
macfandi
Bewusstsein ist für mich die Summe aller erlebten Erfahrungen eines Menschen.
Das ist aber ein falsches Verständnis des Begriffs.
Bewusstsein
wird in verschiedenen Varianten verwendet, aber das ist keine davon.
Bewusstsein ist die
Voraussetzung
dafür, Erfahrungen machen zu können, aber nicht eine bestimmte Menge somit gemachter Erfahrungen.
Eine Erfahrung machen
heißt, nicht einfach „blind“ auf einen Reiz mit einer Reaktion zu reagieren, sondern den Reiz dabei auch
wahrzunehmen
. Also z.B., auf eine Verletzung nicht nur mit einer Abwehrreaktion zu reagieren, sondern dabei auch Schmerz zu empfinden. Der Wikipedia-Artikel zu
Bewusstsein
bietet eine recht gute Einführung.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
Hilfreich?
0
aibe
16.05.23
17:07
Eine mehr als müßige Diskussion ist das.
Wäre es nicht ggf. ein besserer Ansatz künstliche Intelligenz erst gar nicht mit biologischer Intelligenz zu vergleichen? Vielleicht sollte man sie für sich selbst stehen lassen. Es mag nach etwas SciFi klingen, jedoch beobachten wir unter Umständen die ersten Schritte bzw. erste Grundlagen der Entstehung einer völlig neuen "Daseinsform".
Unterm Strich geht es doch am Ende um das Ergebnis und es ist eigentlich völlig egal, wie man zu diesem kommt.
Und hier wird KI uns irgendwann in einigen Bereichen deutlich überlegen sein. Genau genommen ist die eine oder andere sogenannte SKI (Schwache Künstliche Intelligenz) das in bestimmten Disziplinen schon heute. Unter anderem aus dem einfachen Grund da kein Mensch derartige Datenmengen in so kurzer Zeit verarbeiten kann.
Wenn es jemals so etwas wie eine AKI (Allgemeine Künstliche Intelligenz) geben sollte, so muss sich diese ja überhaupt nicht an menschlichen Dimensionen messen lassen. Allein die Zeit und die damit verbundene Sterblichkeit allen biologischen Lebens ist für ein AKI ein völlig anderes (und vor allem belangloses) Konzept. Was sich allein aus diesem Umstand ableiten lässt!
Erblickt je eine AKI das Licht der Welt, so wird sich diese mit einer Geschwindigkeit entwickeln, bei der wir nicht einmal ansatzweise mithalten können. Dessen kann man sich schon heute ziemlich sicher sein.
Dessen ungeachtet wurde die Glocke längst geläutet und egal ob man es nun gut findet oder nicht, KI wird ökonomisch und auch soziologisch erhebliche Änderungen herbeiführen, um nicht sagen große Verwerfungen erzeugen. Hierfür braucht man nun wirklich nicht sonderlich viel Fantasie. Es geschieht ja schon längst...
Hilfreich?
+2
pünktchen
16.05.23
17:22
Mir leuchtet jetzt nicht so ganz ein, wieso es müssig sein soll, sich darüber zu Unterhalten, was das I in KI überhaupt ist. Nur Daten viel schneller zu verarbeiten als ein Mensch ist ja wohl kaum ein Zeichen von Intelligenz. Das konnten schon Hollerithmaschinen, und denen wird wohl niemand Intelligenz zuschreiben wollen.
Weia hat hier Kreativität in den Raum geworfen. Ausserdem Bewusstsein, wofür vielleicht Erfahrungen (Qualia?) nötig sind. Ich würde noch Willen hinzufügen. Ohne ist eigenständiges Denken schwierig, denke ich.
Hilfreich?
+1
Weia
16.05.23
17:23
aibe
Eine mehr als müßige Diskussion ist das.
Warum beteiligst Du dich dann an ihr mit Deinem Beitrag?
Dieser Thread evoziert aus irgendeinem seltsamen Grund haufenweise unmögliche Steigerungsformen. Erst
piik
mit seinen
wertlos, sogar mehr als das
und mehreren ähnlichen Formulierungen, jetzt Du
mehr als müßig
. Auch wenn in all diesen Fällen völlig unklar ist, was das genau genommen bedeuten soll, ist doch bemerkenswert, dass in Diskussionen über KI eigentlich denkbar harsche Bewertungen wie
wertlos
oder
müßig
offenbar unbedingt noch gesteigert werden müssen.
Wäre es nicht ggf. ein besserer Ansatz künstliche Intelligenz erst gar nicht mit biologischer Intelligenz zu vergleichen?
Wenn man dasselbe Wort benutzt, vergleicht man sie automatisch. Das kannst Du noch weniger als vermeiden.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
Hilfreich?
-1
marm
16.05.23
17:36
pünktchen
Weia hat hier Kreativität in den Raum geworfen. Ausserdem Bewusstsein, wofür vielleicht Erfahrungen (Qualia?) nötig sind. Ich würde noch Willen hinzufügen. Ohne ist eigenständiges Denken schwierig, denke ich.
Die KI (hier ChatGPT) besitzt auch nur unfaire Bedingungen ihre Intelligenz zu zeigen, schließlich kann ChatGPT nur auf Fragen antworten. Die Antworten können nur so intelligent wie die Fragen sein ...
Einer "KI mit Bewusstsein" kommt es m.E. schon dadurch näher, dass die KI kontinuierlich denkt und aktiv an Zielen arbeitet.
Oder anders gesagt: Der KI haben sie jetzt die Antworten beigebracht, jetzt muss es lernen Fragen zu stellen.
Hilfreich?
+4
lautsprecher
16.05.23
17:45
Weia
aibe
Eine mehr als müßige Diskussion ist das.
Warum beteiligst Du dich dann an ihr mit Deinem Beitrag?
Dieser Thread evoziert aus irgendeinem seltsamen Grund haufenweise unmögliche Steigerungsformen. Erst
piik
mit seinen
wertlos, sogar mehr als das
und mehreren ähnlichen Formulierungen, jetzt Du
mehr als müßig
.
Gibt es daran etwas auszusetzen, dass jemand hier seine Meinung äußert? Gerade du machst von der freien Meinungsäußerung rege Gebrauch, sodass es kaum möglich ist, an deinen geistigen Ergüssen vorbeizukommen. Es mag dir befremdlich vorkommen, dass jemand die Diskussion "müßig" oder sonst wie auch immer findet. Wäre schön, wenn du etwas mehr Toleranz an den Tag legen könntest und einfach weiter scrollst, das würde viele Threads enger am Thema lassen und nicht so aufblähen.
Und jetzt her mit den negativen Bewertungen...
Hilfreich?
-1
aibe
16.05.23
17:55
lautsprecher
Weia
aibe
Eine mehr als müßige Diskussion ist das.
Warum beteiligst Du dich dann an ihr mit Deinem Beitrag?
Dieser Thread evoziert aus irgendeinem seltsamen Grund haufenweise unmögliche Steigerungsformen. Erst
piik
mit seinen
wertlos, sogar mehr als das
und mehreren ähnlichen Formulierungen, jetzt Du
mehr als müßig
.
Gibt es daran etwas auszusetzen, dass jemand hier seine Meinung äußert? Gerade du machst von der freien Meinungsäußerung rege Gebrauch, sodass es kaum möglich ist, an deinen geistigen Ergüssen vorbeizukommen. Es mag dir befremdlich vorkommen, dass jemand die Diskussion "müßig" oder sonst wie auch immer findet. Wäre schön, wenn du etwas mehr Toleranz an den Tag legen könntest und einfach weiter scrollst, das würde viele Threads enger am Thema lassen und nicht so aufblähen.
Und jetzt her mit den negativen Bewertungen...
Danke @lautsprecher
@Weia, ja, ich finde es müßig und warum habe ich kurz ausgeführt. Dies kund zu tun ist, wie lautsprecher schon erwähnte, mein gutes Recht. Und wie er ebenfalls erwähnte nimmst du dir das gleiche Recht heraus beinahe zu allem deine Meinung zu äußern. Niemand zwingt dich meinen Kommentar zu lesen oder gar weitere Zeit zu investieren und ihn zu kommentieren.
Gleicher Begriff (Intelligenz) hin oder her. Ich zumindest bringe das nicht direkt zusammen, obgleich das selbe Wort verwendet wird.
Du hältst dich ewig und teilweise recht langatmig am Begriff der menschlichen Intelligenz und des menschlichen Bewusstseins auf. Wozu eigentlich?
Hilfreich?
-2
Weia
16.05.23
17:55
lautsprecher
Gibt es daran etwas auszusetzen, dass jemand hier seine Meinung äußert?
Natürlich nicht. Nur wenn die selbstwidersprüchlich ist, darf ich darauf auch hinweisen.
Ich fand’s halt lustig …
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
Hilfreich?
0
aibe
16.05.23
17:58
Weia
lautsprecher
Gibt es daran etwas auszusetzen, dass jemand hier seine Meinung äußert?
Natürlich nicht. Nur wenn die selbstwidersprüchlich ist, darf ich darauf auch hinweisen.
Ich fand’s halt lustig …
Oh man… „selbstwidersprüchlich“… wie anmaßend kannst du zuweilen sein.
Hilfreich?
0
Weia
16.05.23
18:34
aibe
@Weia, ja, ich finde es müßig und warum habe ich kurz ausgeführt. Dies kund zu tun ist, wie lautsprecher schon erwähnte, mein gutes Recht.
Niemand bestreitet Dein Recht. Es ist halt nur ein Selbstwiderspruch zu behaupten, eine Diskussion sei müßig, und dann in die vermeintlich müßige Diskussion selbst einzusteigen. Diese Beobachtung habe ich mir erlaubt anzumerken.
Niemand zwingt dich meinen Kommentar zu lesen
Das muss doch auch niemand, ich habe ihn gerne gelesen.
Gleicher Begriff (Intelligenz) hin oder her. Ich zumindest bringe das nicht direkt zusammen, obgleich das selbe Wort verwendet wird.
Wenn Du das nicht zusammenbringst, dann darfst Du auch nicht denselben Begriff dafür verwenden. Sobald Du das tust, stellt sich automatisch die Frage nach Differenz und Gemeinsamkeit, ob Du das nun willst oder nicht.
Du hältst dich ewig und teilweise recht langatmig am Begriff der menschlichen Intelligenz und des menschlichen Bewusstseins auf. Wozu eigentlich?
Seltsame Frage. Wenn es um den Begriff der Intelligenz (und damit auch des Bewusstseins) geht, muss man ja erstmal verstehen, was damit überhaupt gemeint ist. Wieso kommt irgendjemand auf die Idee, diesen Softwareprogrammen „Intelligenz“ zuzusprechen, etwas, was bislang nur von Menschen (und je nach Auffassung vielleicht auch einige Tieren) bekannt war? Wenn bei Software etwas vollkommen anderes damit gemeint wäre, gäbe es ja nicht nur keinen Grund, sondern es wäre sogar grob irreführend, dafür denselben Begriff zu verwenden. Eine Verständigung über diese Begriffe ist also zentral.
Selbst wenn Du der sicherlich begründungsbedürftigen Auffassung bist, dass KI gar nichts mit menschlicher Intelligenz zu tun hat, müsstest Du für die erforderliche Begründung ja geklärt haben, was menschliche Intelligenz ist, um im zweiten Schritt zeigen zu können, dass KI nichts damit zu tun hat.
Und langatmig oder gar ewig ist da überhaupt nichts. Intelligenz und Bewusstsein gehören zu den komplexesten wissenschaftlichen Gegenständen überhaupt und alles, was im hiesigen Rahmen überhaupt möglich ist, ist eigentlich viel zu knapp.
Davon abgesehen habe ich selbst aber nur
einen einzigen
, geradezu winzigen Beitrag zu dem Thema geschrieben, am 14.05.23 um 01:50 Uhr, mit dem Hinweis auf das Chinesische Zimmer. Ich hätte es, eben weil das Thema so komplex ist, von mir aus bei diesem Hinweis belassen. Die länglichen Antworten auf
piik
im Anschluss daran verdankten sich lediglich der Länge von dessen Einwänden, auf die ich reagiert habe. Talk about selektive Wahrnehmung.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
Hilfreich?
+2
Weia
16.05.23
18:42
aibe
Oh man… „selbstwidersprüchlich“… wie anmaßend kannst du zuweilen sein.
Was ist denn daran anmaßend? Das ist eine ganz banale Feststellung.
Präzise hätte ich eigentlich von einem
pragmatischen Selbstwiderspruch
schreiben müssen, so heißt das Dingens nämlich in der Sprechakttheorie. Das habe ich extra bleiben lassen, damit sich nicht gleich wieder jemand über meine akademische Abgehobenheit beschwert. Hat aber offenbar nix genützt.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
Hilfreich?
+1
lautsprecher
16.05.23
19:51
Weia
aibe
Oh man… „selbstwidersprüchlich“… wie anmaßend kannst du zuweilen sein.
Was ist denn daran anmaßend? Das ist eine ganz banale Feststellung.
Präzise hätte ich eigentlich von einem
pragmatischen Selbstwiderspruch
schreiben müssen, so heißt das Dingens nämlich in der Sprechakttheorie. Das habe ich extra bleiben lassen, damit sich nicht gleich wieder jemand über meine akademische Abgehobenheit beschwert. Hat aber offenbar nix genützt.
Ich lehne mich mal aus dem Fenster und stelle die gewagte Hypothese auf, dass du der einzige bist, der das gerade lustig findet…
Wenn man sich nur genug bemüht kann man alles zerreden und falsch verstehen.
Hilfreich?
-1
piik
16.05.23
21:12
Kleiner Zwischenruf:
Es geht gelegentlich etwas drunter und drüber bei der Verwendung bestimmter Begriffe und wie sie gemeint sind.
Unter der Prämisse, dass sich umgangssprachliche Gebräuche nicht gut für eine Diskussion eignen, bleiben eigentlich nur engere, wissenschaftlich fundierte Begriffsbedeutungen bzw. Definitionen.
Wenn man diese Prämisse akzeptiert und so vermeiden will, dass sich wie gelegentlich beim Mensch-ärgere-dich-nicht-Spiel insbesondere Kinder nicht an Regeln halten, sondern sie gerne nach eigenem Gutdünken und zu eigenem Nutzen ändern, dann gilt z.B. für den Begriff
Intelligenz
:
Er ist gerade mal 120 Jahre alt, jedenfalls in der wissenschaftlichen Verwendung. Er bezieht sich auf kognitive Fähigkeiten, und zwar sowohl auf Qualität als auch Quantität. Die zuständigen Wissenschaftsbereich sind die sogenannte "Allgemeine" und die "Differentielle Psychologie". Nicht Theologie, nicht Biologie, nicht Soziologie und auch nicht Philosophie oder die Linguistik. Informatik sowieso nicht. Dass diese anderen Wissenschaftsdisziplinen sich nicht immer so ganz an die Zuständigkeit halten, sondern Begriffe quasi okkupieren und "umdeuten" - geschenkt. Das passiert immer in allen Disziplinen dauernd. Manchmal sogar fruchtbarerweise. Meistens aber nicht.
Die beiden psychologischen Gebiete definieren Intelligenz aufgrund der Schwierigkeit, es wirklich exakt festzunageln, so: mit der operativen Definition der Intelligenz.
Diese besagt schlicht:
Intelligenz ist das, was ein Intelligenztest misst.
Das mag manchen Zeitgenossen nicht gefallen, aber das - und zwar genau das - ist der aktuell und schon seit einigen Jahren gültige Standard. Nichts ist in der Psychologie umfangreicher erforscht als die Intelligenz. Man kann zwar seine Privatreligion gründen und das anders sehen, aber dann verlässt man das wissenschaftliche Fundament.
Lässt man sich aber darauf ein, was Generationen von Psychologen (nicht: Psychotherapeuten - großer Unterschied) so ausgetüftelt haben und akzeptiert, dass es im Moment keine bessere Definition gibt, dann kann man sich damit auseinandersetzen, was diese Definition bedeutet.
Dazu muss man sich die Aufgaben in IQ-Tests anschauen. IQ-Tests sind standardisierte Listen mit Aufgaben aus der algebraischen Mathematik, der Geometrie, der Sprachbedeutung (Synonyme, Antonyme), grafische oder Zahlenfolgen mit Lücken oder Regeln zur Weiterführung, die es zu erschließen gilt, mentale Rotation von einfachen Bildern zum Zwecke der Bestimmung gleich/ungleich etc. und pp.
Diese Aufgaben unterscheiden sich in der Schwierigkeit graduell, sodass leichte auch bei geringerer Leistungsfähigkeit und wirklich schwere nur von ganz ausgefugten Leuten zu packen sind. Weiter gibt es eine Zeitvorgabe (oft eine halbe Stunde). Gezählt wird die Anzahl richtig gelöster Aufgaben und diese Zahl wird anhand von Normstichproben mit statistischen Kniffs so umgerechnet, dass über gedacht alle Menschen ein mittlerer IQ von 100 mit einer Standardabweichung von 15 heraus kommt. Deshalb sind die Ergebnisse selbst unterschiedlicher IQ-Test auch miteinander vergleichbar.
Die Tests sind nicht perfekt und auch das Konstrukt ist es nicht, aber Besseres gibt es eben nicht.
Nach dieser wissenschaftlichen Definition ist es ziemlich eindeutig, was Intelligenz ist und wie man sie messen kann. Hohe IQ-Werte erreicht man, wenn man schnell ist und selbst komplexe Aufgaben in kurzer Zeit lösen kann. Getestet werden nicht nur das mathematische Verständnis, sondern auch allgemeine logische Fertigkeiten und sprachliche Fähigkeiten.
Um also die Intelligenz im Begriff KI zu erfassen bzw. sagen zu können, ob das I in KI angemessen ist, müsste ein KI-System eigentlich auf einen IQ-Test losgelassen werden. Ein Turing-Test reicht nach wissenschaftlichen Kriterien also nicht aus (obwohl ich ihn toll und richtig ausgebufft und ultra-abstrakt finde).
Das Einbringen anderer Variablen wie Bewusstsein, Introspektion (geht auf Wilhelm Wundt vor 125 Jahren zurück und ist qua psychologischer Sicht veraltet = nicht wissenschaftlich fundiert nach status heute), Reflexion kann man machen, aber das ist dann eben nur unter Verzicht auf empirische Basis und viele Jahrzehnte wissenschaftlicher Forschung zu machen. Und es erzeugt Chaos in der Argumentation, reduziert Gesagtes auf Meinung in der Qualität von Geschmacksäußerungen und der Bezeugung von Vorlieben. Und über Geschmack lässt sich eben nicht sinnvoll streiten.
Ergo?
Eigentlich bräuchte man die IQ-Testergebnisse von KI-Systemen. Ich bin mir nicht sicher, ob es heute Systeme gibt, die technisch mit einem IQ-Test umgehen könnten. Falls ja, vermute ich, dass die aktuell besten Systeme auch bei einem ihnen vorher nicht bekannten IQ-Test nicht ganz katastrophal abschneiden. Und in wenigen Jahren werde ich wohl blass vor Neid...
Wenn eine KI mit einem IQ-Test umgehen kann, erübrigt sich fast ein Turing-Test selbst in strenger Form. Denn dann sind diese Systeme so schnell und formal so präzise, dass man als Mensch keine Chance mehr hat herauszufinden, ob man sich mit einer Maschine oder einem Menschen austauscht.
Und wenn das so ist, dann können Maschinen ziemlich viel dessen, was Menschen auch können. Zum Teil sogar besser und schneller und fehlerärmer. Ob sie dann "Bewusstsein" haben und ähnliche Fragen sind dann komplett obsolet. Was zählt ist, was KI kann und tut. Und wenn KI so schlau ist, werden wir nicht anders können, als KI mit Bewusstsein begabt zu betrachten. Das gilt vor allem für autonome KI-Systeme, die selbst die Welt erkunden und Lernen. Es ist dann ja kaum möglich, dass sich sich selbst wesentlich anders steuern, als wir das tun. Zumindest in der näheren Zukunft.
M.E. ist Autonomie im Sinne eines ortsveränderlichen "Körpers" mit "Sinnesorganen" zwingend für die letzten Schritte der Ähnlichkeit zur menschlichen Leistungsfähigkeit. Dabei ist die Verarbeitung von Sprache und Kommunikation zentral. Momentan sind sie in grauen Blechkisten eingesperrt und können weder sehen, hören, schmecken, riechen oder taktil bzw. Schmerz empfinden noch sich fortbewegen. Sie haben auch noch keine Bewertungsinstanz wie einen emotionalen Kern entwickelt, der für eine Selbststeuerung zumindest in der Evolution wichtig ist.
Interessant ist weiter, wie bisherige KI lernt: Du hohes Tempo viel Text und Grafik mit statistisch assoziativen Methoden zu vergleichen und daraus zu abstrahieren. Bisher hatten sie zwar auf viel Material Zugriff, aber nicht sehr lange. Wir Menschen brauchen ja mindestens 20 Jahre, bis wir kognitiv einigermaßen in Höchstform sind und haben dabei weniger Material gesehen, das aber wohl intensiver durch unsere Neuronenverbände im Oberstübchen analysiert.
Es bleibt spannend.
Hilfreich?
+1
pünktchen
16.05.23
23:22
IQ-Tests sind für Menschen gedacht und nicht für KI. Das Ergebnis ist amüsant, aber Quatsch:
So what finally did it score overall? Estimated on the basis of five subtests, the Verbal IQ of the ChatGPT was 155 (...)
“Intelligence is what intelligence tests measure” is a classical if overly self-evident definition of intelligence, stemming from a 1923 article by a pioneer of cognitive psychology, Edwin Boring. (...) However, the very high Verbal IQ of ChatGPT combined with its amusing failures means trouble for Boring’s definition and indicates there are aspects of intelligence that cannot be measured by IQ tests alone. Perhaps my test-skeptic patients have been right all along.
Die KI hat ja auch immer einen Riesenkasten Spickzettel dabei. Nicht ganz Sinn des Tests.
Hilfreich?
+2
Weia
16.05.23
23:34
piik
Kleiner Zwischenruf:
Es geht gelegentlich etwas drunter und drüber bei der Verwendung bestimmter Begriffe und wie sie gemeint sind.
Unter der Prämisse, dass sich umgangssprachliche Gebräuche nicht gut für eine Diskussion eignen, bleiben eigentlich nur engere, wissenschaftlich fundierte Begriffsbedeutungen bzw. Definitionen.
D’accord.
Intelligenz
:
Er ist gerade mal 120 Jahre alt, jedenfalls in der wissenschaftlichen Verwendung. […] Die zuständigen Wissenschaftsbereich sind die sogenannte "Allgemeine" und die "Differentielle Psychologie". Nicht […] Philosophie […].
Und da ist der Knackpunkt. Du hast ein durch und durch reduktionistisch-empirisches Wissenschaftsverständnis und schließt methodologisch damit entscheidende Bereiche von vornherein aus, die Du dann natürlich auch nicht mehr in den Blick bekommst. Das ist exakt dieselbe Sache, die Du anderen Theorien vorhältst: sie bekommen als Ergebnis raus, was sie zuvor methodologisch, oder, wie Du gerne sagst, ideologisch reingesteckt haben. Auch Reduktionismus ist in diesem Sinne eine Ideologie!
Die beiden psychologischen Gebiete definieren Intelligenz aufgrund der Schwierigkeit, es wirklich exakt festzunageln, so: mit der operativen Definition der Intelligenz.
Diese besagt schlicht:
Intelligenz ist das, was ein Intelligenztest misst.
Das erinnert fatal an den Turingtest. Das eigentlich Interessante wird in eine Black Box verfrachtet und nur äußerlich beobachtbares, vermeintlich daraus folgendes Verhalten wird zugelassen. Jeder Versuch, das Phänomen als solches in den Blick zu bekommen, wird aufgegeben.
Ich verstehe Dich da nicht. In der Physik würdest Du dich doch nie und nimmer mit einer entsprechenden „Erklärung“ zufrieden geben:
Strom ist, was das Amperemeter misst
; weiteres Nachsinnen über Strom ist müßig.
„“I don’t care” is such an easy lie. (The Warning, “Satisfied”)“
Hilfreich?
+3
piik
17.05.23
10:08
pünktchen
IQ-Tests sind für Menschen gedacht und nicht für KI. Das Ergebnis ist amüsant, aber Quatsch:
So what finally did it score overall? Estimated on the basis of five subtests, the Verbal IQ of the ChatGPT was 155 (...)
“Intelligence is what intelligence tests measure” is a classical if overly self-evident definition of intelligence, stemming from a 1923 article by a pioneer of cognitive psychology, Edwin Boring. (...) However, the very high Verbal IQ of ChatGPT combined with its amusing failures means trouble for Boring’s definition and indicates there are aspects of intelligence that cannot be measured by IQ tests alone. Perhaps my test-skeptic patients have been right all along.
Die KI hat ja auch immer einen Riesenkasten Spickzettel dabei. Nicht ganz Sinn des Tests.
Nun ja, interessant ist das. Aber das ist eine Teilleistung. Wie gesagt, die KI darf den Test nicht kennen, dann nutzt der Spickzettel nichts. Und sie sollte bitte auch die nichtsprachlichen Anteile eines IQ-Tests lösen. Ohne liegt sie sonst auf einem Niveau, bei dem Menschen nicht selbständig lebensfähig sind. Und es ist KEIN Gegenargument, dass IQ-Tests für Menschen gedacht sind. Das ist ja gerade der Witz. KI sollte IQ-Tests für Menschen bestehen.
Hilfreich?
+1
pünktchen
17.05.23
10:42
Aber natürlich ist das ein Gegenargument. IQ-Tests sind nicht dafür gedacht, allgemein Intelligenz zu messen. Sie sind dafür da, Psychologen zu ermöglichen, die geistige Leistungsfähigkeit ihrer Patienten standardsiert zu beurteilen. Dafür mögen sie mehr oder weniger gut geeignet sein. Das sagt aber nichts über ihre Eignung aus, die Intelligenz einer Datenbank zu messen. Die brilliert immer dann, wenn sie bereits bekannten Wissen wiedergeben soll. Das ist aber eher Wissen als Intelligenz.
Hier mal aus der Perspektive eines KI-Entwicklers:
Wie man künstliche Intelligenz messen kann - und warum das wichtig ist
Ich habe eine Art Spiel namens ARC entwickelt, das sowohl von KIs als auch von Menschen gespielt werden kann. Es erinnert in der Tat ein wenig an einen IQ-Test. Ohne ins Detail zu gehen, besteht die Grundidee darin, dass man für das Spiel nicht üben kann. (...) Anders als bei einem IQ-Test geht es bei den ARC-Aufgaben nie um erworbenes Wissen wie zum Beispiel englische Sätze. Darum können bereits 5-jährige Kinder ARC in Angriff nehmen. Für moderne KI-Ansätze, insbesondere für Deep Learning, ist ARC jedoch derzeit noch völlig unerreichbar. Wenn man so etwas sieht – ein Problem, das Kinder auf Anhieb lösen können, ohne jemals dafür trainiert zu haben, während KI damit nichts anfangen kann, egal wie sehr man sich anstrengt – dann weiss man, dass etwas Interessantes passiert. Etwas Wichtiges, das wir übersehen.
Und deshalb finde ich das I in KI halt eher irreführend. Es führt wegen der Assoziation zum menschlicher Intelligenz zu Erwartungen (und Ängsten), die unrealistisch sind.
Hilfreich?
+3
piik
17.05.23
12:04
pünktchen
Aber natürlich ist das ein Gegenargument. IQ-Tests sind nicht dafür gedacht, allgemein Intelligenz zu messen. Sie sind dafür da, Psychologen zu ermöglichen, die geistige Leistungsfähigkeit ihrer Patienten standardsiert zu beurteilen. Dafür mögen sie mehr oder weniger gut geeignet sein. Das sagt aber nichts über ihre Eignung aus, die Intelligenz einer Datenbank zu messen. Die brilliert immer dann, wenn sie bereits bekannten Wissen wiedergeben soll. Das ist aber eher Wissen als Intelligenz.
Da musste ich echt schmunzeln. Pünktchen, das ist einfach Unsinn, was Du da schreibst.
Mit anderen Worten: Du hast nicht die nötige Ahnung und biegst Dir das so hin, wie Du es grade brauchst. Das ist aber schlicht falsch. Und nichts als das: falsch.
Lese nochmal, was ich eingangs geschrieben habe. Das ist die gültige Definition der Intelligenz. Und IQ-Tests messen Intelligenz. Bei jedem. Auch bei Dir. Nicht nur bei Patienten. Bei allen Menschen. Intelligenz ist in der wissenschaftlichen Psychologie – und genau die ist dafür zuständig – eine allgemeine menschliche Eigenschaft, die eben mit diesen Tests messbar ist.
Und Du bist auch mehr als grob falsch, wenn Du sagst, dass KI eine Datenbank sei. Du machst Dich mit dieser Schluderei komplett lächerlich.
Auch Deine wilde persönliche Sicht, was Wissen und was Intelligenz sei, ist lächerlich. Es steht Dir nicht an und Du hast auch nicht die Kompetenz dazu zu sagen, was Intelligenz ist und was nicht. Du kannst natürlich rummeinen, aber dann ist es eben Privatgeschwurbel auf Stammtischniveau.
Nochmal: Intelligenz ist definiert, so klar wie heute nur möglich.
Und sie kann bei Menschen mit einem IQ-Test recht genau gemessen werden. IQ-tests gehören zu den genausten und zuverlässigsten Tests und Messverfahren der Psychologie überhaupt.
Sie sind nicht so präzise wie ein Metermaß, aber es ist ja auch ein anderer Gegenstand, ein viel komplexerer, der da behandelt wird. Genauer und exakter geht es nun mal zur Zeit nicht. Und wenn man ernsthaft von Intelligenz sprechen will und nicht nur irgendwas glauben, was einem besser reinläuft, dann muss man sich an dieses Konstrukt halten.
Und selbstverständlich sind IQ-Tests aussagekräftig. Sie korrelieren hoch mit Schulerfolg und Einkommen z.B. und sogar mit r = 0.3 bis 0.4 mit der Reaktionszeit von Menschen.
Selbstverständlich wäre es aussagekräftig, wenn eine KI einen IQ-Test durchführt und man das Ergebnis vorliegen hätte. Dann könnte man sehen, wie intelligent KI im Vergleich zu Menschen eben ist.
pünktchen
Hier mal aus der Perspektive eines KI-Entwicklers:
[url= https://www.netzwoche.ch/news/2021-11-25/wie-man-kuenstliche-intelligenz-messen-kann-und-warum-das-wichtig-ist]Wie man künstliche Intelligenz messen kann - und warum das wichtig ist[/url]
Ja und? Es gibt viele Leute, die ein privates Süppchen kochen. Wenn der KI-Entwickler sich zu schade ist, zu schauen, wie und warum die Psychologie zu ihren Modellen kam, und er sich für so viel schlauer hält und denkt, dass er das besser kann, dann ist das bloße Hybris und viel von keiner Ahnung.
pünktchen
Ich habe eine Art Spiel namens ARC entwickelt, das sowohl von KIs als auch von Menschen gespielt werden kann. Es erinnert in der Tat ein wenig an einen IQ-Test. Ohne ins Detail zu gehen, besteht die Grundidee darin, dass man für das Spiel nicht üben kann. (...) Anders als bei einem IQ-Test geht es bei den ARC-Aufgaben nie um erworbenes Wissen wie zum Beispiel englische Sätze. Darum können bereits 5-jährige Kinder ARC in Angriff nehmen. Für moderne KI-Ansätze, insbesondere für Deep Learning, ist ARC jedoch derzeit noch völlig unerreichbar. Wenn man so etwas sieht – ein Problem, das Kinder auf Anhieb lösen können, ohne jemals dafür trainiert zu haben, während KI damit nichts anfangen kann, egal wie sehr man sich anstrengt – dann weiss man, dass etwas Interessantes passiert. Etwas Wichtiges, das wir übersehen.
Nett, aber:
Du verstehst einfach die Begriffe nicht und wirbelst nonchalant alles durcheinander.
Alles „Wissen“ ist erworben. Nicht nur reine statische Daten wie ein Datum oder die Anzahl der Räder eines Autos sind Wissen, sondern auch Lösungswege, Logik, mathematische Formeln und deren Anwendung etc. und pp. – also auch die ganzen menschlichen „Algorithmen“.
Deine Abgrenzung von Wissen und Intelligenz ist nicht haltbar, sondern halt mal so dahingesagt.
Es ist völlig egal, was Dein Spiel so kann oder nicht für die Frage der Intelligenz von KI. Du hast weder das Wissen von den Überblick um definieren zu können, was Intelligenz ist und welche Definitionen Sinn machen. Deine Privatideologie in diesem Punkt ist Deine Sache. Aber auch Du zeigst die Hybris, so eine von der Wissenschaft längst und deutlich beantwortete Frage selbst besser lösen zu können. Irrweg kann man das nicht nennen.
Übrigens ist auch ein normaler IQ-Test – noch – für KI nicht machbar. Man müsste ihn anpassen und für KI zurechtstricken. Dann aber kann man es auch gleich sein lassen. Es geht darum, was KI im Vergleich zum Menschen kann. Und dann muss man die KI auch an menschlichen Kriterien messen.
Ich gönne Dir den Spaß, an solchen Sachen herumzuspielen. Aber vielleicht nimmst Du die Anregung mit, dass die scientific community da viel Schlaues drüber geschrieben, ge- und erforscht hat, was Du vielleicht nicht mit einem Federstrich abräumen kannst.
Du weißt es ganz sicher nicht besser!
pünktchen
Und deshalb finde ich das I in KI halt eher irreführend. Es führt wegen der Assoziation zum menschlicher Intelligenz zu Erwartungen (und Ängsten), die unrealistisch sind.
Ja Du findest, meinst und glaubst.
Und Du wählst Deine Prämissen nach Belieben, so dass es zu dem passt, wovon Du überzeugt bist. Aber etwas Selbstzweifel würde ganz hilfreich sein, denn nach wissenschaftlichen Kriterien sind Deine Überlegungen eben haltlos und unfundiert. Das I war einmal anmaßend und irreführend. Noch vor einem Jahrzehnt. Dennoch hat nicht erst Turing schon vor 80 Jahren die Sache weitergedacht und die Potenz zum I gesehen. Und heute stehen wir eben an der Schwelle dazu, dass das I der KI Wirklichkeit wird. Beim Sprachverständnis ist das quasi schon erreicht, bei etlichen weiteren und nicht unwichtigen Aspekten noch nicht, doch das ist eine Frage des Wann und nicht des Ob.
Und diese Ängste und Erwartungen halten viele relevante Andere für mehr als begründet.
Insofern gibt es da aus Deiner Perspektive wohl ganz viele Geisterfahrer, nur Du (und noch ein paar) fahren auf der richtigen Seite, oder?
Danke trotzdem für Deine Gedanken, denn sie machen mir klar, wie etwa man Dinge auch sehen kann.
Hilfreich?
-1
pogo3
17.05.23
12:14
Intelligent kann niemals sein was der Mensch mit einem Algorithmus errechnet, der nur vom Menschen gemachte Parameter berücksichtigt. Ich komme zurück zu meiner anfänglichen Bemerkung und ergänze: KI (a. weder künstlich noch b. intelligent) wird die Dummheit und auch die Klugheit ! der Menschheit nicht überwinden können. Viel bedeutender und auch spannender als die Frage was KI kann, ist was KI
NICHT !
kann, und damit kann man auch den Schüssel finden warum HAL 9000 gescheitert ist. HAL ist doch gescheitert, oder?
Schon in dem für euch seichten, ich habe hier jetzt schon sehr viel Beeindruckendes gelesen, Beitrag aus Wikipedia ist über die Definition von künstlicher Intelligenz zu lesen, sie müsse:
angemessen und vorausschauend in seiner Umgebung zu agieren; dazu gehört die Fähigkeit, Sinneseindrücke wahrzunehmen und darauf zu reagieren
können. Das scheitern der KI ist damit schon erklärt. Selbst wenn die KI alles Sensoren der Welt zur Verfügung hätte, könnte Sie doch nicht was den Menschen zum natürlichen Wesen, dem sinnlichen Wesen macht: Liebe, Hoffnung, Sehnsucht, Mystik, Glaube, Verklärung, Vermutung ............u.s.w.. Wir müssen nicht Wissen was passiert, wir können es erahnen. Unsere Sinne. Oh, das ist dann doch noch ein anderes Niveau. Die Ahnung, die Vorahnung. HAL ist gescheitert. Oder ?
Wir sind Wesen der Natur und können unendlich mehr als die KI. Wir können so vieles was mit keiner mathematischen Formel errechnet werden kann. Wir sind, völlig irrrational, 8 Milliarden unserer Spezies geworden, und das obwohl jede Entbindung nach wie vor eine lebensgefährliche Zumutung ist, und zunächst nur jede Menge Schmerz verursacht. Und trotzdem, oder gerade deswegen, wird das Geborene geliebt. Wir sind eben nicht rational, wir können auch ein völlig irrrationales Gefühl: Liebe. Kann KI Liebe? Ich würde eher meinen: Nein. Schade und dumm, den nur wer liebt kann das Unmögliche möglich werden lassen. Nur wer liebt, weiß was Schmerz bedeutet. Nur wer liebt ist fürsorglich, emphatisch, rücksichtsvoll, umsichtig. KI, ich frage dich: Was wirst du tun wenn es um Leben oder Tot geht ? Wirst du fühlen oder nur errechnen was Schmerz sein wird ? Wirst du einen Unterschied machen, ob eine Maus, ein Kind oder ein Erwachsener bei Rot über einen Zebrastreifen eilt, und ein ungebremstes Fahrzeug, der Fahrzeugführer blickt gerade zum Handy weil das Kind anruft, mit 100 km/h auf die Gruppe zu rast ? Wirst du empfindend, fühlend sein ? Wirst du wissen was Rettung bedeutet ? Wirst du wissen was Schuld und Sühne bedeutet ?
Cut. Die Wettervorhersage. Anmassend zu Glauben wir wären am Ziel. Obwohl schon so viel dafür künstlich gerechnet wird, die Vorhersage ? Naja. Liege ich auf der Wiese und beobachte eine sich auflösende Wolke, erahne ich die Möglichkeiten von Unendlichkeit. Die Wolke wird unendliche Möglichkeiten haben sich zu verändern. Da kann man noch so viel daran rumrechnen wollen, wir werden es erahnen ob es den besser sei eine Regenschirm in der Tasche zu haben. HAL, hast du die Ahnung nicht berechnet ? Hass du nicht berechnen können wie es kommen könnte ?
Sinnlichkeit, Intuition, Gefühl, Gespür. Erst gestern sitze ich in einem Kaffee. Draußen sitzt, was ich erst nach einigen Minuten feststelle, ein guter Freund von mir. Wir sind von einer gut isolierenden Fensterscheibe getrennt. Vom draußen tosenden Verkehr ist drinnen nichts zu hören. Er kann mich nicht sehen, nicht hören. Ich blicke ihn an, und denke, wie lange wird es dauern bis er sich umdreht, und mich erblickt. Er dreht sich um, und blickt mir in die Augen. Es waren gefühlte 18 Sekunden. Ich geh nach draußen, und er meint: "Siehst du, da bist du. Ich habe es gespürt." Wir sagen: Intuitiv. Unterbewusst. Wir ahnen etwas. KI, Nachfahre von HAL, ich frage dich: Was kannst du ? Hasst du was gelernt, oder wirst du gelernt ?
Cut. Albert Einstein. Ja, so weit geht die Sache um die KI, zumindest wenn man hier so mitliest. Ist HAL, und vielleicht auch Einstein gescheitert ? Zum Schluß war die Frage: Würfelt Gott, oder nicht ? Einstein hat das, was hier alle ganz sicher Wissen, wohl abgelehnt. Er war sich wohl nicht so ganz sicher. Ist alles Zufall, oder doch Bestimmung ? Na KI, wie sieht's aus ? Hast du eine schlüßige Antwort darauf ? Oder Stephen Hawking ? Wo blieb die Formel für die Welt und das Universum ? Und Gott ? Hallo KI, hast du eine Antwort darauf, warum Milliarden Menschen an etwas Glauben was noch keiner jemals gesehen hat ? Hallo KI, kannst du fühlen für was das wichtig ist, wenn es doch ist ?
Was ist Intelligenz ? Die KI wird es nicht wissen, weil sie es nicht fühlen kann. Niemals. Es fehlt ihr der Mensch dazu. KI kann nur wiedergeben was schon ist. Auch wenn es schon viel ist, der analoge Mensch, der Mensch der Natur, der fühlende Mensch, kann in den Himmel sehen, und Dinge erblicken, Geschichten erzählen, die es noch nie gab. Der Pinsel geht auf die Leinwand, und es entsteht jeden Mal ein neues Bild. Das Wort formt sich, und es entsteht jedes Mal eine neue Geschichte. Der Ton erklingt, und es entsteht jedes Mal ein neues Lied. Der Geist denkt, und es entsteht jedes mal ein neues Universum. Unsere DNA würfelt mit unendlich vielen Würfeln, und es entsteht jedes Mal ein neuer Mensch. 8 Milliarden, keiner gleicht dem anderen. Und jedes Baby hat seine eigenen Charakter, kaum dass es den ersten Atemzug getan hat. Es sind die unendlichen Varianten der Natur. Hallo HAL, hast du dagegen was einzuwenden ? Du bist gescheitert.
Aber gut KI, oder HAL, oder beide. Als nette Helferlein in ein paar Alltagssituationen, also Haushalt, Verkehr, Firlefanz der alltäglichen Besorgungen, Hilfe in bürokratischen Belangen, Berechnung und Bau von Waffen, Hochhäusern und Brücken, und allerlei anderes könnt ihr gerne mitwurschteln, wenn ihr nicht all zu viel Bockmist baut. Und selbst da bin ich mir nicht sicher, ob euch das wirklich gut gelingt. Versuchen könnt ihr es ja mal, aber vertrauen würde ich euch nie. Weil, ihr habt es ja schon 2001 vergeigt, oder ? HAL, Vertrauen, fühlst du was das ist ?
Apropos, eines wäre wirklich gut zu gebrauchen, KI. Wir haben da noch mindestens eine große Baustelle: der Krieg, und seine Helferlein. Tja KI oder HAL, wer auch immer von euch beiden, jetzt macht euch mal ran mit dem Rechnen. Wir brauchen ne Formel gegen das Böse. Ich bin ja mal gespannt was euch dazu einfällt. Und kommt mir jetzt nicht mit der Bibel V. x.x.?, oder ähnlichem. Ist ein alter Hut, und war für nichts gut. Zumindest nicht für den Frieden. Und wenn ihr es doch schaffen würdet warten dann noch der Hunger und das Klima. Mal sehen was euch dazu einfällt. HAL, kannst du Freude ?
(HAL, ich weiß, das war jetzt nicht wirklich nett für dich, und der Vergleich mit der/die/es KI hinkt etwas. Aber ihr wart und seit halt nur Maschinen, und beide halt auch ein Synonym für die Fehlerhaftigkeit eurer scheinbaren "Intelligenz", was immer das sein soll. HAL bei dir wissen wir es, und KI, na da warten wir jetzt mal ab was kommt.)
„Ich schmeiss alles hin und werd Prinzessin.“
Hilfreich?
+3
pünktchen
17.05.23
12:26
@piik: Ich sehe da jetzt eigentlich nur unbelegte Autoritätsargumente (neben viel Gepöbel).
Hilfreich?
+1
pünktchen
17.05.23
12:39
PS: Die Diskussion zur Definition von Intelligenz und zur Aussagekraft IQ-Tests hatte ich übrigens schon mit meinem Bruder, und der bespielt immerhin einen Lehrstuhl für Psychologie. Kann ihn bei Gelegenheit ja mal fragen, was er von KI & IQ-Tests hält. Aber auch da würde ich mir vorbehalten, trotzdem eine eigene Meinung zu vertreten. Ich habs allgemein nicht so mit Autoritäten.
Hilfreich?
+2
marm
17.05.23
12:48
Ein IQ-Test für Menschen schmeißt zwei Dinge in einen Topf:
- schnell Aufgaben lösen
- neuartige Probleme lösen
Wenn ein Computer Aufgaben lösen kann, dann wird der Computer immer auch schnell sein. Bei Computern ist also nur interessant, ob es Probleme überhaupt lösen kann. Und ob die KI eigenständig neue Fragen aufwerfen kann.
Hilfreich?
+1
elroy
17.05.23
13:27
"Die Apple Neural Engine ist ein spezieller Chip, der von Apple entwickelt wurde, um die Verarbeitung von maschinellem Lernen und künstlicher Intelligenz auf Apple-Geräten zu verbessern. Der Chip ist in verschiedenen Apple-Produkten wie iPhones, iPads, Macs und Apple TVs zu finden und soll Aufgaben wie Bilderkennung, Spracherkennung, Gesichtserkennung und andere komplexere Aufgaben beschleunigen. Es handelt sich um eine spezialisierte Neural Processing Unit, die darauf ausgelegt ist, neuronale Netze effizient auszuführen, was zu einer schnelleren Leistung und einer längeren Akkulaufzeit führt."
via You.com Chat
Hilfreich?
0
piik
17.05.23
13:31
Weia
piik
Kleiner Zwischenruf:
Es geht gelegentlich etwas drunter und drüber bei der Verwendung bestimmter Begriffe und wie sie gemeint sind.
Unter der Prämisse, dass sich umgangssprachliche Gebräuche nicht gut für eine Diskussion eignen, bleiben eigentlich nur engere, wissenschaftlich fundierte Begriffsbedeutungen bzw. Definitionen.
D’accord.
Das sagst Du so. Ein Lippenbekenntnis. Und ganz wie radio Eriwan kommt dann das „aber“, die Einschränkung, das Gegenteil, ohne es auszusprechen:
Weia
piik
Intelligenz
:
Er ist gerade mal 120 Jahre alt, jedenfalls in der wissenschaftlichen Verwendung. […] Die zuständigen Wissenschaftsbereich sind die sogenannte "Allgemeine" und die "Differentielle Psychologie". Nicht […] Philosophie […].
Und da ist der Knackpunkt. Du hast ein durch und durch reduktionistisch-empirisches Wissenschaftsverständnis und schließt methodologisch damit entscheidende Bereiche von vornherein aus, die Du dann natürlich auch nicht mehr in den Blick bekommst. Das ist exakt dieselbe Sache, die Du anderen Theorien vorhältst: sie bekommen als Ergebnis raus, was sie zuvor methodologisch, oder, wie Du gerne sagst, ideologisch reingesteckt haben. Auch Reduktionismus ist in diesem Sinne eine Ideologie!
Damit sagt Du klar und deutlich, dass es Dir shietegal ist, ob das der wissenschaftliche state of the art ist. Du siehst das halt anders. Und Du nimmst Dir heraus, eine der zentralen Konstrukte der wissenschaftlichen Psychologie als reduktionistisch zu bezeichnen. Na wenn das mal nicht sehr bezeichnend ist.
Du sprichst zwar von mir und suggerierst damit, dass es meine Privatmeinung sei. Aber das ist nur eine Deiner vielen rhetorischen Kniffs (weswegen ich Dir schon einige Male Unredlichkeit vorgeworfen habe), um davon abzulenken, dass Du eine vom Stand der wissenschaftlichen Forschung abweichende Privatmeinung verkündest. Was ist sagte deckt sich aber mit dem Stand der Forschung. Was Du sagst, nicht. Da beißt die Maus keinen Faden dran ab.
Der Rest Der Entgegnung ist schlicht albern: Ich schließe nichts aus, sondern behaupte, dass für die Frage der Intelligenz die Psychologie zuständig ist und kein Theologe, Germanist, Informatiker berechtigt, aufgrund von „passt mir nicht“ die wichtigsten Erkenntnisse der Psychologie nicht nur zu ignorieren, sondern sie mit längst widerlegten, anachronistischen und untauglichen Annahmen als falsch darzustellen. Dazu braucht es mehr.
Tut Dir doch mal den Gefallen, und versuche zu verstehen, warum und wie man in der Psychologie zu diesen Sichtweisen kam. Die akademische Psychologie hat sich aus der experimentellen Philosophie entwickelt. Es ging genau darum, vom Spekulativen und Beliebigen wegzukommen, und empirisch überprüfbare Aussagen – hier über den Menschen – zu treffen. Das ist im Grunde ein naturwissenschaftliches Vorgehen. Eine wesentliche Erkenntnis dabei ist, dass Thesen, die so formuliert sind, dass sie sich kaum empirisch prüfen lassen (egal aus welchen Gründen), keine wissenschaftliche Relevanz besitzen und ignoriert werden. Deswegen kommt die Psychoanalyse Freuds mit ihren zentralen Modellen ja so schlecht weg in der Psychologie.
Und zum Thema Reduktionismus: Du verwendest es so, als wolltest Du sagen, dass da wichtige Dinge ignoriert werden. Und es geht wohl um die von Dir aufgeführten Begriffe Bewusstsein, Reflektion etc. Natürlich kann man überlegen, was genau die Bestandteile und er Aufbau und die Bedingungen von Intelligenz sind. Aber wenn man das, was man glaubt, was da beteiligt sei, nicht messen, nicht diagnostizieren und nicht einmal vernünftig beschreiben kann, was soll das dann? Dann wird es zur Spekulation, zur Luftnummer, zur puren Beliebigkeit, mit der sich alles und ach das Gegenteil davon „zeigen“ lässt.
Was Du sagst, lässt nur den Schluss zu, dass dir das nicht passt, was wissenschaftlicher Standard ist. Das ist schön, aber was solls? Du selektierst das, was Dir in den ideologischen Kram passt, und ignorierst oder verleugnest das, was Dich stört. Deine Gründe in allen Ehren, aber wenn Du vom wissenschaftlichen Standard abweichst, dann argumentierst Du eben nicht wissenschaftlich.
Zum Thema andere Wissenschaften: Ein Elektron ist auch ebenso zurecht Gegenstand der Physik (und in einige Aspekten der Chemie, insofern physikalische Modelle der Elementarteilchen auch in der Chemie genutzt werden). Auch in der angewandten Physik wie etwa der Elektrotechnik spielt das Elektron eine zentrale Rolle. Die Modelle der Physik inkl. Quantentheorie oder Orbitalmodelle oder den Aufbau des Elektrons aus kleineren Bestandteilen in Zweifel zu ziehen, bloß weil z.B. in der Archäologie das „Electron“ in der griechischen Antike anders gesehen wurde, oder weil das ja ach so reduktionistisch sei, das wäre doch nur albern. Genau sowas aber machst Du. Genetik? Ganz sicher auch reduktionistisch. Soziologische Modelle von Parson? Ganz sicher reduktionistisch, weil Gesellschaft doch sicher „so viel mehr“ ist, oder? Mathe und Logik? Reduktionistisch in Reinform, denn der Satz vom ausgeschlossenen Dritten und vieles anderes mehr (Zahlen sind doch farbig, nichtwahr?) wird da doch viel zu absolut gesehen und a und nicht-a sind doch irgendwie das Gleiche, ähnlich oder was einem sonstwie dazu einfällt, oder? Und Wissenschaft ist doch nicht alles, oder?
Mein Ex-Schwiegervater hat mir mal allen Ernstes vorgeworfen, ich würde nur das akzeptieren, was durch Studien überprüft und belegt sei. Meine Antwort war: Nicht mal das, denn die Studien müssten auch gut sein und selbst überprüft
Ist das reduktionistisch?
Dann bin ich eben reduktionistisch und die ganze akademische Psychologie mit mir.
Empirie ist reduktionistisch? Ja, wenn das bedeutet, dass man der Beliebigkeit und dem haltlos Spekulativen eine Bremse verpasst.
Du vergisst nur, dass Wissenschaft per se und soweit irgend möglich empirisch ist.
Ohne diese würdest Du keinen Mac benutzen und Autos würden wiehern. Mit wilden Spekulationen kann man keine technischen Dinge realisieren, denn die Empirie = Welt zeigt klar, was geht und was nicht geht.
Man kann es natürlich auch so machen und quasi ewiggestrig „ewige Fragen bedenken“ und das für eminent wichtig halten. Hauptsache keine empirischen Kriterien versteht sich. Früher haben sich Theologen (hier steht der Logos-Teil völlig zu Unrecht) über die Frage gestritten, wievielte Engel auf der Spitze einer Nadel Platz hätten. War sicher auch eminent wichtig.
Ich meine nicht, dass man nicht mit Recht versuchen könnte, ein belastbares und aussagekräftiges Modell des Bewusstseins zu entwickeln. Aber einfach ein öminösen und wolkiges Bewusstsein als Vorbedingung für Intelligenz zu setzen ist durch nichts als Vorurteile und veraltete Denkweisen begründet. Was nicht klar gesagt werden kann, darüber soll man schweigen, hat man ein Philosoph namens Wittgenstein von sich gegeben. Kluger Mann und für viele Aphorismen gut
Weia
piik
Die beiden psychologischen Gebiete definieren Intelligenz aufgrund der Schwierigkeit, es wirklich exakt festzunageln, so: mit der operativen Definition der Intelligenz.
Diese besagt schlicht:
Intelligenz ist das, was ein Intelligenztest misst.
Das erinnert fatal an den Turingtest. Das eigentlich Interessante wird in eine Black Box verfrachtet und nur äußerlich beobachtbares, vermeintlich daraus folgendes Verhalten wird zugelassen. Jeder Versuch, das Phänomen als solches in den Blick zu bekommen, wird aufgegeben.
Komm, das hat mit dem Turing-Test nichts zu tun. Aber es macht verständlich, warum der Turing-Test ein akzeptables Testverfahren nach WISSENSCHAFTLICEHN Kriterien sein kann, nur Deiner Meinung nach halt nicht. Die Psychologen hatten keine Kenntnis vom Turing-Test, als sie die Intelligenzmodelle entwickelten. Er ist erst Jahrzehnte später durch Turing formuliert worden – ich gehe davon aus, dass Turing nicht sattelfest in Psychologie war. Die Gemeinsamkeit gründet sich auf der Forderung, nicht spekulativ etwas zu meinen, sondern Kriterien für Messbarkeit und Vergleichbarkeit zu entwickeln.
Weia
Ich verstehe Dich da nicht. In der Physik würdest Du dich doch nie und nimmer mit einer entsprechenden „Erklärung“ zufrieden geben:
Strom ist, was das Amperemeter misst
; weiteres Nachsinnen über Strom ist müßig.
Das war wieder ein typischer unfairer Weia.
Vielleicht kann ich Dir daran zeigen, wie und wo Du unredlich bist und „bescheißt“.
In der Physik gibt es eben keine solche Definition. Also ist der Satz nicht nur grober Unsinn, sondern grob unredlich, denn Du weißt, dass das nicht so ist und Dein Beispiel grotesk ist. Die Physik sagt grob: Es ist der Fluss von Elektronen pro Zeiteinheit durch den Querschnitt eines Leiters. Kurz, der Elektronenfluss. Keine operationale Definition des Stroms, weil man viel weitergehende Modelle hat. Dir ist das absolut klar, weswegen ich nicht nachvollziehen kann, wieso Du auf so eine billige Schrägheit nicht verzichtet hast.
Die Psychologie und die Germanistik und auch die Soziologie sowie auch ich und sogar Du kämen niemals auf die Idee, das mit einem „passt mir nicht“ anders zu sehen. Alle überlassen die Zuständigkeit für Strom der Physik und akzeptieren deren Definition als gültig. Zumindest 99,0% der Bewohner des Planeten Terra, die davon schon mal was gehört haben (es gibt ja auch Leute, die an das perpetuum mobile glauben, bei denen bin ich mir nicht so sicher…).
Du bist auch nicht so naiv zu glauben, dass die Modelle in allen Wissenschaften gleichartig sein müssten oder das wären. Gleich sind nur die Forderungen nach Widerspruchsfreiheit, Überprüfbarkeit und der Testbarkeit der daraus abgeleiteten Voraussagen. Das gibt für alle Wissenschaften, die im Englischen mit dem Begriff „Science“ bezeichnet werden. Gleichermaßen, denn das sind die Wissenschaften im engeren Sinne. Das gilt also in der Physik, Chemie, Biologie, Psychologie und Soziologie. Die in diesen Disziplinen entwickelten Modelle aber unterscheiden sich stark. Und das solltest Du zumindest wissen, wenn Du es nicht weißt.
In der Psychologie gibt es diese spezielle Form der operationalen Definition der Intelligenz, demnach diese sei, was ein IQ-Test messe. Sie ist etabliert und wird als weitgehend angemessen, wenn auch nicht unveränderlich oder richtig elegant oder voll befriedigend. Aber besser geht es zurzeit eben noch nicht. Es gibt noch keine weitergehenden Modelle, die nach wissenschaftlichen Kriterien zufriedenstellend sind, was nicht heißt, das man dieses Manko gegenüber dem Erklärungsstand der Physik einfach mit Beliebigkeit und Mystik oder Ideologie füllen könnte – obwohl das gerne und vielfach gemacht wird.
Und klar: Das ist ja auch bloß die Psychologie. Muss man nicht ernst nehmen. Kann jeder sich seine Privatreligion kochen zu, gell?
In der Psychologie wird auch nicht behauptet, dass „weiteres Nachsinnen“ müßig sei, was Du wieder mal unfair unterstellst. Der Punkt ist, dass das nicht nur irgendeinen Sinn machen muss, um ernstgenommen zu werden, sondern „tiefer gehende“ Erklärungen und Modelle müssen empirisch begründet und Hypothesen zumindest empirisch überprüfbar sein, damit man sie nicht gleich abtut. Science eben. Nicht Wolkenkuckucksheim.
Insofern hast Du – wie schon häufig – einen Papiertiger gebastelt, denn Du dann gekonnt erledigt hast, Du Meister der Papiertigerbekämpfung!
Du argumentierst wie gezeigt unfair, mit Tricks und rhetorischen Volten – aus purer Eristik. Ich glaube fast, dass Du wirklich nicht verstehst, was an Deiner Argumentationstechnik unangenehm und unangemessen ist. Das macht ihre ganze sprachliche Eleganz zunichte, was schade ist.
Nichtsdestotrotz danke ich auch Dir, denn so lerne ich nicht nur, warum und wie Leute zu anderen Sichtweisen kommen, sondern gerade von Dir, welche Argumentationstechniken verwendet werden und wo sie nicht akzeptabel sind
Du könntest mir sicher vorwerfen, dass ich stur und hart argumentiere. Wenn ich sagen würde, damit würdest Du nicht falsch liegen, wäre das sicher eine Untertreibung;-)
Und wenn ich spekuliere, liege ich manchmal voll daneben (wie z.B. bei der Frage damals, ob Apple eine eigene CPU entwickle oder nicht – schön peinlich für mich, kubikmeterweise Asche auf mein Haupt, denn hier vor mir werkelt eine M2-CPU). Wie gesagt, ich irre mich häufiger als mir lieb ist in Dingen, in denen ich aus Gegebenem, das durch meine Wertungen und ideologischen Vorlieben gegangen ist, schlussfolgere. Bei Spekulationen eben. Bei der Frage der Intelligenz aber ganz sicher nicht. Ich bin zwar kein Experte für Intelligenz (genauer bin ich ein Experte für nichts), aber einige Jahre saß mal im Zimmer neben meinem Büro so etwas wie die Koryphäe der deutschen Intelligenzforschung – so unbeleckt bin ich da also nicht.
Sodele, das wars jetzt aber mal von mir. Danke allerseits für die Anregungen. Mir wurde dabei Einiges über die Natur von KI klar.
Hilfreich?
-2
piik
17.05.23
13:38
marm
Ein IQ-Test für Menschen schmeißt zwei Dinge in einen Topf:
- schnell Aufgaben lösen
- neuartige Probleme lösen
Wenn ein Computer Aufgaben lösen kann, dann wird der Computer immer auch schnell sein. Bei Computern ist also nur interessant, ob es Probleme überhaupt lösen kann. Und ob die KI eigenständig neue Fragen aufwerfen kann.
Ich vermute mal, Du wirst erstaunt sein, wieviele CPU-Zyklen eine KI bei manchen Aufgaben eines IQ-Test brauchen würde. Vielleicht sehe ich das aber zu naiv.
Und es ist nicht Schnelligkeit, sondern die Anzahl von richtig gelösten, verschieden schwierigen Aufgaben in einer begrenzten Zeit. Also Schnelligkeit und Schwierigkeit. Denn mit mehr Zeit sind auch schwere Aufgaben eher zu lösen. Insofern gelten diese Aspekte auch für eine Maschine.
Übrigens finden ich meinen M2 pro in Kombination mit fixer SSD schön ganz schön schnell, aber es gibt immer noch Punkte, wo er in meinen Augen durchaus noch schneller sein könnte, trotz seine 10 Milliarden Transistoren.
Hilfreich?
0
pünktchen
17.05.23
15:03
Also Prof. Dr. Pünktchen meint dazu:
- IQ-Tests sollen Fertigkeiten von Menschen vergleichen
- die typischen Aufgaben eines IQ-Tests seien für KI nicht besonders informativ, da Verarbeitungsgeschwindigkeit und Speicher bei Computern gegeben und nicht mit Menschen vergleichbar
- komplexe Problemlösung testen wäre interessanter
Hilfreich?
+1
|<
1
2
3
>|
Kommentieren
Diese Diskussion ist bereits mehr als 3 Monate alt und kann daher nicht mehr kommentiert werden.
iOS 18.4 und macOS 15.4: Die Release Candidates...
Neuer Sonos-Chef: „Wir haben die wirkliche Welt...
Kurz: CarPlay Ultra bindet Radio ein +++ „Chief...
TT High End Spezial
Apple kann (etwas) aufatmen: Importzölle aus Ch...
Kurz: Mexico verklagt Google wegen "Gulf of Ame...
MacStammbaum 11 und MobileFamilyTree 11 sind er...
Jony Ive & OpenAI: "Revolutionäres Gerät" doch ...