Verstehen Chattbots was sie schreiben?
Aus Wiki1
(→Komplexes, vernünftiges Verhalten bedeutet noch nicht Vernunft) |
(→Ergänzung) |
||
Zeile 61: | Zeile 61: | ||
Mit Ihrem Video zur Komplexität [https://youtu.be/KPUZiWMNe-g?si=22z0ei7mDRX8rBiP] hat mich Frau Hossenfelder überholt. Ja - wir brauchen eine Theorie der Komplexität, wenn wir Denken und Bewusstsein einordnen und verstehen und Licht in die dunkle Welt der KI-Allchemie bringen wollen. | Mit Ihrem Video zur Komplexität [https://youtu.be/KPUZiWMNe-g?si=22z0ei7mDRX8rBiP] hat mich Frau Hossenfelder überholt. Ja - wir brauchen eine Theorie der Komplexität, wenn wir Denken und Bewusstsein einordnen und verstehen und Licht in die dunkle Welt der KI-Allchemie bringen wollen. | ||
- | Ein Beitrag von 2017, der immer noch Gültigkeit hat [https://www.reframetech.de/2017/11/14/die-sieben-todsuenden-der-prognosen-ueber-die-zukunft-der-ki/ dei 7 Todsünden der | + | Ein Beitrag von 2017, der immer noch Gültigkeit hat [https://www.reframetech.de/2017/11/14/die-sieben-todsuenden-der-prognosen-ueber-die-zukunft-der-ki/ dei 7 Todsünden der Prognosen über die Zukunft der KI] |
Zitat aus dem Essay von Rodney Brooks: | Zitat aus dem Essay von Rodney Brooks: |
Version vom 07:55, 30. Sep. 2024
Inhaltsverzeichnis |
Anlass
Anlass für diesen Artikel ist ein YouTube-Video von Sabine Hossenfelder: I believe chatbots understand part of what they say.
In dem Video erläutert Sabine Hossenfelder, warum sie glaubt, dass die aktuellen Chatbots bereits über ein - wenn auch rudimentäres - Verständnis der Antworten verfügen, die sie liefern.
Ich schätze ihre Videos sehr, teile aber ihre Einschätzungen zur KI nicht und möchte in diesem Artikel meine Argumente aufführen, warum ich dies nicht glaube und warum ich diese Diskussion für wenig zielführend halte. Die Ideen und Gedanken finden sich auch verteilt in den Artikeln zum Thema Kategorie:Leben und Technik.
Grundsätzliches
Warum beschäftigt mich dieses Thema überhaupt? Ich interessiere mich seit den 90iger Jahren für das Thema künstliche Intelligenz. Angeregt und stark beeinflusst wurde ich durch die Bücher von Joseph Weizenbaum und seiner kritischen Haltung zur KI. Als Ingenieur interessiere ich mich für Technik und ich verfüge zumindest über ein paar naturwissenschaftliche Grundkenntnisse, um manche wissenschaftlichen Aussagen bewerten zu können - Quantenphysik gehört leider nicht dazu, das sollte aber bei diesem Thema keine Rolle spielen. Das nur zum Einstieg, um meine Haltung und meine Argumente besser einordnen zu können.
Das wissenschaftliche Feld der "künstlichen Intelligenz" ist nach meiner Einschätzung noch in einem Stadium vergleichbar der Allchemie. Viele Menschen haben viele Ideen, experimentieren und erzählen über ihre Experimente. Sie probieren und "spielen" und machen uns große Versprechungen.
Dabei entstehen beeindruckende Dinge - aber von einem Verständnis der grundlegenden Zusammenhänge sind wir weit entfernt. Es beginnt mit den verwendeten Begriffen, für die sich die Wissenschaft bis heute auf keine gemeinsamen Definitionen einigen konnte. Bewußtsein, Verstehen, Lernen, Intelligenz und Kreativität werden je nach Fachgebiet anders eingeordnet und bewertet. Mit Einzug der KI mischen jetzt auch Informatiker und Mathematiker in diesen Forschungsfeldern mit und tragen zur Zeit noch mehr zur Verwirrung als zu Klärung bei.
Da es keine klaren Definitionen gibt, existieren auch noch keine Bewertungs- und Vergleichskriterien für Intelligenz, Bewußtsein usw.. Die "Experten" können daher viele plausible Erzählungen generieren, haben aber keine einheitlichen Messlatten für den Vergleich unterschiedlicher Systeme. Es werden viele Behauptungen zur KI aufgestellt, ohne dabei existierende intelligente Systeme einzubeziehen. In den meisten Erzählungen taucht lediglich der Mensch als "Benchmark" auf: ChatGPT kann sprachlich korrekte Antworten geben, ein Mensch kann sprachlich korrekte Antworten geben - also ist ChatGPT bald so klug wie ein Mensch! Wir brauchen nur größere Computer, größere künstliche neuronale Netze und mehr Daten.
Eine belastbare Theorie zu Intelligenz und Bewusstsein müsste meiner Meinung nach aber auch intelligente Systeme jenseits von Computer und menschlichem Gehirn erfassen und erklären: Bakterien, Insekten, Pflanzen, Aliens. Bevor wir unsere Energie in die Plausibilisierung von "Glaubenssätzen" stecken, sollten wir Mühe und Energie dazu verwenden, eine wissenschaftlich tragfähige Theorie von Verstehen, Intelligenz und Bewusstsein zu schaffen. Wenn wir es gut machen, könnte es der Wissenschaft in 10-20 Jahren gelingen. Vielleicht kann uns KI mit ihren experimentellen Möglichkeiten bei der Suche nach einem wissenschaftlichen Fundament zur Erforschung von Bewusstsein, Intelligenz und Denken helfen. Aber 2024 sind wir noch weit von einer solchen wissenschaftlichen Basis entfernt.
Wo stehen wir?
Wenn über den Stand der künstlichen Intelligenz gesprochen und geschrieben wird, findet man sehr unterschiedliche Angaben:
- so klug wie ein 2 jähriges Kind
- so klug wie Insekten
- so klug wie ...
- garnicht klug
Fast immer beschränken sich die Vergleiche auf menschliche Fähigkeiten. Andere Lebensformen und Systeme werden selten in den Vergleich einbezogen, oder es wird behauptet, sie wären für einen Begriff wie z.B. "Intelligenz" nicht relevant.
Vergleiche zur Komplexität beschränken sich auf die Zahl von Neuronen oder Parameter (ChatCPT hat 175 Milliarden Parameter, der Mensch hat 80 Milliarden Neuronen - na da sind wir doch bald soweit!) oder auf die Zahl von Transistoren, Speicher, Rechengeschwindigkeiten und was man sonst so vergleichen kann.
Völlig ausgeblendet wird dabe die enorme Kaskadierung der Prozesse des Lebens. Ein mathematisches Neuron ist etwas anderes als ein biologisches Neuron und ein Gewichtungsparameter ist etwas anderes als ein Axon oder Dendriten. Um die Vorgänge in einem biologischen Gehirn zu "verstehen", genügt es nicht, neuronale Netze zu verstehen. Unterhalb dieser abstrakten neuronalen Verschaltungen finden biochemische Prozesse statt, die mindestens ebenso komplex sind. Protein-Protein-Wirkungsnetzwerke steuern und regeln das Verhalten unserer Zellen sowohl im inneren der Zellen als auch im Zusammenspiel als Organe. Sie sind die unmittelbare Verbindung unseres Körpers mit der Welt - in Form von biochemischen und physikalischen Wechselwirkungen.
Und Proteine selbst sind wiederum mehr als chemische Verbindungen. Sie bilden autonome Maschinen und technische Einrichtungen in unseren Zellen: Pumpen, Motoren, Ventile, Transportmaschinen die über komplexe biochemische Mechanismen orchestriert werden.
Ich stelle die These auf, dass diese Protein-Netzwerke inherente Eigenschaften aufweisen, die denen der neuronalen Netze ähneln: sie können Umgebungsparameter (Photonen, Ionen, Elektronen, Moleküle) nutzen, um sinnvolle Aktivitätsmuster zu generieren, sie können lernen und sich auf Änderungen in der Umgebung einstellen.
Die Annahme, unsere kognitiven Eigenschaften wären mit der Entdeckung und dem Verständnis von künstlichen neuronalen Netzen ausreichend beschrieben, um sie entsprechend in Computersoftware abzubilden halte ich daher für unangemessen.
Das heisst nicht, dass man mit künstlichen neuronalen Netzen nicht phantastische Sachen machen kann - es heisst nur, dass es bei Weitem nicht ausreicht, um Bewusstsein, Vernunft und Verständniss zu generieren.
Modelle der Welt als Voraussetzung für Verstehen
In dem Video von Frau Hossenfelder ist davon die Rede, dass wir, um etwas zu verstehen, ein inneres Modell davon haben müssen. Diese Idee erscheint mir sehr nahe an der Idee von der Dualität von Körper und Geist. Als könne man die Welt - oder einzelne Aspekte - in ein Modell packen und dann auf ein System übertragen.
Wie wäre aber folgender Ansatz: lebendige Systeme haben kein Modell von der Wirklichkeit, sie sind ein Modell der Wirklichkeit und bilden die für sie relevanten Anforderungen, Gesetzmäßigkeiten und Regeln ihrer Umwelt in sich ab - angefangen bei ihren Proteinen, über Organe, Körperstrukturen bis hin zum zentralen Nervensystem. In unserem Gehirn steckt kein Modell unserer Arme sondern die relevanten Hirnareale mit ihren neuronalen Schaltungen haben sich zusammen mit unseren Gliedmaßen in langen evolutionären Lernzeiträumen gebildet.
Das bedeutet aber, dass in diesen Strukturen, Prozessen und Netzwerken das evolutionäre "Wissen" von Millarden Jahren kummuliert und in wirklichkeitskonformen Modellen über diese Wirklichkeit abgebildet wurde.
Dem gegenüber wurde ChatGPT mit den schriftlichen Erzeugnissen von ein paar Jahrzehnten gefüttert und enthält das inkonsistente zivilisatorische Wissen von einigen Jahrhunderten Menschheitsgeschichte (oder besser: europäischer Geschichte). Ich bezweifle, dass daraus ein "Verstehen" abgeleitet werden kann.
Ich bin mathematisch nicht genug gebildet, um den Komplexitätsunterschied zwischen einer Amöbe und einem Chatbot zu quantifizieren. Ich glaube aber, dass die Amöbe um Größenordnungen komplexer ist und mehr exaktes Wissen über die Welt enthält als alle heutigen Chatbots zusammen. Man muss ihr nur die richtigen Fragen auf die passende Art und Weise stellen - alles nur eine Frage des "Prompts"!.
Komplexes, vernünftiges Verhalten bedeutet noch nicht Vernunft
In der Natur finden wir eine enorme Vielfalt an intelligenten Systemen. Bakterien können sich wie neuronale Netze synchronisieren. Termiten - jede für sich mit Sicherheit weder in Architektur noch in Klima- und Lüftungstechnik bewandert - bauen gemeinsam 6 m hohe statisch stabile Gebilde mit differenzierten Räumen, Lüftungs- und Temperaturregelung Vortrag von Daniel Dennet über Information und Evolution. Schleimpilze finden den Ausgang aus einem Labyrint oder lösen Logistikprobleme. Doch keinem dieser Systeme würden wir Verständnis oder Vernunft unterstellen. Warum also tun wir das bei einem technischen Artefakt wie einem Chatbot?
Ich denke, es liegt vor allem an der Nutzung von Sprache als Transportmedium für Frage und Antwort. Sprache verbinden wir so unmittelbar mit dem Menschlichen, dass es uns schwer fällt, damit verbundene Fähigkeiten wie Verständnis oder Vernunft auszublenden.
Andererseits konnte sich die Wissenschaft bis vor wenigen Jahrzehnten noch nicht darauf einigen, Tieren Bewusstsein und Intelligenz zu zu sprechen. Der Behaviorismus der 60iger Jahre degradierte sie zu Reiz-Reaktionsmaschinen. Erst langsam entdeckten wir die unglaublichen Fähigkeiten in natürlichen Systemen und beginnen damit, ihren inneren Vorgängen und Gefühlen nach zu spüren.
Bevor wir also einem Chatbot "Vernunft" attestieren, sollten wir erst einmal die Vielfalt der Vernunft in der Natur angemessen würdigen! Dann gelingt es uns vielleicht, die Fähigkeiten der Chatbots richtig einzuschätzen und uns nicht in unser eigenes kognitives Spiegelbild zu verlieben.
Ergänzung
Mit Ihrem Video zur Komplexität [1] hat mich Frau Hossenfelder überholt. Ja - wir brauchen eine Theorie der Komplexität, wenn wir Denken und Bewusstsein einordnen und verstehen und Licht in die dunkle Welt der KI-Allchemie bringen wollen.
Ein Beitrag von 2017, der immer noch Gültigkeit hat dei 7 Todsünden der Prognosen über die Zukunft der KI
Zitat aus dem Essay von Rodney Brooks:
Hier folgen einige Verben, die zur Beschreibung von Maschinen verwendet wurden; die entsprechenden Fähigkeiten der Maschinen sind mit menschlichen Fähigkeiten in keiner Weise zu vergleichen:
- voraussehen, besiegen, klassifizieren,
- beschreiben, einschätzen, erklären,
- halluzinieren, hören, sich vorstellen,
- beabsichtigen, lernen, entwickeln,
- planen, spielen, erkennen, lesen,
- nachdenken, reflektieren, sehen,
- verstehen, gehen, schreiben
All diese Worte sind in wissenschaftlichen Veröffentlichungen über Fähigkeiten von Maschinen aufgetaucht, die einzelnen, begrenzten Aspekten der Wortbedeutung in der menschlichen Sphäre entsprechen. Leider suggeriert die Verwendung dieser Worte mehr als in Wirklichkeit da ist.