Versuch einer Theorie der Intelligenz
Aus Wiki1
Dieser Artikel befindet sich in der Entstehungsphase. Er ist unvollständig und noch nicht korrekt ausformuliert. | ![]() |
Allchemie oder Wissenschaft
Die Entwicklung der Naturwissenschaften ist kein gradliniges Voranschreiten, sondern ein von Versuchen und Irrtümern begleitetes Torkeln durch die Zeit.
Die ersten chemischen Erkenntnisse waren krude Mischungen aus experimentellen Erfahrungen und wüsten Theorien angefüllt mit Magie, Religion und Aberglauben. Trotzdem gelangte man mit diesem Eintopf des vermeintlichen Wissens zu bemerkenswerten Ergebnissen.
Aber erst nachdem genügend Erfahrungen vorlagen, gelang es, erste systematische Gedankenkonstruktionen zu bilden, die schließlich im Periodensystem mündeten. Diese Zusammenstellung der vielen Ideen und Erkenntnisse in einem konsistenten, klar strukturierten System erlaubte plötzlich ganz neue Ideen. Es bildete plötzlich eine Landkarte durch den vermeintlichen Urwald des Wissens über chemische Vorgänge und man konnte nun gezielt experimentieren und die Struktur ausbauen. Das war Chemie - nicht mehr Allchemie.
Erst jetzt konnte man von "echter" Wissenschaft sprechen.
Ich glaube, dass wir uns auf dem Feld der künstlichen Intelligenz auf ähnlich unwegsamen Gelände bewegen, wie einst die Allchemie. Wir leben noch in einer Welt des Aberglaubens und der Magie: digitale Seelenwanderung, gewalttätige mechanische Terminatoren, quaselnde Chatbots und binäre Partner*innen bestimmen unsere Wahrnehmung. Noch sind wir weit von einer integrierenden, strukturierten Darstellung von Intelligenz und ihren vielfältigen Erscheinungsformen entfernt. Wir tasten uns durchs Dunkel und setzen hier und da einzelne Kerzen der Erkenntnis. Allchemisten der KI basteln an autonomen Maschinen und künstlichen Künstlern und versprechen den Stein der Weisen oder ewige Jugend. Und noch sind die Stimmen sehr leise, die ein wissenschaftlich begründetes Wort gegen diesen Blödsinn erheben und die unwissenschaftlichen Grundlagen dieser Experten offen legen.
Was fehlt, ist eine zusammenfassende Theorie der Intelligenz, die unsere menschliche Erfahrung, unsere Erkenntnisse aus der Biologie und Verhaltensforschung und die Ideen der künstlichen Intelligenz mit einander verbindet und die Möglichkeiten und Grenzen jenseits kruder Phantasterei ergründet.
Es gibt inzwischen erste Versuche, das Phänomen "Intelligenz" systemunabhängig zu betrachten. Michael Levin hat hier den Begriff "diverse intelligence research" geprägt. diverse+intelligence+research GoogleTM
Ein Vortrag von Michael Levin zur Bandbreite möglicher intelligenter Strukturen und Systeme: https://youtu.be/L5bQnyq4OtQ
...und weitere Videos von ihm: https://www.youtube.com/@drmichaellevin
...ein reizenden Vortrag von David Krakauer über Intelligenz: https://youtu.be/rpa7lv4FXkI
...ein Vortrag von Ricard Solé über kognitive Erscheinungsformen in Natur und Technik [1]
Inhaltsverzeichnis |
Was ist Intelligenz?
Wenn wir über Intelligenz sprechen, nachdenken und forschen wollen, müssen wir den Begriff zunächst abgrenzen. Was meinen wir, wenn wir von Intelligenz sprechen?
Intelligenz
Ein Vorschlag: Für die Abgrenzung von Intelligenz halte ich folgende Annahmen für relevant und zwar sowohl aus schlichter Anschauung und Erfahrung als auch aus logischen Überlegungen:
- Intelligenz ist die Eigenschaft eines von seiner Umwelt abgegrenzten Systems (Maschine, Lebewesen, Mensch, Alien)
- Die Intelligenz eines Systems äußert sich in der Reaktion dieses Systems auf Herausforderungen und Problemstellungen durch seine Umgebung
- Intelligenz erfordert Wahrnehmung der Umgebung, um die Anforderungen überhaupt erkennen zu können
- Intelligenz erfordert Möglichkeiten zur Reaktionen in Bezug auf seine Umwelt, um sich zu äußern
- Intelligenz erfordert innere Regeln zur Verknüpfung der Wahrnehmung und der Reaktion
- Intelligenz erfordert die Fähigkeit zur Adaption der Regeln für die Verknüpfung von Wahrnehmung und Reaktion innerhalb des Systems aufgrund vergangener Erfahrungen (Gedächnis, Lernen)
- Intelligenz erfordert ein systemeigenes Wertesystem, das auf die Anforderungen und Eigenschaften des Systems angepasst ist und seine Wahrnehmung, Erfahrung und Reaktion bewerten kann: gut oder schlecht, richtig oder falsch.
- Intelligenz ist quantifizierbar (wenig Intelligenz, viel Intelligenz)
- Ergebnisse von Intelligenz (Gedanken, Entscheidungen, Erfahrungen, Erkenntnisse) lassen sich über geeignete Muster (Töne, Zeichen, Bilder, Erzählungen, Handlungen) übertragen.
Schlussfolgerung: Ein System ist umso intelligenter,
- je mehr unterschiedliche Anforderungen ein System sinnvoll beantworten kann
oder
- je differenzierter es seine Umgebung und die daraus resultierenden Anforderungen wahrnehmen kann (Anzahl der Sensoren und verfügbaren Wechselwirkungen, Auflösungsvermögen)
- je mehr Optionen zur Reaktion auf die Anforderungen verfügbar sind (Bewegungsoptionen, Kommunikationsoptionen, Denkoptionen)
- je mehr Regeln für die Ableitung von Reaktionen aus den wahrgenommenen Anforderungen zur Verfügung stehen
- je größer und differenzierter die Adaptionsfähigkeit der Regeln ist
- je größer und differenzierter der Umfang vergangener Erfahrungen ist, die das System bewahren kann
- je schneller die Vorgänge für Wahrnehmung, Regelfindung, Adaption und Reaktion ablaufen
Diese Feststellungen sagen nichts darüber aus, wie die "Intelligenz" in das System gekommen ist. KI entsteht, indem wir von außen das System mit Sensoren und Aktoren bestücken und diese mit Regeln einschließlich geeignetere Anpassungs- und Lernregeln miteinander in Beziehung setzen. Ob das System anschließend selbstständig "intelligenter" werden kann, indem es seine Wahrnehmung schärft, Regeln ausbaut oder seine Lernfähigkeit verbessert hängt von der Struktur und den inneren Möglichkeiten des Systems ab.
Bei Lebewesen ist die innere Intelligenz das Resultat einer langen evolutionären Entwicklung und reicht bis hinab in die komplexen Proteinnetzwerke, die das Leben steuern.
Gefühle
Jeder Mensch weiss ohne jeden Zweifel, was für ihn Gefühle bedeuten. Sie gehören zu seinen unmittelbaren Wahrnehmungen. Niemand muss lernen Angst zu haben, sich glücklich zu fühlen oder sich vor etwas zu ekeln. Lernen müssen wir nur den Umgang mit ihnen und die adäquate Einordnung. Aber es ist uns unmöglich, die Gefühle eines anderen Individuums unmittelbar wahrzunehmen. Was sind Gefühle?
Arbeitshypothese: Gefühle entstehen durch die Wechselwirkung zwischen körperlichen Zuständen und deren neuronaler Wahrnehmung. Sie stellen eine wesentliche Entscheidungsgrundlage für Reaktionen auf die Umwelt bzw. auf Vorgänge im Körper eines Individuums dar. Sie sind eine Kombination aus kognitiven Mustern unserer neuronalen Systeme und körperlichen Reaktionen, die beidseitig in Wechselwirkung stehen.
Evolutionär muss sich zunächst die Fähigkeit zur Wahrnehmung und Bewertung unmittelbarer innerer und äußerer Zustände auf körperlicher Ebene ausgebildet haben - Schmerzen bei Verletzungen, Hunger bei unzureichender Ernährung, Reaktionen auf Berührungen. Erst dann bildeten sich neuronale Strukturen, die umgekehrt körperliche Reaktionen erzeugen konnten, die mit diesen Wahrnehmungen korrelierten (Herzrasen, stärkere Durchblutung, Muskelanspannungen). Damit wurde es einem Lebewesen möglich, ohne unmittelbare äußere physische Wirkung, ausschließlich über kognitive Vorgänge, Gefühle hervorzubringen - etwa Angst beim Anblick eines Fressfeindes oder Freude beim Anblick des Partners. Der Anblick des Partners erzeugt Herzklopfen und das Herzklopfen erzeugt das erregende Gefühl.
Gefühle sind nicht ohne körperliche Reaktionen denkbar. Sie beruhen auf hochvernetzten neuronalen Vorgängen und körperlichen, biochemischen Prozessen, die nicht von einander trennbar sind. Phantomschmerzen in einer Hand nach einer Amputation des Armes sind nur möglich, wenn es einen Arm gegeben hat. Menschen die ohne Arme geboren werden, haben keine Phantomschmerzen.
Ein neuronales Netz ohne unterlagerte physische Wechselwirkungen mit einem eigenen Körper und seiner aktuellen Umgebung kann keine Gefühle generieren.
Kreativität
Intelligente Problemlösung braucht das Überschreiten von Grenzen, das Handeln außerhalb von vorgegebenen Regeln. Methoden, Regeln außer Kraft zu setzen und Dinge auszuprobieren sind freie Vorstellung und Spiel.
Arbeitshypothese: Kreativität beruht auf Phantasie und spielerischer Grenzüberschreitung, d.h. der Fähigkeit, selbstständig durch äußere und innere Aktivitäten neue ungewöhnliche Gedankenmuster zu erzeugen, die als Eingangsmuster für neuronale Strukturen dienen können. Phantasie arbeitet parallel zur Wahrnehmung und kann diese überlagern. Deshalb können wir uns Bilder, Töne, Gefühle "vorstellen" ohne sie konkret zu erleben. Ist das "Vorausahnen" von Gefahren oder Belohnungen bei Tieren der Vorläufer zur Phantasie?
Bewusstsein
Arbeitshypothese: Bewusstsein ist die Fähigkeit, innere Vorgänge bei der Regelanwendung und -anpassung (Denken) wahrzunehmen. Sie ist ein Wahrnehmungskanal und hat nicht zwingend etwas mit Intelligenz zu tun. Sie erfordert keine besondere Neuerung sondern verwendet die gleichen Strukturen zur Wahrnehmung wie Sehen, Hören, Tasten oder Riechen oder die Wahrnehmung von Schmerzen und inneren Zuständen. Sie erhält als Eingangsmuster lediglich Muster aus dem Inneren der Gehirnstruktur.
Thesen:
- Bewusstsein ist ein Wahrnehmungskanal und funktioniert ähnlich den anderen Wahrnehmungskanälen: Ein Eingangsmuster wird interpretiert und führt zu einem Ausgangsmuster
- Bewusstsein erfordert die Fähigkeit eines Systems, seine Wahrnehmung selbstständig auf etwas Wahrgenommenes fokussieren zu können
- Der Grad des Bewusstseins hängt von der zeitlichen und räumlichen Ausdehnung des Wahrgenommenen und den Optionen zur differenzierten Fokussierung ab (Wieviel kann das System überhaupt wahrnehmen und auf wieviel unterschiedliche Wahrnehmungen kann sich das System selbstständig fokussieren)
Beispiele: Heutige Bilderkennungssysteme können zwar beiliebige Bilder auswerten und Personen herausfiltern aber die Entscheidung, welche Person sie herausfiltern muss ihnen von außen vorgegeben werden.
Fast alle höheren Lebewesen sind in der Lage, ihre Umwelt wahrzunehmen und sich, je nach Situation, auf einzelne Aspekte zu konzentrieren, um sinnvolle Entscheidungen zu treffen. Unsere Hühner torkeln nicht besinnungslos durch den Garten sondern agieren aufmerksam und zielstrebig.
Ein Ameisenstaat handelt als ganzes intelligenter als es jede einzelne Ameise vermag. Er scheint aber über kein Bewusstsein zu verfügen. Ähnlich kann eine menschliche Gesellschaft bewertet werden. Sie kann als Ganzes hochkomplexe Artefakte hervorbringen, die kein einzelnes Individuum ohne menschliche Gesellschaft als Basis schaffen könnte. Das geht auch ohne höheres Bewusstsein. Es spricht Einiges dafür, dass, so wie Ameisenstaaten in Millionen Jahren Evolution kein Bewusstsein hervor gebracht haben, vermutlich auch eine KI - so wie wir sie heute konstruieren - niemals Bewusstsein entwickeln wird.
Viele Lebewesen fühlen Berührungen an ihren Körpern. Dabei macht es einen großen Unterschied für den inneren Bewusstseinszustand, wo sie berührt werden. Voraussetzung ist aber immer, dass die Berührung überhaupt wahrgenommen werden kann. Kein Roboter wird uns eine Ohrfeige verpassen, wenn wir ihm in den Schritt fassen. Er würde es nicht einmal wahrnehmen, wenn er dort keine entsprechenden Sensoren für Berührungen hat - und wenn er es wahrnehmen würde, auf welcher Grundlage würde er die Berührung interpretieren, um darauf zu reagieren?
Menschen haben die Fähigkeit, die eigenen Gedanken und Erinnerungen wahrnehmen zu können und sich darauf zu konzentrieren. Welche Tiere ihre eigenen inneren Vorgänge wahrnehmen können, wissen wir nicht.
Es gibt heute noch keine Idee, wie sich ein künstliches neuronales Netz darauf trainieren lässt, die inneren Vorgänge "wahrnehmen" und "interpretieren" zu können. Anders als bei Bildern und Wissen, bei denen wir als externer Beobachter die Korrektheit der Transformation von Wort zu Bild oder von Frage zu Antwort bewerten und das neuronale Netz entsprechend anpassen können, haben wir keine Möglichkeit die "Korrektheit" der Transformation von inneren Mustern des neuronalen Netzes festzulegen.
In der Natur hat sich unsere Gehirnarchitektur in winzigen Schritten zusammen mit unserem Körper entwickelt und bei jedem Schritt hat sich die Struktur der neuronalen Netze in unserem Gehirn diesen Veränderungen in ebenso kleinen Schritten angepasst. Es gab kein plötzliches Aufflammen von Intelligenz, Gefühlen und Bewusstsein. Warum dies bei künstlichen neuronalen Netzen möglich sein soll, wäre zu begründen - nicht zu behaupten!.
Ein inspirierendes Gespräch über die Verbindungen lebender Wesen und Ideen zu Fragen des Bewusstseins: https://youtu.be/6hHRtu8Y2sM?feature=shared
Eine Erläuterung von Michael Levin zur Frage, wie Bewusstsein nachgewiesen werden kann: https://youtu.be/ISq5z1TS0BU?feature=shared
Ein Gespräch über Theorien des Bewusstseins: https://youtu.be/h5G6Oc_V3Lw
Ein Gespräch mit Dr. Alex Gómez-Marín über die Entwertung des Lebens durch eine rein materialistische Herangehensweise an Fragen des Bewusstseins:[2]
Autonomie
1. Hauptsatz der künstlichen Intelligenz
Intelligenz ohne Autonomie ist nicht möglich!
Der Grad der Intelligenz eines Systems korreliert mit dem Grad seiner Autonomie gegenüber seiner Umgebung.
Eine Mücke kann sich in einer Umgebung mit sehr vielen Freiheitsgraden sinnvoll verhalten. Ein Industrieroboter erfordert eine statische Umgebung mit definierten Abläufen, um seine Aufgabe zu erfüllen.
Deshalb ist eine Mücke intelligenter als ein Industrieroboter!
2. Hauptsatz der künstlichen Intelligenz
Was braucht es für Intelligenz?
- ein gegenüber seiner Umgebung abgrenzbares System
- eine Umgebung, die in Wechselwirkung mit dem System steht
- Das System muss die Fähigkeit haben,
- die Wechselwirkung, den eigenen Zustand und den Zustand der Umgebung wahrzunehmen
- selbst auf die Wechselwirkung zu reagieren und den eigenen Zustand an den Zustand der Umgebung anzupassen
- ein Regelsystem besitzen, um angemessene Reaktionen abzuleiten
- die Regeln bei Änderung der Umgebung oder des eigenen Zustands anpassen zu können
Das Niveau der Intelligenz ist abhängig von den Möglichkeiten und Vielfalt
- der Wahrnehmung
- der Reaktionen
- der Regeln
- der Regeländerungen
Je mehr davon ein System besitzt, umso höher ist seine Intelligenz.
Grundlagen
2. Hauptsatz der künstlichen Intelligenz
These: Ein parallel musterverarbeitendes System kann ein sequenziell logisches System simulieren - ein sequenziell logisches System kann kein parallel musterverarbeitendes System simulieren.
Eine "Mehrband-Turingmaschine" ist nicht das Gleiche wie ein Netzwerk aus autonomen Neuronen in einem biologischen Gehirn.
Die Fähigkeit, logische Kausalketten abzuarbeiten, ist nur eine Teilmenge aller möglichen kognitiven Fähigkeiten und anscheinend leichter durch Maschinen zu reproduzieren, als wir bisher dachten. Hierzu gehören Mathematik, Sprache, Musik und logisches "Denken".
Hierzu gehört aber nicht, in unwegsamen Gelände umzufallen und wieder aufzustehen - auf eine unerwartete Situation angemessen zu reagieren - aus der Beobachtung eines Lebewesens auf dessen inneren Zustand zu schließen - zu streiten - etwas zu wollen - etwas zu genießen - etwas zu hassen...
1. Hauptsatz der künstlichen Intelligenz
Umgebung und System
Intelligenz, Autonomie und Bewusstsein beziehen sich immer auf ein von seiner Umgebung abgrenzbares System oder Subjekt. Die Umgebung ist die Welt außerhalb des Subjekts und steht mit ihm auf vielfältige Weise in Wechselwirkung. Lebende Subjekte können nicht unabhängig von ihrer Umgebung betrachtet werden, da ihre Eigenschaften immer auch durch die Umgebung, in der sie leben, definiert sind.
Ob man künstliche autonome Systeme schaffen kann, die sich selbständig an neue Umgebungen anpassen können, ist noch völlig offen. Bisher müssen alle diese Systeme durch Menschen auf ihre zukünftige Umgebung vorbereitet werden und können sich nur sehr begrenzt an Veränderungen adaptieren.
Autonome, lebendige Systeme verfügen über 2 mögliche Wege der Wechselwirkung mit ihrer Umgebung:
- die Möglichkeit, sich selbst und die Umgebung oder Teile der Umgebung über Signale passiv wahrzunehmen
- die Möglichkeit, sich selbst und die Umgebung durch aktive Rückwirkung zu verändern
Wahrnehmung der Umgebung
Damit ein System innerhalb einer Umgebung autonom handeln kann, muss es die Umgebung im Rahmen seiner physikalischen Möglichkeiten wahrnehmen und diese Wahrnehmung auswerten können. D.h. es muss relevante Zustände erkennen bzw. die Umgebung gezielt auf entsprechende Zustände analysieren können. Je enger die Wahrnehmung mit den tatsächlichen physikalischen Gegebenheiten in der Umgebung verknüpft sind, umso zuverlässiger kann sie als Grundlage für Entscheidungen verwendet werden.
Je mehr Transformations- und Analyseschritte zwischen physikalischer Ursache der Wahrnehmung und der erlebten Wahrnehmung liegen, umso mehr Möglichkeiten der Täuschung und Verfälschung gibt es.
Die modernen generativen KI-Modelle haben keinen echten physikalischen Wahrnehmungskanal, den sie autonom auswerten können. Sie sind immer auf die Übersetzung durch eine externe Intelligenz (dem Menschen) angewiesen, die ihnen zeigt, wie das Wahrgenommene eingeordnet werden muss.
Handlungsoptionen
Ohne die Fähigkeit, aktiv seine Umgebung zu beeinflussen oder zu manipulieren ist ein autonomes System nicht denkbar.
Regelsystem
Damit ein lebendes System möglich ist, muss es 3 Bedingungen erfüllen:
- es muss Materie und Energie aus seiner Umgebung aufnehmen können, um zu wachsen
- es muss sich vor schädlichen Umwelteinflüssen schützen können
- es muss sich vermehren können.
Aus diesen 3 Anforderungen ergeben sich die Eigenschaften jedes lebenden Systems - sowohl sein physikalischer Aufbau als auch seine inneren Regeln und Wirkungsmechanismen. Diese inneren Regeln sind die Repräsentation des "Willens" des Systems: sein Drang zu überleben und sich fortzupflanzen. Ohne diesen inneren Willen würde jedes lebende System aufhören zu existieren. Und dieser Wille korrespondiert unmittelbar mit seinem "Körper".
Könnte dieser eingeschriebene Wille nicht als Geist verstanden werden, der dem Körper innewohnt? Ein Geist, dessen Komplexität und Vielschichtigkeit mit der Komplexität des Körpers und seiner Umwelt wächst?
Ist es dann überhaupt möglich, Geist/Wille und Körper zu trennen?
Und kann ein Computer Geist ohne Willen haben? Welche inneren Regeln sind dazu notwendig?
Adaptionsfähigkeit
Intelligente Systeme in der Natur zeichnen sich alle durch eine große Anpassungsfähigkeit aus. Sie können in unterschiedlichen Zeiträumen auf Veränderungen in ihrer Umgebung reagieren, sei es, durch langsame genetische Anpassung oder durch unmittelbare Anpassung ihres Verhaltens auf der Basis biochemischer und kognitiver Prozesse.
Die Anpassung geht einher mit der Ausbildung neuer Fähigkeiten (Lernen) und dem Fällen sinnvoller Entscheidungen auf Basis innerer Abwägungsprozesse (Denken).
Moderne KI-Systeme können lernen und - in einem weit gefassten Sinne - denken. Allerdings sind sie dabei auf die intelligente Unterstützung durch Menschen angewiesen. Ihnen fehlt rede Referenz zur Wirklichkeit. Sie können nicht selbstständig feststellen, ob Trainingsdaten mit der Wirklichkeit korrespondieren oder ihr widersprechen.
Wo beginnt Intelligenz?
Ist eine Bohrmaschine intelligent? Sie reagiert auf das Drücken des Schalters. Wenn sie eine Rutschkupplung besitzt, schützt sie sich bei Blockieren des Bohrer selbstständig. Wird die Bohrmaschine intelligenter, wenn wir sie mit Sensoren und einem neuronalen Netz versehen, das bewertet, ob Bohrer und Material zusammenpassen und sich automatisch entsprechend einstellt?
Wie ist die Intelligenz in die Bohrmaschine gekommen?
Wie intelligent ist ein Virus, ein Pantoffeltierchen, eine Schnecke? Wie ist die Intelligenz ins Leben gekommen?
Lässt sich Intelligenz messen?
Aktuell (2024) werden wir geflutet von Nachrichten über neue großartige Fähigkeiten von KI-Systemen. Sie können programmieren, lügen, sprechen, schreiben, lesen, übersetzen, malen, Filme erstellen, menschliche Sprache imitieren und wer weiss was noch alles!
Was KI alles kann:KI_kann_jetzt GoogleTM
Das wird dann von nicht Wenigen als Beleg für die zukünftige Überlegenheit von Maschinen gegenüber Menschen und Lebewesen angesehen. Aber welches Bewertungsystem liegt dem zugrunde? Wer hat die Kriterien für "besser" oder "intelligenter" definiert?
Weder Turing- noch Intelligentests sind adäquate Verfahren, um Intelligenz zu messen - besonders wenn es um die Intelligenz völlig unterschiedlicher System wie die eines Lebewesens und einer Maschine geht. Darüber ist sich die Wissenschaft heute einig - auch wenn das noch nicht in die Köpfe von Medienvertretern und manchem Informatiker vorgedrungen ist.
Eine Möglichkeit, Intelligenz einzuordnen besteht im Abzählen der bereits oben genannten Kriterien. Wie viele Kanäle besitzt ein System, um seine Umgebung und seine inneren Vorgänge wahrzunehmen und mit ihnen zu interagieren. Wie viele Regeln besitzt es, um die Interaktionen zu steuern und zwischen unterschiedlichen Optionen zu entscheiden. Wie viele Möglichkeiten zur Adaption dieser Regeln besitzt ein System.
Ich bin mir sicher, dass aktuell der Vergleich zwischen einem Roboter von Boston Dynamics und dem Spermium eines Grottenolms zu Gunsten des Spermiums ausfallen würde.
Eine andere Möglichkeit, den Status eines Systems bezüglich seiner Intelligenz einzuordnen, könnte im Vergleich der "Entwicklungszeit" liegen. Der Spracherwerb des Menschen hat nach bisherigen Kenntnissen wenige 100.000 Jahr benötigt. Die Entwicklung vom Bakterium zum autonomen, vielzelligen Lebewesens brauchte dagegen einige 100.000.000 Jahre. Letzteres muss also deutlich schwieriger gewesen sein - oder anders ausgedrückt: in einem vielzelligen Lebewesen steckt bei weitem mehr Intelligenz als in der neuronalen Struktur, die Sprache erlaubt.
Es ist nämlich keineswegs sicher, dass die Fähigkeit zur Sprache besonders viel Intelligenz erfordert. Das was unsere heutigen Computer tun, hat mit der Sprache eines Lebewesens nichts zu tun. Bei diesen Sprachmodellen handelt es sich um Transformationsmaschinen, die aus einem Eingangsmuster ein Ausgangsmuster erzeugen und dabei aus einem riesigen Vorlagenpool an Sprachmustern schöpfen können, den (intelligente) Menschen geschaffen haben. Was unterscheidet eine KI von einer Bibliothek?
Ein Huhn kann nicht sprechen. Aber es kann aus sich selbst heraus ein fremdes Objekt mustern und abschätzen, ob es gefährlich oder harmlos, essbar oder giftig, interessant oder langweilig ist. Es kann sich selbstständig, ohne Aufforderung um kleine Küken kümmern, sie umsorgen und auf sie aufpassen. Und wenn man es gut behandelt, tut es das viele Jahre lang. Und das soll nicht intelligent sein?
Space of Cognition
Der Kognitionsforscher Sole schlägt die Einordung von intelligenten Systemen in einen "Raum der Kognition" vor. Er verwendet dabei die Koordinaten
- Autonomy
- computational complexity
- Agent-Agent interaction
Flüssige Gehirne und die Kartierung des kognitiven Raums mit Ricard Solé
Man könnte aber auch andere Koordinaten wählen. Ich schlage folgende vor:
- räumliche und zeitliche Reichweite von Sensorik und Aktorik (Wahrnehmungs- und Handlungsraum)
- räumliche und zeitliche Reichweite der Adaptionsfähigkeit (Gedankenraum)
- Auflösungsvermögen der Sensorik- und Aktorik
Die Einordnung von Systemen könnte dann wie folgt aussehen:
Die Quantifizierung der Koordinaten - also die Zuweisung eines konkreten Zahlenwertes - ist dann die nächste Fragestellung. Gibt es für jede Koordinate einen Index, der aus den entsprechenden Systemeigenschaften abgeleitet werden kann?
Personen
Bernardo Kastrup, Computeringenieur und Philosoph: Kritisiert die Idee, dass KI auf Computerbasis Bewusstsein entwickeln kann
Bernardo+Kastrup+theorie+of+mind GoogleTM
Michael Levin, Biologe: sieht kognitive Prozesse nicht nur in neuronalen Netzen, sondern auch in anderen Systemen
Michael+Levin+theorie+of+mind GoogleTM
Links
Neue Wege der Kognitionsforschung
Ein Arte-Video über die Intelligenz jenseits des Menschen Gespräch mit James Bridle
Menschliche Intelligenz: https://wuecampus.uni-wuerzburg.de/moodle/mod/book/tool/print/index.php?id=322100
Definitionen KI:
https://elektro.at/wp-content/uploads/2019/10/EU_Definition-KI.pdf
Noch mehr Definitionen: http://www.verhaltenswissenschaft.de/Psychologie/Personlichkeit/Intelligenz/intelligenz.htm#uebersicht
Intelligenz, Beltz Verlag: https://www.beltz.de/fileadmin/beltz/leseproben/978-3-621-28044-0.pdf
Video Vortrag Natürliche Intelligenz trifft künstliche Intelligenz
Was künstliche Intelligenz nicht ist, Fraunhofer: https://blog.iao.fraunhofer.de/was-ist-kuenstliche-intelligenz-eine-definition-jenseits-von-mythen-und-moden/
Organic Computing - intelligente Selbstorganisation in der Natur