Synapsen sind keine Parameter
Aus Wiki1
Zeile 11: | Zeile 11: | ||
<CalcII>Parameter=175000000000;Schichten=10;Neuronen=Schichten*POT(Parameter/(Schichten-1),0.5);</CalcII> | <CalcII>Parameter=175000000000;Schichten=10;Neuronen=Schichten*POT(Parameter/(Schichten-1),0.5);</CalcII> | ||
- | Ein Menschlices Gehirn verfügt über 80 Milliarden [[Wie aus Neuronen ein Gehirn wurde|Neuronen]]. Bei gleicher Parameterzahl ließen | + | Ein Menschlices Gehirn verfügt über 80 Milliarden [[Wie aus Neuronen ein Gehirn wurde|Neuronen]]. Bei gleicher Parameterzahl ließen sich damit 37000 Schichten realisieren. |
Artikel aus Spectrum der Wissenschaft https://www.spektrum.de/news/sprachmodelle-ist-bei-einer-ki-groesser-immer-besser/2120211 | Artikel aus Spectrum der Wissenschaft https://www.spektrum.de/news/sprachmodelle-ist-bei-einer-ki-groesser-immer-besser/2120211 |
Version vom 07:29, 30. Sep. 2024
Die großen generativen KI-Modelle überbieten sich mit der Anzahl ihrer Parameter und vielfach wird diese Anzahl mit den neuronalen Verbindungen in einem biologischen Gehirn verglichen.
Dabei wird unterschlagen, dass bei einem mathematischen neuronalen Netz jedes Neuron einer Schicht mit jedem Neuron der nächsten Schicht verbunden sein muss. Viele der Verbindungen (Parameter) erhalten aber Gewichtungen um den Wert 0. Diese Verbindungen entsprechen in einem natürlichen neuronalen Netz einer nicht vorhandenen Verbindung.
Anders als in einem künstlichen Netz können Neuronen in einem echten Gehirn Synapsen bei Bedarf neu bilden oder bei fehlender Nutzung zurückbilden. Dabei suchen sie sich autonom ihren Weg durchs Neuronengeflecht.
Die folgende Berechnung ermittelt die Anzahl der möglichen Neuronen in einem künstlichen Netz bei vorgegebener Zahl der Parameter und Schichten und gleicher Anzahl Neuronen je Schicht.
Beispielrechnung ChatGPT3 mit 175 Mrd. Parameter und 10 Schichten. Dieses Netz erfordert 1,4 Mio. Neuronen:
Ein Menschlices Gehirn verfügt über 80 Milliarden Neuronen. Bei gleicher Parameterzahl ließen sich damit 37000 Schichten realisieren.
Artikel aus Spectrum der Wissenschaft https://www.spektrum.de/news/sprachmodelle-ist-bei-einer-ki-groesser-immer-besser/2120211
Ein faszinierender Vortrag über den Versuch, den Aufbau neuronalen Strukturen in unserem Gehirn zu visualisieren. Jeff Lichtmann, Harvard, Brain Connectomics