Was ist Intelligenz und ob sie nur biologischer Natur ist?
Seit der Einführung von ChatGPT und anderen KI-Instruments beschäftigt mich die Frage: „Was ist Intelligenz und ob sie nur biologischer Natur ist?“ Ich habe mehrere Bücher und YouTube-Movies durchgesehen, um die Antwort darauf herauszufinden. Es gibt keine eindeutige Antwort, aber es gibt sicherlich einige gute Hinweise, die Max Tegmark in seinem Buch „Life 3.0“ gegeben hat.
Es gibt keine unumstrittene „richtige“ Definition von Intelligenz, sondern viele konkurrierende Definitionen, darunter die Fähigkeit zu Logik, Verständnis, Planung, emotionalem Wissen, Selbstbewusstsein, Kreativität, Problemlösung und Lernen.
Max Tegmark, Autor des Buches Life 3.0, erklärt Intelligenz allgemeiner als „Fähigkeit, komplexe Ziele zu erreichen“. Ich denke, diese Definition ist weit genug gefasst, um alle oben genannten Definitionen einzuschließen, da Verständnis, Selbsterkenntnis und Problemlösung Beispiele für komplexe Ziele sind, die jeder haben kann. Egal, ob jemand mathematische Fragen löst, um eine Prüfung zu bestehen, ein Group mit Einfühlungsvermögen leitet, um Geschäftsziele zu erreichen, oder an abstrakter Kunst arbeitet, alle sind gute Beispiele für Intelligenz.
Nun zu unserem zweiten Teil der Frage, ob diese Intelligenz nur biologischer Natur ist oder ob sie substratunabhängig ist (Substrat wird als darunter liegende Schicht definiert). Bisher haben wir Intelligenz bei Menschen und Tieren gesehen, und alle sind biologischer Natur, weshalb unser Verständnis von Intelligenz begrenzt sein kann. Max ist dieser Frage sehr intestine nachgegangen und definiert die folgenden Komponenten, aus denen sich Intelligenz zusammensetzt, und erklärt, wie jede einzelne davon substratunabhängig ist:
- Speicher
- Berechnung
- Fähigkeit zu lernen
Speicher — Es kann als Informationsspeichermechanismus für einen intelligenten Agenten betrachtet werden. Max erklärt, dass es eigentlich keine Rolle spielt, wie dieselben Informationen oder ihre Teile als physische Objekte dargestellt werden. „Wenn Sie Ihrem Freund per E-Mail ein Dokument zum Ausdrucken schicken, können die Informationen in schneller Folge kopiert werden, von Magnetisierungen auf Ihrer Festplatte bis hin zu elektrischen Ladungen im Arbeitsspeicher Ihres Computer systems, Radiowellen in Ihrem drahtlosen Netzwerk, Spannungen in Ihrem Router, Laserimpulsen in einem …“ Glasfaser und schließlich Moleküle auf einem Blatt Papier. In anderen Welten können Informationen unabhängig von ihrem physischen Träger ein Eigenleben annehmen.
Berechnung – Hierbei handelt es sich um den Prozess der Manipulation gespeicherter Informationen/Speicher, um Ergebnisse zu erzielen. In seinem Buch erklärt er, dass jede Materie das Substrat für Berechnungen sein kann, solange sie bestimmte universelle Bausteine enthält, die zur Implementierung jeder Funktion kombiniert werden können. NAND-Gatter und Neuronen sind zwei wichtige Beispiele. Ein NAND-Gatter nimmt zwei binäre Eingänge und erzeugt einen binären Ausgang basierend auf einer bestimmten Regel: Der Ausgang ist nur dann falsch, wenn beide Eingänge wahr sind. Dieses einfache Logikgatter kann als Baustein verwendet werden, um komplexere digitale Schaltkreise zu erstellen und eine Vielzahl von Berechnungen durchzuführen. In ähnlicher Weise empfängt ein Neuron im Gehirn über Synapsen Eingaben von anderen Neuronen, verarbeitet diese Eingaben und sendet dann eine Ausgabe an andere Neuronen. Das Neuron fungiert im Wesentlichen als logisches Gatter biologischer Artwork, obwohl es komplexer und weniger deterministisch arbeitet als ein NAND-Gatter. Anhand dieser Beispiele verdeutlicht er, dass Berechnungen nicht auf das biologische Gehirn beschränkt sein müssen, sondern theoretisch auch auf anderen Substraten implementiert werden können.
Fähigkeit zu lernen — Dies ist die Fähigkeit, die gespeicherten Informationen basierend auf neuen Eingaben zu aktualisieren und dadurch die Fähigkeit zu verbessern, Ziele zu erreichen. In biologischen Systemen wird Lernen oft mit neuronaler Plastizität in Verbindung gebracht – der Fähigkeit des Gehirns, seine Verbindungen als Reaktion auf neue Erfahrungen oder Informationen zu ändern. Wenn wir beispielsweise eine Fertigkeit üben, werden bestimmte Nervenbahnen in unserem Gehirn gestärkt, sodass wir diese Fertigkeit in Zukunft leichter ausführen können. Diese Veränderlichkeit oder Plastizität des Gehirns ist die Grundlage unserer Lernfähigkeit. Im Bereich der maschinellen Intelligenz gelten ähnliche Prinzipien. Beispielsweise sind Algorithmen für maschinelles Lernen so konzipiert, dass sie ihre Leistung automatisch verbessern, wenn sie im Laufe der Zeit einer größeren Datenmenge ausgesetzt werden. Sie „lernen“ aus früheren Berechnungen, um zuverlässige, wiederholbare Entscheidungen und Ergebnisse zu erzielen.
In beiden Fällen entsteht die Lernfähigkeit aus einem adaptiven Prozess, der die Leistung im Laufe der Zeit verbessert. Die spezifischen Mechanismen des Lernens sind jedoch sehr unterschiedlich, was zeigt, dass Lernen auf verschiedenen Arten von Substraten stattfinden kann – einem biologischen Gehirn oder einem Silizium-Computerchip.
Ich glaube, dass Max ziemlich solide Argumente geliefert und mir geholfen hat, eine Antwort auf meine Frage zu finden, die ich im Folgenden zusammenfasse:
- Intelligenz kann im weitesten Sinne definiert werden als: „Fähigkeit, komplexe Ziele zu erreichen”
- Intelligenz erfordert keine Fleisch-, Blut- oder Kohlenstoffbestandteile und ist eher substratunabhängig. Nach dieser Definition ist jede Maschine, die in der Lage ist, komplexe Ziele zu lösen, ebenso clever wie Menschen.
Verweise:
Leben 3.0 – Menschsein im Zeitalter der Künstlichen Intelligenz (Verknüpfung)