Freitag, 3. April 2026

"Denkt" die KI?

Künstliche Intelligenz (KI) steht aktuell hoch im Kurs. Ich wage zu behaupten, dass fast jeder sie nutzt, sei es privat, in der Schule, im Studium oder im Beruf. Es scheint schon selbstverständlich, bei Fragen oder Problemen die KI zu fragen und sie für uns „denken“ zu lassen. Aber kann man das, was sie mit unseren Inputs macht, wirklich „denken“ nennen? Oder anders gefragt: Inwiefern kann man es als „denken“ bezeichnen, wenn wir das, was die KI macht, mit unserem Denken vergleichen? Ich habe die Frage an ChatGPT gestellt. So hat ChatGPT auf den Prompt „Denkt die KI?“ geantwortet:
Kurz gesagt: Nein - KI denkt nicht wirklich so wie ein Mensch.

Aber sie kann so wirken, als ob sie denkt, weil sie sehr gut Muster erkennt und darauf reagiert. Eine KI wie ChatGPT verarbeitet Texte und Daten mit mathematischen Modellen. Dabei passiert Folgendes:

1. Mustererkennung statt echtes Denken
KI-Modelle werden mit sehr vielen Beispielen trainiert. Sie lernen dabei Muster in Sprache und Information zu erkennen. Wenn du eine Frage stellst, berechnet das System wahrscheinliche passende Antworten.

2. Kein Bewusstsein
KI hat kein Bewusstsein, keine Gefühle und keine eigenen Absichten. Sie „weiß“ nichts im menschlichen Sinne – sie berechnet nur Antworten.

3. Warum es trotzdem wie Denken wirkt
Moderne Modelle (z.B. große Sprachmodelle) können:
> Zusammenhänge erkennen
> Probleme Schritt für Schritt lösen
> Texte sehr natürlich formulieren

Das lässt es so wirken, als würde die KI nachdenken, obwohl im Hintergrund nur Statistik und Rechenoperationen laufen. 

Vergleich:
> Mensch: denkt mit Erfahrung, Emotionen und Bewusstsein
> KI: berechnet Wahrscheinlichkeiten

(ChatGPT, persönliche Kommunikation, 27. März 2026)
Die Antwort, die das Denken der KI verneint, scheint für mich plausibel, und intuitiv würde ich dem auch so zustimmen, aber was steckt wirklich dahinter? Kann es sein, dass die KI vielleicht doch denkt? Es erscheint doch im Chat beim Warten auf die Antwort „Denkt…“. Denkt sie also wirklich?

Diese Frage zu beantworten, erweist sich als sehr knifflig. Dies beginnt schon damit, dass der Begriff des Denkens nicht eindeutig definiert werden kann und auch die Hirnforschung durchaus noch vieles aufdecken muss, um diese Frage eindeutig beantworten zu können.

In diesem Beitrag möchte ich mich intensiver damit beschäftigen, ob die KI wirklich denkt, und versuchen, eine Antwort darauf zu finden. Um der Frage nachzugehen, ist es zunächst notwendig, sich das Denken genauer anzuschauen. Anschließend daran gilt es, ein Augenmerk auf die KI und deren Funktionen zu legen. Nachdem die Grundlagen betrachtet worden sind, richtet sich die Aufmerksamkeit auf den zentralen Punkt der Arbeit, und zwar die Frage „Denkt die KI?“. Abschließen möchte ich den Beitrag mit einem Fazit.

Was ist Denken?


Denken ist etwas, das uns den ganzen Tag über begleitet. Wir denken ununterbrochen. Sei es bei der Auswahl unseres Mittagessens, dem Lösen einer Aufgabe oder dem Erinnern und Träumen. All das zählt zu unseren Denkprozessen. Aber was genau ist „Denken“ eigentlich?

Wir verbinden Denken mit einer Vielzahl von Bedeutungen und nutzen es in unserem Sprachgebrauch in verschiedenen Kontexten. Schlägt man „Denken“ im Duden nach, so findet man mehrere Definitionen und Bedeutungen. Zum Beispiel: „die menschliche Fähigkeit des Erkennens und Urteilens anwenden“ oder „mit dem Verstand arbeiten“ (Duden, 2026). Zu den Synonymen oder Bedeutungen zählen unter anderem meinen, nachdenken, vermuten oder sich etwas vorstellen (vgl. Duden, 2026).

Denken ist aber weitaus mehr als nur eine Definition im Duden. Schon seit Jahrtausenden beschäftigen sich Wissenschaftler mit der Frage, was Denken ist und wie der Mensch dies tut (vgl. MedLexi, 2024). Damit zählt diese Frage zu einer der ältesten der Menschheit (vgl. Hansel 2024, S. 35). Auch für diesen Beitrag ist sie fundamental. Ohne zu verstehen, was Denken ist und wie es funktioniert, kann man nicht darauf schließen, ob das, was die KI macht, dem Denken des Menschen gleichkommt.

In der Wissenschaft beschäftigt sich traditionell die Psychologie mit dem Denken (vgl. Hansel 2024, S. 32). Aber auch Neurowissenschaftler und Philosophen beteiligen sich an der Forschung. Die Frage danach, was ein Gedanke oder das Denken ist, ist sehr knifflig (vgl. gehirn.info, 2026) und bleibt bisher ohne eindeutige Antwort (vgl. Max-Planck-Gesellschaft, 2018).

Um besser zu verstehen, wie das Denken funktioniert und was es ist, machen wir einen kurzen Exkurs an den Ort des Geschehens: in das Gehirn.
 
Gehirn

Das Gehirn gilt als Schaltzentrale des Menschen. Es ermöglicht uns, Informationen auf eine komplexe Art und Weise aufzunehmen und zu verarbeiten (vgl. Carter et al., 2023, S. 7). Dazu gehört auch das Denken, das für meine Untersuchung eine zentrale Rolle spielt.

Unser Gehirn ist dazu in der Lage, eine sehr große Menge an Aufgaben gleichzeitig und reibungslos erledigen zu können. Dies geschieht über die Milliarden von Neuronen, welche sich in ihm befinden. Sie erzeugen Nervenimpulse, die dann als elektrisches Signal an andere Neuronen weitergeleitet werden. Dafür sind sie über lange Fortsätze, den Axone, miteinander verbunden und bilden ein dichtes Netzwerk. Da dieses aus Neuronen besteht, nennt man es das „neuronale Netzwerk“. Es erzeugt unsere Gedanken, Empfindungen und Emotionen (vgl. Carter et al., 2023, S. 7 ff.).

Neben dem Großhirn, das ein Teil des Gehirns darstellt, spielt auch das limbische System eine wichtige Rolle für unser Gedächtnis und somit auch für unser Denken. Es ist das Zentrum für Emotionen und Triebe und beeinflusst unter anderem unser Gedächtnis (vgl. Carter et al., 2023, S. 16). Wir denken also im Gehirn oder genauer gesagt in Strukturen des Gehirns. Aber was ist „denken“ jetzt eigentlich und was passiert beim Denken?

Denken

Ganz allgemein kann Denken als Vorgänge des Gehirns beschrieben werden, die zur Erkenntnis führen, woraus dann vielfältige Handlungen abgeleitet werden. Es dient der Problemlösung und setzt sich aus Vorstellungen, Erinnerungen und logischen Schlussfolgerungen zusammen (vgl. MedLexi, 2024).

Allerdings stößt die Wissenschaft bei der Frage nach dem Denken an ihre Grenzen. Was beim Denken im Gehirn abläuft, ist bis heute nicht in allen Einzelheiten erforscht und erklärbar (vgl. MedLexi, 2024). Zwar konnte man bis jetzt schon einiges über das Denken herausfinden, es bleiben aber noch viele Fragezeichen, die es aufzudecken gilt . Der Grund dafür liegt in der Komplexität des Gehirns. Es ist weitaus komplexer, als man es sich vorgestellt hat (vgl. Beck et al., 2016, S. 313).

Tim Vogels hat es in einem Vortrag so zusammengefasst, dass wir zwar annähernd verstehen, was an einzelnen Neuronen passiert, aber das ganze Netzwerk können wir noch nicht verstehen (vgl. ISTAustria, 2021). Das liegt vermutlich daran, dass das neuronale Netzwerk mehr ist als die Summe der Neuronen. Das bedeutet, wir können durch die „bloße Kombination der Einzelteile des Netzwerks ab einer bestimmten Komplexität die auftretenden Effekte nicht mehr erklären oder auf sie schließen“ (Beck et al.; 2016, S. 325).

Um das Denken in Gänze erklären zu können, müsste man das gesamte Netzwerk aus Neuronen verstehen, denn es ist die Grundlage vieler Hirnfunktionen, unter anderem dem Denken (vgl. Beck et al., 2016, S. 141). Haben wir einen Gedanken im Kopf, so ist das kein neuronaler Zustand oder neuronale Repräsentation im Gehirn, sondern ein Prozess (vgl. gehirn.info, 2015). Das bedeutet, dass das neuronale Netzwerk auf eine bestimmte Art und Weise aktiv ist. Somit ist die Aktivität des Netzwerkes im Gehirn ein Gedanke. Die Informationen werden als Muster gespeichert, und so entstehen bestimmte Aktivitätsmuster (vgl. Beck et al., 2016, S. 320).

Früher ging man davon aus, dass es ein gleichartiges Schema gibt, nach dem die Informationen in Form eines Aktivitätsmusters im Gehirn repräsentiert werden. Mittlerweile vermutet man, dass sich das Gehirn individuell im Laufe des Lebens entwickelt. Es filtert Muster aus der Umwelt heraus, um Sinnesreize effizienter zu verarbeiten sowie funktionale Aktivitätsmuster aufzubauen. Der Prozess dabei ist sehr individuell, weshalb auch keine zwei Aktivitätsmuster gleich sind. Auch hier findet man eine Lücke in der Forschung. Man weiß, was einen Gedanken ausmacht, aber nicht, nach welchen Regeln die Aktivitätsmuster verarbeitet werden (vgl. Beck et al., 2016, S. 320f.).

Wir können unser Denken in zwei Systeme einteilen. Das eine ist das schnelle und unbewusste System, das andere das langsame, bewusste und Dinge durchdenkende System. Beide Systeme beeinflussen unsere Entscheidungen und Urteile (vgl. Carter et al. 2023, S. 133). Stehen wir vor einer Entscheidung, wird diese oft mit dem Verstand getroffen. Dafür werden Informationen aus verschiedenen Hirnarealen abgeglichen, um diese durchdacht fällen zu können (vgl. Carter et al., 2023, S. 129). Daneben gibt es auch eine Reihe an Entscheidungen, die wir unbewusst, schnell und intuitiv treffen. In den meisten Fällen ist es aber ein Zusammenspiel aus Intuition und rationalem Denken, also dem Verstand (vgl. Carter et al., 2023, S.131).

Das Bewusstsein spielt für unser Denken eine entscheidende Rolle. Die Gedanken entstehen auf der Ebene des Bewusstseins. Unter dem Begriff „Bewusstsein“ kann man einen höchststufigen geistigen Prozess verstehen, durch den wir in der Lage sind, unsere inneren mentalen Vorgänge zu reflektieren (vgl. Beck et al., 2016, S. 314).

Wir sind dazu in der Lage, unbewusst oder bewusst zu denken. Allerdings nehmen wir nur die bewussten Gedanken wahr. Um gedankliche Vorgänge bewusst zu machen, müssen sich Nervenzellen lange genug synchronisieren. Dafür stimmen sich Nervenzellen aus verschiedenen Regionen untereinander ab. Dabei wird die Erregung der Zellen immer wieder hin- und hergeschickt, wodurch der Informationsinhalt der beteiligten Regionen bewusst werden kann (vgl. Beck et al., 2016, S. 314). Damit am Ende dann ein bewusster Gedanke entsteht, werden Erfahrungen und Vorwissen kombiniert. Da Erfahrungen und Vorwissen von Person zu Person verschieden sind, sind auch Gedanken individuell und unterschiedlich (vgl. Becker et al., 2016, S. 314).

Unser Denken ist personalisiert. So ist jedes Denken das Denken einer bestimmten Person (vgl. Funke, 2022). Da das, was wir denken, von unserem Gedächtnis gesteuert wird, sind die Gedanken der Menschen zu einem bestimmten Objekt unterschiedlich. Das Gedächtnis sucht nach Erinnerungen, die dann das Denken beeinflussen und gewissermaßen steuern (vgl. bunte un binne, 2025). Die neuronale Verschaltung ist abhängig von den individuellen Erfahrungen und Erlebnissen und deshalb von Person zu Person verschieden. Da sie für das Denken verantwortlich ist, unterscheidet sich auch das von Mensch zu Mensch (vgl. Carter et al., 2023, S. 55).

Das Denken wird von verschiedenen Faktoren beeinflusst. Neben Emotionen, Trieben und Erfahrungen beeinflussen auch Stimmungen, also länger anhaltende mentale Zustände, und unser Bewusstsein die Gedanken. Verändert sich unser Bewusstsein weg von dem „Normalbewusstsein“, zum Beispiel in Extremsituationen oder Tagträumen, so verändern sich auch unsere Gedanken (vgl. Carter et al., 2023, S. 41 & S. 147).

Fassen wir zusammen: Denken ist ein Prozess im Gehirn, bei dem Neuronen elektrische Signale weiterleiten. Diese Neuronen sind als Netzwerk verbunden. Beim Denken wird ein Input aufgenommen, verarbeitet und es entsteht ein Output. In unserem Gehirn können mehrere Inputs gleichzeitig verarbeitet werden. Ziel des Denkens ist zum einen die Problemlösung und zum anderen die Verarbeitung von Informationen.
 
Dabei geht das Gehirn rational, logisch und/oder intuitiv, unbewusst vor. Zentral für unser Denken ist unser Gedächtnis - der Speicher unserer Erinnerungen, Erfahrungen und unseres Wissen - und unser Bewusstsein. Wie und was wir denken, ist unterschiedlich, abhängig von Faktoren wie Erfahrungen, Emotionen, Stimmungen, dem Bewusstsein und dem Vorwissen. Das Gehirn und das Denken selbst sind so komplex, dass man zwar schon vieles herausfinden und erklären konnte, aber auch noch vieles unerklärt bleibt. Jetzt wissen wir mehr über das Denken und können uns nun der KI widmen.

Künstliche Intelligenz 

Das nachfolgende Video fasst KI kurz und einfach zusammen.


 
Wichtig zur Beantwortung meiner Frage, ob die KI denkt, ist die Funktionsweise der KI. Grundsätzlich kann man sagen, dass es verschiedene Systeme gibt, nach denen KI arbeitet. In einer KI stecken oft mehrere verschiedene Systeme. Dazu gehören ein System zur Verarbeitung natürlicher Sprache, Algorithmen zum maschinellen Lernen und eine Software für die Bildverarbeitung (vgl. Seeßlen, 2024, S. 19 f).

Des Weiteren kann man die KI mit einem Bauwerk aus Legosteinen vergleichen. Eine KI ist aus verschiedenen Bausteinen aufgebaut. Diese Bausteine beinhalten die Sprach- und Bilderkennung, Datenmengen, die Robotik, was die Umsetzung dessen darstellt, was sie machen soll, Algorithmen als Handlungs- und Bewegungsanweisungen, Grundformen der Lernsysteme, aber auch die Vernetzung der einzelnen Elemente und am Ende die Ausgabe von Sprache, Bild oder Texten (vgl. Seeßlen, 2024, S. 36).

Der ein oder andere ist vielleicht über das Wort „Algorithmen“ gestolpert und fragt sich, was eigentlich dahintersteckt. Unter dem Begriff "Algorithmen", der sehr häufig im Zusammenhang mit Informatik und insbesondere KI zu hören und lesen ist, versteht man eine Art „Schritt-für-Schritt-Anleitung“ für die Lösung von Problemen oder für die Durchführung einer bestimmten Aufgabe (vgl. Krauss, 2023, S. 121).

KI ist also ein sehr großer Begriff und umfasst eine große Bandbreite an Funktionen. So ist sie ein Oberbegriff für Methoden, die darauf abzielen, Entscheidungsprozesse, die normalerweise menschliche Intelligenz erfordern, zu automatisieren. Damit KI-Systeme Aufgaben lösen und Fragen beantworten können, brauchen sie eine große Anzahl an Daten, die mithilfe des maschinellen Lernens erzeugt werden. Das maschinelle Lernen gehört neben den Trainingsdaten und den neuronalen Netzwerken zu den Grundlagen der künstlichen Intelligenz (vgl. BSI, o. D.).

Maschinelles Lernen

Maschinelles Lernen ist eine Subkategorie der KI oder vielmehr eine Methode, mit der die KI arbeitet. Es ist die Grundlage der meisten KI-Systeme und beschäftigt sich mit der Entwicklung von Algorithmen sowie statistischen Modellen, die es dem System möglich machen, aus Daten zu lernen und in ihnen eigenständig Muster zu erkennen, aus denen es dann Vorhersagen oder Entscheidungen ableiten kann, ohne dafür explizit für jede Aufgabe programmiert zu werden (Krauss, 2023, S. 121).
 
Ein Algorithmus erlernt beim maschinellen Lernverfahren durch Wiederholen, selbstständig Aufgaben zu erfüllen. Dabei orientiert sich die Maschine an einem vorgegebenen „Gütekriterium“ und dem Informationsgehalt der Daten. Der Algorithmus der Systeme, die maschinelles Lernen betreiben, unterscheidet sich insofern von dem herkömmlichen System, als dass für diesen keine Lösungswege angefertigt werden müssen. So lernt der Computer, die Struktur der Daten eigenständig zu erkennen (vgl. Fraunhofer-IKS, o. D.).

Hier ist Vorsicht geboten. Im Fall des maschinellen Lernens kann man nicht von einem „Selbst-Lernen“ oder einem zielgerichteten Lernen mit einem selbst gesteckten Ziel sprechen. Die KI wird von einem Menschen programmiert und bekommt eine Methode, was wie oft in den vorliegenden Daten auftaucht. Zudem legt die Methode fest, in welcher Form die gefundenen Muster oder Regeln gespeichert werden. Beispielhaft wäre der Entscheidungsbaum. Hierbei wird eine Frage gestellt, welche am Anfang des Baums steht. Die Beantwortung führt dann stufenweise entweder nach rechts oder links auf die nächste Stufe (vgl. Zweig, 2023).

Neuronales Netzwerk

Gehen wir etwas tiefer in die Materie und kommen zu einer Unterkategorie des maschinellen Lernens: den neuronalen Netzen. Neuronale Netze sind Lernalgorithmen, die von den menschlichen Nervenzellverbindungen im Gehirn inspiriert sind. Wie wir schon wissen, verarbeitet unser Gehirn Informationen über Neuronen und Synapsen. Analog dazu bestehen die künstlichen neuronalen Netze aus mehreren Reihen von Datenknoten, den (künstlichen) Neuronen, die mit einer gewichteten Verbindung vernetzt sind (Fraunhofer-IKS, o. D.).

Künstliche Neuronen 

Künstliche Neuronen sind vereinfachte mathematische Modelle der biologischen Neuronen und die grundlegende „Verarbeitungseinheit“ in der KI. Sie erhalten Inputs über verschiedene Eingangskanäle in Form von reellen Zahlen. Die Eingaben werden gewichtet und aufsummiert. Durch eine Aktivierungsfunktion werden sie dann verarbeitet, um den Output des Neurons zu bestimmen (vgl. Krauss, 2023, S. 125 f.). Die künstlichen Neuronen sind miteinander verbunden und bilden in Summe ein künstliches neuronales Netzwerk.

Künstliches neuronales Netzwerk

Wie funktionieren solche künstlichen, an unserem Gehirn orientierten neuronalen Netze nun aber? Neuronale Netze müssen trainiert werden. Dafür werden ihnen immer wieder Daten vorgelegt. Durch das Wiederholen lernt das neuronale Netz dann, die Daten bei jedem Mal genauer einzuordnen. Das Ganze funktioniert dadurch, dass die Gewichtung der einzelnen Verbindungen zwischen den einzelnen Schichten der Neuronen immer wieder angepasst wird. Bei den Lerndurchläufen entsteht dann ein Modell, das auch auf Daten angewendet werden kann, welche die KI im Training noch nicht kennengelernt hat (vgl. Fraunhofer-IKS, o.D.).

In den meisten Fällen besteht ein KI-System aus verschiedenen Schichten, in denen die Neuronen angeordnet sind. Zu diesen Schichten gehören die Eingabeschicht, der „Input Layer“, die meist mehreren Zwischenschichten, die als „Hidden Layer“ bezeichnet werden, da sie versteckt sind, und zum Schluss der “Output Layer“, die Ausgabeschicht (vgl. Krauss, 2023, S.127).

Durch die Zwischenschichten können nichtlineare Veränderungen der Eingabedaten von dem Netz erlernt werden. So können neuronale Netze komplexere Beziehungen und Entscheidungsgrenzen erfassen, was sie wiederum vielseitiger und leistungsfähiger für verschiedene Anwendungen macht. Wenn ein neuronales Netz aus vielen Zwischenschichten besteht, handelt es sich um ein tiefes Netzwerk (vgl. Krauss, 2023, S. 128 f.). Hat ein neuronales Netz solche verdeckten Schichten von Neuronen, die nicht direkt an die Eingabe- und Ausgabeschicht gekoppelt sind, handelt es sich um „deep learning“ (vgl. IKS-Frauenhofer, o.D.).

Large Langauge Modells - LLMs

Neben dem maschinellen Lernen und den neuronalen Netzen mit deep learning spielen die sogenannten „Large Language Models“ kurz LLMs eine bedeutende Rolle. Sie stellen das dar, was aktuell in den Medien als KI bezeichnet wird.

LLMs sind KI-Systeme, die anhand von komplexen Wahrscheinlichkeitsformen und einer großen Menge an Trainingsdaten statistische Vorhersagen machen und diese dann ausgeben. Es gibt eine Reihe von verschiedenen Architekturen, wie diese Systeme aufgebaut sind. Die aktuell gängigste Architektur sind sogenannte „Generative Pretrained Transformer“, kurz GPT. LLMs, die auf der GPT-Architektur aufbauen, werden mit einer großen Menge an Daten trainiert. Dabei kommt die Technik des maschinellen Lernens zum Einsatz. Bei diesem Vorgang wird nach Wortgruppen und der Nähe von Worten zueinander gesucht. Zum Beispiel gehören König und Königin zusammen, aber ob es sich in dem Text um Schach oder einen Fantasy-Roman handelt, kann erst gesagt werden, wenn das Wort „Springer“ oder „Drache“ auftaucht. Durch einen entsprechend großen Datensatz kann ein LLM dann entsprechende Vorhersagen treffen, welches Wort in diesen Kontext gehört und als nächstes kommen würde (vgl. Belcic & Stryker, 2024).

Nachdem ein entsprechendes Modell trainiert wurde und dem Endnutzer zur Verfügung steht, steht hinter dem einfachen Text-Chat eine Reihe von sehr komplexen mathematischen Formeln, die dann eine Antwort berechnen. Dies geschieht durch das sogenannte „Prompten“, vom Englischen „to prompt“, der Eingabe einer Anfrage an das LLM. Diese kann in natürlicher Sprache eingegeben werden und wird dann nach kurzer Zeit durch das System beantwortet. In manchen Modellen ist es tatsächlich möglich, einem simulierten Gedankenprozess zuzuschauen, während eine Antwort generiert wird, zum Beispiel bei DeepSeek. Die genaue Funktionsweise mit Token, Vektoren und Dekodierung würde den Rahmen dieses Beitrags sprengen.

Die aktuell heißbegehrten LLMs bringen aber auch einige Eigenheiten und Probleme mit sich. Das größte Problem dabei sind die sogenannten Halluzinationen. In der wahrscheinlichkeitbasierten Zusammensetzung von Antworten kann es vorkommen, dass ein Modell nicht genug Daten hat und/oder die Daten falsch interpretiert. Da es trotzdem versucht, hilfreich zu sein und der Aufforderung des Prompts nachkommen möchte, erfindet das Programm dann Informationen - ein Umstand, der sich durch die Funktionsweise der GPT-Modelle und ihres Trainings auch nicht ändern lässt (vgl. Kalai et al., 2025, S. 3). Diese Halluzinationen können dabei von witzig und erheiternd bis bedenklich, wie tödliche Rezeptvorschläge, sein (vgl. Pomer, 2024). Die Antwort sieht professionell aus und kann oft nach Nachfrage auch mit Quellen belegt werden, die selbst wiederum halluziniert sind.

Nutzt man ein hinreichend fortgeschrittenes LLM wie zum Beispiel ChatGPT-4, fühlt sich der Kontakt trotz der Halluzinationen und Ungenauigkeiten fast an wie mit einer Person und nicht mit einer Maschine.

Starke und schwache KI

Nachdem nun die Funktionsweisen der KI betrachtet wurden, möchte ich noch auf die Unterscheidung der Systeme zu sprechen kommen. Auch sie ist von Bedeutung, um zu beurteilen, ob die KI denkt. KI kann und muss in eine „schwache“ und „starke“ KI unterschieden werden. Diese Unterscheidung wurde von dem Philosophen John Searle eingeführt. Dabei meint die „schwache KI“ ein System, das simuliert zu denken, während eine „starke KI“ selbst denkt (vgl. Russell & Norvig, 2022, S. 1032). Des Weiteren ist sie dazu in der Lage, Probleme genereller Art zu lösen.
 
Aktuell haben wir es aber nicht mit einer solchen „starken“ KI zu tun, die wir aus Science-Fiction-Filmen kennen. Vielmehr handelt es sich bei der KI aus unserem Alltag um eine „schwache KI“. Dieses System ist ein sehr komplexer Algorithmus, der spezielle Aufgaben bearbeiten kann, deren Lösungsweg es vorher mit Hilfe des maschinellen Lernens selbstständig erlernt hat. Allerdings hat diese Form der KI kein Verständnis und kein Bewusstsein (vgl. Raveling, 2024).

Nach Meinung einiger Wissenschaftler handelt es sich bei den bisher vorliegenden Systemen um sogenannte „Artificial Narrow Intelligence“, die „schwache KI“. Die Systeme sind auf spezifische Fähigkeiten ausgelegt und können ihre Fähigkeiten nicht oder nur unzureichend auf Felder außerhalb ihrer Expertise anpassen - eine Eigenschaft, die „Artificial General Intelligence“, oder auch „starke KI“, dagegen beherrscht. Diese bisher (noch) nicht existierende KI kann selbstständig Probleme lösen, auch wenn das Probleme der KI bisher noch nicht bekannt war (vgl. Kaplan & Haenlein, 2019, S. 2). Einer „starken KI“ werden Bewusstsein, Wille und Vorstellung zugeschrieben. Dabei müsste ein solches System in der Lage sein, Nachfragen zu stellen und nicht in eine „Endlosschleife“ zu geraten, wenn der Kommunikationsvorgang schiefläuft (vgl. Seeßlen, 2024, S. 43).

Die dritte Stufe eines KI-Systems ist dann schließlich die „Artificial Super Intelligence“, ein System, welches den Menschen in jedem Feld übertrifft und seine Fähigkeiten auf neue Situationen, Probleme und Herausforderungen anpassen und verbessern kann (vgl. Kaplan & Haenlein, 2019, S. 2).

Seeßlen wirft den Begriff der „halbstarken KI“ in den Raum, den ich als sehr treffend empfinde. Nach ihm haben wir es weder mit einer „schwachen“ noch mit einer „starken KI“ zu tun, sondern vielmehr mit einer Zwischenstufe, der „halbstarken KI“. Ein Chatbot würde dazu zählen, da die Kommunikation zwar schon sehr ausgereift, das System im Ganzen aber noch nicht auf der Stufe der „starken KI“ angekommen ist (vgl. Seeßlen, 2024, S. 44).

Halten wir also fest: KI hat verschiedene Funktionsweisen. Die prominentesten und wichtigsten sind dabei das maschinelle Lernen, aus dem sich die neuronalen Netzwerke, die LLMs und das Deep Learning ableiten. Grundsätzlich brauchen KI-Systeme Daten, mit denen sie arbeiten und lernen können. Diese Daten müssen von Menschen eingepflegt werden. Mithilfe dieser Daten kann das System dann trainieren und lernen. Neben der Funktion ist auch die Unterscheidung der „schwachen“ und „starken“ KI unerlässlich. Trotz des großen Fortschritts haben wir den Status einer „starken KI“ noch nicht erreicht, denn sie müsste über Verständnis, Bewusstsein und einen Willen verfügen.

Denken und KI

Nachdem nun einiges über das Denken und die KI gesagt wurde, bleibt die Frage: Denkt die KI jetzt eigentlich? In diesem Teil, dem Herzstück meiner Arbeit, soll es nun darum gehen, ob das, was die KI macht, tatsächlich als „Denken“ bezeichnet werden kann oder ob das nur eine Annahme unsererseits ist.

Dazu möchte ich vorab sagen, dass es hier nicht um die Intelligenz der KI geht. Auch wenn die Intelligenz in engem Zusammenhang mit dem Denken steht, ist sie von diesem zu trennen. Dass die KI intelligent ist, kann man so unterschreiben. Betrachtet man das Stufensystem der Intelligenz, das Ralf Otte in seinem Beitrag „Intelligenz und Bewusstsein“ in der Zeitschrift „Aus Politik und Zeitgeschichte“ darstellt, so lässt sich die KI auf der 3. Intelligenzstufe einordnen. Damit kann man sagen, dass sie eine hohe rationale Intelligenz besitzt (vgl. Otte, 2023). Die Intelligenz hat in dem Fall aber nichts mit dem Denken zu tun.

Durch die rasante Entwicklung der großen Sprachmodelle, der LLMs wie ChatGPT, hat die Frage danach, ob die KI denkt, eine neue Dringlichkeit erhalten. Während einige Forscher*innen und KI-Unternehmen von ersten Anzeichen des maschinellen Denkens sprechen, verweisen andere auf grundlegende philosophische Einwände gegen eine solche Zuschreibung. In diesem Teil soll es nun darum gehen, anhand dreier zentraler Positionen der Philosophie des Geistes diese Frage zu analysieren. Außerdem werden aktuelle Befunde zur „Denkfähigkeit“ von LLMs dargestellt.

Behaviorismus und Turing-Test: Denken als performative Täuschung

Die behavioristische Position definiert Denken nicht über innere Zustände, sondern über beobachtbares Verhalten (vgl. Turing, 1950). Um zu beurteilen, ob die KI denkt, hat Alan Turing einen Test entwickelt, den Turing-Test. Nach diesem Test „denkt“ die KI, wenn diese bei einem Gespräch mit einem Menschen nicht von ihm zu unterscheiden ist (vgl. Meyer, 2024). Außerdem muss die Maschine neben sprachlichen Kompetenzen auch die Fähigkeit zur Perspektivübernahme und zur strategischen Täuschung haben. Damit sind die Eigenschaften gemeint, die traditionell als Kennzeichen des bewussten Denkens gelten (vgl. Turing, 1950).

Moderne KI-Systeme wie ChatGPT-4 bestehen den Turing-Test in seiner vereinfachten Form ohne Probleme. Dordevic und Ruzic konnten mit ihrer empirischen Untersuchung aber zeigen, dass ChatGPT in kontrollierten Experimenten an komplexeren Versionen des Tests scheitert. Daraus schließen sie, dass die Behauptung, Computer könnten tatsächlich denken, nicht für aktuelle Systeme aufrechterhalten werden kann (vgl. Dordevic, Ruic, 2024).

Die grundlegende Schwäche des behavioristischen Ansatzes liegt darin, dass er nur funktionale Äquivalenz prüft, aber nicht das Vorhandensein von Bewusstsein oder intentionalen Zuständen. So hat bereits Searle angemerkt, dass der Turing-Test „eher menschliche Leichtgläubigkeit als echte künstliche Intelligenz“ (Wikipedia, 2024) teste.

Um herauszufinden, ob es sich bei dem vorliegenden System um eine starke KI handelt, haben Ray Kurzweil und Mitchell Kapor den Turing-Test erweitert. Sie sagen, dass es sich dann um eine starke, eine „denkende“ KI handelt, wenn sie ein Gespräch von zwei Stunden simulieren kann und zwei von drei menschlichen Beobachtern das Gespräch als eines betrachten, welches zwei Menschen miteinander führen (vgl. Seeßlen, 2024, S. 44).

Da die „starke KI“ aber bisher nur ein Ziel der KI-Forschung ist und wir noch einigermaßen weit davon entfernt sind, eine KI zu entwickeln, die wie der Mensch ein Bewusstsein und ein Verständnis besitzt, ist an diesem Punkt festzuhalten, dass man davon ausgehen kann, dass die KI nicht in dem Sinn „denkt“, wie der Mensch es tut.

Funktionalismus: Denken als Informationsverarbeitung

Betrachtet man das Ganze aus der funktionalistischen Sichtweise, so kann man durchaus davon sprechen, dass die KI „denkt“. Mit seinen Hauptvertretern Hilary Putnam und Jerry Fodor definiert der Funktionalismus mentale Zustände nicht über ihre physische Substanz, wie das Gehirn, sondern über ihre ursächliche Rolle innerhalb eines kognitiven Systems. Nach dieser Position ist Denken die Verarbeitung nach bestimmten Regeln, unabhängig davon, ob sie in neuronalen Netzen oder in Siliziumchips stattfindet. Der Geist verhält sich demnach zum Gehirn wie die Software zur Hardware (vgl. Putnam, 1975).

Der Funktionalismus sieht die Kognition und das Bewusstsein nicht auf ein menschliches Gehirn beschränkt. Die Zustände und Prozesse, die dabei ablaufen, werden nur durch ihre Fähigkeit und Beziehung zum Verhalten definiert und nicht durch ihre biochemischen oder physikalischen Eigenschaften. Demnach ist grundsätzlich möglich, die Kognition auf menschlichem Niveau in jedem anderen physikalischen System einzubauen, welches die erforderlichen Berechnungen unterstützt (vgl. Krauss, 2023, S. 11).

Aus funktionalistischer Perspektive könnten LLMs durchaus als denkende Systeme betrachtet werden. Sie verarbeiten Symbole, die sogenannten Tokens, erkennen Muster in riesigen Datenmengen und generieren logische Antworten auf komplexe Fragen. Die Tatsache, dass sie dies ohne neuronale Substrate tun, wäre aus funktionalistischer Sicht irrelevant, solange die Input-Output-Beziehungen denen menschlichen Denkens entsprechen (vgl. Dordevic, Ruzic, 2024).

Der Funktionalismus bringt aber auch eine Schwäche mit sich. Sie zeigt sich darin, dass er unfähig ist, zwischen echter Kognition und Simulation zu unterscheiden. Ein System kann alle funktionalen Spezifikationen erfüllen, ohne dass man ihm sinnvoll mentale Zustände zuschreiben kann.

Chinese Room Argument

Das Gedankenexperiment des „chinesischen Zimmers“ von John Searle ist das einflussreichste Argument gegen die Möglichkeit des maschinellen Denkens. Searle beschreibt ein Szenario, in dem eine Person, die kein Chinesisch versteht, in einem Raum eingeschlossen ist, der mit einer umfangreichen Sammlung an chinesischen Schriftzeichen und einem Regelbuch ausgestattet ist. Nun senden Personen außerhalb des Raumes Texte auf Chinesisch in den Raum. Der Bearbeiter im Raum analysiert diese Texte nach den Regeln in dem Buch und arrangiert Schriftzeichen nach diesen Regeln als eine Antwort. Diese Antwort gibt er nun nach draußen. Für die Betrachter der Antworten erscheint es nun so, als würde der Bearbeiter im Inneren des Raumes Chinesisch verstehen.
 
Searle überträgt dieses Gedankenexperiment auf den Computer. Dieser liest lediglich die Symbole, die ihm gegeben werden, aus und arrangiert eine Antwort unter Zuhilfenahme der Regeln, die ihm vorliegen. Dabei hat der Computer aber kein Verständnis für die dahinterliegenden Konzepte der Symbole, die er analysiert und ausgibt (vgl. Searle, 1990, S. 26). Wie Searle in einem späteren Interview betonte, war sein Argument von Anfang an als Kritik an der funktionalistischen Gleichsetzung von Geist und Programm gedacht:
„Der Geist verhalte sich zum Hirn wie das Programm zur Hardware. Ich halte das für einen Fehler.“ (Searle, 2001).
Das „Chinese-Room-Argument“ hält auch gegen die neusten Entwicklungen neuronaler Netze stand, da diese lediglich komplexere Formen der Symbolverarbeitung darstellen.
 
Stochastische Papageien

Die empirische KI-Forschung der letzten Jahre hat Searles philosophisches Argument bestätigt. Emily Bender und ihre Koautoren prägten 2021 den Begriff des „stochastic parrot“, des stochastischen Papageien. Die Metapher für große Sprachmodelle verdeutlicht, dass diese Systeme ohne jeden Bezug auf Bedeutung lediglich Sequenzen sprachlicher Formen aus ihren Trainingsdaten nach wahrscheinlichkeitsbasierten Regeln zusammensetzen (vgl. Bender et. al., 2025). Somit „plappert“ die KI ohne Verständnis nach.

Eine Studie der Arizona State University zeigte, dass die sogenannten „Chains of Thoughts“, eine Gedankenkette, also eine scheinbar schrittweise logische Argumentation von LLMs, eine instabile „Illusion“ darstellt. Die Modelle konstruieren oberflächliche logische Ketten auf der Grundlage erlernter Eingabeassoziationen und scheitern bei Aufgaben, die von bekannten Mustern abweichen. So schlussfolgern die Forscher, dass LLMs keinen echten logischen Mechanismus betreiben (vgl. Vietnam.vn, 2025).

Ähnlicher Ansicht ist auch Michael Hahn, Professor für Computerlinguistik an der Universität des Saarlandes. Die KI ist nicht dazu in der Lage, logisch zu denken oder verschachtelte Eingaben wirklich zu „verstehen“. Michael Hahn sieht das Problem in dem Aufbau der Sprachmodelle. Die aktuellen Sprachmodelle geraten wegen drei Defiziten an ihre Grenzen:
  • Die Modelle sind schlecht darin, einen sich ändernden Zustand nachzuvollziehen.
  • Die KI ist bisher nicht in der Lage, logisch zu denken.
  • Die Sprachmodelle scheitern häufig daran, komplexe und verschachtelte Eingaben sinnvoll zu bearbeiten.
    (Universität des Saarlandes, 2025)

Was heißt es zu denken?
 
Die Analyse zeigt, dass die Antwort auf die Frage „Denkt die KI?“ entscheidend von der zugrundegelegten Definition von „Denken“ abhängt:
  • Im behavioristischen Sinne: Moderne LLMs „denken“. Sie bestehen den Turing-Test und erzeugen Antworten, die nicht von menschlicher Kommunikation unterschieden werden können.
  • Im funktionalistischen Sinne: LLMs können als denkend betrachtet werden, da sie komplexe Informationsverarbeitungen durchführen, die funktional menschlichen kognitiven Prozessen entsprechen.
  • Im intentionalen Sinne: LLMs „denken“ nicht, denn ihnen fehlt grundlegend die Fähigkeit zur Semantik, also zur Bedeutung, zum Verständnis und zur Intentionalität. Sie können als „stochastische Papageien“ bezeichnet werden, die statistische Muster reproduzieren ohne Bezug auf eine Welt oder ein Selbst.
Die aktuellen empirischen Befunde stützen überwiegend die dritte Position. Wie die Arizona State University im Jahr 2025 zeigte, sind die scheinbaren logischen Fähigkeiten von LLMs instabile Illusionen, die bei Abweichungen von Trainingsmustern zusammenbrechen (vgl. Vietnam.nv, 2025).
 
Fazit
 
Es gibt eine gewisse Analogie zwischen dem Computer und dem Gehirn. Sowohl ein Computer als auch das Gehirn sind in der Lage, Informationen aufzunehmen, zu verarbeiten und wieder auszugeben. Trotzdem ist das Gehirn kein Computer, sondern erfüllt lediglich ähnliche Funktionen (vgl. Krauss, 2023, S. 8), auch wenn in der Forschung des Denkens das Gehirn und der Verarbeitungsprozess gerne mit einem Computer dargestellt werden. Demnach wären das Gehirn und das Nervensystem die „Hardware“ und die kognitiven Funktionen und Fähigkeiten die Software (vgl. Hansl, 2024, S.33).
 
Neben der Fähigkeit, Informationen aufzunehmen, sie zu verarbeiten und sie dann wieder auszugeben, finden wir die Gemeinsamkeit des neuronalen Netzwerkes. Sowohl die KI als auch der Mensch nutzen dieses, um Informationen zu verarbeiten. Dabei gelten die menschlichen Neuronen und das menschliche neuronale Netzwerk als „Vorbild“ für die KI. Das Prinzip, wie die Informationen weitergeleitet und verarbeitet werden, ist in der Technik und in der Biologie nahezu identisch. Bei beiden werden Signale an ein anderes Neuron weitergegeben, sei es in biologisch-chemischer Form oder in Form von Daten und Zahlen.
 
Wo wir auch schon direkt beim ersten gravierenden Unterschied wären. Während die KI stupide nach mathematischen Formeln und Wahrscheinlichkeiten zu einem Ergebnis kommt, besitzt der Mensch einen Verstand, Erfahrungen und die Fähigkeit, Informationen und Gedankengänge zu hinterfragen. Wir Menschen antworten also nicht wie die KI mit dem am wahrscheinlichsten Ergebnis, sondern nutzen auch die Komponente des wirklichen Nachdenkens, ob das, was wir von uns geben, auch Sinn ergibt. Wir sind dazu in der Lage, selbstreflektierend zu denken, was uns von der KI unterscheidet (vgl. Funke, 2022).
 
Ein weiterer Unterschied, der von immenser Bedeutung ist, ist das Bewusstsein. Wir Menschen besitzen ein Bewusstsein, was die KI, zumindest im Moment und in dem Umfang, noch nicht besitzt. Blake Lemoine hat ein Sprachmodell entwickelt, von dem er behauptete, es habe ein Bewusstsein. Allerdings widersprachen ihm Experten. Durch die enorm große Zahl an Trainingsdaten kann ein KI-System perfekt imitieren, wie Menschen miteinander kommunizieren. Ein Verständnis für die Welt hat es aber dennoch nicht entwickelt. Dass die KI ein Bewusstsein in der Form entwickelt, wie es der Mensch hat, ist momentan nicht auszuschließen. Ein künstliches Bewusstsein gibt es sogar schon. Es ist aber nicht mit dem menschlichen vergleichbar, denn es kann sich nicht in Menschen hineinversetzen und hat keine Empathie und Gefühle (vgl. Tschirren, 2024).
 
Nach der Analyse kann man sagen, dass die wissenschaftliche Antwort auf die Frage „Denkt die KI?“ differenziert werden muss. Aktuelle KI-Systeme zeigen durchaus ein intelligentes Verhalten und erfüllen viele funktionale Kriterien des Denkens. Sie verfügen jedoch nicht über die wesentlichen Merkmale menschlichen Denkens. Zu diesen zählen die Intentionalität, das Bewusstsein, semantisches Verständnis und die Fähigkeit zur sinnhaften Weltbezugnahme.
 
An diesem Punkt möchte ich auf die Antwort von ChatGPT zurückkommen. Betrachtet man die Antwort, die es mir ausgespuckt hat, kann man guten Gewissens behaupten: ChatGPT hat es gut auf den Punkt gebracht. Es hat nicht halluziniert, sondern eine belegbare und passende Antwort gegeben.
Solange wir es nicht mit einer starken KI zu tun haben, die über ein Bewusstsein im Umfang des menschlichen Bewusstseins verfügt, kann man die Frage mit „Nein“ beantworten. So wie es auch die KI selbst tut, wenn man ihr diese Frage stellt.
 
Ob es jemals zu einer solchen KI kommen wird, die mit uns gleichzieht oder uns vielleicht sogar übertrumpft, steht in den Sternen. Auch wenn es das große Ziel der KI-Forschung ist, eine solche KI zu entwickeln.
 
Literaturverzeichnis

Keine Kommentare:

Kommentar veröffentlichen