Skip to main content Skip to main navigation

Das Gehirn ist nicht der Maßstab – der Mensch schon

Die Künstliche Intelligenz als wissenschaftliches Fach feiert in diesem Jahr ihren siebzigsten Geburtstag. Wie weit sind wir? Und was sollten wir uns wünschen?

Gastbeitrag von Reinhard Karger in der Frankfurter Allgemeine Zeitung, FAZ, 12. Januar 2026

Künstliche Intelligenz mausert sich von einer Teildisziplin der Informatik zur zentralen "Weltrettungskernkompetenz" des 21. Jahrhunderts. Dieser Eindruck entsteht in der industriellen Selbstreflexion, in zahllosen Social-Media-Kanälen, auch in der qualitätsmedialen Berichterstattung. Objektiv feststellbar ist eine Verschränkung sich sprunghaft verstärkender Ergebnis- und Investitionsdynamiken, die in Teilen zu verblüffender Anwendungsexzellenz geführt haben. Noch nicht beantwortet ist die Frage, ob es sich dabei im gesellschaftlichen Resultat um eine sozio-kulturelle Abwärtsspirale oder um einen nachhaltigen Gemeinwohlaufwuchs handelt.

Eine durch reale KI-Anwendungserfolge übersteigerte Selbstverliebtheit ist in einem quartalszahlengetriebenen Überbietungswettbewerb aus Vermarktungssicht wenig überraschend. Der Triumphalismus der neuen "Masters of the Universe" ist dabei natürlich nicht ganz ungerechtfertigt, auch nicht der auf sich selbst gerichtete Genieverdacht der Entwicklerinnen und Entwickler. Aber einäugig. Der gefährliche Malus: Unter Anwenderinnen und Anwendern, unter Investoren und Investorinnen werden unrealistische Leistungserwartungen geweckt. Und illusorische Hoffnungen geschürt.

Denken ist inneres Zwiegespräch

Unbefriedigend ist, dass prinzipielle Einschränkungen der momentan verwendeten monolithischen KI-Ansätze sprachlich verschleiert werden. Worum geht es? Menschliche Erkenntnisfähigkeit, so Immanuel Kant im Jahr 1781, hat zwei Stämme: Sinnlichkeit und Verstand. Einerseits die Sinnlichkeit, die rezeptiv die Zustände der äußeren Welt oder des eigenen Körpers entgegennimmt, ermöglicht Anschauungen. Der menschliche Verstand bildet diese auf Konzepte ab, die wir an der Oberfläche mit Wörtern verbinden (oder reflexhaft reagieren). Aber andererseits, und das ist entscheidend, die Vernunft, die vom Verstand zu unterscheiden ist. Die menschliche Vernunft ist das Vermögen der prinzipiengeleiteten Schlussfolgerungen. Wir erleben sie im bewussten Denken als inneres Zwiegespräch.

Die Vernunft ist spontan, sie ist produktiv, und sie erlaubt begriffliche, diskursive Reflexionen über die eigenen Befindlichkeiten und die Zustände der Welt. Die Vernunft formuliert Hypothesen über Naturkonstanten und Naturgesetze auf der Basis von Ursache und Wirkung. Aber auch Vermutungen über Zusammenhänge der lebensweltlich für jeden erfahrbaren Kultur auf der Basis von Grund und Folge. Dabei ist Kultur der Gegenbegriff zu Natur und meint hier die Traditionen, Institutionen, Verträge, Gebräuche, Technologien und gesellschaftlichen Verabredungen, die man seit Georg Wilhelm Friedrich Hegel treffend und pointiert als "zweite Natur" bezeichnet. Auf die Frage, warum ein Apfel auf den Boden fällt, lautet die Antwort, es ist die Schwerkraft. Auf die Frage, warum eine Woche sieben Tage und ein Tag 24 Stunden hat, gibt es keine naturgesetzlichen Antworten - sondern eben nur kulturhistorische.

KI ist die Digitalisierung menschlicher Wissensfähigkeiten, wird in diesem Jahr 70 Jahre alt und blieb 55 Jahre hinter den selbst gesteckten Zielen zurück. Die seit fast 15 Jahren erfolgreichen Systeme arbeiten auf der Basis sehr großer Mengen von Trainingsdaten und künstlicher neuronaler Netze. KI-Systeme bieten im kompilierten Zustand echtzeitfähige Assistenzfunktionen, die den privaten und beruflichen Alltag vieler Nutzerinnen und Nutzer erleichtern, erfreuen oder revolutionieren. Im Kern sind sie Mustererkenner und insofern vergleichbar mit sinnlicher Wahrnehmung und Verstand. Die wesentliche Leistung besteht in der Klassifikation, also darin, etwas Vorliegendes unter einen Begriff zu bringen oder zu subsumieren. Das ist großartig und als Charakterisierung bei Weitem nicht erschöpfend, aber für den Moment hinreichend. Mustererkennung ist mächtig. Jedes Gehirn ist darin extrem leistungsfähig. Man muss nur das Flugverhalten einer Fledermaus beobachten, wenn man natürliche Brillanz in Signalverarbeitung und aktive Kollisionsvermeidung unter hoher Geschwindigkeit sehen möchte. Eigentlich reicht schon eine Fliege, die der Hand ausweicht, die sie erschlagen oder verjagen möchte. Und die oft den wahrscheinlich rettenden Ausweg findet. Das kann die Fliege, ohne begrifflich zu spekulieren, sondern intuitiv, weil sie die sich annähernde Hand korrekt als existenzielles Risiko klassifiziert und Flucht eine gute Strategie ist, wenn sich ein großes Etwas rasch annähert. Offensichtlich kann selbst das Fliegenhirn reflexhaft mit Formen von Naturkausalität umgehen.

Auch Ärzte sind Fachleute für Musterverarbeitung, sie erkennen beispielsweise Auffälligkeiten im Gangbild eines Patienten, die auf Demenz schließen lassen. In Kernspinaufnahmen, während einer Ultraschalluntersuchung oder auf einem Röntgenbild identifizieren sie Hinweise auf potentiell gefährliche, raumgreifende Auffälligkeiten, die möglicherweise auf einen Tumor hindeuten. Sie haben diese Fähigkeiten während der Facharztausbildung unter Anleitung erworben und in der beruflichen Praxis durch eigene Erfahrung weiterentwickelt. Es sind visuelle Sinneseindrücke, die den qualifizierten Fachmann oder die Fachfrau zu diagnostischen Annahmen führen, die hoffentlich in einem frühen Stadium eine erfolgreiche Heilung mit wenig invasiven Maßnahmen anstoßen können. Es ist nicht überraschend, dass KI-Systeme, die mit Millionen medizinischen Bildern trainiert werden, Ähnlichkeiten zwischen einer aktuellen Aufnahme und einer Klasse erkennen, die sich in dem Trainingsmaterial identifizieren lässt.

Die seit fünf Jahren erfolgreichen Sprachmodelle arbeiten vergleichbar, aber nicht nur klassifizierend, sondern generativ. Sie erzeugen neue Ausgaben, arbeiten aber immer noch als Mustererkenner auf der Basis von Wahrscheinlichkeiten. Und nicht wie die Vernunft mit expliziten Gründen oder semantischen Beziehungen. Sie können nicht begrifflich schlussfolgern, aber sie können ohne jedes inhaltliche Verständnis plausible Wortfolgen produzieren. Sie können plappern, aber nicht plaudern. Das Zweite setzt ein situatives und ein zwischenmenschliches Verständnis voraus.

Chatbots erzeugen textuelle Ausgaben, aber mittlerweile auch multimediale Inhalte, fotorealistische Bilder und synthetische Videos, die sich im vergangenen Jahr kaum mehr von Filmen unterscheiden ließen, die von Menschen gemacht und mit Schauspielern und Schauspielerinnen gedreht wurden. Fakt ist, die Chatbots sind kontinuierlich besser geworden, auch die Bild- und Videogeneratoren wie etwa Sora von Open AI. Die KI-Akteure bewegen sich natürlich, Licht und Schatten sind realistisch, auch Reflexionen auf Glas oder in einer Pfütze sind ohne die Fehler, über die man sich anfangs noch spöttisch amüsiert hat. Und es ist sicherlich nicht übertrieben vorauszusagen, dass synthetische KI-Charaktere einen signifikanten Marktanteil im Bereich der expliziten Erwachsenenunterhaltung erobern werden.

Qualität durch Quantität?

Es gibt einen offensichtlichen Zusammenhang zwischen Trainingsmenge und Systemperformanz. Sodass die Frage in den Raum gestellt wird, wie viele Daten und welche Rechenkapazitäten notwendig sein werden, damit KI-System menschliche Wissensfähigkeiten mindestens so gut simulieren können, wie Menschen sie beherrschen. Diese Skalierungshypothese wird zum Beispiel im AI Safety Report aus dem Mai 2024 diskutiert. Aber nicht alle Wissenschaftler sind der Ansicht, dass die einfache Kurzformel "mehr Daten, bessere Ergebnisse" die Erwartungen wird einlösen können. Sie gehen vielmehr davon aus, "dass die jüngsten Fortschritte grundlegende Herausforderungen wie den gesunden Menschenverstand und flexible Weltmodelle nicht überwunden haben".

Ganz unabhängig davon, ob die Verfahren mit diesen Anforderungen werden umgehen und welche Systeme dann möglich sein können, gilt: Naturwissenschaftliche Zusammenhänge sind keine Ansichtssache. Man kann sie hypothetisch aufstellen und experimentell belegen oder widerlegen. Die Naturwissenschaft "lebt" im Raum der Daten und Fakten. Die Tatsächlichkeit einer Aussage muss belegt werden können, sonst handelt es sich nicht um eine Tatsache, sondern um eine Annahme.

Das ist im Falle von geisteswissenschaftlichen und kulturwissenschaftlichen Aussagen in Teilen anders, obwohl natürlich kulturelle Tatsachenwahrheiten und geschichtliche Daten von zentraler Bedeutung sind. Aber es gibt Ansichts- und Glaubenssachen und Spielräume für Meinungen, durchaus für konträre Positionen und auch für dynamische Entwicklungen, die einen progressiven und regressiven Verlauf nehmen können. Und es gibt Entscheidungssituationen, in denen wechselnde Mehrheiten radikal unterschiedliche Lösungen initiieren können, aus denen durchaus die Durchsetzung von revolutionären Weltbildveränderungen folgen kann.

Chatbots "vermuten", Menschen behaupten

Die von Chatbots erzeugten Ausgaben entsprechen weder Tatsachen noch Ansichtssachen oder Gewissheiten, sondern dem, was man beim Menschen eine Vermutung nennt; sie sind nur möglicherweise korrekt und aussagentheoretisch deshalb problematisch. Den Nutzenden wird aber suggeriert, dass es sich bei den Ausgaben um Aussagen und eben um Behauptungen handelt. Behauptungen stellen menschliche Sprecherinnen oder Sprecher dann auf, wenn sie vom Gegenüber die Zustimmung zur Korrektheit der gemachten Aussage erwarten. Und das Gegenüber ist in der Position, nachvollziehbare Gründe verlangen zu können beziehungsweise die Zustimmung zu verweigern. Aber ein Chatbot ist ein KI-System und kein Sprecher, es hat keinen Zugriff auf Gründe, wird aktuell auf Nachfrage keine begriffliche Schlussfolgerung erzeugen, sondern nur eine wahrscheinlich passende Ausgabe, die von einem Menschen als Grund verstanden werden könnte, aber von dem intentionsfreien KI-System nicht so gemeint ist.

Wie sollten die Nutzenden also mit den maschinellen Ausgaben umgehen? Die Kritische Theorie der Fünfzigerjahre führte in den Siebzigern zu der Aufforderung an die Schülerinnen und Schüler, alle Informationen kritisch zu verwenden. Das war ein wichtiger Schritt zu mehr Mündigkeit, bewirkte die großen Proteste gegen Atomkraft und den NATO-Doppelbeschluss und machte das Leben der Parteien ungemütlich. Diese Aufforderung gilt uneingeschränkt auch heute. Wir sollten mit jeder maschinellen Ausgabe der aktuellen KI-Systeme kritisch umgehen. Da aktuelle Chatbots nur möglicherweise korrekte Ausgaben produzieren können - und kleingedruckt die Nutzenden auch darauf hinweisen ("Überprüfe wichtige Informationen") - müssen die Nutzenden jede maschinelle Ausgabe befragen und hinterfragen.

Das bedeutet, sie werden aufgefordert, genau das nicht zu tun, was sie tun wollen, nämlich die KI-Ausgabe als relevantes Informationsobjekt in ihre alltägliche Nutzung zu integrieren. Sie sollen vielmehr zu den Quellen gehen, sich fragen, ob es weitere Quellen gibt, sollen recherchieren, obwohl sie doch gerade von der KI profitieren wollten, um mühelos Antworten zu bekommen. Eigentlich sollen sie Chatbots so nutzen, wie in der Wissenschaft schon immer gearbeitet wurde.

Aber es stand doch das Versprechen im Raum: "Stelle irgendeine Frage", dass die "selbst lernenden Systeme" eine Antwort auf jede Frage haben und nicht nur eine Ausgabe liefern. Die wissenschaftliche Arbeitsweise kann jeder lernen. Sie erfordert allerdings Energie und Selbstdisziplin. Und offensichtlich und menschlich verständlich sind gerade die Angebote erfolgreich, die Bequemlichkeit versprechen, und nicht die, die Anstrengung erfordern.

Werkzeugverbesserung ist effektiver als Verhaltensveränderung

Aber was ist dann eigentlich der Nutzen? Wir stehen an einer Kreuzung. Die Entscheidung, mit der wir konfrontiert sind, ist grundsätzlich. Wird es erfolgreich sein, die Nutzenden zu überzeugen, dass sie mit allen KI-Ergebnissen und immer dann kritisch umgehen, wenn die Ausgaben Informationen enthalten, die sie nicht aus eigenem Vorwissen bestätigen können? Oder, und das ist die herausfordernde Alternative, kann es durch wissenschaftliche Innovation gelingen, die prinzipiellen Mängel der aktuellen KI-Systeme zu überwinden, sodass man einem Chatbot vertrauen darf, weil man sich darauf verlassen kann, dass alle in den Ausgaben enthaltenen Informationen und Fakten mit den zum jeweiligen Zeitpunkt bekannten Tatsachen der objektiv-realen Welt übereinstimmen?

Die erste Frage adressiert ein kulturelles Problem, und die Lösung wäre die erfolgreiche Verhaltensänderung von jedem Nutzer und jeder Nutzerin bei jeder Nutzung von maschineller Intelligenz. Die zweite Frage zielt auf wissenschaftliche Innovationen, die dazu führen, dass die KI-Ausgabe zutreffend ist und man sie folglich dann auch in missionskritischen Entscheidungssituationen verwenden kann, weil man sich tatsächlich auf die Korrektheit verlassen kann.

Es ist möglich, Verhaltensänderungen zu bewirken, aber teuer. Und die Erfolgsverstetigung ist ungewiss. In den meisten Zusammenhängen gehen wir davon aus, dass bessere Informiertheit zu besseren Entscheidungen führt. Das gilt sicherlich für die individuelle Entscheidung in der Wahlkabine, von der wir hoffen, dass sie mehr ist als eine momentane Laune, der man dann seine oder ihre Stimme gibt. Die Wählerinnen und Wähler darüber aufzuklären, dass KI-Angebote, die sie möglicherweise als Entscheidungsassistenz nutzen, um sich in der politisch unübersichtlichen Situation zu orientieren, leider nur Ausgaben liefern, die sie erst nach umfangreichen Quellenstudien verwenden mögen, ist vielleicht möglich. Aber sie ist nur dann erfolgversprechend, wenn man die Investitionen für massenwirksame Aufklärungskampagnen nicht scheut. Als Orientierung: Für die Bundestagswahl im Jahr 2025 gab es mehr als 60 Millionen Wahlberechtigte, beinahe 50 Millionen Wählende und 49,5 Millionen gültige Stimmen. Würde man annehmen, dass man sämtliche Wahlberechtigten ansprechen sollte, und würde man denken, dass jede und jeder einzelne erreicht werden müsste, und würde man dann ansetzen, dass dafür pro Person ein Betrag von zehn Euro sicherlich nicht übertrieben erscheint, müsste man in diesem Fall über eine Geldsumme in Höhe von 600 Millionen Euro befinden. Das wäre eine erhebliche Investition. Aber immer noch preiswerter als ein demokratisch legitimiertes Abstimmungsergebnis, das die Wählerinnen und Wähler rückblickend bereuen, von dem sie sich im Nachgang getäuscht fühlen und sagen, dass sie nicht ausreichend informiert waren oder sich nicht verlässlich informieren konnten - wie es zum Beispiel in den Wochen nach der Volksabstimmung zum Brexit im Jahr 2016 in Großbritannien geschehen ist.

Verlässliche KI ist der Schlüssel für wirtschaftlichen Erfolg und gesellschaftlichen Nutzen

Verhaltensänderungen sind nicht nur teuer, sondern auch wenig verlässlich. Wissenschaftliche Sprunginnovationen sind schlecht planbar, und auch die notwendigen Forschungsinvestitionen kann man nicht präzise beziffern. Was man immer braucht, das sind verständliche Ziele. Deshalb als kompakte Formulierung: Wir sollten verlässliche maschinelle Intelligenz entwickeln. Und zwar mit dem Anspruch, dass eine KI-Ausgabe dem Goldstandard des digitalen Werkzeugs, dem Taschenrechner, entsprechen muss, den man verwendet, um herauszufinden, ob man sich beispielsweise eine Hypothek leisten und deshalb ein Haus kaufen kann. Weil man sich auf die Ausgabe des Taschenrechners verlassen kann, geht man existenzielle persönliche Finanzrisiken ein. Oder vermeidet sie.

Die deutsche Forschung, die Wissenschaftlerinnen und Wissenschaftler sollten herausgefordert werden, fokussiert auf die präzise Frage, wie verlässliche KI möglich ist. Deutschland sollte in einem öffentlich-privaten Schulterschluss für diese zielgerichtete Forschungsanstrengung ein Volumen von 600 Millionen Euro bereitstellen und primär in Köpfe investieren. Das wäre ein sehr großes, sehr ambitioniertes Vorhaben, verbunden mit einer klaren Zeitvorgabe und einer demokratisch motivierten Deadline: neun Monate für die Vorbereitung, zwei Jahre für die Durchführung. Würde man im April 2026 mit der Vorbereitung und im Januar 2027 mit der Arbeit beginnen, hätte man im Dezember 2028 hoffentlich das Ziel erreicht. Dann könnte man für die heiße Wahlkampfphase der Bundestagswahl 2029 die Wählerinnen und Wähler einladen, von einer maschinellen Intelligenz zu profitieren, die nicht mehr möglicherweise korrekte Ausgaben erzeugt, sondern beweisbar korrekte Antworten liefert.

Natürlich heißt das nicht, dass der Ausgang der Bundestagswahl jeder Bürgerin und jedem Bürger gefallen wird. Aber es heißt, dass die Wählerinnen und Wähler sich wirklich selber informieren und deshalb wissen können, ob die im Wahlkampf verwendeten politischen, ökonomischen, kulturellen Positionen in sich stimmig oder widersprüchlich sind, Aussagen belastbar oder oberflächlich, unreflektiert und wenig geeignet für die Entwicklung des Gemeinwesens sind.

Eine solche intellektuelle und ingenieurwissenschaftliche Kraftanstrengung wäre demokratisch weise. Und sie wäre geostrategisch notwendig. Im Erfolgsfall hülfe Deutschland, den großen Makel aktueller KI-Systeme zu überwinden, leistete einen zentralen Beitrag zur Aufklärung im 21. Jahrhundert und eröffnete ein neues erfolgreiches Zeitalter für die europäische Informationswirtschaft.

Reinhard Karger (1961), theoretischer Linguist, seit 1993 Mitarbeiter, seit 2011 Unternehmenssprecher, seit 2022 Mitglied des Aufsichtsrats des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI).

Pressekontakt:

Reinhard Karger, M.A.

Unternehmenssprecher, DFKI