Skip to main content Skip to main navigation

Worauf es in der Künstlichen Intelligenz jetzt ankommt

Gastbeitrag von DFKI CEO Prof. Dr. Antonio Krüger in der Frankfurter Allgemeine Zeitung, 8. Mai 2023.

Wenige technologische Entwicklungen der zurückliegenden Jahrzehnte bieten eine so opulente Projektionsmöglichkeit wie die Künstliche Intelligenz (KI). Aktuelle große KI-Systeme wie beispielsweise ChatGPT vom amerikanischen Unternehmen OpenAI faszinieren durch das, was sie schon jetzt können, und sie begeistern durch ihren Nutzen und ihre Nutzbarkeit. Der Fortschritt in diesem Bereich ist tatsächlich rasant, diese großen Künstlichen Intelligenzen beruhen auf Forschungsergebnissen zu KI-Architekturen, die gerade einmal etwas mehr als fünf Jahre alt sind. Sie zeigen in vielen Bereichen beeindruckende Leistungen, sei es in Medizinertests, mathematischen Aufgaben, in der Textgenerierung von Gedichten oder in der Kombination von beidem, etwa bei der Aufgabe, einen mathematischen Beweis in shakespearischer Versform zu präsentieren.

Insbesondere die Qualität der generierten Sprache ist verblüffend, und im Dialog mit ChatGPT fällt es schwer, im Gegenüber nur einen tumben Automaten zu sehen. Bei den neusten Modellen, die nicht nur mit Texten, sondern auch mit einer großen Menge von Bildern trainiert wurden, werden sich die Ausdrucksfähigkeit und die Leistung noch deutlich steigern - denn rein mit Texten trainierte Modelle sind schon in der Lage, einfache Aufgaben zu lösen, was von einer gewissen visuellen Vorstellungskraft zeugt.

Viele Vertreter in Forschung, Politik, Wirtschaft und Gesellschaft stellen sich gegenwärtig die Frage, ob die Potentiale der KI die damit einhergehenden Risiken zumal einer ungeregelten Verwendung rechtfertigen. Diese Sorge zeigt sich auch in den offenen Briefen, die eine stärkere Regulierung oder zuletzt sogar ein sechs Monate dauerndes Moratorium fordern, welches uns Menschen Zeit geben soll, mit dieser atemberaubenden Entwicklung mitzuhalten. Die Europäische Kommission und das Europäische Parlament arbeiten schon seit einigen Jahren an einem Regulierungsvorschlag. Wann dieser zu einer europaweit verbindlichen Verordnung wird, ist noch unklar. Aus der wissenschaftlichen, aber auch aus der gesellschaftlichen Perspektive ist eine international harmonisierte Regulierung wünschenswert, die einen verlässlichen Rahmen für die grenzüberschreitende Interoperabilität von aktuellen und zukünftigen KI-Lösungen eröffnet.

Erscheint aber nun eine schöne neue Welt mit gigantischen Chancen am Horizont? Oder drohen doch der massive Abbau von Arbeitsplätzen und Identitätsverlust? Lassen wir einen künstlichen Geist aus der Flasche? Sollten wir so schnell wie möglich versuchen, den Korken wieder draufzubekommen, wie in den kursierenden offenen Briefen gefordert? Sollten wir wirklich eine Art KI-Pause einlegen - oder doch lieber einen Gang hochschalten?

Zunächst bleibt festzuhalten, dass auch die großen gerade angesagten Modelle weit davon entfernt sind, selbständig Entscheidungen zu treffen. Sie haben keine eigenen Pläne und Ziele, sondern verwenden einen verhältnismäßig einfachen Mechanismus, der versucht, aus dem aktuellen Kontext heraus das nächste beste Wort zu finden, basierend auf enormen Mengen von Trainingsdaten. Die Ausgaben sind sprachlich oft wohlgeformt, aber die Systeme sind nicht in der Lage, den Wahrheitsgehalt der eigenen Aussagen zu bewerten. Durch den vorwärtsgerichteten assoziativen Mechanismus der Generierung manövrieren sie sich häufig in Sackgassen und finden erst im Dialog mit dem Menschen wieder aus diesen heraus. So passieren beispielsweise während der Erstellung von Computerprogrammen noch regelmäßig kleinere und größere Fehler, die das System aber durch entsprechendes menschliches Feedback selbständig korrigiert. Wissenschaftler von Microsoft, die das aktuelle Modell GPT-4 auf Herz und Nieren testen konnten, ziehen einen interessanten Vergleich zu dem vom Nobelpreisträger Daniel Kahneman eingeführten Begriff des "schnellen und langsamen Denkens": Damit beschreibt Kahnemann zwei grundsätzlich unterschiedliche kognitive Mechanismen des menschlichen Denkens. Das "schnelle Denken" ist automatisch, intuitiv, fällt uns sehr leicht, ist aber dafür fehleranfällig und häufig subjektiv gefärbt. Das "langsame Denken" hingegen ist kontrolliert, rational, erfordert dafür deutlich mehr Aufwand, ist aber genauer und wegen der nachvollziehbaren Ableitung des Ergebnisses verlässlicher.

Die großen gegenwärtig Schlagzeilen erzielenden KI-Modelle zeigen alle Anzeichen von "schnellem" Denken, inklusive der Fehler und der Ungenauigkeit, die wir vom schnellen menschlichen Denken kennen. Im Gegensatz dazu stehen klassische KI-Verfahren, die stark auf dem Mechanismus der Deduktion beruhen, also auf dem Ableiten von neuem Wissen aus bestehenden Fakten in wohldefinierten Schritten. Diese Verfahren weisen eher Aspekte des "langsamen Denkens" auf. Daraus leiten sich eine wissenschaftliche Herausforderung und eine Zukunftsaufgabe ab: Wir brauchen hybride KI-Systeme, also Künstliche Intelligenz, die das "schnelle" und das "langsame Denken" beherrscht.

Wie sehen nun unter diesen Gesichtspunkten zukünftige, vielversprechende und naheliegende Einsatzfelder für KI-Systeme in unserer Gesellschaft und Wirtschaft aus? Es spricht einiges dafür, dass es in absehbarer Zeit wenige Anwendungsfelder geben wird, in denen KI-Systeme sehr komplexe Aufgaben völlig autonom ohne menschliche Intervention übernehmen werden. Erfolgreich werden KI-Anwendungen vor allem in jenen Bereichen sein, in denen das "schnelle Denken" von Vorteil und gut genug ist, also immer dann, wenn Fehler nicht so stark ins Gewicht fallen. Es ist leicht vorstellbar, wie sich beispielsweise in der Unterhaltungsindustrie durch generative KI-Systeme verändern wird, wie wir Inhalte für Filme und Spiele erzeugen, denn in der Flut der Bilder kommt es hier in der Regel nicht so sehr auf jedes Detail an - es darf nur nicht stören. Großes Potential dürfte zudem eine neue Generation von Chatbots haben, die in der Lage sind, oberflächlich über beliebige Themen zu diskutieren - und die dabei perspektivisch weniger Fehler machen werden als der durchschnittliche menschliche Gesprächspartner.

Die Vielzahl der Anwendungen von KI-Modellen wird uns jedoch in Form von Werkzeugen begegnen, welche unsere Möglichkeit, schnell zu denken, potenzieren. Zunächst dort, wo die Systeme jetzt schon sehr gut sind: in der Generierung von Texten und der Assistenz von Wissensarbeiten. Diese werden schon in Textverarbeitungsprogrammen als Unterstützung angeboten (weißes Blatt und Schreibblockade, ade), beim Transkribieren von Videokonferenzen (wer will schon Protokoll führen?) oder während der Unterstützung in der Tabellenkalkulation (wie viele Spalten, Zeilen und Formeln passen am besten auf den Datensatz?).

KI-Modelle werden überdies das Programmieren drastisch verändern. Bestehen große Teile des Programmierens auch jetzt schon eher aus der Konfiguration existierender Programmblöcke, muss dann nicht mehr nach der richtigen Bibliothek im Netz gesucht und aus Programmierbeispielen der notwendige Code selbst zusammenkopiert und angepasst werden. Ein Beispiel für einen solchen KI-Assistenten ist der Copilot von Github, eine der größten Programmierplattformen, die schon seit dem Jahr 2021 das Programmieren mit einem KI-Modell auf eine ähnliche Weise unterstützt. Es ist zu erwarten, dass zukünftige, bessere KI-Modelle hier noch leistungsfähiger werden und die Erstellung von Computerprogrammen ohne große Programmierkenntnisse möglich sein wird. Allen diesen Anwendungsbeispielen gemeinsam ist, dass die KI-Modelle eng in die jeweilige Arbeitsumgebung integriert werden und eben nicht autonom eine beliebig komplexe Aufgabe übernehmen. Menschliche Kontrolle und Überwachung werden immer noch auf lange Zeit und in vielen Fällen notwendig sein, um qualitativ akzeptable Ergebnisse zu erzielen und die Auswirkungen von Fehleinschätzungen und Fehlaussagen von KI-Systemen einzudämmen. Im Moment kann man diese Fehleinschätzungen nicht systematisch verhindern, da das Verhalten großer KI-Modelle schwer vorherzusehen und kaum erklärbar ist.

So gerät in der Verwendung von KI-Systemen die Ausgestaltung dessen, was wir mit dem Fachbegriff Mensch-Maschine-Interaktion bezeichnen, vermehrt in den Fokus. Zwar haben viele Software-Hersteller schon vor mehr als zehn Jahren erkannt, dass der Schnittstelle zwischen Mensch und Maschine große Bedeutung beizumessen ist, um Software effizienter und effektiver bedienbar zu machen. Seit einiger Zeit steht aber vermehrt auch die "User Experience" (UX) im Vordergrund, also die Summe aller Erfahrungen, die Nutzer und Nutzerinnen während der Verwendung von Softwaresystemen machen. Eine gut designte Mensch-Maschine-Interaktion macht nicht nur mehr Spaß, sondern steigert das Vertrauen in jeden künstlichen Assistenten. Dieses Konzept steht zum Beispiel in der Gestaltung von Smartphones und Apps seit der Einführung des Touchscreens bei allen Herstellern hoch im Kurs und wird gerade in der Interaktion mit KI-Systemen immer wichtiger.

Dies lässt sich gut an einem Berufsbild beobachten, welches sich schon seit Jahren an die steigenden Fähigkeiten von KI-Modellen anpassen musste: dem der Übersetzerinnen und Übersetzer. Wurden vor 20 Jahren Übersetzungen wesentlich von Hand angefertigt oder vielleicht noch mit der Unterstützung von elektronischen Wörterbüchern, "Translation Memories" und einer Textverarbeitung, sehen heutige Übersetzungsarbeitsplätze ganz anders aus - der Übersetzer oder die Übersetzerin startet mit einem Textvorschlag der maschinellen Übersetzung und bearbeitet diesen mit einer Software. Diese markiert Passagen mit zweifelhafter Qualität in der vorgeschlagenen Übersetzung, damit diese durch den Menschen bearbeitet oder freigegeben werden können. Die KI macht während der Bearbeitung weitere Verbesserungsvorschläge und sorgt etwa dafür, dass spezifische Terminologievorgaben eingehalten werden. So entsteht im Dialog mit der Maschine ein hochqualitatives Ergebnis, welches weder der Mensch zeitlich noch die Maschine qualitativ allein hätten bewerkstelligen können.

Gerade diese Arbeitsplätze haben besondere Ansprüche an die "UX" und sind hochgradig ergonomisch gestaltet. Sie könnten als Blaupause für viele zukünftige KI-Werkzeuge dienen, sei es für Medizinerinnen, die ein KI-System zur Unterstützung von Krebsdiagnosen verwenden, oder für Sachbearbeiter, die umfangreiche Berichte oder Gutachten anfertigen und dafür mit vorausgefüllten Tabellen arbeiten. Für diesen Einsatz müsste allerdings die Selbsteinschätzungsfähigkeit der großen KI-Modelle deutlich besser werden, damit am Ende die Fehlersuche in von solchen KI-Systemen generierten Inhalten nicht länger dauert, als wenn diese Inhalte direkt durch menschliche Hand- und Kopfarbeit entworfen würden.

Aber noch stehen wir mit den großen KI-Modellen am Anfang einer potentiell exponentiellen Entwicklung: Da sie nur auf indirekten Daten, die im Internet verfügbar sind, trainiert wurden, fehlt diesen Modellen eine konkrete Vorstellung von Welt und Umwelt. So haben KI-Systeme nicht direkt erfahren, wie ein menschliches Gegenüber auf bestimmte Dialoge reagiert und daraus gelernt. Aus diesem Grund ist etwa der generierte Humor häufig langweilig, da die KI-Systeme direkte spontane menschliche Reaktionen auf ihre Witze nie erlebt haben. Hier setzt die aktuelle Forschung an. Große KI-Modelle werden als Startpunkt verwendet, damit zum Beispiel robotische Systeme schneller und besser in der realen Welt Erfahrung sammeln und daraus lernen. Die Einbeziehung weiterer Datensätze, etwa aus Video- und Filmdatenbanken und Audiodateien, und der Zugang zu Echtzeitdaten aus dem Internet werden zu KI-Modellen führen, die ein wesentlich besseres Verständnis der Welt haben werden. Gerade für das Industrieland Deutschland werden solche robotischen Systeme in der Produktion großes Potential entwickeln, wenn sie so in die Lage versetzt werden, Mitarbeitende an der Werkbank Hand in Hand zu unterstützen.

Eines ist aber jetzt schon klar: Erfolgreiche KI-Systeme werden nicht nur eine exzellente Mensch-Maschine-Interaktion erfordern, sondern bedeuten auch einen hohen Aufwand von zusätzlicher Software, in welche die großen KI-Modelle eingebettet sind. Für ChatGPT war ein aufwendiges Zusatztraining erforderlich, um den berechtigt hohen Ansprüchen an Vorurteilsfreiheit, Höflichkeit und Sicherheit eines offenen Dialogsystems gerecht werden zu können. Mithilfe von weiteren KI-Methoden wie dem sogenannten Bestärkenden Lernen (Reinforcement Learning), unterstützt durch viele Rückmeldungen von menschlichen Dialoggestaltern, wurde der Chatbot über Monate "hoffähig" gemacht.

Eine hundertprozentige Sicherheit bieten allerdings selbst die aktuellen Varianten noch nicht. Durch geschickte Fragestellungen lassen sich dem Chatbot dann doch Antworten entlocken, die eigentlich nicht gegeben werden sollten, wie beispielsweise Anleitungen zur leichteren Herstellung besserer "Deep Fakes" oder regimekritische Informationen, die sich im Internet nur durch mühselige Suche finden lassen. Dass sie sich viel schlechter zensieren und kontrollieren lassen als Teile des aktuellen Internets, ist einer der Gründe, weshalb Diktaturen und autokratische Systeme die großen KI-Modelle mit Argwohn beobachten. An dieser Stelle sind die KI-Modelle wiederum "demokratischer", als manch einer in der aktuellen Diskussion denken würde.

Viele Anwendungen, die nur durch KI zu realisieren sind, erfordern jedoch Sicherheitsgarantien, um kritische Teilaufgaben autonom übernehmen zu können. Nicht von ungefähr schleicht etwa das autonome Fahren den großspurigen Versprechungen vergangener Jahre im Stop-and-go hinterher. Umso wichtiger ist ein tiefes Verständnis darüber, wie verschiedene KI-Techniken und KI-Komponenten in komplexen Systemen zusammenspielen und bestmöglich miteinander harmonieren. Ein solch integrativer Ansatz einer systemischen KI ist eines der wichtigsten aktuellen Forschungsfelder des Faches. Ohne grundlegende Erkenntnisse, wie wir komplexe KI-Systeme sicher und transparent bauen können, werden viele der gesellschaftlich und wirtschaftlich wichtigen Anwendungen der KI in den Kinderschuhen stecken bleiben.

Der Schlüssel wird die Kombination von unterschiedlichen KI-Techniken sein. Große statistische KI-Modelle, die vor allem auf der Verwendung großer künstlicher neuronaler Netze beruhen, kombiniert mit Modellen, die klassische explizite Modellierungstechniken (wie zum Beispiel Differentialgleichungen oder Wissensgraphen) verwenden, führen zu "neuro-expliziten KI-Modellen", die in der Lage sein werden, viele Nachteile der jetzigen großen KI-Modelle zu überwinden.

Die Integration von KI-Modellen spielt für die deutsche und europäische Wirtschaft eine herausragende Rolle. Gerade unsere wirtschaftliche Prägung durch einen sehr starken Mittelstand, der sich durch individuelle Systemlandschaften und Anforderungen auszeichnet, erfordert ein grundlegendes Verständnis, wie Lokalisierung, Adaption und Migration von Systemen durch und mit Künstlicher Intelligenz gestaltet werden können.

Eine Pause in der Forschung und Weiterentwicklung von großen KI-Modellen wäre in dieser Hinsicht kontraproduktiv. Gerade in Europa sollten wir unsere Anstrengungen sektorübergreifend und branchenübergreifend verstärken, um integrative Ansätze der Künstlichen Intelligenz besser zu verstehen. Basierend auf europäischen Werten und der Struktur unserer Wirtschaft, bringen wir eine starke Motivation mit, transparente, nachvollziehbare und deshalb vertrauenswürdige KI-Systeme zu bauen. In diesem Zusammenhang sind behutsame Regularien sicherlich notwendig. Sie dürfen allerdings nicht zu einer allgemeinen Innovationshemmung und Inventionslähmung führen.

Aktuell kommen die großen KI-Modelle vor allem aus den Vereinigten Staaten. Diese Abhängigkeit müssen wir zügig beseitigen. Wir müssen einen Gang hochschalten. Damit aus der starken KI-Grundlagenforschung in Europa auch wirtschaftlich erfolgreiche KI-Systeme hervorgehen, bedarf es eines eigenen abhängigkeitsfreien Zugangs zu solchen KI-Modellen. Es ist unabdingbar, dass Wissenschaftler und Anwender in Europa selbst an der Entwicklung großer Modelle beteiligt werden, denn nur so können die ingenieurwissenschaftlichen Erfahrungen gesammelt werden, die nötig sind, um auch in Europa entsprechende eigene KI-Systeme zu entwerfen und zu trainieren - und um maßgeblich von der enormen zu erwartenden Wertschöpfung zu profitieren. Ein direkterer Zugang ermöglicht überdies ein besseres Verständnis, wie sinnvolle Regulierung unter der Berücksichtigung unserer Werte funktionieren kann. Gleichzeitig reduzieren wir die Abhängigkeit von außereuropäischen Technologieanbietern und halten diese so klein wie möglich.

Künstliche Intelligenz wird uns nicht mehr von der Seite weichen. Für viele potentielle Anwendungen steckt die KI noch in den Kinderschuhen. Wir sollten ihr nun beim Erwachsenwerden helfen.

 

Dr. Antonio Krüger ist CEO des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) und Professor für Informatik an der Universität des Saarlandes.

 

Erschienen in der Frankfurter Allgemeine Zeitung (FAZ) am 08.05.2023. Online erreichbar unter:

https://www.faz.net/aktuell/wirtschaft/digitec/worauf-es-in-der-kuenstlichen-intelligenz-jetzt-ankommt-18875988.html

 

 

 

Kontakt

Reinhard Karger M.A.
Unternehmenssprecher DFKI

Tel.: +49 681 85775 5253


Deutsches Forschungszentrum für Künstliche Intelligenz GmbH (DFKI)
Saarland Informatics Campus
Stuhlsatzenhausweg 3
66123 Saarbrücken
Deutschland