Mehr vom Menschen lernen

Künstliche Intelligenz ist eine Schlüsseltechnologie unserer Zeit. Mit dem Deep Learning alleine kommen wir aber nicht zum Ziel.

Von Wolfgang Wahlster (erschienen in Frankfurter Allgemeine Zeitung, 9. September 2020)

Intelligentes Verhalten von Menschen beruht ohne Zweifel auf deren Wissen. Der Wissenserwerb wiederum basiert vor allem auf drei Komponenten: dem Lernen aus Beobachtungsdaten, der Lektüre von Lehrbüchern und Fachliteratur sowie dem Dialog mit Lehrenden und erfahrenen Experten. Trotz aller Erfolge der Künstlichen Intelligenz (KI) in der stark verbesserten Mustererkennung von Bildern, Sprache und Anomalien beispielsweise in Maschinendaten oder in Finanzdaten mit Hilfe des maschinellen Lernens über Massendaten wurde in den letzten beiden Jahren verstärkt der Ruf nach neuen, disruptiven KI-Ansätzen für den Wissenserwerb laut, die über das aktuelle Deep Learning auf der Basis mehrschichtiger neuronaler Netze deutlich hinausgehen.

KI muss mehr vom Menschen lernen, also aus dessen meist in Texten festgehaltenen Erkenntnissen und dem Dialog mit einem Wissensträger. Inzwischen wurde die Bedeutung von kausalem Hintergrundwissen in der jeweiligen Anwendungsdomäne klar. Ohne Kausalwissen können von datengetriebenen Lernverfahren abgeleitete Scheinkorrelationen kaum als Unsinn erkannt und aussortiert werden. Auch die derzeit auf der ganzen Welt geforderte Erklärungsfähigkeit von KI-Systemen kann ohne explizite Modelle, wie sie etwa seit jeher für die Beschreibung von Naturgesetzen verwendet werden, kaum in einer für den Menschen nachvollziehbaren Weise erreicht werden.

Es ergibt keinen Sinn zu versuchen, durch Deep Learning über experimentellen Massendaten die Maxwellschen Gleichungen für die Grundlagen der klassischen Elektrodynamik abermals abzuleiten. Zukünftige KI-Systeme sollten diese vier Gleichungen aus einer Physik-Einführung extrahieren, in ihrer Wissensbasis repräsentieren – und dann im Bedarfsfall selbst anwenden können.

Auch Gesetze des öffentlichen Rechts wie die Straßenverkehrsordnung können kaum durch Lernen über empirische Massendaten korrekt erfasst werden. Es würde zu Verkehrsverstößen durch autonome KI-Fahrzeuge führen, wenn die zulässige Höchstgeschwindigkeit in geschlossenen Ortschaften nicht durch die explizite Repräsentation der im jeweiligen situativen Kontext gültigen gesetzlichen Norm ermittelt würde, sondern durch statistisches maschinelles Lernen über einem Trainingsdatensatz gemessener Geschwindigkeiten: Denn dabei könnte sich leicht ein Wert von zum Beispiel 54,7 km/h ergeben, aber kaum die exakt vorgeschriebenen 50 km/h.

Auch zeigen aktuelle Tests von Fahrerassistenzsystemen, die Verkehrszeichen durch KI-basierte Sensorauswertung erkennen, dass keine hundertprozentige Korrektheit, sondern je nach Hersteller nur zwischen 32,5 Prozent und 95 Prozent Treffer erzielt werden. Trotzdem gehört die Erkennung von Geschwindigkeitsbegrenzungen heute schon in vielen Autos zur Serienausstattung. Denn durch KI werden auch erst kürzlich aufgestellte Schilder (beispielsweise in Baustellen) erkannt, die nicht auf digitalen Karten eingetragen sind. Als große Herausforderung erwiesen sich in der Praxis indes per Klebestreifen temporär ungültig gemachte Temposchilder sowie Anzeigen in Tunneln und Leuchtschilder an Schilderbrücken, aber auch die Verwechslung von Tempolimits für eine abbiegende Spur. Völlig aus dem Tritt kommen die Systeme, wenn an einer vorübergehenden Baustelle versehentlich die Aufhebung der Geschwindigkeitsbegrenzung vergessen wurde. Noch gravierender sind aber mögliche kriminelle Attacken durch das Aufbringen von kleinen Aufklebern mit Pixelmustern, die dem menschlichen Fahrer nicht auffallen, aber die neuronalen Netze des KI-Systems so in die Irre führen, dass sie ein Stoppschild dann plötzlich als Temposchild interpretieren – und so beim hochautomatisierten Fahren leicht einen Unfall verursachen.

Ein kleiner Aufkleber auf der Heckscheibe eines vorausfahrenden Autos kann im Extremfall das Deep-Learning-System schließlich sogar so verwirren, dass eine Vorwärtsbewegung versehentlich als Rückwärtsbewegung interpretiert wird. Gemäß den Kriterien, die wir in der Datenethik-Kommission der Bundesregierung entwickelt haben, sind für solche KI-Systeme Zulassungsverfahren über standardisierte Prüfprofile unbedingt erforderlich. KI-Systeme sind umso weniger störanfällig, je mehr explizit repräsentiertes Welt- und Kontextwissen in die Algorithmen einfließt.

In den Vereinigten Staaten wurde jetzt das mit zwei Milliarden Dollar ausgestattete Forschungsprogramm „AI next“ gestartet, das Grundlagen für eine neue Generation von KI-Systemen legen soll. Ziel ist es, durch die Integration einer Vielzahl unterschiedlichster KI-Methoden die Automatisierung kontextabhängiger Schlussfolgerungen zu ermöglichen, die auch bei widersprüchlicher, unvollständiger, mehrdeutiger oder vager Information zu Handlungsempfehlungen führen, die für den Menschen leicht nachvollziehbar sind. In der nächsten Dekade sollen KI-Systeme entstehen, die robuster und vertrauenswürdiger als die bisherigen Systeme sind. Dies soll auf einer engen Integration von Komponenten zur Selbstregulierung, zur Wahrnehmung, zum Lernen, Kontextverstehen, Inferieren und Planen von Aktionen sowie auf einer transparenten Repräsentation des während der Problemlösung benutzten Wissens beruhen. Durch die Förderung der Kombination symbolischer und statistischer Verfahren soll die einseitige Fokussierung auf maschinelle Lernverfahren aus Massendaten überwunden werden, wie sie in vielen Ländern in der jetzt abklingenden Hype-Phase verfolgt wurden.

Schon der Gründer der KI, John McCarthy, forderte im Jahr 1958 Computerprogramme mit „Common Sense“. Die Kollegen Michael M. Richter und Jörg Siekmann verlangten zusammen mit mir in einem Papier zur Vision des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) vor mehr als 30 Jahren Elemente der Alltagsintelligenz für intelligente Fachassistenzsysteme. Bisher konnte indes noch kein KI-System entwickelt werden, das diesem Ideal vollständig entspricht.

Auch die deutsche KI-Strategie wird in einer angepassten Form für die nächsten Jahre sicherlich die zunächst etwas einseitige Überbetonung des maschinelles Lernens aus Massendaten zugunsten einer Kombination mit modernsten symbolischen Verfahren aufgeben. Dies wird derzeit schon von vielen Industrieunternehmen wie BMW, SAP und Siemens praktiziert, aber auch von Forschungseinrichtungen wie dem DFKI und der Fraunhofer Gesellschaft oder den im europäischen Claire-Verbund zusammengeschlossenen Forschenden. Die in Massenmedien oft vorgenommene Verkürzung durch die Gleichsetzung von KI und maschinellem Lernen hat sich rasch als Irrweg erwiesen – nachdem etliche Projekte an überzogenen Erwartungen scheiterten, weil trotz riesiger Datenmengen zum Training der selbstlernenden KI-Systeme und enormem Rechenaufwand keine erklärbaren und robusten Lösungen für die jeweiligen Problemstellungen gefunden wurden.

Ein Beispiel für die nützliche Integration statistischer und symbolischer Verfahren ist die Kombination von Wissensgraphen mit Deep Learning. Wissensgraphen sind riesige Netzwerke von digital repräsentierten „Subjekt-Prädikat-Objekt“-Beziehungen, die extrem schnell in optimierten Graphwissensbanken durchsucht werden können und durch eine für die KI-Software eindeutig festgelegte Bedeutung auch einfache maschinelle Schlussfolgerungen zulassen. Visualisiert werden Subjekt und Objekt als Knotenpunkte, und die Prädikate werden als Verbindungslinien zwischen diesen dargestellt, wodurch ein gewaltiges Netzwerk entsteht.

Die Nutzung von Wissensgraphen hat durch den enormen Fortschritt der automatischen Text- und Dokumentanalyse mit KI-basierter Sprachtechnologie einen großen Schub erfahren: So können Wissensgraphen fast vollständig durch automatische Informationsextraktion aus Wikipedia-Dokumenten und anderen offenen Informationsquellen aufgebaut werden. Damit entfällt der hohe Aufwand für eine manuelle Erstellung der Wissensbasis, der in der zweiten Phase der KI in den sogenannten regelbasierten Expertensystemen ein deutliches Defizit war und deren Skalierung hemmte. Heute gründen KI-basierte Suchmaschinen und mobile Sprachdialog-Assistenten wesentlich auf gigantischen Wissensgraphen: Google nutzt einen Wissensgraphen mit 70 Milliarden Beziehungen zwischen einer Milliarde Entitäten, und Microsoft hat 55 Milliarden Beziehungen zwischen zwei Milliarden Entitäten gespeichert – das ist maschinell verwertbares, allgemeines Hintergrundwissen, das die von Hand codierten wissensbasierten Systeme der zweiten Phase der KI in den achtziger Jahren um mehrere Größenordnungen übertrifft.

Die industrielle KI, also der Einsatz von KI zur Realisierung der nächsten Stufe der Industrie 4.0, ist das Anwendungsgebiet der KI, auf dem Deutschland einen klaren Vorsprung gegenüber Nordamerika, China und Japan hat. Besonders die vielen mittelständischen deutschen Familienunternehmen verfügen über ein über Jahrzehnte aufgebautes, sehr spezielles Ingenieurwissen als wesentlichen Vorteil im Markt für die Produktion hochwertiger Güter. Es wäre falsch, diesen in konkreten Modellen, den sogenannten Digitalen Zwillingen, codierten Wissensvorsprung nicht zu nutzen und nur auf das maschinelle Lernen aus Maschinendaten zu setzen. Daher wurden aktuell Projekte zum Aufbau von Firmenwissensgraphen und digitalen Zwillingen besonders in produzierenden Familienunternehmen gestartet, etwa für die Online-Kundenberatung von Fresco Dog Foods aus Lünen oder zum Anlagenmanagement des Pumpenherstellers Netzsch aus Selb.

Heute zählen auch die prädiktive Wartung und Werkerassistenzsysteme zu den Erfolgsgeschichten der Industrie 4.0, die sich zu einem Exportschlager entwickeln. Es gibt aber weitaus mehr KI-Anwendungen im Bereich der Industrie 4.0. Aktuell sind Verfahren der Online-Qualitätskontrolle in der Produktion kleiner Losgrößen, der kollaborativen Team-Robotik, der autonomen Intralogistik und der Realzeitproduktionsplanung im Fokus der Forschungsabteilungen der produzierenden Unternehmen.

Um die nahtlose Zusammenarbeit zwischen einer Vielzahl von KI-Systemen unterschiedlicher Hersteller in einem konkreten Anwendungsfall zu gewährleisten, bedarf es Normen und Standards. Damit lässt sich der Datenaustausch so gestalten, dass sich alle KI-Komponenten untereinander eindeutig verstehen. Die für Dezember geplante Veröffentlichung der deutschen KI-Normungsroadmap empfiehlt daher ein Programm für die Standardisierung von Datenmodellen und Zertifizierungsverfahren für normgerechte KI-Bausteine in unterschiedlichen Domänen. Durch eine solche Initiative können wir in Deutschland die Grundlage für eine reibungslose Integration und ein effizientes Zusammenspiel wiederverwendbarer KI-Komponenten schaffen, internationale Normen maßgeblich mitgestalten – und so die breite Einsatzmöglichkeit für „KI made in Germany“ mit hohen ethischen Standards sicherstellen.

Durch die derzeit stark erhöhten Echtzeitanforderungen an KI-Systeme im Bereich Produktion, Logistik und Mobilität zeichnet sich wiederum ein klarer Trend zur Ablösung zentraler Cloud-Dienste durch vernetzte dezentrale Speicher- und Recheneinheiten ab. Diese werden am Rande der Kommunikationsnetze (daher als „Edge-Clouds“ bezeichnet) installiert werden, so dass etwa Sensordaten ohne Umwege sofort dort, wo sie entstehen, mit KI analysiert und in Steuerungsimpulse umgesetzt werden können. Mithilfe solcher föderierter Edge-Clouds, die über 5G mit sehr geringen Übertragungszeiten verbunden werden können, wird zumindest in der industriellen KI eine stärkere Unabhängigkeit deutscher Lösungen von den großen Cloud-Anbietern in den Vereinigten Staaten und China möglich. Dies sorgt für mehr technische Souveränität, wie sie verstärkt von der Europäischen Union gefordert wird.

Ein in diesem Beitrag aufgezeigter Trend ist die Entwicklung hybrider kognitiver Systeme, die modellbasierte Methoden mit maschinellem Lernen kombinieren, so dass sich symbolische und subsymbolische Verfahren wechselseitig ergänzen und verstärken. Die Weltorganisation für Künstliche Intelligenz (AAAI), in der ich als einer von fünf deutschen Fellows mitarbeite, hat in ihrer KI-Roadmap für die nächsten 20 Jahre diesen Trend klar herausgearbeitet. Aus heutiger Sicht kann man vier Phasen der KI-Forschung unterscheiden: heuristische Systeme, wissensbasierte Systeme, lernende System und hybride kognitive Systeme. Die neuartigen hybriden kognitiven Systeme weisen dabei derzeit den höchsten Intelligenzgrad, die höchste Transparenz sowie die beste Robustheit und Anpassungsfähigkeit auf.

Wolfgang Wahlster ist seit mehr als 40 Jahren KI-Forscher und war CEO des DFKI.
Derzeit leitet er die Steuerungsgruppe der deutschen KI-Normungsroadmap.

Erschienen in
Frankfurter Allgemeine Zeitung, F.A.Z., Digitec Beilage, 09.09.2020

Beitrag teilen auf:

Pressekontakt:

Deutsches Forschungszentrum für Künstliche Intelligenz
German Research Center for Artificial Intelligence