Projekt

XAINES

KI mit Narrativen erklären

KI mit Narrativen erklären

Im Projekt XAINES soll nicht nur die Erklärbarkeit sichergestellt werden, sondern darüber hinaus Erklärungen (Narrative) bereitgestellt werden. Die zentrale Frage dabei ist, ob die KI in einem Satz erklären kann, warum sie so gehandelt hat oder ob sie es dem Nutzer interaktiv erklären muss. Um dies zu klären ist einer der Projektschwerpunkte die Erforschung von narrativen und interaktiven Erzählungen, welche besonders für Menschen geeignet sind, um Wissen in jedweder Form aufzunehmen, in ihrer Anwendung mit KI-Systemen. Um erklärende Erzählungen zu erhalten, werden (sprach-)markierte Sensordatenströme und prädikative Modelle verwendet. Sensorinformationen werden mit Sprachinformationen kombiniert, daraus entwickelt das KI-System sog. Szenenverständnis, wodurch dann Erklärungen generiert werden.

Bei den Narrativen wird unterschieden zwischen Domänennarrativen und Machine Learning Narrativen. Domänennarrative zeigen was in der Domäne passierte, wie sie durch sprachgestützte Aktivitätserkennung erfasst wurde. Machine Learning Narrative sind solche, die die Vorhersagen dieser Modelle erklären. Domänennarrative und ML-Narrative sind miteinander verknüpft, denn Domänennarrative werden durch maschinelles Lernen konstruiert. Als Endnutzer dieser Narrative sollen zum einen die Entwickler der KI-Module sein, zum anderen die Fachexperten, die die Software verwenden, aber auch interessierte Laien, anvisiert werden.

Gefördert wird das Projekt XAINES, an dem 7 Forschungsbereiche des DFKI eng verzahnt zusammenarbeiten, durch das Bundesministerium für Bildung und Forschung (BMBF). Dabei folgt das Projekt der neuen Richtlinie „Erklärbarkeit und Transparenz des Maschinellen Lernens und der Künstlichen Intelligenz“, die im Rahmen der KI-Strategie der Bundesregierung, aufgelegt wurde.

Die verschiedenen Anwendungsfälle (engl. use cases) stammen aus dem Bereich Autonomes Fahren (ASR), Automatisierung im Bauwesen (EI) und der interaktiven medizinischen Entscheidungsunterstützung (IML).

Partner

Forschungsbereiche: Agenten und Simulierte Realität (ASR), Interaktives Maschinelles Lernen (IML), Smarte Daten und Wissensdienste (SDS), Eingebettete Intelligenz (EI), Sprachtechnologie (SLT), Sprachtechnologie und Multilingualität (MLT), Algorithmic Business and Production (ABP)

Fördergeber

Publikationen zum Projekt

Ho Minh Duy Nguyen, Duy M. Nguyen, Huong Vu, Binh T. Nguyen, Fabrizio Nunnari, Daniel Sonntag

In: The Thirty-Fifth AAAI Conference on Artificial Intelligence (AAAI-21). AAAI Conference on Artificial Intelligence (AAAI-2021) Workshop: Trustworthy AI for Healthcare February 2-9 Vancouver BC Canada AAAI 2021.

Zur Publikation
Shailza Jolly, Sandro Pezzelle, Moin Nabi

In: 2021 Annual Conference of the North American Chapter of the Association for Computational Linguistics. Annual Conference of the North American Chapter of the Association for Computational Linguistics (HLT-NAACL-2021) June 6-11 Online-Conference Germany ACL 2021.

Zur Publikation
Rajarshi Biswas, Michael Barz, Daniel Sonntag

In: KI - Künstliche Intelligenz, German Journal on Artificial Intelligence - Organ des Fachbereiches "Künstliche Intelligenz" der Gesellschaft für Informatik e.V. (KI) 36 Seiten 1-14 Springer 7/2020.

Zur Publikation

Deutsches Forschungszentrum für Künstliche Intelligenz
German Research Center for Artificial Intelligence