Projekt

XAINES

KI mit Narrativen erklären

KI mit Narrativen erklären

Im Projekt XAINES soll nicht nur die Erklärbarkeit sichergestellt werden, sondern darüber hinaus Erklärungen (Narrative) bereitgestellt werden. Die zentrale Frage dabei ist, ob die KI in einem Satz erklären kann, warum sie so gehandelt hat oder ob sie es dem Nutzer interaktiv erklären muss. Um dies zu klären ist einer der Projektschwerpunkte die Erforschung von narrativen und interaktiven Erzählungen, welche besonders für Menschen geeignet sind, um Wissen in jedweder Form aufzunehmen, in ihrer Anwendung mit KI-Systemen. Um erklärende Erzählungen zu erhalten, werden (sprach-)markierte Sensordatenströme und prädikative Modelle verwendet. Sensorinformationen werden mit Sprachinformationen kombiniert, daraus entwickelt das KI-System sog. Szenenverständnis, wodurch dann Erklärungen generiert werden.

Bei den Narrativen wird unterschieden zwischen Domänennarrativen und Machine Learning Narrativen. Domänennarrative zeigen was in der Domäne passierte, wie sie durch sprachgestützte Aktivitätserkennung erfasst wurde. Machine Learning Narrative sind solche, die die Vorhersagen dieser Modelle erklären. Domänennarrative und ML-Narrative sind miteinander verknüpft, denn Domänennarrative werden durch maschinelles Lernen konstruiert. Als Endnutzer dieser Narrative sollen zum einen die Entwickler der KI-Module sein, zum anderen die Fachexperten, die die Software verwenden, aber auch interessierte Laien, anvisiert werden.

Gefördert wird das Projekt XAINES, an dem 7 Forschungsbereiche des DFKI eng verzahnt zusammenarbeiten, durch das Bundesministerium für Bildung und Forschung (BMBF). Dabei folgt das Projekt der neuen Richtlinie „Erklärbarkeit und Transparenz des Maschinellen Lernens und der Künstlichen Intelligenz“, die im Rahmen der KI-Strategie der Bundesregierung, aufgelegt wurde.

Die verschiedenen Anwendungsfälle (engl. use cases) stammen aus dem Bereich Autonomes Fahren (ASR), Automatisierung im Bauwesen (EI) und der interaktiven medizinischen Entscheidungsunterstützung (IML).

Partner

Forschungsbereiche: Agenten und Simulierte Realität (ASR), Interaktives Maschinelles Lernen (IML), Smarte Daten und Wissensdienste (SDS), Eingebettete Intelligenz (EI), Sprachtechnologie (SLT), Sprachtechnologie und Multilingualität (MLT), Algorithmic Business and Production (ABP)

Fördergeber

BMBF - Bundesministerium für Bildung, Wissenschaft, Forschung und Technologie

BMBF - Bundesministerium für Bildung, Wissenschaft, Forschung und Technologie

Publikationen zum Projekt

Pasquale Minervini, David Chang, Pontus Stenetorp, Saadullah Amin, Günter Neumann

In: Proceedings of the 29th International Conference on Computational Linguistics. International Conference on Computational Linguistics (COLING-2022) befindet sich 29th International Conference on Computational Linguistics October 12-17 Gyeongju South Korea International Committee on Computational Linguistics (ICCL) 10/2022.

Zur Publikation
Nils Feldhus, Ajay Madhavan Ravichandran, Sebastian Möller

In: Rosina Weber, Ofra Amir, Tim Miller (Hrsg.). IJCAI 2022 - Workshop on Explainable Artificial Intelligence (XAI). IJCAI Workshop on Explainable Artificial Intelligence (XAI-2022) befindet sich IJCAI-ECAI 2022 July 23-23 Vienna Austria International Joint Conferences on Artificial Intelligence Organization 7/2022.

Zur Publikation
Aliki Anagnostopoulou, Mareike Hartmann, Daniel Sonntag

Bridging Human-Computer Interaction and Natural Language Processing (NAACL 2022) 7/2022.

Zur Publikation
Alle Publikationen

Deutsches Forschungszentrum für Künstliche Intelligenz
German Research Center for Artificial Intelligence