Projekt

DEEPLEE

Tiefes Lernen für End-to-End-Anwendungen in der Sprachtechnologie

  • Laufzeit:

Die Forschungsarbeiten in DEEPLEE, die im Forschungsberich Sprachtechnologie in Saabrücken und Berlin durchgeführt werden, bauen auf der Expertise des DFKI in den Bereichen "Tiefes Lernen" (DL) und "Sprachtechnologie" (LT) auf und entwickeln sie weiter. Sie streben profunde Verbesserungen von DL-Ansätzen in LT an, indem sie vier zentrale, offene Forschungsthemen thematisieren:

  1. Modularität in DNN-Architekturen
  2. Nutzung von externem Wissen
  3. DNNs mit Erklärungs-Funktionalität
  4. Maschinelle Lehr-Strategien für DNNs

Das Resultat der Forschungsarbeiten wird ein DL-basiertes modulares Rahmensystem sein, das End-to-End-Anwendungen in Informationsextraktion (IE), Fragebeantwortung (Question Answering, QA) und maschineller Übersetzung (MÜ) ermöglicht. Dabei werden folgende Forschungsziele verfolgt:

  1. Komplexe LTs (IE, QA, MÜ), die traditionell auf heterogenen Technologie-Sammlungen beruhen, sollen als einheitliche auf neuronalen Netzwerken basierende End-to-End-Lernszenarien modelliert werden.
  2. Die End-to-End-Performanz klassischer, auf heterogenen Technologie-Sammlungen beruhenden Ansätze soll gegen neuronale Ansätze evaluiert werden.
  3. Ein Repertoire von "linguistisch inspirierten" neuronalen Bausteinen für LTs soll etabliert werden, die sprachagnostisch sind und wiederverwendet werden können (einschließlich erläuternder Funktionalität und Lernaspekte wie unterschiedliche Grade der Überwachung, Modellverteilung, Transfer Lernen, Multi-Task-Lernen für solche Module) . Wir werden dies für IE-, QE- und MÜ-Szenarien tun, die eine breite Palette von Bausteinen und Anwendungen abdecken.
  4. Es soll ein Portfolio von Ansätzen für eine Vielzahl von DNNs und Aufgaben (NMÜ, NQA und NIE) etabliert werden, die sich einem menschlichen Experten zu erklären vermögen.
  5. IE, QA und MÜ sollen als Text-to-Text-Anwendungen gestaltet werden.
  6. Entwicklung und Bewertung von Möglichkeiten zur Integration externer Wissensquellen in NN-basierte LTs.

Projekt teilen auf:

Ansprechpartner
Prof. Dr. Stephan Busemann

Publikationen zum Projekt

Paul Libbrecht, Thierry Declerck, Tim Schlippe, Thomas Mandl, Daniel Schiffner

In: Stefan Conrad, Ilaria Tiddi (Hrsg.). Proceedings of the CIKM 2020 Workshops,. International Workshop on Investigating Learning During Web Search (IWILDS-2020) befindet sich CIKM 2020 October 19-19 Galway Ireland CEUR Workshop Proceedings 10/2020.

Zur Publikation
Hongfei Xu, Josef van Genabith, Deyi Xiong, Quihui Liu, Jingyi Zhang

In: Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (Hrsg.). Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. Annual Meeting of the Association for Computational Linguistics (ACL-2020) befindet sich ACL 2020 July 5-10 virtual Seiten 386-396 .. 7/2020.

Zur Publikation
Hongfei Xu, Josef van Genabith, Deyi Xiong, Qiuhui Liu

In: Association for Computational Linguistics (Hrsg.). Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. Annual Meeting of the Association for Computational Linguistics (ACL-2020) befindet sich ACL 2020 July 5-10 virtual Seiten 3519-3524 .. 7/2020.

Zur Publikation

Deutsches Forschungszentrum für Künstliche Intelligenz
German Research Center for Artificial Intelligence