Projekt

DEEPLEE

Tiefes Lernen für End-to-End-Anwendungen in der Sprachtechnologie

Tiefes Lernen für End-to-End-Anwendungen in der Sprachtechnologie

  • Laufzeit:

Die Forschungsarbeiten in DEEPLEE, die im Forschungsberich Sprachtechnologie in Saabrücken und Berlin durchgeführt werden, bauen auf der Expertise des DFKI in den Bereichen "Tiefes Lernen" (DL) und "Sprachtechnologie" (LT) auf und entwickeln sie weiter. Sie streben profunde Verbesserungen von DL-Ansätzen in LT an, indem sie vier zentrale, offene Forschungsthemen thematisieren:

  1. Modularität in DNN-Architekturen
  2. Nutzung von externem Wissen
  3. DNNs mit Erklärungs-Funktionalität
  4. Maschinelle Lehr-Strategien für DNNs

Das Resultat der Forschungsarbeiten wird ein DL-basiertes modulares Rahmensystem sein, das End-to-End-Anwendungen in Informationsextraktion (IE), Fragebeantwortung (Question Answering, QA) und maschineller Übersetzung (MÜ) ermöglicht. Dabei werden folgende Forschungsziele verfolgt:

  1. Komplexe LTs (IE, QA, MÜ), die traditionell auf heterogenen Technologie-Sammlungen beruhen, sollen als einheitliche auf neuronalen Netzwerken basierende End-to-End-Lernszenarien modelliert werden.
  2. Die End-to-End-Performanz klassischer, auf heterogenen Technologie-Sammlungen beruhenden Ansätze soll gegen neuronale Ansätze evaluiert werden.
  3. Ein Repertoire von "linguistisch inspirierten" neuronalen Bausteinen für LTs soll etabliert werden, die sprachagnostisch sind und wiederverwendet werden können (einschließlich erläuternder Funktionalität und Lernaspekte wie unterschiedliche Grade der Überwachung, Modellverteilung, Transfer Lernen, Multi-Task-Lernen für solche Module) . Wir werden dies für IE-, QE- und MÜ-Szenarien tun, die eine breite Palette von Bausteinen und Anwendungen abdecken.
  4. Es soll ein Portfolio von Ansätzen für eine Vielzahl von DNNs und Aufgaben (NMÜ, NQA und NIE) etabliert werden, die sich einem menschlichen Experten zu erklären vermögen.
  5. IE, QA und MÜ sollen als Text-to-Text-Anwendungen gestaltet werden.
  6. Entwicklung und Bewertung von Möglichkeiten zur Integration externer Wissensquellen in NN-basierte LTs.

Fördergeber

Publikationen zum Projekt

Sudip Kumar Naskar, Hongfei Xu, Nico Herbig, Antonio Krüger, Josef van Genabith

In: Proceedings of the 28th Conference on Computational Linguistics. International Conference on Computational Linguistics (COLING-2020) December 12-13 Barcelona Spain Seiten 5963-5974 International Committee on Computational Linguistics 12/2020.

Zur Publikation
Necip Oğuz Şerbetci, Nils Rethmeier, Sebastian Möller, Roland Roller

In: AMIA 2020 ANNUAL SYMPOSIUM. AMIA Annual Symposium (AMIA-2020) November 14-18 Virtual PubMed 11/2020.

Zur Publikation
Tim Schlippe, Thomas Mandl, Daniel Schiffner, Thierry Declerck,

In: Stefan Conrad , Ilaria Tiddi (Hrsg.). Proceedings of the CIKM 2020 Workshops,. International Workshop on Investigating Learning During Web Search (IWILDS-2020) befindet sich CIKM 2020 October 19-19 Galway Ireland CEUR Workshop Proceedings 10/2020.

Zur Publikation

Deutsches Forschungszentrum für Künstliche Intelligenz
German Research Center for Artificial Intelligence