Projekt

DEEPLEE

Tiefes Lernen für End-to-End-Anwendungen in der Sprachtechnologie

  • Laufzeit:

Die Forschungsarbeiten in DEEPLEE, die im Forschungsberich Sprachtechnologie in Saabrücken und Berlin durchgeführt werden, bauen auf der Expertise des DFKI in den Bereichen "Tiefes Lernen" (DL) und "Sprachtechnologie" (LT) auf und entwickeln sie weiter. Sie streben profunde Verbesserungen von DL-Ansätzen in LT an, indem sie vier zentrale, offene Forschungsthemen thematisieren:

  1. Modularität in DNN-Architekturen
  2. Nutzung von externem Wissen
  3. DNNs mit Erklärungs-Funktionalität
  4. Maschinelle Lehr-Strategien für DNNs

Das Resultat der Forschungsarbeiten wird ein DL-basiertes modulares Rahmensystem sein, das End-to-End-Anwendungen in Informationsextraktion (IE), Fragebeantwortung (Question Answering, QA) und maschineller Übersetzung (MÜ) ermöglicht. Dabei werden folgende Forschungsziele verfolgt:

  1. Komplexe LTs (IE, QA, MÜ), die traditionell auf heterogenen Technologie-Sammlungen beruhen, sollen als einheitliche auf neuronalen Netzwerken basierende End-to-End-Lernszenarien modelliert werden.
  2. Die End-to-End-Performanz klassischer, auf heterogenen Technologie-Sammlungen beruhenden Ansätze soll gegen neuronale Ansätze evaluiert werden.
  3. Ein Repertoire von "linguistisch inspirierten" neuronalen Bausteinen für LTs soll etabliert werden, die sprachagnostisch sind und wiederverwendet werden können (einschließlich erläuternder Funktionalität und Lernaspekte wie unterschiedliche Grade der Überwachung, Modellverteilung, Transfer Lernen, Multi-Task-Lernen für solche Module) . Wir werden dies für IE-, QE- und MÜ-Szenarien tun, die eine breite Palette von Bausteinen und Anwendungen abdecken.
  4. Es soll ein Portfolio von Ansätzen für eine Vielzahl von DNNs und Aufgaben (NMÜ, NQA und NIE) etabliert werden, die sich einem menschlichen Experten zu erklären vermögen.
  5. IE, QA und MÜ sollen als Text-to-Text-Anwendungen gestaltet werden.
  6. Entwicklung und Bewertung von Möglichkeiten zur Integration externer Wissensquellen in NN-basierte LTs.

Projekt teilen auf:

Ansprechpartner
Prof. Dr. Stephan Busemann

Publikationen zum Projekt

Ekaterina Loginova, Günter Neumann

In: EMNLP-2018, System Demonstration. Conference on Emperical Methods in Natural Language Processing (EMNLP-2018) November 2-4 Brüssel Belgium EMNLP 11/2018.

Zur Publikation
Prasenjit Basu, Santanu Pal, Sudip Kumar Naskar

In: Third Conference on Machine Translation (WMT), Volume 2: Shared Task Papers. Conference on Emperical Methods in Natural Language Processing (EMNLP-2018) Third Conference on Machine Translation (WMT), Volume 2: Shared Task Papers October 31-November 4 Brussels Belgium Belgium Seiten 759-764 2 Association for Computational Linguistics 10/2018.

Zur Publikation

Deutsches Forschungszentrum für Künstliche Intelligenz
German Research Center for Artificial Intelligence