Projekt

ChiM

Chatbot im Museum

  • Laufzeit:

Bis heute begleiten Audio- oder Mediaguides Ausstellungsbesuche und bieten Erklärungen für museale Objekte an. Mit dem Projekt CHIM soll eine lernende, konversationale Museumsführung entwickelt werden, die interaktiven Wissenstransfer ermöglicht. Der „Chatbot im Museum“ ist ein lernendes, multimodales Dialogsystem und ein potenzieller „Game Changer“ im wachsenden Markt musealer Wissensvermittlung. Mit Hilfe von Künstlicher Intelligenz wird das sprachbasierte Dialogsystem Besucherinnen und Besucher durch die Ausstellungen führen. Ziel ist dabei, dass der Chatbot Fragen zu Objekten möglichst korrekt beantworten kann. CHIM nutzt automatische Spracherkennung und ein hybrides System für Sprachverstehen, bei dem die Intention einer Nutzeräußerung ermittelt und dem Text eine Bedeutung zugewiesen werden muss. Für diese Technologie werden Methoden des maschinellen Lernens genutzt. Bei CHIM werden dafür zum einen strukturiertes Wissen aus Museumsdatenbanken und zum anderen Sprachmodelle, die auf großen Datenmengen trainiert wurden, genutzt. Viele Faktenfragen können direkt über die Daten aus der Museumsdatenbank beantwortet werden. Eine unserer Forschungsfragen ist, wie gut CHIM offene Fragen mit Hilfe von großen Sprachmodellen beantworten kann, wenn ein spezifisches Objekt und ein zugehöriger Text als Kontext zur Verfügung stehen. Um Trainingsmaterial zu erlangen, wurde zunächst eine erfolgreiche Kampagne zur Fragenstellung durchgeführt. Der nächste Schritt wird die Zuordnung der Fragen zu vorhandenen Inhalten sein. Mit den Daten werden KI-Modelle erzeugt, die relevante Antworten erzeugen können. Informatikerinnen, Multimediaguide-Spezialistinnen und Expertinnen aus dem Bereich Museum kollaborieren für die Realisierung des Projekts. Das Projektvorhaben zielt auf die Entwicklung einer ökonomisch tragfähigen Lösung ab. Es soll gewährleistet werden, dass CHIM an verschiedene Wissensvermittlungssysteme angebunden ist und Nutzerinnen gleichzeitig verständliche Informationen bietet. Die Strukturierung der Daten mittels semantischer Annotation, adäquate Dialogstrategien sowie die Möglichkeit zur multimodalen Intentionserkennung sind technische Pfeiler des Projekts.

Partner

Linon Medien KG

Projekt teilen auf:

Ansprechpartner
Dr.-Ing. Stefan Schaffer, M.A.

Publikationen zum Projekt

Stefan Schaffer, Aaron Ruß

In: 32. Konferenz Elektronische Sprachsignalverarbeitung. Elektronische Sprachsignalverarbeitung (ESSV-2021) March 3-5 Berlin/Virtual Germany TUDpress Dresden 2021.

Zur Publikation
Stefan Schaffer,

In: 32. Konferenz Elektronische Sprachsignalverarbeitung. Elektronische Sprachsignalverarbeitung. Elektronische Sprachsignalverarbeitung (ESSV-2021) March 3-5 Berlin/Virtual Germany TUDpress, Dresden 2021.

Zur Publikation
Stefan Schaffer,

In: Proceedings of the Conference on Digital Curation Technologies. Conference on Digital Curation Technologies (QURATOR-2021) February 8-12 Berlin/Virtual Germany CEUR Workshop Proceedings 2021.

Zur Publikation

Deutsches Forschungszentrum für Künstliche Intelligenz
German Research Center for Artificial Intelligence