Direkt zum Inhalt Direkt zur Navigation
Intelligente Benutzerschnittstellen

Forschungsprojekt

IDEAS4GAMES - Intelligente Dialogsteuerung und Ausdrucksstarke Sprachsynthese fĂĽr Computerspiele

In diesem Vorhaben sollen neue Interaktionsparadigmen und –Technologien erforscht werden, um die Flexibilität der Interaktion und DialogfĂĽhrung in Computerspielen zu erweitern. Computergesteuerte Spielcharaktere sollen intelligentere und vielfältigere Dialoge fĂĽhren können, als das mit heutiger Spieltechnologie möglich ist. Dadurch entsteht ein Technologievorsprung, der eine zukĂĽnftige industrielle Forschung und Produktentwicklung in Zusammenarbeit mit Berliner Firmen möglich machen soll.

Als Ergebnis der Forschungsarbeit werden die folgenden Innovationen angestrebt.

**Intelligente Dialogsteuerung mit Methoden der KĂĽnstlichen Intelligenz**

  • Anpassung des Dialogverlaufs an den aktuellen Kontext, die Aktionen des Benutzers und die zur Laufzeit berechneten GefĂĽhle der virtuellen Charaktere;
  • BerĂĽcksichtigung des bisherigen Dialogverlaufs, um Wiederholungen zu vermeiden und um ein insgesamt konsistentes Gesamtverhalten zu generieren.

**Modellierung von Emotionen und Persönlichkeit auf der Basis sozialpsychologischer Modelle**

  • Integration von Emotionsmodellierung und Berechnung in eine Game-Engine;
  • Verbesserung des körperlichen Verhaltens von virtuellen Charakteren, z.B. Auswahl und individuelle AusfĂĽhrung von (redebegleitenden) Gesten, Idlebewegungen, oder die Art des Gesichtsausdrucks;
  • Auswirkungen der berechneten GefĂĽhle auf das Dialog- und Interaktionsverhalten von virtuellen Charakteren in Computerspielen.

**Sprachsynthese mit verlässlicher Qualität**

  • Einbettung von Sprachsynthese in eine Game-Engine;
  • Vorhersagbarkeit der Synthesequalität;
  • Reduzierung des manuellen Aufwands bei der Erstellung neuer synthetischer Stimmen;

Expressive Sprachsynthese

  • Generierung von spieltypischen Stimmen (Riese, Zwerg, Roboter,...) aus synthetischer Sprache mittels Sprachsignal-Manipulations­verfahren;
  • automatische Lernverfahren fĂĽr emotionsspezifische Klangmuster aus Beispieldaten zwecks Generierung in der synthetischen Sprache;
  • Erhöhung der Bandbreite an möglicher Expressivität durch domänenspezifische und domänenorientierte Synthesestimmen.

Kontakt

Ansprechpartner: Dr. Patrick Gebhard
Projektleitung: Dr.-Ing., Dr. Marc Schröder

Beteiligte Forschungsbereiche

Publikationen

  • 2008