Das DFKI Saarbrücken am Tag der offenen Tür der Universität des Saarlandes

Virtuelle Welten durch die OculusRift-VR-Brille betrachten, das geschriebene Wort per Sprachsynthese in gesprochene Sprache verwandeln oder mit Hilfe von Google Glass Beleuchtung per Blickkontakt fernsteuern – kleine und große Besucher können Künstliche Intelligenz in alltagstauglichen Anwendungen am Samstag, den 4. Juli, hautnah erleben.

Um 9:30 Uhr hält Prof. Philipp Slusallek, Leiter des Forschungsbereichs Agenten und Simulierte Realität, im Günter-Hotz-Hörsaal der Universität des Saarlandes einen Vortrag über „Realistische Bilder für die Filmindustrie – aus Saarbrücken“. Von 10:00 bis 14:00 Uhr öffnet das DFKI dann wieder seine Türen: Forscher und studentische Mitarbeiter präsentieren ausgewählte Projekte, Systeme und Prototypen, beantworten Fragen und stellen ihre Forschungsbereiche, aber auch  Studiengänge wie Medieninformatik vor. 

Die Themen 2015:

3D-Grafiken, die dank serverbasiertem Rendering in einem ganz normalen Browser gezeigt werden können, preisgekrönte Technologie, mit der sich mehrere Bildschirme zu einer einzigen Displaywand verknüpfen lassen – all das zeigen Exponate aus dem Forschungsbereich Agenten und Simulierte Realität. Darüber hinaus können Besucher im Vitruv21-Demonstrator im virtuellen Raum bauen und gleichzeitig den Baufortschritt aus verschiedenen Blickwinkeln mit Hilfe der Oculus Rift betrachten.

Der Forschungsbereich Sprachtechnologie präsentiert die Sprachsynthese MARY TTS, die geschriebene Texte schnell und einfach in gesprochene Sprache umwandeln kann.  Das System ist für mehrere Sprachen geeignet, unter anderem Deutsch, Englisch, Französisch und Italienisch. Zudem kann der vertonte Text aufgenommen und neue Stimmen erstellt werden. In einer neu gestalteten Weboberfläche kann der Besucher Texte eingeben und der synthetischen Stimme beim Vorlesen zuhören.  

Im Forschungsbereich Intelligente Benutzerschnittstellen arbeiten DFKI-Forscher an einer geräte- und herstellerübergreifenden Dialogplattform für cyber-physische Umgebungen, die auch Eingabegeräte wie Datenbrillen oder Smart Watches integriert. So können Teilnehmer exemplarisch ausgewählte Umgebungsgeräte wie z.B. Beleuchtung oder Belüftung ganz nach Wunsch per Kopfbewegung, Sprache, Gestik, Touchscreen und Näherungssensorik in einer Vielzahl möglicher Kombinationen kontrollieren.

In cyber-physischen Produktionsanlagen fallen große Mengen hochkomplexer Daten an – Big Data, die detaillierte Informationen zu realen Geschäfts- und Produktionsabläufen liefern. In RefMod-Miner, dem Exponat aus dem Institut für Wirtschaftsinformatik am DFKI, werden Szenarien veranschaulicht,  in denen mit Hilfe von Process Mining und Big Data Geschäftsprozessmodelle optimiert werden. 

Interessierte Besucher des Innovation Retail Labs (IRL) bekommen einen Eindruck davon, wie es im Supermarkt der Zukunft aussehen könnte: von der Frischetheke, die erkennt, auf welches Produkt man zeigt und entsprechende Produktinformationen präsentiert, bis zum intelligenten Einkaufswagen, der weiß, welche Produkte sich in ihm befinden und diese automatisch auf der Einkaufsliste abhakt. Oder sie probieren die mobile Kochassistenz-App „Kochbot“ aus, die in einer intelligenten Küchenumgebung integriert ist. So können auch Küchengeräte entsprechend den Angaben des Rezepts im Smartphone angesteuert werden. Der Kochvorgang wird durch die intelligente Steuerung vereinfacht und die Hände bleiben durch Sprachinteraktion frei fürs Kochen. 

 

DFKI Pressekontakt
Armindo Ribeiro
Unternehmenskommunikation DFKI Saarbrücken
Tel.: +49 681 85775 5280

Beitrag teilen auf:

Deutsches Forschungszentrum für Künstliche Intelligenz
German Research Center for Artificial Intelligence