30 Jahre DFKI – Open House mit Präsentation von KI-Prototypen im DFKI-Projektbüro Berlin

Die beim Open House-Event gezeigten 16 KI-Prototypen aus 11 Forschungsbereichen an drei Standorten und aus dem Projektbüro Berlin adressieren Themen wie: Intelligente Assistenz- und Wissensdienste in der medizinischen Notaufnahme, On-the-fly Optimierung und Planung von Produktionssystemen in Echtzeit, Roboter für die autonome Erkundung planetarer Krater und Höhlen, Smart Textiles, Eye-Tracking und Augmented Reality für Immersive Quantified Learning und weitere Themen.

Das DFKI feiert sein 30-jähriges Bestehen und präsentiert im Projektbüro Berlin aktuelle Systemergebnisse. Seit drei Jahrzehnten forscht das DFKI in einer Public-Private-Partnership an KI für den Menschen und orientiert sich dabei an wissenschaftlicher Exzellenz, wirtschaftlichem Nutzen und gesellschaftlicher Relevanz.

Live-Systempräsentationen aus den DFKI-Standorten beim Open House-Event

Mittwoch, 17. Oktober 2018, 10:00-14:00 Uhr
Ort: DFKI Projektbüro Berlin, Alt-Moabit 91c, 10559 Berlin
Mehr Information: https://www.dfki.de/web/news-media/news-events/events-keynotes/30-jahre-dfki/
Anfahrt: https://goo.gl/maps/k14qWDq9Uqy 

Die Systemdemonstrationen im Einzelnen:

ALINA – Smarte Erste Hilfe für Rettungskräfte
Mithilfe einer Simulationspuppe der Firma Laerdal, die auch während des Medizinstudiums zur Vermittlung praktischer Kompetenzen eingesetzt wird, wird im Projekt Intelligente Assistenz- und Wissensdienste in der medizinischen Notaufnahme (ALINA) eine konkrete Notfallsituation in der präklinischen und klinischen Phase der Notfallversorgung nachgestellt und erlebbar gemacht. ALINA ist für die nicht-akademischen Berufsgruppen in der Notfallmedizin, wie beispielsweise Rettungs- bzw. Notfallsanitäter und Pflegekräfte konzipiert. Über mobile Endgeräte wird der Dienst für ihre berufliche Tätigkeit zur Verfügung gestellt und unterstützt das Rettungsdienst- und Notfallpflegepersonal bedarfsorientiert vor Ort in der akuten Notfallsituation – unabhängig von Ort und Zeit. Angebundene Online-Lernplattformen dienen im ALINA-Projekt zur Vermittlung notwendiger theoretischer Grundlagen.

Projekt ALINA
Forschungsbereich Educational Technologies (Berlin)

 

MORECARE – Mobilisierungsunterstützung zu Hause
MORECARE hilft bei der Mobilen Rehabilitation pflegebedürftiger Menschen während des häuslichen Alltags. Durch eine semi-automatisch, individualisierbar geführte Dokumentation wird die Kommunikation zwischen den verschiedenen Berufsgruppen, Patienten und Angehörigen vereinfacht. Das sensorbasierte System besteht aus einer leicht installierbaren, alltagstauglichen Instrumentierung der Wohnung. Es ist ein multimodales Kommunikations- und Feedbacksystem, das auf den aktuellen Bewegungsstatus reagiert, den Rehabilitationsverlauf mit Bezug auf die Mobilitätsziele anzeigt und situations- und bedarfsgerechte Anleitungen für Eigenübungen sowie Schulungs- und Informationsmaterialien enthält. Anhand von Smarter Kleidung, wie z.B. einer – idealerweise selbst gestrickten – Jacke, die mit Sensoren ausgestattet ist, kann MORECARE einfach in das tägliche Leben integriert werden.

Projekt Morecare
Forschungsbereich Kognitive Assistenzsysteme (Berlin)

 

Smart Data for Mobility und Smart Data Web – Verkehrsdatenströme in Echtzeit
In Smart Data for Mobility und Smart Data Web wurde eine branchenübergreifende Serviceplattform entwickelt, die Daten öffentlicher Datenströme wie Nachrichtenwebseiten oder Social-Media-Kanäle integriert und den verschiedensten Nutzern aufbereitet zur Verfügung stellt. Innerhalb der Projekte wurden exemplarisch die beiden Anwendungsbereiche "Zuverlässige Lieferketten" und "Multimodale Smart Mobility Services" in die Plattform integriert. Gezeigt wird live im Daten-Demonstrator eine Mobilitäts-Wetterlage zur aktuellen Verkehrssituation in Deutschland. Eine kartenbasierte Darstellung visualisiert auf einen Blick den Zustand des Verkehrsnetzes aus der Vogelperspektive. Dabei werden aktuelle Informationen dargestellt, die aus strukturierten und unstrukturierten Quellen (Sensoren, soziale Medien, RSS-Feeds oder Websites) in Echtzeit gewonnen und mit Strecken- und Fahrplaninformationen verknüpft wurden. Somit lässt sich schnell erkennen, was auf Deutschlands Straßen, Schienen oder in der Luft los ist und mit welchen Behinderungen auf bestimmten Strecken zu rechnen ist.

Projekt SmartData for Mobility
Projekt Smart Data Web
Forschungsbereich Sprachtechnologie (Berlin)

 

Smart Maintenance Jacket – Interaktive Arbeitskleidung für Industrie 4.0 Wartungsarbeiter
Die Jacke ist die prototypische Entwicklung einer mit Sensor-, Aktuator- und Mikrocontroller-Einheiten ausgestatteten Arbeitskleidung, die externe Wartungsarbeiter der Industrie 4.0 mit mehreren arbeitserleichternden sowie schützenden Funktionen unterstützt. Die Navigations-Funktion beispielsweise führt durch die unbekannte Fabrik zum Ort der Wartungsarbeiten, indem sie die Richtung an den Ärmeln der Jacke anzeigt. Verschiedene Warnfunktionen weisen den Arbeiter durch ein wählbares haptisches, visuelles oder ein Audio-Feedback auf die unterschiedlichen Gefahrenzonen auf dem Fabrikgelände oder auf sich nähernde Objekte außerhalb des Sichtbereichs hin. Bei der Bekleidungskonstruktion wurden verschiedene Designmethoden eingesetzt, um die Benutzerfreundlichkeit interaktiver Arbeitskleidung im Kontext von Industrie 4.0 zu verbessern.

Forschungsbereich Interaktive Textilien (Berlin)

 

CREX – Innovative Technologien für den Einsatz im unwegsamen Gelände
Der Laufroboter CREX (CRater EXplorer) dient der autonomen Erkundung planetarer Höhlen und Krater, die als potentielle Standorte zukünftiger Basislager für die Raumfahrt von großem Interesse sind. Seine flexiblen sechs Beine verfügen über vier kraftvolle Aktuatoren, die den Roboter auch unwegsames Gelände bewältigen lassen. Dank eines Laserscanners ist er in der Lage, seine Umgebung umfassend wahrzunehmen. Über eine elektromechanische Schnittstelle auf seiner Rückseite kann sich CREX mit größeren Robotersystemen verbinden, um längere Strecken zurückzulegen. Mithilfe der Schnittstelle lassen sich zusätzliche Batterien oder wissenschaftliche Instrumente an den Roboter andocken.

Projekt Crex
Projekt FT-Utah
Forschungsbereich Robotics Innovation Center (RIC) in Bremen

 

FT-Utah – Feldtest für Robotersysteme in der Wüste
Im Projekt FT-Utah stellten das DFKI Robotics Innovation Center und die AG Robotik der Universität Bremen die im DFKI-Projekt TransTerrA entwickelten Robotersysteme in der Wüste Utahs, USA, auf die Probe. In der vierwöchigen Feldtestkampagne simulierten die Roboter in dem marsähnlichen Testareal (teil- )autonom eine komplette Missionssequenz. Dabei ließen sie sich u.a. von einer in Bremen stationierten Kontrollstation aus über 8.300 km Entfernung per Exoskelett steuern.

Projekt FT-Utah
Forschungsbereich Robotics Innovation Center (RIC) (Bremen)

 

Entern – Autonome Erkundung auf fremden Planeten
Im Projekt Entern entwickelten das DFKI Robotics Innovation Center und die AG Robotik der Universität Bremen innovative Software-Technologien für Roboter zur autonomen Erkundung planetarer Krater und Höhlen. Dazu gehören eine weltraumtaugliche Kommunikationslösung für die sichere Datenübertragung zwischen Roboter und Bodenstation sowie „In the loop“-Simulation, bei der die Ausführung der Bewegungspläne zunächst simuliert wird, bevor sie das System tatsächlich ausführt.

Projekt Entern
Forschungsbereich Robotics Innovation Center (RIC) (Bremen)

 

ModESt – Rollator-Modul zur Haltungs-Erkennung und Sturz-Prävention
In dem Health-Projekt ModESt wird ein Rollator-Modul zur Erkennung von individuellen Haltungsfehlern entwickelt. Distanz-Sensoren messen die Position des Nutzers zum Rollator und eine Analysefunktion erkennt in Echtzeit ungünstige und fehlerhafte Haltungen. Dem Nutzer können dann durch intuitive und dezente sensorische Rückmeldungen entsprechende Korrekturhinweise gegeben werden. So werden fehlerhafte Haltungen frühzeitig korrigiert und damit effektiv Stürzen vorgebeugt.

Projekt ModEst
Forschungsbereich Cyber-Physische Systeme (Bremen)

 

Tax-RPAi – Vollautomatische Bürohilfe vom Roboter-Steuerassistent
Der Demonstrator RPAi veranschaulicht im Rahmen des Center of Competence for Tax Technology wie monotone Büroarbeiten – häufig vor allem in operativen Prozessen im Steuerbereich auftretend – von Robotern automatisch erledigt werden. Konkret werden Gewerbesteuerbescheide in Papierform von KI-Systemen erfasst, relevante Informationen extrahiert und von Robotern in bestehende Softwaresysteme über bereits vorhandene grafische Benutzerschnittstellen vollautomatisch übertragen. Im Forschungsprojekt wird Robotic Process Automation mit modernen Ansätzen der Künstlichen Intelligenz kombiniert. RPAi basiert auf tiefen neuronalen Netzen, die für den Steuerbereich trainiert wurden.

Forschungsbereich Institut für Wirtschaftsinformatik (IWi) im DFKI

 

Exponat Slackliner – Trainingsassistent für Balance-Übungen auf der Slackline
Beim Slacken geht es darum, auf einem Kunstfaserband, der sogenannten Slackline, zwischen zwei Befestigungspunkten etwa 20 cm über dem Boden zu balancieren. Der im Ubiquitous Media Technology Lab der Universität des Saarlandes und am DFKI entwickelte Slackliner ist ein interaktiver Lernassistent, mit dem innerhalb kürzester Zeit spielend das Balancieren auf dem Gummiseil erlernt werden kann. Um das Bewegungsverhalten auf der Slackline zu analysieren, wird eine Kinect-Tiefenkamera genutzt. Während der Übung wird die Qualität der Ausführung auf einer großen Projektion visualisiert. Findet der Übende nicht die richtige Balance, gibt der Trainer Tipps zur Ausführung, wie beispielsweise "Arme hoch!" oder "Linkes Bein raus!". Wurde die Übung mehrmals erfolgreich absolviert, wird eine neue, darauf aufbauende Herausforderung angeboten. Slackliner erforscht exemplarisch, wie Medientechnologie genutzt werden kann, um mit Computern zu interagieren und beim Erlernen neuer Fähigkeiten zu assistieren.

Forschungsbereich Kognitive Assistenzsysteme (Saarbrücken)

 

Smart Services with EdgeAI/TUCANA – Datenanalysierende Helfer in der Landwirtschaft
Moderne mobile Applikationen setzen einen lückenlosen Zugang zu komplexer Datenanalyse voraus. Eine verteilte Softwarearchitektur sorgt dafür, dass Daten mittels Techniken des Machine Learning und Deep Learning dort analysiert werden, wo sie entstehen. Im Kontext des Projektes Smart Farming findet dieser Ansatz konkrete Anwendung: Am Beispiel der Kartoffelernte wird gezeigt, wie Smart Services Landwirte bereits während des Ernteprozesses auf dem Feld entscheidungsorientiert und betriebswirtschaftlich optimiert unterstützen können. Beispielsweise informieren sie den Fahrer in Echtzeit darüber, wo und wie genau Kartoffeln beim Ernteprozess mit einem Kartoffelroder durch Stöße und Rotationen beschädigt werden und was an der Maschineneinstellung optimiert werden muss. Mithilfe der Low-Code Plattform TUCANA wird die Qualität der Ernte nach der Analyse eingestuft und mithilfe einer EdgeAI-Architektur unabhängig ausgewertet, ohne dass Rohdaten in Cloud-Infrastrukturen hochgeladen werden müssen.

Forschungsbereich Smart Service Engineering (Saarbrücken)

 

AMPLEXOR – Maschinelle Übersetzungslösungen für den Life Sciences-Sektor
AMPLEXOR unterstützt Unternehmen im Life Science-Sektor bei der Übersetzung und Lokalisierung anspruchsvoller Inhalte, die zahlreichen regulatorischen Anforderungen unterliegen. Auf dem Gebiet der neuronalen Maschinellen Übersetzung kooperiert AMPLEXOR mit dem DFKI und verbindet so seine Kompetenzen und Datenbestände aus dem Medizinbereich mit aktuellster KI-Technologie. Ergebnis der Zusammenarbeit sind innovative neuronale maschinelle Übersetzungslösungen, die verglichen mit Standardlösungen eine deutlich höhere Qualität erzielen. Das DFKI-AMPLEXOR-Live-Demo übersetzt einen beliebigen englischen Satz ins Deutsche oder Portugiesische.

Forschungsbereich Multilinguale Technologien (Saarbrücken)

 

FactOpt – On-the-fly Optimierung und Planung von Produktionssystemen
In der Produktion an klassischen Monolinien werden Mitarbeiterinnen und Mitarbeiter im Voraus typischerweise in sogenannte Mitarbeiter-Loops eingeteilt. Sie arbeiten die einzelnen Arbeitsschritte sequenziell ab und übergeben das zu fertigende Produkt an den nächsten Kollegen. Um Wartezeiten oder Fehlbelastungen in dynamischen Industrie 4.0-Fertigunsszenarien zu vermeiden, weist die Software den Werkerinnen und Werkern während der laufenden Produktion wechselnde Aufgaben zu. Mit FactOpt wurde im Verbundprojekt SmartF-IT ein neuartiges humanzentriertes Any-time-Optimierungssystem zur dynamischen Abtaktung entwickelt. Verwendet wird hierzu ein stark ausgeprägtes Domänenwissen aus dem semantischen Fabrikgedächtnis über Produktion und Mitarbeiter, um die Komplexität des Optimierungsproblems zu beherrschen.

Forschungsbereich Kognitive Assistenzsysteme (Saarbrücken)

 

Exponat iQL/HyperMind – Intelligentes Lernen mit System
Das antizipierende Schulbuch aus dem Projekt HyperMind des Immersive Quantified Learning Lab (iQL) trägt als dynamisch-adaptives, persönliches Schulbuch dazu bei, individuelles Lernen zu ermöglichen. Die statische Struktur des klassischen Buches wird aufgelöst, die Buchinhalte werden portioniert und die resultierenden Wissensbausteine assoziativ verlinkt. Während des Lesens, wird anhand von Sensordaten – beispielsweise mithilfe der Eyetracking-Technologie – analysiert, welche Lernfortschritte Sie machen und wie ihr kognitiver Zustand ist. So lässt sich zum Beispiel durch die Messung der Gesichtstemperatur mittels Infrarotkameras die Belastung des Lernenden feststellen. Gibt es beim Lesen Schwierigkeiten, werden Ihnen individuelle Lernhilfen oder weiterführende Informationen angeboten. Die Kombination der Datenquellen mit intelligenten Algorithmen, wie Deep Learning-Verfahren, ermöglicht völlig neue Einblicke in individuelle und gruppendynamische Lernprozesse. Aus diesen lassen sich Handlungsempfehlungen für Lehrende ableiten.

Immersive Quantified Learning Lab
Forschungsbereich Smarte Daten und Wissensdienste (Kaiserslautern)

 

MAYA – Produktions-Simulation zur Planungshilfe für die Industrie 4.0
Im Demonstrator des europäischen Forschungsprojektes Multidisziplinäre integrierte Simulation (MAYA) wird eine Produktions-Simulationsumgebung geschaffen, die vorab bei der Planung einzelner Module und kompletter Fabriksysteme unterstützt. Bei der virtuellen Produktion ein individualisiertes Objekt aus verschiedenen Materialien erstellt. MAYA hat das Ziel, Werkzeuge und Methoden der Digitalen Fabrik an das sogenannte CPS-basierte Fabrikumfeld anzubinden. Als cyber-physisch bezeichnet man Systeme (CPS), bei denen elektromechanische Objekte mit informations- und softwaretechnischen Komponenten vereint eine funktional gekapselte Einheit bilden, wobei der Datentransfer über eine Infrastruktur wie das Internet erfolgt. Bei steigender Komplexität der Engineering- und Simulationsprojekte sollen Werkzeuge weiterhin als Entscheidungsunterstützung - z.B. beim Re-Engineering durch Plug-and-Play - herangezogen werden, um Fehler frühzeitig, zuverlässig und mit geringem Risiko zu erkennen.

Projekt Maya
Forschungsbereich Cyber-Physische Systeme (CPS)

 

Smart Textiles – Planare Flächendruckmessung mittels Textildrucksensoren
Das unauffällige und effektive Verfahren ist durch die Erfassung des ausgeübten Drucks in der Lage, Aktivitäten von Personen zu erfassen. Als Bestandteil einer druckempfindlichen, mit Sensoren ausgestattete Sportmatte kann es z.B. dazu verwendet werden, um verschiedene Übungen zu erkennen. Damit ausgestatte Bekleidungstextilien können eine Mechanomyographie (MMG) durchführen und die Körperbewegung durch Muskelaktivität verfolgen. Mit Smart Textiles können Drucksensoren sogar in Möbeloberflächen eingebettet werden (z.B. in Schreibtischstühle), um die Benutzer-Haltung zu erkennen oder als Interaktionsschnittstelle zu dienen.

Forschungsbereich Eingebettete Intelligenz (Kaiserslautern)

 

DFKI-Pressekontakt

Reinhard Karger, M.A.
Unternehmenssprecher
Deutsches Forschungszentrum für Künstliche Intelligenz GmbH (DFKI)
Stuhlsatzenhausweg 3
Saarland Informatics Campus, Geb. D 3_2
D-66123 Saarbrücken, Germany
Tel. : +49 681 85775-5253
Mobil: +49 151 1567 4571
E-Mail:
Internet: https://www.dfki.de

Beitrag teilen auf:

Kontakt

Reinhard Karger
Unternehmenssprecher DFKI

Stuhlsatzenhausweg 3
66123 Saarbrücken
Tel.: 0681 302 5253
E-mail reinhard.karger@dfki.de

Interessierte Gäste beim Open-House-Event im DFKI-Berlin

Deutsches Forschungszentrum für Künstliche Intelligenz
German Research Center for Artificial Intelligence