Skip to main content Skip to main navigation

Very Human: DFKI Bremen arbeitet an innovativer Methode für sichere, selbstlernende Robotersteuerung

| Pressemitteilung | Autonome Systeme | Lernende Systeme | Robotik | Cyber-Physical Systems | Robotics Innovation Center | Bremen

Auch wenn Deep-Learning-Algorithmen zurecht als Schlüsseltechnologie für die moderne Künstliche Intelligenz (KI) angesehen werden, bieten die Schlussfolgerungen der Verfahren keinen hohen Grad an Sicherheit. Viele Bereiche mit Potential für den Einsatz von KI sind zu risikobehaftet, um von Systemen gesteuert zu werden, die sich nicht verifizieren lassen. Die Bremer Forschungsbereiche des DFKI arbeiten deshalb an einer neuen Methode, um die Vorteile von schnellem, eigenständigem Lernen und verlässlicher Verifikation zu kombinieren. Das Projekt VeryHuman, gefördert vom Bundesministerium für Bildung und Forschung, soll durch die innovative Methode einen humanoiden Roboter zum Laufen zu bringen.

© DFKI GmbH, Foto: Annemarie Popp
Das Gelenk eines humanoiden Roboters, der im Projekt VeryHuman durch eine innovative Methode ein sicheres Laufen erlernen soll. Quelle: DFKI GmbH, Foto: Annemarie Popp

Wenn es um die Vor- und Nachteile von selbstlernenden Systemen geht, ist es hilfreich, sich eine Person vorzustellen, die ein Projekt beginnt: In manchen Fällen führt ein instinktiver Ansatz zu den besten Resultaten – beispielsweise in der Kunst. In anderen Fällen kann es allerdings riskant sein, sich nur auf Schätzungen zu verlassen: Eine Mauer, auf der später ein Dach lasten soll, sollte beispielsweise auf Basis von Mathematik und Physik gebaut werden, und nicht allein nach Augenmaß und Erfahrung. Ähnlich dazu haben sich selbstlernende Systeme als effektiv, schnell und vielversprechend für die Entwicklung von Künstlicher Intelligenz (KI) erwiesen. Allerdings kann eine KI-Anwendung dort, wo Risiken existieren und Verlässlichkeit wichtig ist – beispielsweise beim sicheren Laufen eines humanoiden Roboters – nicht ausschließlich geschätzte Werte einsetzen, die durch subsymbolische Verfahren es aus dem Training in der Simulation gezogen wurden. Es muss mathematische, physikalische und statistische Modelle anwenden, um Korrektheit sicherzustellen.

Die Kombination von subsymbolischen, selbstlernenden Algorithmen und solchen, die auf mathematischen Regeln und Abstraktionen basieren, hat sich als schwierig erwiesen. Die Entscheidungen, die von einem Programm getroffen werden, das Deep Learning einsetzt, basieren nicht auf symbolischen Berechnungen und können deshalb nicht durch logische Regeln erklärt werden. Aus diesem Grund eint das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) die Expertise seiner zwei Forschungsbereiche in Bremen, um eine neue Methode für einen sicheren, selbstlernenden Kontrollmechanismus zu entwickeln. Im Projekt VeryHuman arbeiten das Robotics Innovation Center (RIC) unter Leitung von Prof. Dr. Dr. h.c. Frank Kirchner und der Forschungsbereich Cyber-Physical Systems (CPS) von Prof. Dr. Rolf Drechsler an einer Kombination der Vorteile beider Ansätze. Das Ziel des vierjährigen Projekts, das vom Bundesministerium für Bildung und Forschung (BMBF) gefördert wird, ist eine neue, innovative Methode, die einen humanoiden Roboter dazu bringen soll, sicher und stabil zu laufen.

Ein neuer, sicherer Ansatz für den Einsatz von KI in Hochrisikogebieten

Wie der Name andeutet, ist es ein zentraler Aspekt des Projekts „VeryHuman – Lernen und Verifikation Komplexer Verhalten für Humanoide Roboter“, Steuerungssysteme auf Basis von Künstlicher Intelligenz näher an die Fähigkeiten des Menschen zu rücken. Die Effektivität des neuen Ansatzes wird deshalb anhand eines humanoiden Roboters überprüft, der aufrecht und stabil gehen und, sollte die Methode sich als funktional herausstellen, auch komplexere Bewegungen ausführen soll. Allerdings betrifft die Problematik, das Verhalten selbstlernender Algorithmen zu verifizieren, auch zahlreiche weitere Bereiche der Künstlichen Intelligenz und wird dort kritisch, wo das Verhalten eines Systems eine Gefahr darstellen könnte. Deshalb sind die Implikationen eines KI-Systems, das seine Entscheidungen selbst mathematisch verifizieren kann, weitreichend.

Drei Herausforderungen stellen sich, wenn es um diese Art von KI-Anwendung geht: Erstens gibt es keine standardisierten physikalischen Modelle für die mechanischen und kinematischen Eigenschaften eines humanoiden Systems, das sich – aufgrund ebenjener physikalischen Eigenschaften – nicht nur auf Trainingsdaten verlassen kann. Zweitens sind die Ergebnisse des Systems, sollte es sich nur auf sein Training und keine standardisierten Modelle verlassen, nicht verifizierbar – das System würde sich wie eine Black Box verhalten. Die dritte Herausforderung ist deshalb die mathematische Beschreibung des robotischen Systems – der Schlüssel zu seiner Verifikation und der erfolgreichen Anwendung von Reinforcement Learning, bei dem das System dafür belohnt wird, das mathematisch korrekte Ergebnis zu erlangen.

Fortlaufende Verbesserung des robotischen Systems durch symbolische Modelle

Das Ziel des Projekts VeryHuman ist deshalb die Abstraktion kinematischer Modelle vom robotischen System, die symbolisch validiert werden können. Diese Abstraktion ermöglicht die Definierung von Belohnungsfunktionen für das Reinforcement Learning und die mathematische Verifikation der Entscheidungen auf Basis der abstrahierten Modelle. Durch Simulationen und Optimal-Control-Algorithmen (Berechnungen, die nach dem optimalen Weg für das Erreichen eines bestimmten Ziels suchen) kann das System – in diesem Fall der humanoide Roboter – fortlaufend durch das Wissen über die symbolischen Modelle verbessert werden und den aufrechten Gang oder sogar Rennen und Springen erlernen. Vergleichsweise kann auch ein autonom fahrendes Auto in der Simulation lernen, wie es am besten die Bremse handhabt, während es weiß, wann es physisch zum Halten kommen muss, um in jedem Fall einen Unfall zu verhindern.

Während das Robotics Innovation Center des DFKI an den Lernfunktionen und der Steuerung des humanoiden Demonstrators arbeitet, beschäftigt sich der Forschungsbereich Cyber-Physical Systems mit der Abstraktion der mathematischen Modelle und der symbolischen Beschreibung des Verhaltens des Roboters unter Berücksichtigung der kinematischen und dynamischen Eigenschaften des Systems. Das Projekt wurde im Juni gestartet und läuft für vier Jahre, gefördert vom Bundesministerium für Bildung und Forschung (BMBF) mit knapp 1,3 Millionen Euro.

Pressematerial:
Unter cloud.dfki.de/owncloud/index.php/s/t7noF9eGSgsqL9o finden Sie zwei Fotos des robotischen Systems aus dem Projekt. Sie können diese Fotos gerne für Ihre Presseveröffentlichung unter Angabe der Quelle „DFKI GmbH, Foto: Annemarie Popp“ verwenden.

RIC-Kontakt
Dr. rer. nat. Shivesh Kumar
Deutsches Forschungszentrum für Künstliche Intelligenz GmbH (DFKI)
Robotics Innovation Center
Telefon: 0421 17845 4144

CPS-Kontakt
Prof. Dr. Christoph Lüth
Deutsches Forschungszentrum für Künstliche Intelligenz GmbH (DFKI)
Cyber-Physical Systems
Telefon: 0421 218 59830

Pressekontakt
Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI)
Team Unternehmenskommunikation Bremen
Telefon: 0421 17845 4051

Kontakt

Reinhard Karger M.A.
Unternehmenssprecher DFKI

Tel.: +49 681 85775 5253


Deutsches Forschungszentrum für Künstliche Intelligenz GmbH (DFKI)
Saarland Informatics Campus
Stuhlsatzenhausweg 3
66123 Saarbrücken
Deutschland