Skip to main content Skip to main navigation
Banner DFKI Agenten und Simulierte Realität

Agenten und Simulierte Realität

Der Forschungsbereich Agenten und Simulierte Realität (ASR) unter der Leitung von Prof. Dr.-Ing. Philipp Slusallek konzentriert sich darauf, Künstliche Intelligenz (KI) für Menschen vertrauenswürdiger zu machen. Die Hauptanliegen sind die Sicherstellung der funktionalen Zuverlässigkeit von KI-Systemen, die Erklärbarkeit ihrer Arbeitsweise und die Qualität und Kontrolle ihrer Trainingsdaten. ASR erforscht die Erstellung synthetischer Trainingsdaten (Digital Reality) durch Simulationen und generative Modelle.

Für reale Daten (in-vivo) wird der Dataspace-Ansatz mit klarer Governance und semantischer Beschreibung verwendet. Die funktionalen Aspekte umfassen Plausibilitätsprüfungen und hybride Systeme. Robustheit in KI wird durch Techniken zur Erkennung und Anpassung an Datenanomalien gefördert. Bei der Erklärbarkeit setzen sie auf visuelle Darstellungen neuronaler Netze und auf inhärent erklärbarere, symbolische Modelle. Ziel ist es, Vertrauen in KI-Systeme durch Transparenz, Verlässlichkeit und Kontrolle zu fördern.

Intelligente Agenten, Multiagentensysteme und Semantische Technologie

Intelligente Agenten sind Softwaremodule, die durch eigenständige, reaktive und zielgerichtete Anwendung von Methoden der Künstlichen Intelligenz (KI) zu einer situativ optimalen Lösung komplexer Probleme fähig sind. Multiagentensysteme modellieren, simulieren und optimieren komplexe Systeme mittels einer Vielzahl von solchen Agenten, die durch ihr Zusammenspiel Leistungen erbringen können, die über die Fähigkeiten einzelner Agenten deutlich hinausgehen. Semantische Technologien erlauben eine intelligente Koordination von maschinenverständlich beschriebenen Daten und Diensten im Web auf der Basis von formalen Standardontologiesprachen wie OWL2 und RDFS. Intelligente Agenten können semantische Technologien insbesondere für eine hochpräzise Suche, Selektion, Komposition, Simulation und rationale Verhandlung von semantisch relevanten Daten und Diensten im Internet verwenden.

Unsere Schwerpunkte der Forschung auf dem Gebiet der intelligenten Agenten und semantischen Technologien sind skalierbare verteilte und hybride Aktionsplanung, modellgetriebene Entwicklung von Agentensystemen sowie intelligente Koordination von Daten und Diensten. Die Forschungsergebnisse werden für intelligente Informationssysteme und Anwendungen in verschiedenen Bereichen eingesetzt, insbesondere in virtuellen (3D-)Welten, 3D-Web, Web 2.0, E-Business, erneuerbare Energien, Transport und Logistik sowie E-Health.

Sichere Systeme

Der Bereich Sichere Systeme entwickelt Methoden zur Verifikation und Evaluation von Sicherheitseigenschaften in IT-Produkten. Insbesondere wird die Entwicklungsmethodik auf eine wissenschaftliche Grundlage gestellt und damit die Anwendung formal fundierter Werkzeuge ermöglicht. Die entwickelten Technologien umfassen formale Modellierungstechniken, interaktive Deduktionsmethoden und die Verwaltung von Artefakten der Entwicklungen. Hybride Verifikation dehnt diese Methodik auch auf kontinuierliche Systeme mit ihren z.B. räumlichen oder zeitlichen Eigenschaften aus, so dass Sicherheitsaussagen auch über das Gesamtsystem – inklusive der Kontrollsoftware – gemacht werden können. Mit einer zertifizierten Prüfstelle für IT-Sicherheit bietet das DFKI die unabhängige Bewertung der Sicherheit von Informationstechnik nach international standardisierten Kriterien (CC – Common Criteria) an.

Visual Computing

Die Möglichkeit, die reale Welt akkurat zu modellieren und zu simulieren und daraus Vorhersagen zu treffen, ist ein entscheidender Faktor für die moderne Industrie. Der Forschungsbereich Agenten und Simulierte Realität benutzt sehr große, hoch detaillierte 3D-Modelle, um interessante Szenarien zu modellieren, wie etwa komplexe Produktionslinien, antike Städte oder biologische Zellen. Semantische Informationen liefern den Kontext, um durch Simulationen Eigenschaften dieser Systeme vorherzusagen, wie etwa Beleuchtung, Akustik oder Verkehr. Hochleistungsimplementierungen auf Multi- und Many-Core-Systemen ermöglichen sowohl hoch realistische Echtzeit-Darstellungen, zum Beispiel mittels Echtzeit-Ray-Tracing, als auch die Echtzeit-Interaktion in immersiven Virtual Reality-Systemen mit selbst komplexesten simulierten Realitäten.

Simulation & Visualisierung

Ein Anwendungsbeispiel der Forschungsarbeiten ist die Simulation und Visualisierung von Produktionsprozessen: Durch die steigende Individualisierung von Produkten und immer kürzere Produktzyklen liegen in der Optimierung von Rüst- und Umlaufzeiten Potentiale zur Kostenreduktion. Mit Multiagentensystemen werden die Abläufe individueller Prozessschritte erfasst und in 3D simuliert. Die formale Modellierung der Anlagen und ihrer Prozesse als Hybride Systeme erlaubt garantierte Aussagen zu treffen, die gleichzeitig die diskrete Kontrollsoftware als auch das räumlich-zeitliche Verhalten der Anlagen berücksichtigen. Anhand der dreidimensionalen Darstellung der Simulationen und Verifikation kann eine visuelle Inspektion der Anlagen und ihrer Abläufe durchgeführt werden, was eine rasche Beurteilung der Planung erlaubt. Interaktive und immersive Trainingsszenarien an einem virtuellen 3D-Modell können noch während der Umrüstung der Anlage erfolgen.

Future Internet

Besondere Bedeutung finden solche Anwendungen im Future Internet. Dual- oder Mixed-Reality, d.h. Anwendungen die eine direkte Kopplung von virtueller und realer Anlage sowie ihrer Simulation herstellen, erlauben den direkten Zugriff auf einzelne Maschinen zur Wartung und Steuerung auch über große Distanzen hinweg. Eingebettet werden diese Einzelanwendungen in verteilte, interaktive, virtuelle Umgebungen, die ganze Anlagen, Fabriken, Produktionsstätten, Kommunen oder Unternehmen simulieren und dank der plastischen Metapher einer dreidimensionalen Welt einen intuitiven Zugang bieten.

Trusted AI

Das Ziel von Trusted AI ist eine neue Generation von KI-Systemen, die Garantien über ihre Funktionalität bereitstellen und so eine Verwendung insbesondere auch in kritischen Anwendungen ermöglichen. So können Entwickler, Benutzer und Regulatoren auf die Leistung und Zuverlässigkeit auch in komplexen sozio-technischen Systemen vertrauen. Trusted AI ist gekennzeichnet durch ein hohes Maß an Robustheit, Transparenz, Fairness und Verifizierbarkeit, wobei die Funktionalität bestehender Systeme keineswegs beeinträchtigt, sondern sogar verbessert werden soll.

Einige der aktuellen Probleme im Zusammenhang mit mangelndem Vertrauen in KI-Systeme sind eine direkte Folge des massiven Einsatzes von Black-Box-Methoden, die sich nur auf Daten stützen. Stattdessen liegen die Grundlagen einer neuen KI-Generation eher auf hybriden KI-Systemen (auch neuro-symbolisch oder neuro-explizit genannt). Diese verlassen sich nicht nur auf datengesteuerte Ansätze, sondern auf die gesamte Palette von KI-Techniken („All of AI”), einschließlich symbolischer KI-Methoden, Suche, Argumentation, Planung und anderen Techniken. Durch die Kombination von Machine-Learning mit symbolischem Schlussfolgern und der expliziten Repräsentation von Wissen in hybriden KI-Systemen wird „Trust by Design“ ermöglicht. Semantische oder andere explizite Modelle können Wissen darstellen, das dann nicht mehr maschinell gelernt werden muss. Außerdem können sie den Lernprozess in die richtige Richtung steuern, wodurch das Generalisieren, die Robustheit und die Interpretierbarkeit verbessert werden. Dieser hybride Ansatz wird gerne auch als dritte Welle der KI bezeichnet („3rd Wave of AI”).

Es werden hybride KI-Ansätze erforscht und angewendet, wobei eine neu entwickelte Systematik der möglichen Kombinationen bei der Beurteilung von Vor- und Nachteilen in verschiedenen Anwendungsgebieten hilft. Aktuell wird im Bereich von sicherheitstechnischen Aspekten geforscht sowie die Validierung und Zertifizierung von KI-Systemen sowie die Entscheidungsfindung in Teams von menschlichen und KI-Agenten (Human Empowerment) untersucht.

Dienste

Prüfstelle für IT-Sicherheit

Die Prüfstelle für IT-Sicherheit des DFKI bietet die unabhängige Bewertung der Sicherheit von Informationstechnik an. Grundlagen der Prüfung und Bewertung sind die international anerkannten Common Criteria (CC) for Information Technology Security Evaluation. Die objektive Beurteilung der Sicherheitsqualität eines IT-Produkts schafft Vertrauen in die ausgewiesenen Sicherheitseigenschaften.

Die Prüfstelle für IT-Sicherheit betreibt für ihre Prüftätigkeit ein Qualitätsmanagementsystem, das den Anforderungen der Internationalen Norm DIN EN ISO/IEC 17025 entspricht und damit auch die Grundsätze von ISO 9001 erfüllt. Alle Prüfungen erfolgen unparteiisch, unabhängig, gewissenhaft, frei von jeglichen unzulässigen Einflüssen und auf rein fachlicher Basis.

Basierend auf der Anerkennung und Bestätigung ihrer Kompetenz ist die Prüfstelle für IT-Sicherheit seit mehr als zehn Jahren beim Bundesamt für Sicherheit in der Informationstechnik (BSI) akkreditiert und für Evaluierungen nach den genannten Kriterien lizenziert.

Die erfolgreich abgeschlossene Evaluierung ist Voraussetzung für die Erteilung eines international gültigen CC-Zertifikats für das untersuchte IT-Produkt seitens des BSI.

Die Evaluierungsberichte der Prüfstelle für IT-Sicherheit werden vom BSI und von anderen anerkannten Bestätigungsstellen – datenschutz cert GmbH und T-Systems GEI GmbH – auch als Grundlage für die Bestätigung von Produkten für qualifizierte elektronische Signaturen gemäß den Anforderungen des deutschen Signaturgesetzes akzeptiert.

Dienstleistungsangebot der Prüfstelle für IT-Sicherheit:

  • Klare und umfassende Information zu allen Fragen der Common Criteria (CC) sowie zu den Evaluierungs-, Zertifizierungs- und Bestätigungsverfahren.
  • Unabhängige Evaluierung von IT-Produkten gemäß den Anforderungen der Common Criteria (CC).
  • Kompetente Vorbereitung von CC-Evaluierungen und Unterstützung bei der Erstellung CC-konformer Dokumentation.
  • Qualifizierte Entwicklung von Protection Profiles und Security Targets.

Leitung

Leitung:
Prof. Dr.-Ing. Philipp Slusallek

Tel.: +49 681 85775 5377

Stellvertretung:
Dr.-Ing. Christian Müller
Christian.Mueller@dfki.de
Tel.: +49 681 85775 4823
 

Kontakt

Sekretariat:
Léa Yvonne Basters
Tel.: +49 681 85775 5276
Denise Cucchiara
Tel.: +49 681 85775 5315

Deutsches Forschungszentrum für Künstliche Intelligenz GmbH (DFKI)
Saarland Informatics Campus D 3_2
Stuhlsatzenhausweg 3
66123 Saarbrücken
Deutschland

Kontakt der Prüfstelle für IT-Sicherheit

Dr. Oliver Keller

Tel.: +49 681 85775 5327

Roland Vogt

Tel.: +49 681 85775 4131