Das Projekt soll die sichere Anwendung großer Sprachmodelle (LLMs) in Unternehmen sicherstellen, indem das "Differential Sensitivity Awareness" (DSA) Framework entwickelt wird, dessen Ziel es ist, LLMs so anzupassen, dass sie sicherheitskritische Daten verwalten und den Zugang zu Informationen gemäß den Berechtigungen der Nutzer*innen differenzieren. Durch ein fein abgestimmtes Identifikations- und Zugriffskontrollsystem bietet das Framework eine rechtskonforme Steuerung über verschiedene „Personas“ innerhalb desselben Modells, um den Zugang zu sensiblen Informationen zu regulieren. Diese Personas stellen auch einen Schwerpunkt der DFKI-Forschung im Projekt dar, die vor allem durch Einsatz von Reinforcement Learning mit menschlichem Feedback (RLHF), einer als Teil von natürlichsprachlichen Interaktionssystemen in Kombination mit generativer KI in jüngster Zeit vermehrt wahrgenommenen Technologie, zur Einsatzreife gebracht werden sollen. Um eine breite Nutzung sicherzustellen, werden alle Methoden modellübergreifend und Open-Source entwickelt und speziell für den deutschsprachigen Markt optimiert. Für Training und Evaluation ist die Qualität des Datensatzes entscheidend, weshalb die Erzeugung desselbigen, d.h. eines Korpus an Dokumenten mit unterschiedlichen Sensibilitätsmerkmalen, ein weiterer Vorhabensfokus ist. Weiter soll die Technologie in einer Realumgebung evaluiert werden sollen, auch in Hinblick auf Resistenz gegenüber Angriffen wie prompt injection. Schließlich wird die spätere Nutzung der Technologie durch Erstellung von Video-Tutorials und Materialien für ein Handbuch sichergestellt, welche auch Nutzern ohne KI-Expertise den Einstieg erleichtert.
Partner
L3S Research Center, DFKI, CISPA, Laverana