Skip to main content Skip to main navigation

Projekt | SiSWiss

Laufzeit:

Sichere Sprachmodelle für das Wissensmanagement

Das Projekt soll die sichere Anwendung großer Sprachmodelle (LLMs) in Unternehmen sicherstellen, indem das "Differential Sensitivity Awareness" (DSA) Framework entwickelt wird, dessen Ziel es ist, LLMs so anzupassen, dass sie sicherheitskritische Daten verwalten und den Zugang zu Informationen gemäß den Berechtigungen der Nutzer*innen differenzieren. Durch ein fein abgestimmtes Identifikations- und Zugriffskontrollsystem bietet das Framework eine rechtskonforme Steuerung über verschiedene „Personas“ innerhalb desselben Modells, um den Zugang zu sensiblen Informationen zu regulieren. Diese Personas stellen auch einen Schwerpunkt der DFKI-Forschung im Projekt dar, die vor allem durch Einsatz von Reinforcement Learning mit menschlichem Feedback (RLHF), einer als Teil von natürlichsprachlichen Interaktionssystemen in Kombination mit generativer KI in jüngster Zeit vermehrt wahrgenommenen Technologie, zur Einsatzreife gebracht werden sollen. Um eine breite Nutzung sicherzustellen, werden alle Methoden modellübergreifend und Open-Source entwickelt und speziell für den deutschsprachigen Markt optimiert. Für Training und Evaluation ist die Qualität des Datensatzes entscheidend, weshalb die Erzeugung desselbigen, d.h. eines Korpus an Dokumenten mit unterschiedlichen Sensibilitätsmerkmalen, ein weiterer Vorhabensfokus ist. Weiter soll die Technologie in einer Realumgebung evaluiert werden sollen, auch in Hinblick auf Resistenz gegenüber Angriffen wie prompt injection. Schließlich wird die spätere Nutzung der Technologie durch Erstellung von Video-Tutorials und Materialien für ein Handbuch sichergestellt, welche auch Nutzern ohne KI-Expertise den Einstieg erleichtert.

Partner

L3S Research Center, DFKI, CISPA, Laverana

Fördergeber

BMFTR - Bundesministerium für Forschung, Techologie und Raumfahrt

16KIS2329

BMFTR - Bundesministerium für Forschung, Techologie und Raumfahrt