Skip to main content Skip to main navigation

Erstes Key Update für den AI Safety Report: KI-Sicherheit auf neustem Stand

Das Themenfeld der KI entwickelt sich dynamisch. Um die Sicherheit von KI in diesem stetigen Wandel zu berücksichtigen, hat das Gremium hinter dem „International Scientific Report on the Safety of Advanced AI“ sogenannte Key Updates eingeführt, in denen künftig zwischen den umfassenden Jahresberichten auf neuste KI-Entwicklungen zeitnah eingegangen werden kann. Im Fokus des ersten Zwischenberichts stehen technologische Fortschritte und die gesteigerte Leistungsfähigkeit von KI-Modellen sowie daraus resultierende Risiken und Herausforderungen. Prof. Antonio Krüger (CEO, Deutsches Forschungszentrum für Künstliche Intelligenz) hat als der von der Bundesregierung ernannte deutsche Vertreter im Expert Advisory Panel des AI Safety Reports an diesem mitgewirkt.

© DFKI/Kaspar Van Treeck

2023 hat die britische Regierung den „International Scientific Report on the Safety of Advanced AI“ initiiert, im Januar 2025 wurde der finale Bericht als Auftakt zum AI Action Summit in Paris veröffentlicht. Da sich das Feld der KI im stetigen Wandel befindet, hat das internationale Team von Forschenden unter der Leitung von Yoshua Bengio nun einen ersten Zwischenbericht veröffentlicht. 

Das Update fasst die neusten Entwicklungen im Bereich KI zusammen. Es wird angeführt, dass KI-Modelle derzeit so leistungsfähig sind wie nie zuvor. Modelle können mittlerweile Aufgaben auf hohem Niveau lösen. Diese Fortschritte stehen im Zusammenhang mit der Entwicklung von Reasoning-Modellen. Dabei strukturieren KI-Modelle ihre Antworten in Zwischenschritten. Dies zeigt, dass neben der Skalierung der Modellgröße auch Faktoren wie das Training und die zusätzliche Rechenleistung dazu beitragen, KI-Modelle leistungsfähiger zu machen. Zudem beleuchtet der Bericht den Status quo beim Einsatz von KI in der Praxis, die gesteigerten Sicherheitsvorkehrungen, die Entwickler nutzen, sowie die neuen Herausforderungen im Bereich der Kontrolle. So können KI-Modelle beispielsweise zunehmend unterscheiden, ob sie eine Aufgabe erhalten oder ob die Aufgabe nur auf die Bewertung des Modells abzielt. Der Bericht analysiert all diese Entwicklungen und zeigt neue Fragestellungen im Bereich der AI Safety auf. 

Mehr Details finden sich im ersten Key Update des AI Safety Reports 2025.