NIST AI Risk Management Framework (AI RMF) KI-Systeme müssen vertrauens­würdiger werden

Von Dipl. Betriebswirt Otto Geißler 4 min Lesedauer

Anbieter zum Thema

Das NIST AI Framework hat zum Ziel, Unternehmen und Behörden, die KI-Systeme nutzen, ein freiwilliges Konzept an die Hand geben, um mögliche Risiken, die sich aus dem Einsatz von KI-Systemen ergeben, wesentlich zu reduzieren. Damit soll letztlich eine verantwortungsvolle Nutzung der KI sichergestellt werden.

Da Unternehmen zunehmend KI-Technologien einsetzen, ist es angezeigt, die mit diesen Systemen verbundenen potenziellen Risiken zu reduzieren.
Da Unternehmen zunehmend KI-Technologien einsetzen, ist es angezeigt, die mit diesen Systemen verbundenen potenziellen Risiken zu reduzieren.
(Bild: ImageFlow - stock.adobe.com)

Die rasanten Fortschritte der Technologien rund um die künstliche Intelligenz (KI) bergen sowohl enorme Chancen als auch erhebliche Risiken. Für eine effektive Bewältigung dieser Risiken, hat das National Institute of Standards and Technology (NIST) mit dem NIST AI Risk Management Framework (AI RMF) eine Rahmenstruktur erstellt, um Organisationen beim Management von KI-Risiken zu unterstützen. In einem kurzen Video erklärt das NIST die wichtigsten Punkte.

Struktur des NIST-Frameworks

Das NIST AI Risk Management Framework besteht aus einer Reihe von Richtlinien, Best Practices sowie einem strukturierten Ansatz zur Identifizierung, Bewertung und Minderung von Risiken während des gesamten Lebenszyklus eines KI-Systems.

Das Framework ist in zwei große Bereiche unterteilt. Teil 1 enthält grundlegende Informationen zu KI-Risiken und –Herausforderungen. Wogegen sich Teil 2 mit den Map-, Measure-, Manage- und Govern-Funktionen (Kernfunktionen) als Anleitungen zur Bewältigung von KI-Bedrohungen befasst.

Kategorien von KI-Schäden

Das AI RMF legt drei übergreifende Schadenskategorien fest, die von den KI-Anwendern berücksichtigt werden sollen:

  • Schädigung eines Menschen: Gewährleistung des Schutzes der individuellen Freiheiten, der physischen und psychischen Sicherheit sowie der Chancengleichheit bei gleichzeitiger Wahrung demokratischer Anforderungen.
  • Schädigung einer Organisation: Schutz vor Störungen des Geschäftsbetriebs, potenziellen Sicherheitsrisiken im Zusammenhang mit Verstößen und Reputationsschäden.
  • Schädigung eines Ökosystems: Verhinderung von Störungen in globalen Finanz- oder Lieferkettensystemen und Minimierung von Schäden an Umwelt und natürlichen Ressourcen.

Vertrauenswürdige KI-Systeme

Zur Vermeidung der genannten Schäden zielt das NIST AI RMF darauf ab, die Fähigkeit der Entwickler zu verbessern sowie Überlegungen der Vertrauenswürdigkeit in das Design, die Entwicklung, die Verwendung und die Bewertung von KI-Produkten, -Diensten und -Systemen anzustellen. Hierzu skizziert das Framework für vertrauenswürdige KI-Systeme folgende Merkmale:

  • Sicher: Priorisierung der Sicherheit der User und Verhinderung von Schäden.
  • Belastbar: Schutz vor böswilligen Angriffen und Aufbau einer Widerstandfähigkeit gegenüber Herausforderungen.
  • Valide: Genaue und zuverlässige Ergebnisse.
  • Transparent: KI-Systeme sollten für Entscheidungen transparent und rechenschaftspflichtig sein.
  • Erklärbar: Verständlichkeit und Interpretierbarkeit.
  • Daten schützend: KI-Systeme sollten die Privatsphäre der User respektieren und personenbezogene Daten schützen.

Herausforderungen bei der Risikomessung

Undefinierte oder schlecht erfasste KI-Risiken bzw. -Ausfälle lassen sich weder statistisch noch subjektiv quantifizieren. Die Unfähigkeit, die von KI-Systemen ausgehenden Risiken genau einzuschätzen, bedeutet nicht immer, dass diese Risiken entweder hoch oder niedrig sind.

Kernfunktionen des Frameworks

Um KI-Systeme hoher Qualität zu etablieren, empfehlen sich regelmäßige Bewertungen der Effektivität des KI-Risikomanagements. Dadurch lassen sich die Risikomanagement- und Minderungsstrategien für die KI kontinuierlich verbessern. Der Kern des Frameworks unterteilt diese Aktivitäten in vier verschiedene miteinander verbundene Funktionen. Wobei während des gesamten Lebenszyklus eines KI-Systems spezifische Aktionen empfohlen werden.

MAP-Funktion

Trotz ihrer gegenseitigen Abhängigkeit haben miteinander kooperierende KI-Anwender oft keinen Einblick in die jeweiligen anderen Teile bzw. keine Kontrolle über sie. Dies erschwert es, gemeinsame Auswirkungen beim Risikomanagement zuverlässig vorherzusagen.

Als erste Funktion im Lebenszyklus verlangt die MAP-Funktion, dass die KI-Anwender unterschiedliche Perspektiven einholen. Dazu gehören interne Teams, externe Mitarbeiter, End-User und alle anderen, die möglicherweise davon betroffen sind, um etwaige KI-Risiken vollständiger einschätzen zu können.

MEASURE-Funktion

Sobald die KI-Anwender über das durch die MAP-Funktion erworbene umfassende Verständnis verfügen, fordert die MEASURE-Funktion dazu auf, KI-Systeme sowohl vor der Bereitstellung als auch regelmäßig während des Betriebs zu testen, um ein Verständnis ihrer Funktionalität und Vertrauenswürdigkeit zu aktualisieren.

Durch die konsequente Analyse, Bewertung, Überwachung und das Benchmarking von KI-Risiken und -Auswirkungen mithilfe verschiedener Tools können Anwender diese besser administrieren und so auch die IT-Security optimieren.

MANAGE-Funktion

Mit einem umfassenden Verständnis von KI-Systemen sowie regelmäßigen Neubewertungen sind die Anwender wesentlich besser in der Lage, KI-Systeme im Hinblick auf ihre Risiken optimal zu verwalten. Dazu gehört auch die Zuweisung geeigneter Ressourcen, um den Nutzen der KI zu maximieren und gleichzeitig negative Auswirkungen zu minimieren.

GOVERN-Funktion

Diese übergreifende Funktion stellt Richtlinien für die Implementierung von Strukturen, Systemen, Prozessen und Teams bereit. Dazu zählen im Wesentlichen:

  • Etablierung einer starken Risiko-Managementkultur.
  • Entwicklung von Richtlinien und Verfahren.
  • Integration von Feedback-Mechanismen für eine effektive Risikoerkennung und -minderung.

Für alle diese vier Funktionen enthält das sogenannte NIST AI RMF Playbook weitere Informationskategorien und spezifische Maßnahmen für die jeweilige Implementierung.

Fazit

Das AI Risk Management Framework (AI RMF) bietet einen strukturierten Ansatz zur Identifizierung, Bewertung und Minderung der mit KI-Systemen verbundenen Risiken. Es ermöglicht den Organisationen, sich in der komplizierten Welt der KI-Technologie zurechtzufinden und gleichzeitig eine ethische KI-Einführung zu gewährleisten, vor potenziellen Schäden zu schützen, Rechenschaftspflicht und Transparenz bei der KI-Implementierung zu fördern und die Rechte des Einzelnen zu schützen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zur IT-Sicherheit

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Das Framework ist für den freiwilligen Einsatz gedacht und bietet einen umfassenden Fahrplan für einen verantwortungsvollen Umgang mit KI-Risiken.

(ID:50016728)