AI Business value

Etablierung einer tatsächlich funktionierenden KI-Compliance: Risikoklassen, EU-KI-Gesetz und skalierbare Governance

KI-Compliance ist keine bloße Formalität – sie ist eine risikobasierte Fähigkeit, die Ihr Unternehmen täglich benötigt. In diesem Artikel erfahren Sie, wie Sie KI-Anwendungsfälle nach Risiken klassifizieren, die EU-KI-Verordnung in praktische Kontrollen umsetzen und eine schlanke Governance-Struktur aufbauen, die jederzeit prüfbereit ist, ohne die Teams auszubremsen. Wir zeigen Ihnen einen klaren Weg von der Erkenntnis „KI ist überall“ hin zu einem nachhaltigen Betriebsmodell: Bestandsaufnahme, Verantwortlichkeiten, Transparenz, Lebenszykluskontrollen für Hochrisikosysteme und die langfristigen Governance-Routinen, die Ihre Compliance auch bei der Weiterentwicklung von KI gewährleisten.

Die Einhaltung von KI-Richtlinien entwickelt sich schnell von einer wünschenswerten Option zu einer grundlegenden Notwendigkeit. Der Grund dafür ist einfach: KI beschränkt sich nicht länger auf Experimente. Sie ist in Personalbeschaffungsprozesse, Kundenservice, Marketingautomatisierung, Preisgestaltung, Betrugserkennung, Entscheidungsunterstützung in Medizin und Industrie sowie in einer stetig wachsenden Anzahl von „KI-Funktionen“ in Standard-SaaS-Tools integriert. Dadurch wird die Einhaltung von KI-Richtlinien weniger zu einem einmaligen Rechtsprojekt, sondern vielmehr zum Aufbau einer dauerhaften Kompetenz: Risiken klassifizieren, die richtigen Kontrollen anwenden und die Governance langfristig sicherstellen.

In diesem Artikel werde ich mich auf drei Dinge konzentrieren: Risikoklassen, welche praktischen Änderungen das EU-KI-Gesetz mit sich bringt und wie man eine langfristige Governance-Struktur aufbaut, die schlank, aber dennoch prüfbereit ist.

(Kurzer Hinweis: Dies sind praktische Hinweise, keine Rechtsberatung.)

1. Beginnen Sie mit Risikoklassen, nicht mit Werkzeugen.

Wenn die Einhaltung von KI-Vorschriften funktionieren soll, benötigen Sie ein risikobasiertes Betriebsmodell. Der EU-KI-Gesetzgebung liegt genau dieses Prinzip zugrunde: Verschiedene KI-Anwendungen werden je nach ihrem Risiko für Gesundheit, Sicherheit und Grundrechte unterschiedlich behandelt.

In der Praxis empfehle ich, zwei parallele Klassifizierungen durchzuführen:

1.1 Regulatorische Risikoklasse (gemäß EU-KI-Gesetz)

Das KI-Gesetz verwendet einen gestuften Ansatz, der üblicherweise wie folgt beschrieben wird:

  • Unannehmbares Risiko (verboten)
  • Hohes Risiko (hohe Verpflichtungen)
  • Begrenztes Risiko (hauptsächlich Transparenzpflichten)

Minimales oder kein Risiko (weitgehend zulässig, mit freiwilliger Anwendung bewährter Verfahren)

Lesen Sie hier mehr: “KI-Gesetz | Die digitale Zukunft Europas gestalten – Europäische Union”

1.2 Geschäftsrisikoklasse (aus Sicht Ihres Unternehmens)

Auch wenn etwas gemäß dem KI-Gesetz als „minimales Risiko“ eingestuft wird, kann es dennoch ein hohes Geschäftsrisiko darstellen (z. B. Markenschädigung, Verlust von geistigem Eigentum, Verstöße gegen die DSGVO, Sicherheitsprobleme, Vertragsverletzungen). Ihre interne Risikobewertung umfasst typischerweise Folgendes:

  • Rechtliche und regulatorische Risiken (KI-Gesetz, DSGVO, Branchenvorschriften)
  • Informationssicherheit und Datenlecks
  • Operationelles Risiko (Fehlermodi, Ausfälle, Fehlentscheidungen)
  • Reputationsrisiko (öffentliche Gegenreaktion, Vertrauensverlust)
  • Finanzielles Risiko (falsche Preisgestaltung, falsche Genehmigungen, falsche Zahlungen)

Meine Meinung: Die meisten Unternehmen scheitern, weil sie entweder nur (A) oder nur (B) tun. Man braucht beides. Die regulatorische Klassifizierung gibt vor, was man tun muss; die betriebswirtschaftliche Klassifizierung zeigt, was man tun sollte.

2. Erstellen Sie ein KI-Inventar, bevor Sie Richtlinien formulieren.

Man kann nicht steuern, was man nicht sieht. Das wichtigste Ergebnis in der Anfangsphase ist ein KI-Inventar (manchmal auch KI-Register genannt). Es sollte nicht nur „KI-Produkte“, sondern auch die „KI-Nutzung“ erfassen, einschließlich integrierter KI in SaaS-Tools (CRM, Helpdesk, HR-Suiten, Marketing-Tools) und Schatten-KI (Mitarbeiter, die öffentliche Chatbots oder Browser-Erweiterungen nutzen).

Ein nützlicher Inventareintrag umfasst typischerweise:

  • Anwendungsfall und Geschäftsinhaber
  • Systemverantwortlicher (IT) und Anbieter (falls extern)
  • Wo es läuft (intern, Cloud, Anbieter-SaaS)
  • Beteiligte Datentypen (insbesondere personenbezogene Daten, sensible Daten, vertrauliches geistiges Eigentum)
  • Modelltyp (regelbasierte ML-Modelle, LLM, GPAI-API des Anbieters, feinabgestimmtes Modell)
  • Auswirkungen von Entscheidungen (beratende vs. automatisierte Entscheidungen)
  • Bereitstellungsstatus (Pilotprojekt, Produktion, außer Betrieb)
  • Regulatorische Risikoklasse (EU-KI-Gesetz) und Geschäftsrisikoklasse
  • Vorhandene Kontrollen und bestehende Lücken

Meine Meinung: Betrachten Sie dies als ein lebendes, operatives System und nicht als eine Tabellenkalkulation, die nach der Prüfung nutzlos wird. Wenn es nicht automatisch durch Beschaffungsprozesse, Architekturüberprüfungen oder Änderungsmanagement aktualisiert wird, veraltet es schnell.

3. Klären Sie Ihre Rolle: Anbieter oder Implementierer (Dies verändert Ihre Verpflichtungen)

Gemäß der EU-KI-Verordnung hängen Ihre Verpflichtungen maßgeblich von Ihrer Rolle in der Wertschöpfungskette ab. Die Definitionen sind entscheidend. Ein „Anbieter“ ist das Unternehmen, das ein KI-System entwickelt (oder entwickeln lässt) und es unter eigenem Namen oder eigener Marke auf den Markt bringt oder in Betrieb nimmt. Ein „Nutzer“ verwendet ein KI-System unter eigener Verantwortung.

Diese Unterscheidung ist nicht nur theoretischer Natur. Wenn Sie eine KI-Lösung umbenennen, ein internes System als Produkt vermarkten oder wesentliche Änderungen vornehmen, können Sie in die Rolle eines Anbieters geraten und damit verbundene Verpflichtungen übernehmen. Daher sollte eine der ersten Compliance-Entscheidungen lauten: Sind wir für jeden Anwendungsfall von KI-Systemen ein Anwender, ein Anbieter oder beides?

Mehr lesen: KI-Gesetz-Service-Desk – Artikel 3: Definitionen – Europäische Union

4. Anwendung von Kontrollmaßnahmen nach Risikoklasse (Praktische Sichtweise des EU-KI-Gesetzes)

4.1 Unannehmbares Risiko: Verbieten Sie es, anstatt es zu „mildern“.

Das KI-Gesetz verbietet bestimmte KI-Praktiken ausdrücklich. Fällt ein Anwendungsfall in die verbotene Kategorie, besteht die richtige Kontrollmaßnahme aus Verbot und Erkennung (damit Sie illegale Implementierungen aufspüren und abschalten können). ([KI-Gesetz Service Desk][3])

4.2 Begrenztes Risiko: Transparenz ist die zentrale Verpflichtung.

Systeme mit begrenztem Risiko erfordern häufig Offenlegungs- und Transparenzpflichten (z. B. die Information von Personen über die Interaktion mit KI und spezifische Kennzeichnungspflichten für bestimmte synthetische Inhalte). Nationale Regulierungsbehörden stellen praktische Zusammenfassungen bereit, und die Transparenzpflichten des KI-Gesetzes sind in Artikel 50 verankert. ([Bundesnetzagentur][4])

Für ein Unternehmen wird „Transparenz-Compliance“ sehr greifbar:

  • Benutzerorientierte Hinweise und UX-Muster („Sie interagieren mit einer KI“)
  • Offenlegungspflichten für Kundensupport-Chatbots und Sprachbots
  • Kennzeichnungs-/Markierungsvorschriften für KI-generierte oder KI-veränderte Inhalte, die extern verwendet werden (Marketing, Kommunikation, Personalwesen/Employer Branding)
  • Interne Richtlinien für Mitarbeiter, die generative KI für nach außen gerichtete Inhalte verwenden.

Meine Meinung: Verstecken Sie das nicht in juristischen Texten. Integrieren Sie es in Designsystem-Komponenten und Inhaltsvorlagen, damit Produkt- und Marketingteams automatisch die Vorgaben einhalten können.

4.3 Hohes Risiko: Sie benötigen ein Lebenszyklusmanagementsystem, keine Checkliste.

Als Hochrisiko-KI-Systeme gelten diejenigen, die in den Kategorien des Gesetzes aufgeführt sind (insbesondere die Bereiche in Anhang III wie Biometrie, kritische Infrastruktur, Bildung, Beschäftigung, wesentliche Dienstleistungen, Strafverfolgung, Migration, Justiz) sowie bestimmte produktbezogene Fälle. ([KI-Gesetz-Service-Desk][5])

Für Hochrisikosysteme schreibt das Gesetz strukturierte, fortlaufende Kontrollen vor. Zwei grundlegende Beispiele:

  • Für Hochrisiko-KI-Systeme muss ein Risikomanagementsystem eingerichtet, implementiert, dokumentiert und über den gesamten Lebenszyklus hinweg als kontinuierlicher, iterativer Prozess aufrechterhalten werden. ([KI-Gesetz Service Desk][6])
  • Bei der Verwendung von Trainingsdaten gelten explizite Daten- und Datenverwaltungsanforderungen für Trainings-, Validierungs- und Testdatensätze (Qualitätskriterien, Governance usw.). ([KI-Gesetz Service Desk][7])

In der Praxis ähnelt „Compliance in Hochrisikobereichen“ eher der Produktsicherheitstechnik als einem politischen Strategiepapier. Man benötigt wiederholbare Mechanismen: dokumentierte Risikobewertung, Datenmanagement, Testnachweise, operative Überwachung, menschliche Aufsicht und Vorfallbearbeitung.

4.4 Minimales oder kein Risiko: Trotzdem regulieren, aber mit geringem Aufwand.

Minimales Risiko bedeutet nicht „keine Kontrolle“. Es bedeutet, dass Sie sich auf angemessene Kontrollen und interne Richtlinien verlassen können. Andernfalls werden Tools mit minimalem Risiko zur größten Schwachstelle für Datenlecks, den Verlust von geistigem Eigentum und unkontrollierte Lieferantenrisiken.

Meine Meinung: Streben Sie überall nach leichten Basis-Sicherheitskontrollen an, und setzen Sie strengere Kontrollen nur dort ein, wo das Risiko es erfordert.

5. Ignorieren Sie die Bedeutung von KI-Kompetenz nicht: Sie ist eine echte Verpflichtung.

Eine überraschend wichtige Anforderung ist die KI-Kompetenz. Anbieter und Anwender müssen Maßnahmen ergreifen, um ein ausreichendes Maß an KI-Kompetenz bei Mitarbeitern und anderen Personen sicherzustellen, die KI-Systeme in ihrem Auftrag bedienen oder nutzen. ([KI-Gesetz Service Desk][8])

Es geht hier nicht darum, alle zu Datenwissenschaftlern zu machen. Es geht um rollenbasierte Kompetenzen:

  • Führungskräfte: Verantwortlichkeit für Entscheidungen, Risikobereitschaft, Erwartungen an die Aufsicht
  • Geschäftsinhaber: Angemessene Nutzung, Grenzen, Eskalationswege, Transparenzpflichten
  • Entwickler/Datenteams: Tests, Verzerrungsanalyse/Robustheit, Überwachung, Dokumentation
  • Einkaufs-/Lieferantenmanager: Vertragsbestimmungen, Fragen zur Herkunft von Modellen/Daten
  • Support/Betrieb: sicherer Betrieb, Meldung von Zwischenfällen, menschliche Eingriffe in den Prozess

Meine Meinung: Medienkompetenz ist eine der Maßnahmen mit dem höchsten Return on Investment, da sie sowohl versehentlichen Missbrauch als auch das Wachstum von „Schatten-KI“ reduziert.

6. Den Zeitplan verstehen: Die Einhaltung der Vorschriften wird bereits schrittweise umgesetzt.

Das KI-Gesetz trat 20 Tage nach seiner Veröffentlichung in Kraft und wird schrittweise anwendbar. Die Verordnung gilt ab dem 2. August 2026, wobei bestimmte Kapitel (einschließlich der allgemeinen Bestimmungen und Verbote) bereits früher Anwendung finden. Für die Governance-Strukturen und die Verpflichtungen im Bereich der generativen KI (GPAI) gelten zusätzliche gestaffelte Termine. ([EUR-Lex][9])

Für KI-Modelle für allgemeine Zwecke (GPAI) hat die Kommission Leitlinien für Anbieter veröffentlicht, und die Verpflichtungen für GPAI-Anbieter treten ab dem 2. August 2025 in Kraft (mit zusätzlichen Übergangsregelungen für Modelle, die bereits vor diesem Datum auf dem Markt waren). ([Digitale Strategie Europa][10])

Warum dies für ein normales Unternehmen wichtig ist: Selbst wenn Sie „nur“ ein Nutzer von LLM-APIs sind, benötigen Sie Zusicherungen des Anbieters, vertragliche Garantien und klare interne Regeln, da die Einhaltung der Vorschriften derzeit aktiv umgesetzt wird und nicht erst „irgendwann später“.

7. Aufbau einer langfristigen Regierungsstruktur, die nicht nach der ersten Prüfung zusammenbricht.

So sieht eine nachhaltige KI-Governance in der Praxis aus: Sie verhält sich wie ein Managementsystem, nicht wie eine bloße Sammlung von Richtlinien.

7.1 Das Betriebsmodell: Klare Verantwortlichkeiten und ein einfacher Entscheidungsablauf

Sie benötigen einen namentlich eingetragenen Eigentümer. Typischerweise:

  • Der Geschäftsinhaber ist für den Anwendungsfall und die Ergebnisse verantwortlich.
  • Die IT/Architektur ist verantwortlich für die technischen Kontrollen und den Lebenszyklus.
  • Risiko-/Compliance-Abteilung ist verantwortlich für das Rahmenwerk und die Qualitätssicherung.
  • Datenschutz/Datensicherheit: Verantwortlich für Daten- und Sicherheitskontrollen

Definieren Sie anschließend einen einfachen Ablauf für alle KI-Initiativen:

  • Wareneingang und Lagerbestandsaufnahme
  • Risikoklassifizierung (EU + Unternehmen)
  • Kontrollauswahl (Basislinie + risikobasiert)
  • Genehmigung (vereinfachtes Verfahren für geringes Risiko; formelle Überprüfung für hohes Risiko)
  • Kriterien für die Inbetriebnahme (erforderliche Nachweise)
  • Laufende Überwachung und regelmäßige Überprüfung

7.2 Standardisieren Sie die Beweismittel, die Sie ohnehin benötigen werden.

Bei der Auditbereitschaft geht es nicht darum, am Ende Dokumente zu erstellen. Es geht darum, kontinuierlich Nachweise zu erfassen:

  • Modell-/Systembeschreibung und Verwendungszweck
  • Datenquellen und Begründung für die Datenverarbeitung
  • Testansatz und Ergebnisse (einschließlich Fehlermodi)
  • Gestaltung der menschlichen Aufsicht (wer kann wann und wie eingreifen)
  • Transparenz und Informationen für die Nutzer (falls erforderlich)
  • Ereignisprotokoll und Korrekturmaßnahmen

7.3 Verwenden Sie anerkannte Frameworks, um nicht alles neu erfinden zu müssen.

Wenn Sie eine systematische und glaubwürdige Regierungsführung anstreben, richten Sie diese an etablierten Rahmenwerken aus:

  • ISO/IEC 42001 ist ein Standard für KI-Managementsysteme, der sich auf die Einrichtung, Implementierung, Aufrechterhaltung und kontinuierliche Verbesserung eines KI-Managementsystems konzentriert. ([ISO][11])
  • ISO/IEC 23894 bietet Leitlinien zum Risikomanagement im Bereich der künstlichen Intelligenz und dazu, wie Risikomanagement in KI-bezogene Aktivitäten integriert werden kann. ([ISO][12])
  • Das NIST-Rahmenwerk für das Risikomanagement im Bereich künstliche Intelligenz wird weithin als praktische Struktur zur Identifizierung und Bewältigung von KI-Risiken eingesetzt (freiwillig, aber hilfreich). ([NIST][13])

Meine Meinung: ISO/IEC 42001 liefert das „Grundgerüst des Managementsystems“, während ISO/IEC 23894 und NIST AI RMF dabei helfen, das Risikomanagement in der Praxis umzusetzen, ohne sich in theoretischen Details zu verlieren.

7.4 Behandeln Sie Lieferanten als Teil Ihres Compliance-Umfelds.

Die meisten Unternehmen werden KI-Lösungen von Drittanbietern nutzen. Ihre Governance-Richtlinien sollten daher eine sorgfältige Prüfung der Anbieter und entsprechende vertragliche Kontrollen umfassen:

  • Welche Daten werden verarbeitet und gespeichert?
  • Ist das Training mit Kundendaten erlaubt oder ausgeschlossen?
  • Welche Sicherheitskontrollen existieren und welche Prüfberichte können weitergegeben werden?
  • Welches Änderungsmanagement existiert (Modellaktualisierungen können das Verhalten über Nacht verändern)?
  • Welche Transparenz und Dokumentation bietet der Anbieter?
  • Was passiert bei einem Zwischenfall?

Meine Meinung: Das Risiko, das von KI-Anbietern ausgeht, ist das neue Problem der „versteckten SaaS-Anwendungen“, allerdings mit höheren Risiken, da das Verhalten undurchsichtig und schnell veränderlich sein kann.

8. Ein praktischer Umsetzungsweg (Was ich zuerst tun würde)

Wenn ich heute in ein mittelständisches Unternehmen käme, würde ich es folgendermaßen führen:

  • Erster Monat: Sichtbarkeit schaffen und die Verluste stoppen.
  • Erstellen Sie ein KI-Inventar und verlangen Sie, dass jeder Anwendungsfall von KI registriert wird.
  • Veröffentlichen Sie eine kurze Grundsatzrichtlinie zur „sicheren Nutzung von KI“ (Daten, Vertraulichkeit, zugelassene Tools).
  • Implementierung von Schulungen zur KI-Kompetenz für die am stärksten betroffenen Positionen ([KI-Gesetz-Service-Desk][8])
  • Erstellen Sie eine Liste mit roten Linien für verbotene Praktiken und riskante Verhaltensmuster ([KI-Gesetz-Service-Desk][3])

Monate 2–3: Machen Sie es handhabbar.

  • Einführung einer Risikoklassifizierung (EU-Risikostufe + Geschäftsrisiko)
  • Definieren Sie die Rollen von Anbietern/Bereitstellern je nach Anwendungsfall. ([KI-Gesetz Service Desk])
  • Erstellung von Standardvorlagen für Transparenzhinweise und Dokumentation ([Bundesnetzagentur][4])
  • Integrieren Sie Schritte zur Überprüfung der Lieferanten in den Beschaffungs- und Architekturprüfungsprozess.

Monate 3–6: Entwicklung zu einem vollwertigen Managementsystem

  • Für Kandidaten mit hohem Risiko sind Kontrollen für den gesamten Produktlebenszyklus erforderlich: Risikomanagementprozess und Nachweise zur Datengovernance ([KI-Gesetz-Service-Desk][6])
  • Richten Sie Überwachung, Vorfallmeldung und regelmäßige Neubewertung ein.
  • Richten Sie die Unternehmensführung an den Prinzipien der ISO/IEC 42001 aus, damit sie Führungswechsel übersteht ([ISO][11]).

9. Die größten Fallstricke (und wie man sie vermeidet)

Falle 1: „Compliance-Theater“

Viele Richtlinien, aber keine Verhaltensänderung im operativen Bereich. Lösung: Governance in die Arbeitsabläufe integrieren (Beschaffung, Produktfreigabe, Änderungsmanagement).

Falle 2: Alles vorsichtshalber als hohes Risiko einzustufen.

Dies behindert die Einführung von KI und fördert den Einsatz von KI im Verborgenen. Lösung: Wenden Sie verhältnismäßige Kontrollen an und dokumentieren Sie Ihre Begründung.

Falle 3: Generative KI als reines Marketing-Spielzeug zu betrachten.

Generative KI verarbeitet häufig personenbezogene Daten, vertrauliche Daten und öffentliche Informationen. Lösung: Integrieren Sie generative KI in dasselbe Inventar- und Risikomodell wie alle anderen Systeme.

Falle 4: Die menschliche Seite vergessen

KI-Kompetenz und menschliche Aufsicht sind keine „unwichtigen Themen“. Sie sind zentrale Risikokontrollmechanismen. ([KI-Gesetz-Servicedesk][8])

Abschließender Gedanke

Eine gut umgesetzte KI-Compliance ist keine Bremse für Innovationen. Sie ermöglicht es Ihnen vielmehr, KI verantwortungsvoll zu skalieren: schnellere Genehmigungen für risikoarme Anwendungsfälle, strengere Kontrollen für risikoreiche Systeme und ein Governance-System, das auch lange nach der ersten Compliance-Initiative weiterhin funktioniert.

Wenn Sie möchten, kann ich dies in eine unternehmensgerechte Struktur für ein „KI-Compliance-Starter-Kit“ umwandeln (Bestandsvorlage, Risikoklassifizierungsraster, grundlegende KI-Richtlinie, Lieferantenfragebogen und ein schlankes Governance-RACI-Modell), zugeschnitten auf ein mittelständisches EU-Unternehmen und die typischen Anwendungsfälle von KI, die man dort vorfindet.

[2]: https://ai-act-service-desk.ec.europa.eu/en/ai-act/article-3?utm_source=chatgpt.com „KI-Gesetz-Service-Desk – Artikel 3: Definitionen – Europäische Union“

[3]: https://ai-act-service-desk.ec.europa.eu/en/ai-act/article-5?utm_source=chatgpt.com „KI-Gesetz-Service-Desk – Artikel 5: Verbotene KI-Praktiken“

[4]: https://www.bundesnetzagentur.de/EN/Areas/Digitalisation/AI/04_Transparency/start.html?utm_source=chatgpt.com „Transparenzpflichten“

[5]: https://ai-act-service-desk.ec.europa.eu/en/ai-act/annex-3?utm_source=chatgpt.com „KI-Gesetz-Service-Desk – Anhang III – Europäische Union“

[6]: https://ai-act-service-desk.ec.europa.eu/en/ai-act/article-9?utm_source=chatgpt.com „KI-Gesetz-Service-Desk – Artikel 9: Risikomanagementsystem“

[7]: https://ai-act-service-desk.ec.europa.eu/en/ai-act/article-10?utm_source=chatgpt.com „KI-Gesetz-Service-Desk – Artikel 10: Daten und Datenverwaltung“

[8]: https://ai-act-service-desk.ec.europa.eu/en/ai-act/article-4?utm_source=chatgpt.com „KI-Gesetz-Service-Desk – Artikel 4: KI-Kompetenz – Europäische Union“

[9]: https://eur-lex.europa.eu/eli/reg/2024/1689/oj/eng „Verordnung – EU – 2024/1689 – EN – EUR-Lex“

[10]: https://digital-strategy.ec.europa.eu/en/policies/guidelines-gpai-providers?utm_source=chatgpt.com „Leitlinien für Anbieter von KI-Modellen für allgemeine Zwecke“

[11]: https://www.iso.org/standard/42001?utm_source=chatgpt.com „ISO/IEC 42001:2023 – Managementsysteme für künstliche Intelligenz“

[12]: https://www.iso.org/standard/77304.html?utm_source=chatgpt.com „ISO/IEC 23894:2023 – KI – Leitlinien zum Risikomanagement“

[13]: https://www.nist.gov/itl/ai-risk-management-framework?utm_source=chatgpt.com „Rahmenwerk für das Risikomanagement von KI | NIST“