AI Business value

Sehen Sie, wie einfach Sie mit KI gegen das Gesetz verstoßen können.

The EU AI Act is not a policy exercise—it’s a liability framework. Certain AI practices are prohibited, others require documented controls, logging, human oversight, and incident processes. This article breaks down your obligations as a deployer or provider and includes a one-page readiness scorecard to identify your biggest legal gaps in 10 minutes.

Man braucht kein komplexes KI-System, um rechtliche Risiken zu verursachen. In den meisten Unternehmen reichen eine einfache Eingabeaufforderung, eine kopierte Tabellenkalkulation oder eine „schnelle Überprüfung“ mit einem KI-Tool völlig aus. Keine Absicht. Kein böser Wille. Nur ganz normale Alltagsarbeit.

Betrachten wir einige Anwendungsbeispiele, die gegen das Gesetz verstoßen – ohne dass Ihr Unternehmen dies bemerkt.

Dieser Artikel zeigt einfache, gängige Anwendungsbeispiele von KI in den Bereichen Personalwesen, Finanzen und Beschaffung – und wie diese scheinbar harmlosen Maßnahmen gegen Datenschutzbestimmungen, Arbeitsrecht oder interne Kontrollen verstoßen können. Bei der KI-Compliance geht es nicht darum, Innovationen zu stoppen, sondern darum zu verstehen, wie leicht die Grenzen unbemerkt überschritten werden können.

1. Beschaffung (Einkauf / Beschaffungsmanagement)

1.1 Lieferantenbewertung mithilfe generativer KI

Ein Käufer lädt große Datenmengen, Servicebeschreibungen oder E-Mail-Korrespondenz in ein KI-Tool hoch, um Anbieter zu vergleichen oder Ranglisten zu erstellen.Risk:

  • Vertrauliche Vertrags- und Preisdaten verlassen das Unternehmen.
  • Keine Nachvollziehbarkeit der Entstehung der Bewertungen (Verzerrungen, Fehlinterpretationen)
  • Mögliche Verstöße gegen Geheimhaltungsvereinbarungen und das Wettbewerbsrecht
  • Die Entscheidungen sind nicht revisionssicher oder ordnungsgemäß dokumentiert.

1.2 Vertragserstellung oder Klauselprüfung mithilfe von KI

KI wird eingesetzt, um Beschaffungsverträge „schnell zu überprüfen“ oder alternative Klauseln vorzuschlagen.
Risiko:

  • Rechtlich fehlerhafte oder unvollständige Klauseln werden übernommen.
  • Die Zuständigkeit für die rechtliche Beurteilung wird unklar.
  • Falsches Gefühl der Sicherheit: „Die KI hat es überprüft“ ersetzt eine ordnungsgemäße rechtliche Prüfung.

1.3 Vorbereitung von Preisverhandlungen mithilfe von KI

Beispiele für solche Anfragen sind: „Wie kann ich diesen Lieferanten dazu bringen, seine Preise zu senken?“, einschließlich spezifischer Lieferanteninformationen.

Risiko:

  • Sensible Geschäftsbeziehungen werden extern offengelegt.
  • KI generiert aggressive oder unethische Verhandlungsstrategien.
  • Reputationsschaden, falls eine solche Nutzung bekannt wird.

2. Personalwesen

2.1 Vorauswahl der Bewerber mithilfe von KI

Lebensläufe und Bewerbungsunterlagen werden in KI-Tools hochgeladen, um Ranglisten oder Auswahllisten zu erstellen.

Risiko:

  • Verarbeitung hochsensibler personenbezogener Daten
  • Diskriminierung aufgrund von Trainingsverzerrungen (Alter, Geschlecht, Herkunft)
  • Verstöße gegen die DSGVO und das Antidiskriminierungsgesetz
  • Mangelnde Transparenz gegenüber Bewerbern

2.2 Leistungsbewertungen mithilfe von KI-generierten Zusammenfassungen

Führungskräfte nutzen KI, um Mitarbeiterfeedback, Zielerreichung oder Besprechungsprotokolle zusammenzufassen oder zu bewerten.

Risiko:

  • Subjektive oder voreingenommene Beurteilungen werden „objektiviert“.
  • Mitarbeiterdaten werden ohne klare Zweckbindung verarbeitet.
  • Eskalations- und Haftungsrisiken bei Kündigungs- oder Beförderungsentscheidungen

2.3 Abfassung von Abmahnungen oder Kündigungsschreiben

Die Personalabteilung nutzt KI, um arbeitsrechtliche Dokumente „effizient zu erstellen“.

Risiko:

  • Rechtlich fehlerhafte Formulierung
  • Mangelnde Berücksichtigung der Besonderheiten des Einzelfalls
  • Hohes rechtliches Risiko in arbeitsgerichtlichen Verfahren.

3. Finanzen (Rechnungswesen, Controlling, Finanzwesen)

3.1 Finanzdatenanalyse mithilfe von KI

Kontrolle des Hochladens von Gewinn- und Verlustdaten, Cashflow-Zahlen oder Prognosen in KI-Tools zur Analyse von Abweichungen oder Kosteneinsparpotenzialen.

Risiko:

  • Hochsensible Finanzdaten verlassen das Unternehmen.
  • Keine Kontrolle über Speicherung oder Weiterverwendung.
  • Verstöße gegen interne Kontrollsysteme (IKS)

3.2 Automatisierte Prognosen und Vorhersagen

KI wird eingesetzt, um Umsatz- oder Liquiditätsprognosen zu erstellen, die Managemententscheidungen direkt beeinflussen.

Risiko:

  • Falsche Annahmen oder Halluzinationen bleiben unentdeckt.
  • Das Management verlässt sich auf nicht validierte Modelle.
  • Haftungsrisiken aufgrund falscher Entscheidungen

3.3 Unterstützung bei der Erstellung von Jahresabschlüssen oder Bewertungen

KI unterstützt bei der Erstellung von Rückstellungen, Bewertungen oder Kommentaren für Jahresabschlüsse.

Risiko:

  • Verschwimmen der Grenzen zwischen Entscheidungsfindung und Entscheidungsvorbereitung
  • Mangelnde Nachvollziehbarkeit für Wirtschaftsprüfer
  • Compliance- und Governance-Risiken

Klares Fazit

Diese Anwendungsfälle sind nicht im Sinne einer ausdrücklichen Untersagung „falsch“ – sie sind jedoch riskant, weil:

  • Die Verantwortlichkeiten werden unklar.
  • Die Daten werden unkontrolliert verwendet.
  • Die Entscheidungen sind nicht mehr nachvollziehbar.
  • Geschäftsbereiche nutzen KI als Abkürzung ohne entsprechende Governance.

Genau hier setzt eine sinnvolle KI-Governance an: nicht als Bremse für Innovationen, sondern als Klarheit darüber, wer was mit welchen Daten und zu welchem ​​Zweck tun darf – und wer letztendlich die Verantwortung trägt.