KI & Sicherheit KI-Sicherheit Risikomanagement Shadow AI Halluzinationen

KI-Sicherheit im Unternehmen: Die 5 Risiken, die Sie kennen müssen

KI bringt Effizienz – aber auch neue Risiken. Von Datenlecks über Halluzinationen bis Shadow AI: Was Entscheider wissen müssen, bevor sie KI einsetzen.

CT
· 7 min Lesezeit
Auf einen Blick

Die fünf größten KI-Risiken für Mittelständler: Datenlecks durch unkontrollierte Tool-Nutzung, Halluzinationen, Prompt Injection, Vendor Lock-in und Shadow AI. Alle lassen sich mit klaren Richtlinien, technischen Maßnahmen und dem Human-in-the-Loop-Prinzip beherrschen.

KI ist kein Risiko – unkontrollierte KI ist eines

KI-Tools sind mächtig. Sie sparen Zeit, reduzieren Fehler und automatisieren Routineprozesse. Aber wie jedes Werkzeug bringen sie Risiken mit – besonders wenn sie ohne Strategie und Regeln eingesetzt werden.

Die gute Nachricht: Alle Risiken sind beherrschbar. Aber dafür müssen Sie sie kennen.

Risiko 1: Datenlecks durch externe KI-Tools

Was passiert

Ein Mitarbeiter nutzt ChatGPT, um einen Vertragsentwurf zusammenzufassen. Ein anderer füttert ein KI-Tool mit Kundendaten, um eine Analyse zu erstellen. Beides klingt harmlos – aber die Daten landen auf externen Servern, möglicherweise außerhalb der EU.

Warum es gefährlich ist

  • DSGVO-Verstoß, wenn personenbezogene Daten ohne Rechtsgrundlage an Dritte übermittelt werden
  • Geschäftsgeheimnisse können in Trainingsdaten einfließen und für andere Nutzer zugänglich werden
  • Kein AVV (Auftragsverarbeitungsvertrag) mit dem Tool-Anbieter

Was Sie tun können

  • Whitelist definieren: Nur freigegebene Tools dürfen verwendet werden
  • Datenklassifikation: Welche Daten dürfen in externe Tools, welche nicht?
  • Enterprise-Versionen nutzen: ChatGPT Enterprise, Azure OpenAI u.a. bieten Datenverarbeitungsgarantien
  • Interne Alternative anbieten: Wer Mitarbeitern kein legales Tool gibt, bekommt Shadow AI

Mehr zum Datenschutz-Rahmen: KI und Datenschutz im Mittelstand.

Risiko 2: Halluzinationen – wenn KI überzeugend falsch liegt

Was passiert

KI-Modelle generieren Antworten, die grammatisch perfekt und inhaltlich plausibel klingen – aber faktisch falsch sind. Das können erfundene Zahlen, falsche Referenzen oder inkorrekte Schlussfolgerungen sein.

Warum es gefährlich ist

  • Falsche Geschäftsentscheidungen auf Basis halluzinierter Daten
  • Fehlerhafte Dokumente, die ungeprüft an Kunden oder Partner gehen
  • Vertrauensverlust, wenn der Fehler auffliegt

Was Sie tun können

  • Human-in-the-Loop: KI-Ergebnisse werden grundsätzlich von einem Menschen geprüft
  • Quellenpflicht: KI muss Quellen angeben, die verifizierbar sind
  • Scope begrenzen: KI nur für Aufgaben einsetzen, bei denen Fehler erkennbar und korrigierbar sind
  • Konfidenzwerte nutzen: Bei niedriger Konfidenz automatisch eskalieren

Mehr dazu: Vertrauen, Kontrolle und die Blackbox-Frage.

Risiko 3: Prompt Injection – KI-Systeme manipulieren

Was passiert

Bei Prompt Injection manipuliert ein Angreifer die Eingabe an ein KI-System, sodass es seine Sicherheitsregeln ignoriert. Beispiel: Ein Kunde schickt eine E-Mail mit versteckten Anweisungen, die das KI-gestützte E-Mail-Routing dazu bringen, vertrauliche Informationen preiszugeben.

Warum es gefährlich ist

  • KI-Systeme mit Zugriff auf interne Daten können sensible Informationen leaken
  • Automatisierte Prozesse können falsche Aktionen auslösen
  • Besonders kritisch bei kundenorientierten KI-Systemen (Chatbots, E-Mail-Verarbeitung)

Was Sie tun können

  • Input-Validierung: Eingaben auf verdächtige Muster prüfen
  • Least Privilege: KI-Systeme nur mit minimalen Zugriffsrechten ausstatten
  • Output-Filterung: Antworten auf sensible Inhalte scannen, bevor sie weitergegeben werden
  • Sandboxing: KI-Systeme von kritischen Systemen isolieren

Technische Details zur Absicherung: Prompt Injection, Halluzinationen & Co. – KI-Systeme absichern.

Risiko 4: Vendor Lock-in – Abhängigkeit von einem Anbieter

Was passiert

Sie bauen Ihre Prozesse auf einem bestimmten KI-Tool oder -Anbieter auf. Wenn der Anbieter die Preise erhöht, den Service einstellt oder die Bedingungen ändert, stehen Sie vor einem Problem.

Warum es gefährlich ist

  • Preiserhöhungen ohne Ausweichmöglichkeit
  • Datenmigration kann teuer und komplex sein
  • Technologische Abhängigkeit von einer einzelnen Plattform

Was Sie tun können

  • Offene Standards nutzen: Python, REST APIs, standardisierte Datenformate
  • IP-Rechte sichern: Der Code gehört Ihnen, nicht dem Dienstleister
  • Exit-Strategie definieren: Wie könnten Sie den Anbieter wechseln?
  • Multi-Vendor-Ansatz: Nicht alles auf eine Karte setzen

Ein seriöser KI-Partner baut Lösungen, die Ihnen gehören – nicht ihm.

Risiko 5: Shadow AI – die unkontrollierte Nutzung

Was passiert

Mitarbeiter nutzen KI-Tools auf eigene Faust – ohne Wissen der IT, ohne Richtlinien, ohne Risikobewertung. Das ist kein Randphänomen: Studien zeigen, dass über 50% der Wissensarbeiter KI-Tools nutzen, ohne dass ihr Arbeitgeber davon weiß.

Warum es gefährlich ist

  • Keine Kontrolle über Datenflüsse
  • Keine Qualitätssicherung der KI-Ergebnisse
  • DSGVO-Risiken durch unbewusste Datenweitergabe
  • Inkonsistente Ergebnisse durch unterschiedliche Tools und Prompts

Was Sie tun können

  • Nicht verbieten, sondern kanalisieren: Wer KI verbietet, bekommt Shadow AI
  • Offizielle Tools bereitstellen: Geben Sie Mitarbeitern sichere Alternativen
  • KI-Richtlinie einführen: Klare Regeln für alle – so erstellen Sie eine
  • Schulungen anbieten: Kompetenter Umgang reduziert Risiken

Die gute Nachricht: Alles beherrschbar

Keines dieser Risiken ist ein Grund, auf KI zu verzichten. Alle lassen sich mit drei Maßnahmen in den Griff bekommen:

  1. Klare Richtlinien – Was ist erlaubt, was nicht? → KI-Richtlinie erstellen
  2. Technische Absicherung – Input-Validierung, Zugriffskontrolle, Monitoring → KI-Systeme absichern
  3. Human-in-the-Loop – Mensch prüft KI-Ergebnisse → So funktioniert das in der Praxis

Das größere Risiko ist, aus Angst gar nichts zu tun – und den Wettbewerbsanschluss zu verlieren.

Fazit

KI-Sicherheit ist kein Grund zur Panik, aber ein Grund zur Vorbereitung. Die fünf Risiken sind real, aber beherrschbar. Wer sie kennt und adressiert, kann KI sicher und effektiv einsetzen.


Im KI-Discovery-Workshop erarbeiten wir gemeinsam mit Ihrem Team nicht nur die besten Anwendungsfälle, sondern auch die Sicherheitsanforderungen für Ihre KI-Nutzung.

Häufig gestellte Fragen

Was ist Prompt Injection?
Prompt Injection ist eine Angriffstechnik, bei der ein Angreifer die Eingabe an ein KI-System so manipuliert, dass es seine ursprünglichen Anweisungen ignoriert und stattdessen unerwünschte Aktionen ausführt – etwa vertrauliche Daten ausgibt oder Sicherheitsregeln umgeht.
Dürfen Mitarbeiter ChatGPT beruflich nutzen?
Grundsätzlich ja – aber nur mit klaren Regeln. Firmendaten, Kundendaten und vertrauliche Informationen dürfen nicht in externe KI-Tools eingegeben werden. Eine interne KI-Richtlinie definiert, welche Tools erlaubt sind und welche Daten verarbeitet werden dürfen.
Wie erstelle ich eine KI-Richtlinie für mein Unternehmen?
Eine gute KI-Richtlinie umfasst: erlaubte Tools (Whitelist), verbotene Datentypen, Freigabeprozesse für neue Tools, Verantwortlichkeiten, Schulungspflichten und Meldewege. Sie sollte regelmäßig aktualisiert werden. Details dazu finden Sie in unserem Artikel zur KI-Richtlinie.
Was ist Shadow AI?
Shadow AI bezeichnet die unkontrollierte Nutzung von KI-Tools durch Mitarbeiter ohne Wissen oder Genehmigung der IT-Abteilung. Beispiel: Ein Mitarbeiter lädt Kundendaten in ChatGPT hoch, um einen Bericht zu erstellen. Das Risiko: Datenverlust, DSGVO-Verstöße und fehlende Qualitätskontrolle.
Wie gefährlich sind KI-Halluzinationen für mein Unternehmen?
Halluzinationen – also falsche Informationen, die die KI überzeugend präsentiert – sind vor allem dann gefährlich, wenn niemand die Ergebnisse prüft. In Prozessen mit menschlicher Freigabe (Human-in-the-Loop) ist das Risiko beherrschbar. Kritisch wird es bei vollautomatisierten Entscheidungen ohne Kontrolle.
CT

Can Tewes

KI-Berater mit Fokus auf pragmatische Automatisierung im Mittelstand. Strategie-Background, Tech-Verständnis, Umsetzungsfokus.

Mehr erfahren →

Nächster Schritt?

Entdecken Sie, wie KI konkret in Ihrem Unternehmen eingesetzt werden kann.