Warnung vor gefährlicher Schatten-KI
Microsoft warnt vor dem unkontrollierten Einsatz von autonomen Softwarehelfern mit Künstlicher Intelligenz (KI). In einem aktuellen Cyber Pulse Report, der im Vorfeld der Münchner Sicherheitskonferenz veröffentlicht wurde, stellen Forschende des Softwarekonzerns fest, dass KI-Helfer beim Programmieren bereits in über 80 Prozent der größten Unternehmen (Fortune 500) im Einsatz sind. Die wenigsten Unternehmen hätten jedoch klare Regeln für die Verwendung der KI. Die rasante Verbreitung berge unkalkulierbare Risiken. Eine mangelnde Übersicht der Verantwortlichen und eine "Schatten-KI" öffneten Tür und Tor für neue Angriffsmethoden.
KI-Einsatz: Vorgesetzte und IT wissen oft nicht Bescheid
Unter "Schatten-KI" versteht man die Nutzung von Anwendungen Künstlicher Intelligenz durch Mitarbeiterinnen und Mitarbeiter, ohne dass die IT- oder Sicherheitsabteilung des Unternehmens davon weiß oder dies offiziell genehmigt hat. Mitarbeitende verwenden eigenmächtig KI-Tools oder Agenten aus dem Internet, also autonom handelnde Computerprogramme, um ihre Aufgaben schneller zu erledigen, ohne dass jemand in der Firmenhierarchie davon in Kenntnis gesetzt wurde.
Der Microsoft-Bericht warnt eindringlich vor einer wachsenden Diskrepanz zwischen Innovation und Sicherheit. Während die KI-Nutzung explosionsartig wächst, verfügt nicht einmal die Hälfte der Unternehmen (47 Prozent) über spezifische Sicherheitskontrollen für generative KI. Und 29 Prozent der Angestellten nutzen bereits nicht genehmigte KI-Agenten für ihre Arbeit. Dies schaffe blinde Flecken in der Unternehmenssicherheit.
KI-Anwendungen nicht übereilt einführen
Nach Einschätzung der Microsoft-Experten erhöht sich das Risiko, wenn sich die Unternehmen bei der Einführung der KI-Anwendungen nicht genügend Zeit nehmen. "Die schnelle Bereitstellung von KI-Agenten kann Sicherheits- und Compliance-Kontrollen aushebeln und das Risiko von Schatten-KI erhöhen.", heißt es in dem Report. Böswillige Akteure könnten die Berechtigungen von Agenten ausnutzen und sie zu unbeabsichtigten Doppelagenten machen. Dadurch können nicht nur menschliche Mitarbeiter, sondern auch KI-Agenten mit zu viel Zugriff - oder falschen Anweisungen - zu einer Schwachstelle werden.
Zugriff auf Daten für KI-Agenten begrenzen
In dem Report werden mehrere Gegenmaßnahmen empfohlen, um das Risiko beim Einsatz von KI-Anwendungen möglichst gering zu halten. Die Softwarehelfer mit künstlicher Intelligenz sollten nur Zugriff auf die Daten haben, die sie zwingend für die Lösung ihrer Aufgabe benötigen. Außerdem sollten Unternehmen ein zentrales Register einrichten, um zu sehen, welche KI-Agenten im Unternehmen existieren, wem sie gehören und auf welche Daten sie zugreifen. Nicht genehmigte Agenten müssten identifiziert und isoliert werden.
Das könnte Sie auch interessieren:
Wie KI-Agenten Arbeit und Führung verändern
Top-Thema: Arbeitsteilung mit KI-Agenten
-
Workation und Homeoffice im Ausland: Was Arbeitgeber wissen müssen
638
-
Essenszuschuss als steuerfreier Benefit
569
-
BEM ist Pflicht des Arbeitgebers
370
-
Probezeitgespräche als Feedbackquelle für den Onboarding-Prozess
272
-
Acht rettende Sätze für schwierige Gesprächssituationen
235
-
Vorlage: Leitfaden für das Mitarbeitergespräch
203
-
Das sind die 25 größten Anbieter für HR-Software
191
-
Ablauf und Struktur des betrieblichen Eingliederungsmanagements
187
-
Mitarbeiterfluktuation managen
1644
-
Warum Offboarding an Bedeutung gewinnt
158
-
Wie sich Corporate Bullshit auf die Arbeitswelt auswirkt
30.03.2026
-
ZP Süd 2026: Zwei Tage HR-Wissen zu „Team Human x AI“
26.03.2026
-
Wissensmanagement im Offboarding
26.03.2026
-
Ausgezeichnete Modelle der betrieblichen Altersversorgung
26.03.2026
-
Workations brauchen Vertrauen und klare Regelungen
23.03.2026
-
Wie der berufliche Wiedereinstieg gelingt
20.03.2026
-
HR-Kosten steigen trotz Sparzwang
19.03.2026
-
"Wir wollen Transformation in Echtzeit abbilden"
18.03.2026
-
Warum Organisationen eine Talent Roadmap brauchen
18.03.2026
-
Warum mehr Tools oft zu mehr Aufwand führen
18.03.2026