Digital
Künstliche Intelligenz

Microsoft warnt vor gefährlicher Schatten-KI

Die rasante Verbreitung nicht genehmigter KI-Tools in Unternehmen birgt grosse Risiken.
Die rasante Verbreitung nicht genehmigter KI-Tools in Unternehmen birgt grosse Risiken.Bild: Shutterstock

Microsoft warnt vor gefährlicher Schatten-KI

Microsoft-Forscher warnen eindringlich vor dem unkontrollierten Einsatz von autonomen Softwarehelfern mit Künstlicher Intelligenz. Die Autoren der Studie betonen, dass es sich nicht um theoretische Risiken handle.
11.02.2026, 09:2611.02.2026, 09:26

In dem am Dienstag veröffentlichten Cyber Pulse Report stellen Forscher des Softwarekonzerns Microsoft fest, dass KI-Helfer beim Programmieren bereits in über 80 Prozent der grössten Unternehmen (Fortune 500) im Einsatz sind. Die wenigsten Firmen hätten jedoch klare Regeln für die Verwendung der KI.

Die rasante Verbreitung berge unkalkulierbare Risiken, hiess es. Eine mangelnde Übersicht der Verantwortlichen und eine «Schatten-KI» öffneten Tür und Tor für neue Angriffsmethoden.

Chefs wissen nichts vom KI-Einsatz

Unter «Schatten-KI» versteht man die Nutzung von Anwendungen Künstlicher Intelligenz durch Mitarbeiter, ohne dass die IT- oder Sicherheitsabteilung des Unternehmens davon weiss oder dies offiziell genehmigt hat. Mitarbeiter verwenden eigenmächtig KI-Tools oder Agenten aus dem Internet, also autonom handelnde Computerprogramme, um ihre Aufgaben schneller zu erledigen, ohne dass jemand in der Firmenhierarchie davon in Kenntnis gesetzt wurde.

Der Microsoft-Bericht warnt eindringlich vor einer wachsenden Diskrepanz zwischen Innovation und Sicherheit. Während die KI-Nutzung explosionsartig wächst, verfügt nicht einmal die Hälfte der Unternehmen (47 Prozent) über spezifische Sicherheitskontrollen für generative KI.

Und 29 Prozent der Angestellten nutzen bereits nicht genehmigte KI-Agenten für ihre Arbeit. Dies schaffe blinde Flecken in der Unternehmenssicherheit.

«Schnell, schnell, schnell» ist unsicher

Nach Einschätzung der Microsoft-Experten erhöht sich das Risiko, wenn sich die Unternehmen bei der Einführung der KI-Anwendungen nicht genügend Zeit nehmen. «Die schnelle Bereitstellung von KI-Agenten kann Sicherheits- und Compliance-Kontrollen aushebeln und das Risiko von Schatten-KI erhöhen.»

Böswillige Akteure könnten die Berechtigungen von Agenten ausnutzen und sie zu unbeabsichtigten Doppelagenten machen. «Wie menschliche Mitarbeiter kann auch ein Agent mit zu viel Zugriff – oder falschen Anweisungen – zu einer Schwachstelle werden.»

Die Autoren der Studie betonen, dass es sich nicht um theoretische Risiken handle. Kürzlich habe das Defender-Team von Microsoft eine betrügerische Kampagne entdeckt, bei der mehrere Akteure eine als «Memory Poisoning» bekannte KI-Angriffstechnik nutzten, um den Speicher von KI-Assistenten – und damit die Ergebnisse – dauerhaft zu manipulieren.

Zugriff auf Daten begrenzen

In dem Report werden mehrere Gegenmassnahmen empfohlen, um das Risiko beim Einsatz von KI-Anwendungen möglichst gering zu halten. Die Softwarehelfer mit künstlicher Intelligenz sollten nur Zugriff auf die Daten haben, die sie zwingend für die Lösung ihrer Aufgabe benötigen.

Ausserdem sollten Unternehmen ein zentrales Register einrichten, um zu sehen, welche KI-Agenten im Unternehmen existieren, wem sie gehören und auf welche Daten sie zugreifen. Nicht genehmigte Agenten müssten identifiziert und isoliert werden.

(sda/awp/dpa)

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Die besten Bilder der Olympischen Spiele Mailand-Cortina 2026
1 / 62
Die besten Bilder der Olympischen Spiele Mailand-Cortina 2026

Über welchen Witz lachen echt Nefeli Tita und Bruna Moura?

quelle: keystone / filip singer
Auf Facebook teilenAuf X teilen
Road Trip durch die SRG-feindlichsten Orte
Video: watson
Das könnte dich auch noch interessieren:
Du hast uns was zu sagen?
Hast du einen relevanten Input oder hast du einen Fehler entdeckt? Du kannst uns dein Anliegen gerne via Formular übermitteln.
12 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
sherlock87
11.02.2026 10:34registriert April 2024
Zuerst überall Copilot ungefragt installieren und anschliessend davor warnen?
«Die schnelle Bereitstellung von KI-Agenten kann Sicherheits- und Compliance-Kontrollen aushebeln und das Risiko von Schatten-KI erhöhen.»
222
Melden
Zum Kommentar
12
OpenAI-Rivale Anthropic will mit seiner neuen KI die nächste Branche erobern
Neben der Software-Entwicklung und juristischen Dienstleistungen soll «Claude» nun unter anderem Aufgaben der Finanzanalyse übernehmen. Und auch die ChatGPT-Entwickler legen nach.
Im Wettlauf der grossen US-amerikanischen KI-Entwickler weitet der OpenAI-Rivale Anthropic die Fähigkeiten seines KI-Chatbots Claude auf mehr Bereiche aus.
Zur Story