Digital
Schweiz

Swisscom-Bericht: «Schatten-KI» und weitere aktuelle Cyber-Gefahren

KI-generiertes Bild einer ChatGPT-Nutzerin vor dem Bildschirm
KI-Chatbots erleichtern uns den Alltag, können jedoch ungeahnte Nebenwirkungen haben.Bild: KI-generiert / watson

Das solltest du über «Schatten-KI» und weitere aktuelle Cyber-Gefahren wissen

Die Swisscom weist in ihrem neuesten Bericht zur Cyber-Bedrohungslage auf ein häufig unterschätztes Phänomen hin.
29.04.2025, 09:0129.04.2025, 14:25
Mehr «Digital»

Das grösste Schweizer Telekom-Unternehmen hat am Dienstag seinen alljährlichen Bericht zur IT-Sicherheit und Cyber-Bedrohungslage veröffentlicht.

Der «Cybersecurity Threat Radar 2025» der Swisscom soll Entscheidungsträgern in Wirtschaft und Politik helfen, sich einen Überblick zu aktuellen und dringlichen Herausforderungen zu verschaffen.

watson fasst die aus User-Sicht wichtigsten Erkenntnisse zusammen. Spoiler: Wir müssen über ein von ChatGPT ausgelöstes Problem reden, das wahrscheinlich noch viele Angestellte und Chefs unterschätzen.

Bist du Teil des Problems?

Die nicht genehmigte Verwendung von KI-Tools im beruflichen Umfeld wird als «Shadow AI» bezeichnet, oder auf Deutsch «Schatten-KI». Und wir reden hier von mehr als dem gelegentlichen Anwerfen von ChatGPT, um sich einen komplizierten Sachverhalt erklären zu lassen.

Mögliche Erscheinungsformen der Schatten-KI:

  • KI-Chatbots werden «oft ohne Genehmigung zur Bearbeitung von Kundenanfragen eingesetzt». Dies kann zu ungenauen und fehlerhaften Antworten führen.
  • Wenn Angestellte zur Analyse von eigenen Unternehmensdaten externe Plattformen mit Machine-Learning-Modellen nutzen, kann dies wertvolle und vertrauliche Informationen gefährden.
  • Marketing-Automatisierungstools steigern zwar die Produktivität, «können aber Compliance-Regeln verletzen und das Kundenvertrauen schädigen».
  • Auch KI-Funktionalität in eigener Software kann Probleme verursachen: Etwa wenn nach dem Updaten einer bestehenden Anwendung eine zusätzliche KI-Funktion ohne entsprechende Prüfung aktiviert wird und daraufhin ungewollt Daten preisgibt.
Wie häufig nutzt du in deinem Job ChatGPT oder andere KI-Tools, ohne dass der Arbeitgeber informiert ist?

Im Swisscom-Bericht wird eine Studie der Marktforschungsfirma Gartner erwähnt, wonach über 50 Prozent der befragten Angestellten während ihrer Arbeit KI-Tools oder Machine-Learning-Anwendungen nutzen, von denen die IT-Abteilung keine Kenntnis hat. Tatsächlich dürfte die Dunkelziffer – insbesondere bei Wissensarbeiterinnen und Wissensarbeitern – grösser sein.

Was harmlos erscheinen mag, birgt erhebliche Risiken, wie aus dem Swisscom-Bericht hervorgeht. Denn jede User-Anweisung an eine KI («Prompt» genannt), jeder Datei-Upload und jede Informationsabfrage stellt eine potenzielle Sicherheitslücke dar.

«Datenschutzverletzungen und Sicherheitsrisiken sind bei der Nutzung von KI-Tools noch viel zu wenig im Fokus von Nutzenden und Unternehmen.»
Marc Scheidegger, Swisscom

Was macht Schatten-KI so gefährlich?

Die Problematik von Schatten-IT besteht seit Jahren und umfasst unter anderem die illegale Nutzung von urheberrechtlich geschützter Software. Doch Schatten-KI ist viel riskanter.

KI-Fachleute sprechen vom Blackbox-Problem und meinen damit die mangelnde Transparenz seitens der Anbieter. Kommerzielle KI-Tools wie ChatGPT des Marktführers OpenAI, Claude (Anthropic) oder Le Chat (Mistral AI), aber auch frei verfügbare Open-Source-Sprachmodelle wie Llama (Meta) oder DeepSeek sind einfach zu bedienen, aber zu mächtig und undurchsichtig.

Der nicht autorisierte KI-Einsatz kann laut Swisscom unter Umständen zu schwerwiegenden Vorfällen führen oder gar existenzbedrohende Folgen haben – für die fehlbaren Angestellten und betroffenen Unternehmen:

  • Zu den wahrscheinlichen Szenarien zählen Datenschutzverletzungen und Sicherheitsrisiken. Während einige KI-Sprachmodelle lokal ausgeführt werden, also auf Servern des eigenen Unternehmens laufen, verlassen sich derzeit noch viele Organisationen auf Cloud-basierte KI-Dienste von Drittfirmen.
  • Beim Bekanntwerden von Missbrauch droht ein immenser Reputationsschaden. Der nicht autorisierte KI-Einsatz in einem Unternehmen könnte aber auch juristische Folgen haben. Etwa dann, wenn die eigene Personalabteilung (HR) eingehende Job-Bewerbungen durch eine KI prüfen und bewerten lässt. Die in grossen KI-Sprachmodellen enthaltenen Vorurteile könnten zu einer ungewollten Diskriminierung führen.
  • Der Swisscom-Bericht erwähnt Compliance-Verstösse, insbesondere im Bereich Daten- und Geheimhaltungsschutz oder auch im Hinblick auf den EU AI Act (sofern für Unternehmen in der Schweiz anwendbar). Bei Nichteinhaltung der EU-Gesetzgebung drohe – je nach Verstoss – eine Strafe bis zu 30 Millionen Euro oder 6 Prozent des weltweiten Jahres-Umsatzes.
  • Der ungewollte KI-Einsatz komme Unternehmen aber auch sonst teuer zu stehen: etwa durch doppelte Ausgaben und inkonsistente Prozesse.

Wie weiter?

Abschliessend ist festzuhalten, dass Schatten-KI nicht auf böse Absicht zurückzuführen ist. Sie entsteht dort, wo Leute einen Weg zur Lösung von Problemen sehen. Der versteckte KI-Einsatz gefährdet allerdings die Sicherheit, verletzt Gesetze und Vorschriften und kann zu ungenauen oder verzerrten Ergebnissen führen.

Schatten-KI wird jedoch nicht mehr verschwinden, dafür ist der (kurzfristige) praktische Nutzen zu gross.

Im Swisscom-Bericht heisst es:

«Um die Herausforderungen der Schatten-KI zu meistern, ist es entscheidend, dass Unternehmen eine Kultur der Transparenz und Zusammenarbeit zwischen IT und Fachabteilungen fördern.

Durch regelmässige Audits und Schulungen können potenzielle Risiken frühzeitig erkannt und behoben werden. Nur so kann die Schatten-KI in ein kontrolliertes und sicheres KI-Ökosystem integriert werden.»

Neben der Sensibilisierung für die grundlegenden KI-Probleme sowie technischen Sicherheitslösungen, um Datenabflüsse zu bekämpfen, sollten den Berufstätigen sichere KI-Tools zur Verfügung gestellt werden.

Was gilt es sonst noch im Auge zu behalten?

Cybersecurity Threat Radar 2025, Swisscom
Die Grafik zum Bedrohungsradar zeigt «Brennpunkte» (im dunkelblauen Kreis), «Hauptthemen» (blau) und «Trends» (hellblau). Screenshot: Cybersecurity Threat Radar 2025

Viel mehr DDoS-Attacken

Die Zahl der Server-Überlastungsangriffe, Distributed Denial of Service (DDoS) genannt, hat sich in der Schweiz von 2023 auf 2024 verdoppelt, wie aus dem Swisscom-Bericht hervorgeht. Im Durchschnitt wurden täglich 293 DDoS-Attacken registriert. Dies sei auch dem Umstand geschuldet, dass solche Attacken «vermehrt gegen eine geringe Gebühr als Dienstleistung auf kriminellen Marktplätzen im Darknet angeboten werden».

Hinzu komme, dass es für Cyberkriminelle dank des Siegeszugs der generativen künstlichen Intelligenz immer einfacher werde, ihre DDoS-Attacken gefährlicher und wirkungsvoller zu gestalten.

IT wird immer komplizierter

Die Komplexität der IT-Systeme, insbesondere über Technologie- und Unternehmensgrenzen hinweg, nimmt gemäss Swisscom laufend zu. Gerade im Hybrid-/Multi-Cloud-Umfeld mit vielen Cloud-Anbietern würden IT-Landschaften komplexer. «Dadurch steigt die Risikoexposition und die Fehlersuche wird erschwert.»

Der Druck auf die Cybersicherheits-Fachleute wächst

In der Branche hält der Fachkräftemangel an, wie die Swisscom schreibt. Das Fehlen gut ausgebildeter Mitarbeiter könne die Abwehrfähigkeit gegenüber Cyberbedrohungen erheblich schwächen und sowohl für Unternehmen als auch deren interne Spezialisten zu einer Belastung werden. Dazu heisst es im Bericht:

«Wenn jemand psychisch instabil ist und nicht gut unter Druck handeln kann, erhöht sich die Wahrscheinlichkeit für menschliche Fehler. Dadurch entsteht ein erhöhtes Risiko für Sicherheitslücken und Angriffspunkte, die die Stabilität des gesamten Unternehmens gefährden können.»

Cybersecurity-Profis sind – wie andere Arbeitnehmerinnen und Arbeitnehmer – auf geordnete Verhältnisse angewiesen, der ewige Krisenmodus schadet.

Weitere Trends im Bereich der Cybersicherheit sowie Detailinformationen und Einschätzungen findest du im unten verlinkten «Cybersecurity Threat Radar 2025».

Macht dein Unternehmen bzw. die Organisation, für die du arbeitest, genug im Bereich Cybersicherheit?

Quellen

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Aktuelle Gefahren und zukünftige Risiken von KI
1 / 13
Aktuelle Gefahren und zukünftige Risiken von KI
Das ist der britisch-kanadische Informatiker und Psychologe Geoffrey Hinton, er gilt als «Pate» der künstlichen Intelligenz. Der renommierte Wissenschaftler warnt aber auch eindringlich vor den aktuellen und zukünftigen Gefahren der neuen Technologie ...
quelle: keystone / noah berger
Auf Facebook teilenAuf X teilen
Explosion in Moskau tötet hochrangigen General
Video: watson
Das könnte dich auch noch interessieren:
29 Kommentare
Dein Kommentar
YouTube Link
0 / 600
Hier gehts zu den Kommentarregeln.
29
    Umstrittene Reddit-Studie: Forschende der Uni Zürich machen Rückzieher
    Forschende der Universität Zürich haben im Rahmen einer geheimen Studie mit KI-Bots Antworten auf Kommentare auf Reddit verfasst. Nach viel Kritik verzichten die Forschenden nun auf eine Publikation der Ergebnisse.

    Über einen Zeitraum von vier Monaten haben Forschende der Universität Zürich im Rahmen einer verdeckten Studie mit KI-Bots Antworten auf Beiträge auf Reddit verfasst, genauer im Subreddit r/ChangeMyView. Hier teilen Menschen ihre Meinungen und fordern andere auf, sie mit überzeugenden Argumenten zum Umdenken zu bewegen.

    Zur Story