Es sind Aufgaben wie diese: «Setze einen neuen Arbeitsvertrag für diese Managerin auf inklusive Bonus von 20'000 Franken.» Oder: «Verfasse eine Antwort auf diese interne Beschwerde zu einer sexuellen Belästigung.» Oder: «Schreibe die Kündigung an diesen Angestellten aufgrund mangelnder Leistung.»
Der innert Kürze berühmt-berüchtigt gewordene Dienst-ChatGPT übernimmt jede schriftliche Aufgabe, die man ihm auferteilt, wobei das Resultat mal besser, mal schlechter ausfällt. Trotz der noch immer labilen Qualität stellt für so manche Leute, die sich mit dem Verfassen von Texten schwertun, die künstliche Intelligenz der Firma Open AI eine Erlösung im Arbeitsalltag dar.
Nur: Darf man dem Onlineprogramm alles anvertrauen? Auch interne Geschäftsgeheimnisse und sensible Personalinformationen? Und lässt sich mit den Texten überhaupt seriös arbeiten? In den USA beantworten mehrere bekannte Grosskonzerne diese Fragen mit Nein. Wie die Nachrichtenagentur Bloomberg mit Bezug auf eine Analyse des Marktforschungsunternehmens Gartner berichtet,haben bereits diverse Wall-Street-Firmen wie Bank of America, Goldman Sachs, Wells Fargo und Citigroup den Chatbot gesperrt. Zu gross scheint die Angst vor einem Abfluss heikler Informationen durch schreibfaule Angestellte.
Gemäss der Gartner-Studie reagierten bisher nur 3 Prozent der befragten Firmen derart prohibitiv. Allerdings arbeiten mehr als die Hälfte von ihnen daran, neue Richtlinien zu formulieren für den Umgang mit ChatGPT.
Und in der Schweiz? CH Media hat mehrere hiesige Grosskonzerne nach ihrer Reaktion auf die intelligente Applikation gefragt, die in den USA gemäss einer Umfrage der Social-Media-Plattform Fishbowl bereits von 40 Prozent der Arbeitstätigen verwendet wird, um E-Mails oder Reporte zu schreiben – oftmals, ohne die Vorgesetzten darüber zu informieren.
Das Resultat: Bei den angefragten Firmen – von Coop über Migros, Novartis, Roche, Swisscom, SBB bis hin zur Post oder der Swiss - ist das Thema auf dem Tisch. Und auch Massnahmen wurden deswegen bereits eingeleitet.
Restriktiv gibt sich die Zürcher Kantonalbank. Sprecher Marco Metzler sagt zwar, dass man nicht bekannt gebe, welche Apps und Websites in der Bank gesperrt seien. Aber: «ChatGPT wird in der Bank nicht für geschäftliche Zwecke eingesetzt und steht dafür auch nicht zur Verfügung.» Der Dienst ist für das ZKB-Personal somit nicht zugänglich.
Auch Coop scheint skeptisch. «Das Thema wird derzeit intern intensiv diskutiert», sagt Sprecher Caspar Frey. Sogenannte Cloud-Lösungen, wie ChatGPT eine darstellt, dürfen beim Detailhändler laut Frey «nur mit einer Genehmigung» eingesetzt werden. Zudem würden die Mitarbeitenden für den Einsatz solcher Applikationen sensibilisiert. Unabhängig vom Anbieter bestünden grundsätzlich Sicherheitsbedenken, wenn Daten in einer Cloud bearbeitet würden. So würden Übersetzungen von geschäftsrelevanten und vertraulichen Dokumenten nur durch den internen Coop-Sprachdienst durchgeführt, sagt Frey.
Nestlé, UBS, Logitech und Swiss Re möchten sich zu ChatGPT gar nicht erst äussern. Andere Firmen reagieren ambivalenter. So hat der Pharma-Riese Novartis alle Angestellten mit Richtlinien für den verantwortungsvollen Umgang mit Onlinewerkzeugen wie ChatGPT versorgt. «Die Mitarbeitenden werden aufgefordert, keine persönlichen, geschäftlichen oder vertraulichen Informationen in ChatGPT und andere KI-Tools einzugeben», sagt Novartis-Sprecher Satoshi Sugimoto.
Ähnlich tönt es bei der Lufthansa-Tochter Swiss: «Die internen Richtlinien unterbinden ausdrücklich das Eingeben von sensitiven und kundenbezogenen Informationen», sagt Airline-Sprecher Michael Pelzer.
Zuweilen geben sich die Unternehmen aber auch sehr offen gegenüber dem Chat-Roboter. Natürlich gebe es die Anweisung, dass man keine internen und vertraulichen Daten ausserhalb des eigenen Systems eingeben dürfe, sagt Post-Sprecher Stefan Dauner. Aber: «Wir motivieren die Mitarbeitenden, solche Anwendungen auszuprobieren, um herauszufinden, wie sie damit die eigene Produktivität und die Qualität der Arbeit steigern können», sagt Dauner.
Damit dieser datenschutztechnisch heikle Balanceakt gelingt, bietet die Post dem Personal entsprechende Schulungen an. «Wir sind überzeugt, dass dieser Weg sinnvoller ist, als neue Anwendungen per se zu verbieten.»
Bei ABB und Roche tönt es ähnlich. Systeme der künstlichen Intelligenz könnten ein nützliches Instrument für die Mitarbeitenden sein, um Inhalte zu erstellen, auf Informationen zuzugreifen und schnelle Antworten auf ihre Fragen zu erhalten, sagt Roche-Sprecherin Sileia Urech. «Wir experimentieren aktiv mit dem Einsatz von Diensten wie ChatGPT, Google Bard und ähnlichen Technologien.»
Der Pharmakonzern setzt dabei ebenfalls auf Richtlinien, in denen das Personal auf die Datenschutz-thematik hingewiesen wird. Das reicht aber offensichtlich nicht: «Wir haben technische Kontrollen eingerichtet, um die versehentliche Verwendung sensibler Daten in nicht genehmigten Tools zu vermeiden.»
Laut Isabelle Wildhaber, Professorin für Privat- und Wirtschaftsrecht an der Universität St.Gallen, hat es eine Weile gedauert, bis sich Schweizer Unternehmen der Tragweite von ChatGPT bewusst geworden sind. «Nun scheint aber den meisten klar zu sein, welche Implikationen die künstliche Intelligenz im Arbeitsalltag haben kann.»
Sie plädiert für einen offenen Umgang mit ChatGPT. «Sperren bringt nichts, dann wird die Applikation ganz einfach auf dem privaten Handy verwendet.» Viel wichtiger wären laut Wildhaber Trainings für den korrekten Umgang damit.
Dennoch brauche es durchaus Richtlinien. Denn solche Programme verwenden teilweise eingegebene Informationen, um sich ständig weiterzuentwickeln. Sie nennt ein rein theoretisches Beispiel: «Wenn zum Beispiel ein Nestlé-Manager Informationen zu einer neuen, noch geheimen Produktinnovation eingibt, könnte dies bei einer entsprechenden Frage eines Konkurrenten wie Unilever in der Antwort auftauchen.» Deshalb sei es richtig, Vorsicht walten zu lassen und sich genau mit den Risiken auseinanderzusetzen. «Aber darauf verzichten wird man künftig nicht können, sonst verliert man den Anschluss.» (aargauerzeitung.ch)
Das Tool ist wirklich gut aber wir haben festgestellt, dass wir unsere Mitarbeiter erst richtig schulen müssen im Umgang mit solch einem Tool. Wer will kann einen Antrag stellen und bekommt je nach Use-Case den er präsentiert einen Zugang. Aber einen "per se" Zugang sperren wir aus Sicherheitsgründen.