Laut US-Reportern hat Apple die Nutzung von ChatGPT und anderen Tools für generative KI im eigenen Unternehmen massiv eingeschränkt, bzw. verboten.
Wie das «Wall Street Journal» berichtet, befürchtet das Unternehmen, dass Entwicklerinnen und Entwickler ungewollt vertrauliche Informationen preisgeben könnten, während man selber an einer ähnlichen Technologie arbeite.
Journalisten des US-Mediums konnten laut Bericht ein internes Schreiben zum Verbot von KI-Chatbots einsehen. Darin weise Apple seine Angestellten an, nicht nur auf ChatGPT des Unternehmens OpenAi zu verzichten, sondern auch auf die Nutzung von GitHub Copilot. Dabei handelt es sich um ein KI-basiertes Programmier-Werkzeug.
Das in San Francisco angesiedelte Github gehört Microsoft und bietet eine weltweit populäre Plattform zur Software-Entwicklung an. Microsoft hat auch einen mehrstelligen Milliardenbetrag in die ChatGPT-Entwicklerfirma investiert und sich das Recht gesichert, die generative KI in seine Suchmaschine Bing sowie weitere Produkte zu integrieren.
Bei der Verwendung von KI-Chatbots werden Daten an die Entwickler zurückgeschickt, um weitere Verbesserungen zu ermöglichen. Allerdings können so unbeabsichtigt geschützte oder vertrauliche Informationen weitergegeben werden.
Eine Sprecherin von OpenAI verwies gegenüber dem «Wall Street Journal» auf eine Ankündigung im vergangenen Monat: Damals führte das Unternehmen bei ChatGPT die Option ein, dass die User ihren Chatverlauf deaktivieren können. Nach Angaben von OpenAI wird damit die ungewollte Weiterverwendung von User-Daten verhindert (siehe unten).
OpenAI gab im März 2023 bekannt, dass es ChatGPT vorübergehend offline genommen habe, weil ein Software-Fehler einigen ChatGPT-Nutzern ermöglicht hatte, die Titel aus dem Chatverlauf von fremden Usern einzusehen.
Der Bericht des «Wall Street Journal» zu Apples Verbot von externen KI-Chatbots wurde am Donnerstag publiziert. Unabhängig davon kündigte OpenAI am selben Tag die Lancierung seiner eigenen ChatGPT-App für das iPhone an.
Die Nutzung der ChatGPT-App sei kostenlos und synchronisiere den Verlauf geräteübergreifend. Laut Ankündigung ist auch Whisper integriert, das Open-Source-Spracherkennungssystem von OpenAI, das für mündliche User-Eingaben und als Transkriptions-Tool genutzt werden kann.
Abonnentinnen und Abonnenten des kostenpflichtigen Zusatzdienstes ChatGPT Plus (20 Fr. pro Monat) erhalten gemäss Ankündigung exklusiven Zugriff auf die Funktionen des aktuellen Sprachmodells GPT-4 von OpenAI, frühen Zugang zu neuen Funktionen und schnellere Reaktionszeiten.
Die App setzt iOS 16.1 voraus gemäss App-Store-Webseite, das heisst, sie läuft auf dem iPhone 8 und iPhone X aus dem Jahr 2017 sowie auf neueren iPhone-Modellen.
OpenAI verspricht den Nutzerinnen und Nutzern von Smartphones mit dem Android-Betriebssystem, ChatGPT werde «bald» auch auf ihren Geräten verfügbar sein.
Laut «Wall Street Journal» arbeitet Apple an eigenen Anwendungen von generativer KI. Dies sollen mit der Angelegenheit vertraute Informanten bestätigt haben. Zuvor hatte schon der US-Techblog 9to5Mac berichtet, dass unter dem Codenamen «Bobcat» neue Funktionen getestet würden.
Die KI-Bemühungen des Unternehmens werden von einem Mann aus der obersten Führungsriege geleitet, dem britischen Informatiker John Giannandrea, den Apple 2018 von Google abgeworben hatte. Unter Giannandrea, der als Senior Vice President direkt dem Konzernchef Tim Cook unterstellt ist, habe Apple eine Reihe von Start-ups im Bereich der künstlichen Intelligenz erworben, hält das WSJ fest.
In Apples jüngster Telefonkonferenz mit Finanzanalysten habe Cook allerdings auch einige Bedenken geäussert hinsichtlich der Fortschritte in diesem Bereich.
Tatsächlich stehen Apple, Google und Amazon mit ihren Sprachassistenten Siri, Google Assistant und Alexa, die nicht auf generativer KI basieren, unter Zugzwang.
Tatsächlich war Apple mit der Einführung der Sprachassistentin Siri im Jahr 2011 auf dem iPhone 4S die allererste Anbieterin einer KI-Anwendung auf einem Mobilgerät. Die Konkurrenz folgte, doch der von vielen prognostizierte Siegeszug der sprachgesteuerten Computer blieb vorläufig aus.
Die bekannten Sprachassistenten hätten den Wettstreit der KI-Systeme bereits verloren, konstatiert das US-Medium vielleicht etwas vorschnell. Denn die KI-Chatbots bieten zwar ein grosses Potenzial, aber auch Unsicherheiten.
Nun stellt sich für die Techgiganten die Herausforderung, ihre bisherige, aus heutiger Perspektive ungenügende Technik in das neue Zeitalter der generativen KI hinüberzuretten. Dabei bestehen gemäss Fachleuten allerdings gröbere Probleme: So soll beispielsweise bei Apples Siri der komplexe Software-Unterbau eine rasche Umstellung verunmöglichen.
Ausserdem müssen sich alle Anbieter von KI-Anwendungen damit auseinandersetzen, dass ihnen bei technischen Fehlern und missbräuchlicher Nutzung ein Image-Schaden droht. Und es ist auch mit juristischen Scherereien zu rechnen.
Es ist die ungewollte Verbreitung von Fehlinformationen sowie die absichtliche Täuschung und Manipulierung von Menschen durch Desinformation.
Um zu erklären, wie das passieren kann, ist es erforderlich, die Funktionsweise von generativer KI im Grundsatz zu verstehen.
ChatGPT, Google Bard und viele weitere KI-Chatbots sind Computerprogramme, die trainiert werden, um menschliche Sprache zu verstehen und damit umzugehen.
Jeder KI-Chatbot basiert auf einem sogenannten grossen Sprachmodell und solche Large Language Models (LLM) sind ein Teilgebiet des Machine Learnings.
Machine Learning bezieht sich auf die Entwicklung von Algorithmen und Modellen, die es Computern ermöglichen, aus Daten zu lernen und Entscheidungen oder Prognosen zu treffen, ohne explizit programmiert zu werden.
Im Wesentlichen werden LLMs darauf trainiert, menschliche Sprache zu verstehen, Fragen zu beantworten, Texte zu generieren oder sogar Dialoge zu führen. Die KI-Chatbots sollen Sprachmuster erkennen und daraus lernen. Dafür werden sie von den Entwicklern mit riesigen Mengen Text gefüttert, was Fragen bezüglich des Urheberrechts aufwirft.
Ausserdem können bei der Interaktion mit den Nutzerinnen und Nutzern sogenannte KI-Halluzinationen auftreten. Das heisst, dass ChatGPT und Co. täuschend echt wirkende Fehlinformationen in die Welt setzen (siehe Box).
Mit Material der Nachrichtenagentur Keystone-SDA