Die weltgrössten Techkonzerne liefern sich 2024 ein KI-Wettrüsten um unser liebstes Gerät, das Smartphone.
ChatGPT hat generative künstliche Intelligenz massentauglich gemacht. Die Smartphone-Hersteller versuchen seither, die praktischsten Funktionen in ihre Betriebssysteme zu integrieren, um vom gewaltigen Hype zu profitieren.
Aber wer wird das Rennen um die Gunst der Nutzerinnen und Nutzer machen? Google hat mit dem Pixel 8 Pro vorgelegt und inzwischen ist auch Samsung eingestiegen.
Dann ist da noch Apple. Die Kalifornier verkaufen auch ohne generative KI mehr iPhones denn je, von einer KI-Offensive war bislang aber nichts Konkretes zu hören.
Das könnte sich bald ändern, wie wir dank der Gerüchteküche wissen. Craig Federighi, seines Zeichens Software-Chef beim iPhone-Hersteller, hat angeblich seine Teams angewiesen, so viele neue KI-Funktionen wie möglich zu entwickeln. Dies wohl mit Blick auf die Entwicklerkonferenz WWDC im Juni.
Hier erfährst du alles Wissenswerte.
2023 gelang es Apple, seine Pläne bezüglich generativer KI geheim zu halten, während mächtige Rivalen wie Microsoft und Google den Hype um ChatGPT und Co. nutzten und milliardenschwere Investitionen ankündigten.
Das unterschiedliche Vorgehen verwundert nicht: Apple verdient seine Milliarden mit einem abgeschotteten Ökosystem und ist extrem verschwiegen, was zukünftige Hardware und neue Dienste betrifft. Hingegen sind Microsoft, Google und Amazon als «Hyperscaler» auf das Geschäft mit Cloud-Diensten fokussiert und informieren vergleichsweise offensiv, um die Kundschaft bei der Stange zu halten.
Aber was ist mit KI auf dem Smartphone? Inzwischen haben Apples grösste Smartphone-Konkurrenten Google und Samsung eine entsprechende Offensive gestartet.
Zunächst legte Google Ende 2023 mit dem Pixel 8 Pro vor – und vermochte auch watson im Praxistest zu begeistern. Dann zogen die Südkoreaner mit ersten Galaxy-Smartphones mit vorinstallierten KI-Tools nach (dazu unten mehr).
In Asien – und speziell im wichtigsten Absatzmarkt China – könnte sich die schnelle Lancierung ausbezahlen. Dort gieren besonders viele Menschen nach neuartigen Features, wie sich etwa auch bei den faltbaren Mobilgeräten zeigte.
Fragt sich, ob und wie Apple reagiert ...
Der iPhone-Hersteller hat in den vergangenen Jahren in aller Stille seine KI-Fähigkeiten massiv erweitert: durch zahlreiche Firmen-Übernahmen, die Rekrutierung von KI-Fachleuten und die Entwicklung leistungsfähiger Hardware.
Im Januar veröffentlichte der San-Francisco-Korrespondent der «Financial Times» einen spannenden Artikel zum Thema. Wobei dessen Titel – «Apple treibt Pläne für generative KI in iPhones voran» – eine ziemliche Untertreibung ist:
Ein bekannter Finanzanalyst meinte:
Und dies alles folgt einem grossen Ziel: generative KI in die wichtigsten Produkte zu integrieren. Und zwar so, dass es sicher funktioniert und weniger Strom verschlingt.
Bekanntlich sind ChatGPT und Co. dermassen leistungsfähig, weil sie auf einem KI-System basieren, das «grosses Sprachmodell» genannt wird. Häufig wird dafür die englische Abkürzung LLM («Large Language Model») verwendet.
Solche Sprachmodelle basieren auf neuronalen Netzen, deren Prinzip wir aus der Gehirnforschung kennen. Blitzschnell können sie scheinbar neue Inhalte in Form von geschriebenem Text, Audio, Bildern oder Videos erzeugen.
Die meistgenutzten LLMs stammen von der ChatGPT-Entwicklerin OpenAI und heissen GPT 3.5 und GPT 4. Bekannt ist mittlerweile auch der Google-Chatbot Bard Gemini. Dieser greift in der neusten Version auf ein LLM namens Gemini zu (in früheren Versionen auf LaMDA und PaLM 2).
Wer ein leistungsfähiges LLM für eine weltweite Kundschaft anbieten will, hat immense Kosten zu stemmen. Die Entwicklung, respektive das Training der KI mithilfe von spezialisierter Hardware, kostet viel Geld. Hinzu kommen die gewaltigen Summen für den Betrieb der Rechenzentren.
Und nun wird angestrebt, die generative KI nicht mehr in der Cloud, sondern auf den Mobilgeräten selbst anzubieten.
Eine solche technische Herausforderung erfordert aus Speicherplatz-Gründen eine Reduzierung der Grösse der LLMs, und gleichzeitig leistungsfähigere Prozessoren.
Was die Hardware betrifft, hat Apple dank seiner Chip-Eigenentwicklungen die besten Karten. So hat das Unternehmen bereits energieeffiziente Chips vorgestellt, die sich perfekt für das Ausführen von generativer KI eignen.
Aber auch im öffentlich zugänglichen wissenschaftlichen Forschungsbereich gibt das Unternehmen Gas.
Bleibt die Frage, ob sich die gewaltigen KI-Forschungs- und Entwicklungs-Anstrengungen des Unternehmens schon bald in konkreten Produkten manifestieren.
Apple wird auf seiner diesjährigen Entwicklerkonferenz WWDC, die traditionell im Juni stattfindet, sein neuestes Betriebssystem, iOS 18, vorstellen. Die Analysten von Morgan Stanley gehen davon aus, dass die neue iPhone-Software generative KI mit an Bord haben wird. Und das System-Update könnte eine aufgemotzte Siri-Sprachassistentin Siri bringen, angetrieben von einem eigenen LLM.
Der Techjournalist Mark Gurman, bekannt für seine Exklusivberichte rund um Apple, will erfahren haben, dass die nächsten grossen Software-Updates iOS 18 und iPadOS 18 eine ganze Reihe neuer KI-Funktionen enthalten. Das Unternehmen plane, die Software, die den Codenamen «Crystal» trage, als eines der bedeutendsten Updates in der 16-jährigen Geschichte des iPhones zu bewerben.
Apple habe auch vor, einige KI-Funktionen in die nächste Version von macOS – Codename «Glow» – einzubauen. Dennoch wolle man bei der Lancierung von neuartigen KI-Funktionen schrittweise vorgehen, wobei einige Verbesserungen angeblich erst «in einigen Jahren kommen» sollen.
Das Unternehmen habe auch seine eigenen LLMs weiterentwickelt, um Siri und Dienste wie den AppleCare-Support zu verbessern. Man versuche, die Fähigkeit von Siri zu verbessern, komplexe Fragen präzise zu beantworten und die Kundendienst-Teams versuchten, den Chat- und Telefonsupport zu beschleunigen. Apple investiere auch stark in die Integration von KI in seine Gesundheitsfunktionen.
Rivalisierende Smartphone-Hersteller wie Samsung und Google haben bereits angekündigt, dass sie an der gleichen Knacknuss arbeiten: Auch ihre generative KI soll letztlich auf den Geräten selbst laufen – online und offline.
Die kürzlich lancierten Android-Smartphones der Galaxy-S24-Reihe gehören zu den Pionieren, sie bieten diverse KI-Funktionen, die auf der Google-LLM Gemini Pro basieren.
Manche dieser KI-Funktionen (wie Texte zusammenzufassen und zu formatieren) finden in der Cloud statt, wie die österreichischen Kollegen von futurezone.at in ihrem Testbericht konstatieren. Andere Funktionen (Live-Translate und Transkribieren) funktionierten mit der auf dem Smartphone gespeicherten, kleineren Google-LLM Gemini Nano und könnten direkt auf dem Gerät durchgeführt werden.
Und damit sind wir beim Akku-Killer KI: Der Akku des S24 (4000 mAh) vollbringe keine Wunder, hält futurezone.at fest, er liege im unteren Durchschnitt und halte mit ziemlicher Sicherheit einen ganzen Tag durch – vorausgesetzt, man greife nicht allzu viel auf die KI-Funktionen zurück. Diese beanspruchten den Akku nämlich überdurchschnittlich.
Für die Zukunft habe das Unternehmen aber noch wesentlich ambitioniertere Ziele, hält «Der Standard» fest und bezieht sich dabei auf ein Hintergrundgespräch mit YJ Kim, dem Leiter von Samsungs KI-Team für mobile Geräte.
Auf einen Zeitrahmen wollte sich der südkoreanische Techkonzern nicht festlegen, heisst es im Bericht. Und dann fand der hartnäckige österreichische Kollege auch noch heraus, dass bei wohlklingenden, aber vagen Marketing-Begriffen wie «Galaxy AI» gesunde Skepsis angebracht ist.
Einerseits habe Samsung einen mehrjährigen Deal mit Google rund um dessen LLM Gemini. Dies verdeutliche, dass im KI-Bereich vieles vom Android-Partner zugeliefert werde.
Andererseits habe Samsung immer wieder betont, dass im KI-Bereich auch eigene Entwicklungen genutzt würden. Wie etwa bei allem, was rund um die Galaxy-Smartphones mit Sprache und Übersetzung zu tun habe. «Samsung Language Core» sei hier der vom Unternehmen verwendete Überbegriff, etwa wenn es um die Live-Übersetzung in der Telefonie-App oder die Spracherkennung im Voice-Recorder geht.
Dass Samsung nicht zu einem echten LLM greife, sei in dem Fall aber wohl ohnehin besser, kommentierte der österreichische Techjournalist: Solche grossen Sprachmodelle hätten für diesen Aufgabenbereich noch viel zu viele Nachteile. Neben dem hohen Ressourcenverbrauch nennt er die Tendenz generativer KI, zu halluzinieren, also Inhalte zu erfinden. Das sei bei einer Übersetzung natürlich nicht zu gebrauchen.
Die Südkoreaner seien aber nicht der einzige Smartphone-Hersteller, der mit solchen KI-Ideen spiele: Google wolle bereits mit der nächsten Generation seiner Pixel-Smartphones den personalisierten Assistenten Pixie integrieren. Hier zeichnet sich also die zukünftige Siri-Konkurrenz ab.
Wer schliesslich die Nase vorn hat und sich in Sachen generativer KI auf dem Smartphone als echter Innovator rühmen darf, erfahren wir in den kommenden Monaten.