Google Gemini treibt künftig Siri an – Apple gibt Kontrolle ab

Auf den Punkt gebracht: Apple und Google haben eine mehrjährige KI-Partnerschaft besiegelt. Die nächste Generation der Apple Foundation Models basiert künftig auf Googles Gemini-Technologie und Cloud-Infrastruktur. Das bedeutet: Siri, wie wir sie kennen, ist Geschichte – und Apple verlässt sich beim wichtigsten KI-Feature auf den größten Konkurrenten im Suchmaschinenmarkt.

Google Gemini × Apple Intelligence auf einen Blick:

MerkmalDetails
PartnerschaftstypMehrjährige Kollaboration
Basis-TechnologieGoogle Gemini Modelle + Cloud
Erstes FeaturePersonalisiertes Siri (2026)
Erwarteter LaunchiOS 26.4 (März/April 2026)
DatenschutzApple Private Cloud Compute bleibt aktiv
Bestehende Features (Writing Tools, Image Playground)Unklar, ob betroffen

Was genau passiert hier?

Apple und Google haben am 12. Januar 2026 eine weitreichende Kooperation verkündet: Die nächste Generation der sogenannten Apple Foundation Models – also die KI-Grundmodelle, auf denen Apple Intelligence aufbaut – wird künftig auf Googles Gemini-Modellen und der Google-Cloud-Infrastruktur basieren. Das bestätigten beide Unternehmen in einem gemeinsamen Statement. Das erste konkrete Ergebnis dieser Zusammenarbeit: Ein „deutlich personalisiertes Siri“, das noch in diesem Jahr kommen soll – laut Reuters ein „major win for Alphabet“.

Das ist kein kleines Feature-Update. Apple lagert damit den Kern seiner KI-Strategie an Google aus – an das Unternehmen, mit dem man seit Jahren im Bereich Datenschutz und Suchmaschinen konkurriert. Für ein Unternehmen, das „Privacy is a human right“ auf jede Keynote schreibt, ist das ein bemerkenswerter Schritt.

Wie wir bereits in unserem Artikel zu den iOS 26.4 Siri-Gemini-Features analysiert haben, war eine engere Zusammenarbeit zwischen Apple und Google im KI-Bereich absehbar – die offizielle Bestätigung einer mehrjährigen, tief integrierten Partnerschaft übersteigt aber selbst optimistische Erwartungen.

Was kann das neue Siri konkret?

Der Knackpunkt der Ankündigung liegt im Wort „personalisiert“. Das neue Siri soll nicht mehr nur Wetter und Timer verwalten, sondern echten persönlichen Kontext verstehen. Apple demonstrierte das Szenario, in dem ein iPhone-Nutzer Siri fragt, wann der Flug seiner Mutter landet – und Siri zieht diese Information direkt aus der Mail-App. Gleichermaßen soll Siri in der Lage sein, Restaurantreservierungen aus Messages zu lesen und kontextbezogene Antworten zu liefern.

Das klingt nach dem, was Google Assistant schon lange kann – und womit Google Gemini auf Android-Geräten wie dem Galaxy S26 bereits für Aufsehen sorgt. Apples Ehrgeiz ist es, genau diese Stärken von Gemini auf das iPhone zu bringen, ohne dabei die eigene Privacy-Infrastruktur aufzugeben.

Konkret umfassen die neuen Siri-Fähigkeiten drei Kernbereiche: erstens ein besseres Verständnis des persönlichen Nutzerkontexts über App-Grenzen hinweg, zweitens sogenannte On-Screen Awareness (Siri „sieht“ was gerade auf dem Display passiert), und drittens tiefergreifende Per-App-Controls, bei denen Siri direkt in App-Funktionen eingreifen kann – ohne Umweg über Shortcuts oder manuelle Konfiguration.

Wann kommt das Update – und für wen?

Der Launch ist für iOS 26.4 im März oder April 2026 geplant. Das ist eine erhebliche Verzögerung gegenüber ursprünglichen Ankündigungen – Apple hatte personalisiertes Siri ursprünglich für iOS 26.0 versprochen, dann für iOS 26.1, dann für iOS 26.2. MacRumors dokumentiert die Delay-Historie ausführlich. Das neue Siri erscheint somit nach mehr als einem Jahr verspäteter Entwicklung und stützt sich nun auf externe Technologie.

Apple Intelligence bleibt grundsätzlich auf Geräten mit A17 Pro oder neuer sowie M-Chip-Macs beschränkt. Die Gemini-Integration ändert daran nichts – das ist eine Software-, keine Hardware-Frage.

Tech Deep Dive: Was bedeutet „Apple Foundation Models basieren auf Gemini“?

Das ist die technisch heikelste Formulierung der gesamten Ankündigung. Apple spricht nicht davon, Gemini als externe API anzuzapfen – wie es ChatGPT-Integration funktioniert, bei der Anfragen direkt an OpenAI gesendet werden. Stattdessen heißt es, die nächste Generation der Apple Foundation Models werde auf Gemini-Modellen basieren. Das legt nahe, dass Apple Gemini-Modelle als Ausgangspunkt nimmt, diese dann weiter trainiert und fine-tuned – ähnlich wie viele Unternehmen Open-Source-LLMs als Basis verwenden.

Der entscheidende Unterschied: Die Datenverarbeitung läuft weiterhin auf Apples Private Cloud Compute (PCC) – Apples gehärtetem Server-Ökosystem, das darauf ausgelegt ist, Nutzeranfragen zu verarbeiten, ohne dass Apple-Ingenieure Zugriff auf die Rohdaten haben. TechCrunch bestätigt: Googles Cloud-Infrastruktur fließt zwar in das Modell-Training ein, die Inferenz – also die eigentliche Ausführung von Siri-Anfragen – soll aber über Apples eigene Server laufen.

Ob das in der Praxis vollständig eingehalten wird und ob europäische DSGVO-Anforderungen hier eine Rolle spielen, bleibt eine offene Frage. Für DACH-Nutzer ist das kein Nebenschauplatz – es ist eine Kernfrage der Compliance.

Was ist mit bestehenden Apple Intelligence Features?

Hier wird es bewusst vage. Die gemeinsame Erklärung spricht ausschließlich von „future Apple Intelligence features“. Ob Writing Tools (die KI-Textbearbeitung), Image Playground oder die – zurecht kritisierten – Notification Summaries ebenfalls auf Gemini umgestellt werden, bleibt unklar. Es ist gut möglich, dass bestehende Features auf Apples eigenen Modellen verbleiben, während neue Features auf der Gemini-Basis aufsetzen. Apple hat sich hier keine Karten zeigen lassen.

Wie wir in unserem Überblick zu Siri als KI-Chatbot und Apple Intelligence beschrieben haben, kämpft Apple schon länger damit, den Rückstand gegenüber Google und OpenAI im LLM-Bereich aufzuholen. Die Partnerschaft ist insofern eine Kapitulation vor der Realität – aber möglicherweise die pragmatisch richtige Entscheidung.

Das strategische Bild: Wer gewinnt hier wirklich?

Apples Argument lautet: Wir nutzen die besten verfügbaren Modelle, behalten aber die volle Kontrolle über Datenschutz und Nutzererfahrung. Googles Gewinn ist subtiler aber bedeutsam: Gemini wird zur Infrastruktur für das meistgenutzte mobile Betriebssystem der Welt. Das ist ein enormer Reputations- und Datenvorteil – selbst wenn Google keine direkten Nutzerdaten sieht, wächst die Abhängigkeit der Tech-Welt von Googles KI-Stack erheblich.

Forbes kommentiert treffend: „’Hey Siri‘ becomes ‚Hey Google‘.“ Das ist zugespitzt, aber nicht falsch. Apple hat sich jahrelang als Alternative zu Googles Datenökosystem positioniert. Diese Partnerschaft weicht diese Positionierung auf.

Für den europäischen Markt kommt noch ein regulatorischer Aspekt hinzu: Apples bisherige Argumentation gegenüber EU-Behörden beim Digital Markets Act (DMA) war stets, dass das geschlossene Ökosystem Nutzern mehr Kontrolle gebe. Eine tiefe Integration von Google-Technologie in die Kernfunktionen des iPhones wirft neue Fragen zur Marktmacht-Konzentration auf.

Was kommt als Nächstes?

Das erste Produkt dieser Zusammenarbeit – personalisiertes Siri – soll mit iOS 26.4 kommen. Danach ist die Roadmap offen. Die Formulierung „mehrjährige Kollaboration“ legt nahe, dass dies kein einmaliger Technologietransfer ist, sondern eine tiefe, strukturelle Abhängigkeit, die Apple über viele Produktgenerationen begleiten wird. Ob Apple parallel eigene Foundation Models weiterentwickelt oder sich vollständig auf Google verlässt, wird sich in den nächsten Quartalen zeigen.

Für Nutzer im DACH-Raum gilt: iOS 26.4 im Auge behalten, die Datenschutz-Einstellungen für Apple Intelligence prüfen und die Frage stellen, ob „Privacy First“ noch das gleiche bedeutet wie vor dieser Ankündigung.

FAQ

Wann kommt das neue Siri mit Google Gemini?

Das personalisierte Siri auf Gemini-Basis soll mit iOS 26.4 erscheinen, das für März oder April 2026 erwartet wird. Es war ursprünglich für iOS 26.0 geplant, wurde aber mehrfach verschoben. Wer iOS 26.4 installiert, sollte die neuen Funktionen automatisch erhalten – sofern das Gerät Apple Intelligence unterstützt.

Werden meine Daten jetzt an Google weitergegeben?

Apple betont, dass die Verarbeitung von Siri-Anfragen weiterhin über Apples eigene Private Cloud Compute Server läuft. Google soll keine direkten Nutzerdaten erhalten. Allerdings basieren die zugrunde liegenden KI-Modelle auf Google-Technologie – wie genau das Training abläuft und welche Daten dabei fließen, hat Apple bislang nicht im Detail kommuniziert.

Welche iPhones unterstützen das neue Gemini-basierte Siri?

 Apple Intelligence – und damit auch das neue Siri – läuft auf iPhones mit A17 Pro oder neuer (also iPhone 15 Pro, 16er-Reihe, 17er-Reihe) sowie auf iPads und Macs mit M-Chip. Ältere Geräte erhalten kein Update auf die neuen KI-Funktionen, unabhängig von der Gemini-Integration.

Quellen & Referenzen:

📌 MacRumors (Originalmeldung): https://www.macrumors.com/2026/01/12/google-gemini-future-apple-intelligence-features/ 📌 Google/Apple Joint Statement: https://blog.google/company-news/inside-google/company-announcements/joint-statement-google-apple/ 📌 Reuters: https://www.reuters.com/business/google-apple-enter-into-multi-year-ai-deal-gemini-models-2026-01-12/ 📌 TechCrunch: https://techcrunch.com/2026/01/12/googles-gemini-to-power-apples-ai-features-like-siri/ 📌 Forbes: https://www.forbes.com/sites/johnkoetsier/2026/01/12/hey-siri-becomes-hey-google-as-apple-and-gemini-get-hitched/ 📌 CNBC: https://www.cnbc.com/2026/01/12/apple-google-ai-siri-gemini.html 📌 MacRumors (Siri Delay): https://www.macrumors.com/2025/03/07/apple-intelligence-siri-features-delayed/

Share.

Die TechKlar Redaktion steht für unabhängigen, präzisen Tech-Journalismus im DACH-Raum. Alle Inhalte werden von Gründer & Chefredakteur Mohammed Chibi persönlich recherchiert, verfasst und geprüft – mit langjähriger Erfahrung als Quality Assurance Administrator und tiefem Fachwissen im Android- und Smartphone-Markt. Ziel: komplexe Technik-Themen verständlich, schnell und ehrlich aufzubereiten.

Leave A Reply