Apple wykorzysta Gemini od Google do tworzenia własnych modeli AI offline
Apple zyskuje dostęp do modeli Gemini od Google, co pozwala firmie rozwijać własne, mniejsze modele sztucznej inteligencji działające bezpośrednio na urządzeniach.
Kluczowy mechanizm to tzw. destylacja modeli – Apple wykorzystuje odpowiedzi i proces rozumowania Gemini, aby trenować lżejsze modele dopasowane do konkretnych zadań. Dzięki temu mogą one działać lokalnie (on-device), bez potrzeby połączenia z internetem, zachowując wysoką jakość wyników przy znacznie mniejszym zużyciu mocy obliczeniowej.
Apple ma też możliwość modyfikowania zachowania Gemini, aby lepiej pasowało do jego ekosystemu. To jednak nie jest bezproblemowe – model Google był trenowany głównie pod chatboty i programowanie, co nie zawsze odpowiada potrzebom Apple.
Technologia ta ma zasilić nową wersję Siri planowaną na iOS 27. Asystent ma oferować funkcje znane z chatbotów: odpowiadanie na pytania, streszczanie treści, analizę dokumentów, tworzenie historii, wsparcie użytkownika czy realizację zadań (np. rezerwacje).
Równolegle Apple rozwija własne modele w ramach zespołu Apple Foundation Models – niezależne od Gemini.






