Koniec z ręcznym klikaniem. Google ujawnia, jak Gemini przejmie kontrolę nad aplikacjami w Androidzie
Wraz z premierą nowej generacji flagowców (serii Galaxy S26 i Pixel 10), Google zapowiedziało potężną nowość: automatyzację zadań przez sztuczną inteligencję.
Teraz firma odkrywa karty i tłumaczy, jak to działa od zaplecza. Magia opiera się na dwóch filarach: nowym API o nazwie „AppFunctions” oraz bezpośredniej automatyzacji interfejsu.
Najważniejsze nowości i ceny Samsung Galaxy S26 Ultra [wideo]
Z założenia asystenci AI, tacy jak Gemini, mają przestać być tylko inteligentnymi wyszukiwarkami, a stać się cyfrowymi agentami (agentic AI), którzy wykonują za nas pracę wewnątrz aplikacji firm trzecich. Google podzieliło się właśnie technicznymi szczegółami tego rozwiązania. Zmiana paradygmatu w ekosystemie Androida będzie realizowana na dwa sposoby.
AppFunctions, czyli API dla sztucznej inteligencji
Pierwsze i najbardziej eleganckie rozwiązanie to wbudowana w Androida 16 (oraz powiązaną bibliotekę Jetpack) funkcja „AppFunctions”. Pozwala ona deweloperom na wystawienie konkretnych możliwości ich aplikacji bezpośrednio dla asystentów AI. Google porównuje ten system do popularnego protokołu MCP (Model Context Protocol) używanego na serwerach, z tą różnicą, że AppFunctions działa całkowicie lokalnie na urządzeniu, co gwarantuje prywatność i bezpieczeństwo danych.
Jak to wygląda w praktyce? Jeśli użytkownik powie: „Znajdź przepis na makaron w mailach od Anny i dodaj składniki do mojej listy zakupów”, Gemini wykorzysta AppFunctions do uruchomienia ukrytego procesu. Najpierw przeszuka aplikację pocztową, odszuka właściwy wątek korespondencji, wyciągnie z niego tekst, a następnie wywoła funkcję aplikacji z listą zakupów, aby automatycznie dodać tam odpowiednie produkty – a to wszystko bez ręcznego otwierania tych programów przez użytkownika.
Google potwierdziło, że system ten debiutuje właśnie na Samsungach Galaxy S26 (wymaga nakładki OneUI 8.5 lub nowszej). Umożliwia to m.in. wywołanie komendy: „Pokaż mi zdjęcia mojego kota z Samsung Gallery”. Gemini samo przeszuka galerię i wyświetli zdjęcia w swoim własnym oknie czatu, skąd można je od razu wysłać znajomym.
UI Automation: brutalna siła dla opornych aplikacji
Google zdaje sobie jednak sprawę, że zanim wszyscy deweloperzy wdrożą u siebie nowe API, miną lata. Dlatego Android zyskał również drugi mechanizm: automatyzację interfejsu użytkownika (UI automation).
To rozwiązanie zostało zaprezentowane podczas dzisiejszych premier Pixela 10 i Galaxy S26. Jeśli aplikacja nie obsługuje natywnie AppFunctions, platforma i tak poradzi sobie z zadaniem. Sztuczna inteligencja wizualnie analizuje interfejs otwartej aplikacji i fizycznie „klika” w odpowiednie przyciski, symulując ruchy użytkownika.
Dla deweloperów oznacza to, że ich aplikacje zyskają wsparcie dla automatyzacji Gemini przy zerowym nakładzie pracy inżynieryjnej. Google zapowiada, że technologia ta zostanie jeszcze mocniej rozwinięta i zintegrowana z systemem wraz z premierą Androida 17.
Co to oznacza dla polskich użytkowników?
Od strony technologicznej mechanizmy te są głęboko zaszyte w systemie i nie posiadają twardych blokad regionalnych. Prawdziwym testem dla polskich użytkowników będzie jednak bariera językowa. Złożone przepływy pracy (tzw. workflows) wymagają od modelu AI doskonałego zrozumienia intencji użytkownika. Zanim polskojęzyczne Gemini nauczy się bezbłędnie interpretować komendy wymagające przeskakiwania między trzema różnymi aplikacjami, prawdopodobnie będziemy zmuszeni do posiłkowania się językiem angielskim.






