Apple rozwija Apple Intelligence i udostępnia swój model AI deweloperom
Apple ogłosiło dziś nowe funkcje w ramach platformy Apple Intelligence, które mają na celu ulepszenie doświadczeń użytkowników na wszystkich urządzeniach firmy. Kluczowe nowości to rozszerzone możliwości tłumaczenia na żywo, inteligentna analiza wizualna ekranu oraz, co najważniejsze, udostępnienie deweloperom bezpośredniego dostępu do bazowego modelu AI działającego na urządzeniach.
Nowe funkcje są dostępne do testów dla deweloperów od dziś, a dla wszystkich użytkowników posiadających obsługiwane urządzenia i języki trafią jesienią w formie bezpłatnej aktualizacji oprogramowania.
„W zeszłym roku zrobiliśmy pierwsze kroki na drodze do dostarczenia użytkownikom inteligencji, która jest pomocna, istotna, łatwa w użyciu i dostępna dokładnie tam, gdzie jest potrzebna, a wszystko to przy jednoczesnej ochronie ich prywatności. Teraz robimy ogromny krok naprzód, dając deweloperom bezpośredni dostęp do bazowego modelu na urządzeniu, który napędza Apple Intelligence” – powiedział Craig Federighi, starszy wiceprezes Apple ds. inżynierii oprogramowania.
Nowe inteligentne funkcje dla użytkowników
Apple Intelligence otrzymuje szereg nowych, praktycznych możliwości:
- Live Translation: Funkcja tłumaczenia na żywo została zintegrowana z aplikacjami Wiadomości, FaceTime i Telefon. Pozwala na tłumaczenie tekstu i dźwięku w czasie rzeczywistym, a cały proces odbywa się na urządzeniu, co ma na celu zapewnienie prywatności rozmów.
- Visual Intelligence: System potrafi teraz analizować zawartość ekranu. Użytkownicy mogą zadawać pytania dotyczące tego, co widzą, a także wyszukiwać podobne obrazy lub produkty w internecie. Funkcja rozpozna również wydarzenie, np. na plakacie, i zasugeruje dodanie go do kalendarza, automatycznie uzupełniając kluczowe szczegóły.
- Genmoji i Image Playground: Wprowadzono ulepszenia pozwalające na łączenie istniejących emoji w celu tworzenia nowych. W Image Playground pojawią się nowe style, m.in. z wykorzystaniem integracji z ChatGPT (za zgodą użytkownika).
Inteligentne Skróty (Shortcuts): Aplikacja Skróty może teraz bezpośrednio wykorzystywać modele Apple Intelligence do generowania odpowiedzi i wykonywania bardziej złożonych zadań w ramach zautomatyzowanych przepływów pracy.
Model AI Apple dostępny dla deweloperów
Jednym z najważniejszych ogłoszeń jest udostępnienie deweloperom nowego frameworku Foundation Models. Pozwala on na bezpośredni dostęp do bazowego, dużego modelu językowego działającego na urządzeniu, który stanowi rdzeń Apple Intelligence. Ma to umożliwić twórcom aplikacji budowanie nowych, inteligentnych funkcji, które są szybkie, działają w trybie offline, chronią prywatność użytkownika i nie generują kosztów związanych z API w chmurze. Framework posiada natywne wsparcie dla języka programowania Swift, co ma ułatwić implementację.
Głębsza integracja z aplikacjami i prywatność
Nowe funkcje AI zostaną również głębiej zintegrowane z istniejącymi aplikacjami. Aplikacja Przypomnienia będzie potrafiła automatycznie identyfikować i kategoryzować zadania na podstawie treści z e-maili czy stron internetowych. Apple Wallet zidentyfikuje i podsumuje szczegóły śledzenia zamówień z wiadomości od sprzedawców.
Apple ponownie podkreśliło swoje zaangażowanie w ochronę prywatności. Wiele modeli AI działa w całości na urządzeniu. W przypadku bardziej złożonych zapytań wykorzystywana jest technologia Private Cloud Compute, która rozszerza bezpieczeństwo iPhone’a na chmurę, ale dane użytkownika nie są w niej przechowywane ani udostępniane firmie Apple, a jedynie wykorzystywane do realizacji danego żądania.
Firma zapowiedziała również, że do końca roku funkcje Apple Intelligence trafią do ośmiu kolejnych języków, w tym duńskiego, holenderskiego, norweskiego i szwedzkiego. Polski? Zapomnijcie, it’s not gonna happen