Mastodon
Zdjęcie okładkowe wpisu Gurman: iOS 18 będzie mieć AI i LLM działający w całości na urządzeniu

Gurman: iOS 18 będzie mieć AI i LLM działający w całości na urządzeniu

0
Dodane: 8 miesięcy temu

W swoim najnowszym biuletynie PowerOn, Mark Gurman z Bloomberga głosi, że nowe funkcje AI obecne w przyszłych iPhone’ach będą w całości opierać się na dużym modelu językowym AI działającym w całości offline, na urządzeniu.

Czy to w ogóle możliwe? Oczywiście. Takie rozwiązania już istnieją. Jeżeli śledzicie nasze informacje, z pewnością otarliście się o nasze publikacje dotyczące Galaxy AI obecnej w najnowszej (i nie tylko) generacji smartfonów Samsung Galaxy. Wiele funkcji AI obecnych w smartfonach koreańskiego potentata, funkcjonuje bez konieczności połączenia z internetem, zatem wyuczone maszynowo algorytmy odpowiedzialne za konkretny efekt (np. symultaniczne tłumaczenie rozmów głosowych) funkcjonują w zasadzie opierając się na mocy obliczeniowej samego urządzenia mobilnego.

Podejście Apple, czyli implementacja dużego, wielojęzycznego modelu LLM bezpośrednio na urządzeniu to, można powiedzieć, tradycyjne podejście giganta z Cupertino. Słuszne podejście jeżeli chodzi o zachowanie kontroli nad wdrażanym rozwiązaniem, choć Apple z całą pewnością będzie również wychwalać inne zalety, takie jak ochrona prywatności użytkowników (co może być prawdą, przy założeniu pełnej uczciwości Apple) oraz wydajności takiego podejścia (co jest prawdą, bo przetwarzanie on-device jest zawsze wydajniejszym rozwiązaniem niż przetwarzanie w chmurze).

Są jednak też minusy takiego rozwiązania. Trudno oczekiwać, by AI, której moc obliczeniowa opiera się wyłącznie na potencjale obliczeniowym urządzenia mobilnego, była równie wydajna i efektywna, co sztuczna inteligencja wykorzystująca do działania całe olbrzymie centra obliczeniowe i farmy serwerów. Niemniej Apple może dostroić AI on-device zaskakująco efektywnie. Po pierwsze, Apple ma pełną kontrolę nad chipami Apple Silicon, zna możliwości własnych układów i może je zoptymalizać pod kątem typu przetwarzania wymaganego przez maszynowo wyuczone algorytmy. Po drugie, gdy kontrolujesz sprzęt (Apple Silicon) i zachowujesz pełną kontrolę nad kodem (model LLM implementowany przez Apple), a także zarządzasz w pełni środowiskiem (system iOS), efektem może być rozwiązanie, które zaskakująco dobrze (zaskakująco w kontekście szacowanej wydajności urządzenia mobilnego i względem potencjalnych funkcji samego modelu LLM i opartych na nim algorytmów działających lokalnie on-device) będzie radzić sobie z postawionymi zadaniami. Umówmy się: lepszym podejściem jest perfekcyjne wykonanie ograniczonego zakresu funkcji, niż robienie wszystkiego byle jak. Szczerze pisząc, na to liczę i tym bardziej nie mogę doczekać się ciekawostek na nadchodzącym WWDC.

Zapraszamy do dalszej dyskusji na Mastodonie lub Twitterze .