Mastodon
Zdjęcie okładkowe wpisu Nowe supermoce zrzutów ekranu w iOS 26. Apple integruje AI, Google i ChatGPT, ale to nie jest dobra wiadomość

Nowe supermoce zrzutów ekranu w iOS 26. Apple integruje AI, Google i ChatGPT, ale to nie jest dobra wiadomość

0
Dodane: 14 godzin temu

W serwisie 9to5mac przeczytałam, że firma Apple planuje wprowadzić w systemie iOS 26 trzy nowe, zaawansowane funkcje dla zrzutów ekranu, które przekształcą je z prostych obrazów w interaktywne narzędzia. Jest tylko jeden, ale za to bardzo poważny problem z perspektywy polskiego użytkownika sprzętu z Cupertino.

Jak czytamy w tekście Ryana Christoffela, dzięki wykorzystaniu „inteligencji wizualnej”, będącej częścią Apple Intelligence, użytkownicy kompatybilnych iPhone’ów zyskają zupełnie nowe powody, by robić screenshoty. Do tej pory zrzuty ekranu służyły głównie do zapisywania obrazów na później lub udostępniania ich innym. Wraz z iOS 26, ich funkcjonalność zostanie znacznie rozszerzona. Podano trzy przykłady:

1. Add to Calendar

Jeśli użytkownik zrobi zrzut ekranu zawierający informacje o nadchodzącym wydarzeniu, na dole ekranu pojawi się nowa opcja. System automatycznie wyodrębni szczegóły takie jak data i nazwa wydarzenia, a następnie utworzy gotowy do zapisu wpis w kalendarzu. Zadaniem użytkownika będzie jedynie jego zatwierdzenie.

2. Image Search

Po wykonaniu zrzutu ekranu w prawym dolnym rogu pojawi się przycisk umożliwiający wyszukanie podobnych obrazów. Funkcja ta będzie najczęściej napędzana przez Google, ale Apple zapowiada szerszą integrację, obejmującą m.in. platformę Etsy i inne wspierane aplikacje. Użytkownicy będą mogli wyszukiwać podobne produkty, a nawet zaznaczyć konkretny obiekt na zdjęciu, na przykład lampę, aby znaleźć w internecie identyczny lub podobny przedmiot.

3. Ask ChatGPT

Trzecia funkcja to bezpośrednia integracja z ChatGPT. W lewym dolnym rogu interfejsu zrzutu ekranu znajdzie się przycisk „Ask”, który uruchomi asystenta OpenAI. Użytkownik będzie mógł wpisać dowolne pytanie dotyczące treści widocznej na zrzucie ekranu, a ChatGPT przeanalizuje obraz i udzieli odpowiedzi. Co więcej, będzie można zaznaczyć konkretny fragment obrazu, aby zadać bardziej precyzyjne pytanie, bez konieczności wcześniejszego kadrowania.

W czym więc problem? W dostępności. Owszem, teoretycznie z Apple Intelligence możemy korzystać w Polsce od kwietnia br. Wystarczy zmienić język urządzenia na jeden z obsługiwanych i to samo zrobić dla Siri. Niestety brak języka polskiego skutecznie (przynajmniej u mnie) niweluje takie zamiary. Wolę mieć polski interfejs i wynikające z tego zalety niż zmieniać język w całym ekosystemie, by móc skorzystać z Apple Intelligence.

Co gorsza, problem ten przy stałej ignorancji naszego (i wielu innych) języka będzie się pogłębiał wraz z rozwojem AI Apple. Im więcej funkcji Apple Intelligence będzie się pojawiało, tym przepaść technologiczna pomiędzy tymi, których języki są przez AI Apple obsługiwane, a pozostałymi będzie się pogłębiać. Co gorsza, Apple (podobnie jak i wiele innych firm technologicznych) traktuje AI jako wartość dodaną, zawartą w cenie urządzenia. My tę cenę ponosimy w całości, nie otrzymując w zamian tego na co mogą liczyć Amerykanie, Anglicy, Chińczycy, Francuzi, Hiszpanie, Włosi, Japończycy, Koreańczycy i Portugalczycy (wraz z Brazylijczykami i innymi nacjami, gdzie używane są wymienione języki).

Apple rozwija Apple Intelligence i udostępnia swój model AI deweloperom

 

 

Zapraszamy do dalszej dyskusji na Mastodonie lub Twitterze .