Mastodon
Zdjęcie okładkowe wpisu (Prawie) Wszystkie najważniejsze nowości z Google I/O 2019

(Prawie) Wszystkie najważniejsze nowości z Google I/O 2019

12
Dodane: 6 lat temu

Wczoraj rozpoczęła się coroczna konferencja Google I/O 2019 i podczas otwierającego keynote’a, poznaliśmy plany firmy na najbliższy rok. Zaprezentowano też trochę nowego hardware’u, w tym nowe Pixele 3a i 3a XL, ale istotniejsze jest to, co pokazali od strony oprogramowania.

Android Q

Debiut Androida 10 lub Androida Q – jak kto woli – należy spodziewać się jesienią tego roku, ale zanim to nastąpi, użytkownicy aż 15 smartfonów będą mogli zainstalować u siebie betę: Asus ZenFone 5Z, Essential PH-1, Nokia 8.1, Huawei Mate 20 Pro, LG G8 ThinQ, OnePlus 6T, Oppo Reno, Realme 3 Pro, Sony Xperia XZ3, Tecno Spark 3Pro, Vivo X27, Vivo NEX S, Vivo NEX A, Xiaomi Mi Mix 3 5G i Xiaomi Mi 9. Oczywiście dotyczy to również użytkowników Google’owych Pixeli. Jeśli jesteście zdecydowani, to przygodę z betą Androida możecie rozpocząć tutaj.

Live Caption i inne pomoce dla ludzi niepełnosprawnych

Ta funkcja Androida umożliwia dodawania napisów do każdego odtwarzanego filmu, w każdej aplikacji, w obrębie całego Androida. Przyznam, że to dosyć niesamowite, szczególnie w kontekście osób niepełnosprawnych. Funkcja nie potrzebuje dostępu do internetu, a całe tłumaczenie robione jest bezpośrednio na smartfonie. Niestety, na starcie będzie dostępna tylko w języku angielskim.

Funkcja Live Relay z kolei umożliwi osobom z problemami z mówieniem, na przeprowadzenie rozmowy telefonicznej. Przykładowo, jeśli osoba niepełnosprawna odbierze połączenie telefoniczne za pomocą funkcji Live Relay, to dzwoniący zostanie poinformowany o tym, że osoba, do której dzwoni, korzysta z tej funkcji, wspomaganej przez Google Assistant (trochę na podobnej zasadzie, jak działa Google Duplex). Jeśli dzwoniący zdecyduje się na kontynuowanie rozmowy, to osoba niepełnosprawna będzie widziała wszystko co ta osoba mówi, w formie pisemnej w chmurkach, podobnie jak wyglądają nasze ekrany z SMS-ami. Ta funkcja również nie wymaga internetu, a jej treść nie jest nigdzie wysyłana.

Project Euphonia to projekt, aby osoby z wadami wymowy i różnymi schorzeniami, były rozumiane przez algorytmy rozpoznawania mowy. Brawa dla firmy, za to, że chcą ułatwić ludziom, którzy mają pod górkę na każdym kroku, życie.

Tryb Ciemny

Tryb Ciemny / Dark Theme, dostępny jest z panelu ustawień, wysuwanego z górnej części ekranu, a więc dostęp do tej funkcji jest bardzo łatwy. Po jego aktywacji, większość interfejsu staje się w 100% czarna, a nie ciemnoszara. To pozwala oszczędzać dodatkowo energię, bo przy ekranach OLED-owych, czarny piksel się nie świeci i tym samym nie pobiera żadnego prądu. Jeśli użytkownik włączy tryb oszczędzania energii, to motyw automatycznie przełączy się na czarny. Wszystkie aplikacja mają czasem i sukcesywnie otrzymywać wsparcie dla tego motywu, a deweloperzy otrzymali stosowne API, jeśli będą chcieli go zaadoptować.

Nowe gesty i sposoby nawigowania po Androidzie

Bardzo istotną zmianą w UI Androida jest rezygnacja z przycisku Wstecz i zastąpienie go gestem z brzegu ekranu (obu brzegów). iOS korzysta z tego od paru lat i jest to tak naturalny gest, że nie obchodzi mnie fakt, że Google go skopiował. Reszta gestów również będzie dobrze znana użytkownikom iOS-a – dolny pasek można swipe’ować lewo/prawo, aby dostać się do innych aplikacji, lub do góry z przeciągnięciem, aby otworzyć ekran multitaskingu. Jedyna różnica jest taka, że prosty gest od dołu otwiera listę naszych aplikacji, a nie Docka. Liczę teraz na to, że nowe gesty staną się standardem u wszystkich producentów smartfonów z Androidem, aby użytkownikom nie utrudniać życia.

Project Mainline

Google nadal walczy z prędkością wypuszczania uaktualnień dla Androida i w tym roku zmieni zasady funkcjonowania tych mniejszych update’ów, zawierających łatki bezpieczeństwa. Dotychczas to producenci je przygotowywali i wypuszczali, gdy były gotowe. Google chce to zmienić, aby łatki bezpieczeństwa docierały do większej ilości użytkowników szybciej – mają być rozsyłane bezpośrednio za pomocą Google Play.

Istotną wiadomością jest to, że Project Mainline nie pojawi się na smartfonach, które otrzymają uaktualnienie do Androida Q, a jedynie na nowych telefonach, które rozpoczną swoje życie z najnowszą wersją systemu operacyjnego Google’a. Producenci mają też możliwość nie uczestniczenia w tym projekcie, jeśli tak zdecydują.

Prywatność i bezpieczeństwo

Miło widzieć, że Google w końcu aktywniej uczestniczy w funkcjach zwiększających bezpieczeństwo i prywatność swoich użytkowników. Apple rozpoczęło ten trend jakiś czas temu i cenię ich za ten krok, dlatego miło popatrzeć, że Google, który nie słynie przecież z dbania o nasze dane, będzie się bardziej starało. Czuję się też w obowiązku dodać, że podejście Apple’a do prywatności obecnie uważam za szczyt hipokryzji, bo wszystkie dane w iCloud, dotyczące chińskich użytkowników chmury Apple, trafiły na serwery chińskie, pod kontrolą rządu tego kraju. Biorąc pod uwagę, jak rząd traktuje tam ludzi, uważam że firma powinna wycofać się całkowicie z tego rynku (i wszystkich innych, gdzie prawa ludzi są tragicznie łamane). Wracając jednak do Androida Q…

Google w końcu wprowadziło ograniczenia w dostępie do lokalizacji, które znamy od lat z iOS-a. Prawdopodobnie najważniejszą nowością jest to, że użytkownik może zdecydować, że dany program ma dostęp do danych lokalizacyjnych tylko i wyłącznie w sytuacji, w której aplikacja jest uruchomiona i aktywna na ekranie. Ustawienia systemowe zyskały zakładkę Prywatność / Privacy, gdzie użytkownicy znajdą odpowiednie w temacie ustawienia różnych programów, w tym też Google’owych. Jest też możliwość przejrzenia wszystkich pozwoleń danych aplikacjom (do kamery, mikrofonu itp.) w jednym miejscu.

Tryb Incognito, którego zapewne znacie z przeglądarek internetowych, inaczej znany jako tryb pornograficzny, zostanie wbudowany do aplikacji Google Maps i Google Search, aby nie rejestrować wybranych sesji.

Mam nadzieję, że Google postąpi właściwie i ta cała prywatność nie okaże się marketingową papką.

Digital Wellbeing

Temat dbania o nasze „cyfrowe zdrowie” został rozpoczęty na Google I/O 2018 i w tym roku został rozszerzony o nowe funkcje. Android Q zyska tryb Focus / Skupienia, gdzie użytkownik będzie decydował z jakich aplikacji może korzystać. Przykładowo, jeśli wyłączy YouTube’a, to nie będzie otrzymywał od niego powiadomień w tym czasie. To trochę jak tryb Nie Przeszkadzać, ale z opcję ustawienia go tylko dla konkretnych programów.

Odpowiednie narzędzia dla rodziców, którzy chcą ograniczać lub kontrolować ile ich dzieci spędzają czasu w telefonie, będą dostępne bezpośrednio w systemie operacyjnym, bez konieczności korzystania z dedykowanej aplikacji do tego. Pamiętając, jak sprytne dzieciaki obeszły niektóre podobne ograniczenia w iOS-ie, ciekawy jestem czy i tym razem wykorzystają swoją kreatywność do przechytrzenia Google’a. Tak czy siak, to dobry krok.

Powiadomienia i odpowiedzi

Największą ciekawostką w Powiadomieniach na Androidzie Q, przy odpowiadaniu na SMS-y czy inne wiadomości z innych komunikatorów (Signal, Telegram itp.), są autosugestie systemu operacyjnego, na podstawie treści samej rozmowy. Odpowiednie przyciski z autosugestiami pojawią się pod polem, w którym możemy napisać własną treść odpowiedzi.

Next Hub Max

Google zaprezentowało Next Hub Max – większy brat Google Home Hub z zeszłego roku. Ma kamerę i mikrofon, które można fizycznie odłączyć od oprogramowania za pomocą suwaka na tyle obudowy. Umożliwia prowadzenie wideo rozmów i wysyłania wiadomości wideo, a kamera może nas śledzić, abyśmy nie byli małą kropką na filmie. Potrafi ponadto wyświetlać nasze zdjęcia z Google Photos, ma wbudowanego Google Assistant, potrafi odtwarza muzykę, funkcjonuje jako kamera, abyśmy mogli podejrzeć co dzieje się w domu, gdy nas nie ma i… wiele więcej. Jego cena wynosi 225 USD i nie będzie u nas dostępny w najbliższym czasie.

Jednocześnie, Google przebrandowało cały swój dział Google Home na Nest. To samo w sobie nic strasznego – to tylko zmiana nazwy – ale niestety, mam złą wiadomość. Google zdecydowało się zlikwidować program „Works with Nest” i zastąpi go „Works with Google Assistant”. Oznacza to, że niektóre integracje, z dniem 31 sierpnia 2019, przestaną działać, jak chociażby IFTTT.

Jeśli chcecie dowiedzieć się, co jeszcze Google zabiło i kiedy, to koniecznie wpadnijcie na tę stronę. Niestety, ich tendencja do szybkich zmian i zabijania API powoduje, że trudno polegać na ich usługach. Jest to jeszcze większy problem w przypadku sprzętu, np. dla użytkowników termostatu Nest, który nie jest oficjalnie w Polsce dostępny.

Nawigacja AR dla Google Maps

To jest coś co chciałbym sprawdzić w praktyce, ale nie ukrywam, że nawigowanie z podniesionym smartfonem może ułatwić życie w pewnych sytuacjach, pomimo tego, że jest to prawdopodobnie szalenie niewygodne. Jak chociażby w Fezie, w Maroku, w wąskich uliczkach starego miasta.

 

Google Assistant

Demo Google Assistant, w którym widzimy jak szybko reaguje (powyżej, w tweecie) na komendy użytkownika, jest naprawdę imponujące. Jeszcze bardziej podoba mi się fakt, że nie trzeba powtarzać „Hey Google” przed każdą komendą, co mnie szalenie irytuje w przypadku Siri i HomePoda.

W ogóle całe demo i przyszłość Google Assistant pięknie pokazuje, że Alexa i Siri to nadal dzieciaki w piaskownicy, które nie mają pojęcia, jak to wszystko powinno działać. Polecam obejrzenie całego fragmentu keynote’a w jego temacie, bo zawarto tam mnóstwo ciekawostek, których przekazanie zajęłoby mi kolejne dwa dni.

Niestety, żeby Google Assistant był prawdziwie imponujący, musi wiedzieć o nas więcej, niż część z nas gotowa jest poddać. To jest cena za wygodę korzystania z niego. Jeśli jednak zdecydujemy się na ten krok, będzie potrafił rzeczy, które do niedawna wydawały się nam możliwe tylko na filmach.

Bardzo spodobał mi się też nowy interfejs Asystenta w trybie prowadzenia samochodu. Dostarcza nam sporo informacji zanim ruszymy, a potem komunikuje się z nami głosowo. Ciekawy też jestem integracji z nawigacją Waze.

Google Lens

Fragment poświęcony Google Lens również był imponujący – przypomnę, że Google Lens dostępny jest z poziomu Aparatu, Asystenta i Photos. Jako demo pokazali jak się zachowuje Lens po najechaniu na menu restauracyjne, na którym podświetla najpopularniejsze dania i umożliwia zobaczenia, jak wyglądają.

Jeszcze ciekawsza była integracja z papierowymi magazynami, gdzie po skierowaniu Lens na zdjęcie gotowego dania, zaczynał się odtwarzać film, demonstrujący jak przygotować to danie, krok po kroku.

Część z Was pewnie pamięta aplikację na Androida i iOS, która w locie tłumaczyła napisy. Ta funkcjonalność również trafi do Google Lens (początkowo nie będzie wsparcia dla j. polskiego) i muszę przyznać, że czekam na to od dawna – bardzo przydaje się podczas podróżowania po krajach, w których albo nie znamy danego języka, albo nie znamy go na tyle dobrze, aby sprawnie się tam poruszać.

Google Duplex

Zdecydowanie najbardziej przypadło mi do gustu demo Google Duplex, który rozszerza swoją działalność na strony internetowe. Google pokazało, jak prosząc Asystenta o zarezerwowanie nam samochodu, bez podania konkretnych danych, program przeszuka nasze maile, z których dowie się do jakiego kraju jedziemy, sprawdzi daty wyjazdu w Kalendarzu, a potem zarezerwuje nam takie samo auto, jakie rezerwowaliśmy rok wcześniej (włączając w to kolor jego lakieru), bez naszego udziału (będziemy tylko musieli potwierdzić, że dane, które znalazł, są prawidłowe). Niesamowite.


Google podczas otwierającego keynote’a dla I/O 2019 oczywiście pokazało znacznie więcej rzeczy i jak przez ostatnich kilka keynote’ów, jestem pod ogromnym wrażeniem, co starają się zrobić. Tegoroczne wydarzenie zdominowały tematy pomagania ludziom, ułatwiania nam życia oraz w dużej mierze prywatności. Wiele nowości powinno się pojawić do końca br. i jestem na etapie, już drugi raz, poważnego rozważania czy nie kupić sobie Google Pixela, jako drugi telefon. Podczas keynote’a dowiedzieliśmy się, że niektóre funkcje będą dostępne tylko dla telefonów, które rozpoczynają życie z Androidem Q, więc czekam na weryfikację tej informacji, ale skłaniam się wstępnie ku Pixel 3a XL lub 3 XL. Modele 3a debiutują z Androidem P, więc teoretycznie nie otrzymają wszystkiego i jeśli tak będzie, to rozważę również poczekanie na Pixela 4. Szkoda tylko, że Google oferuje tak niewiele swoich usług i produktów oficjalnie w Polsce – w tej kwestii Apple ich całkowicie miażdży.

Wojtek Pietrusiewicz

Wydawca, fotograf, podróżnik, podcaster – niekoniecznie w tej kolejności. Lubię espresso, mechaniczne zegarki, mechaniczne klawiatury i zwinne samochody.

Zapraszamy do dalszej dyskusji na Mastodonie lub Twitterze .

Komentarze: 12

Czy iOS ma AR w Maps, Translatora w Aparacie, Siri potrafi zarezerwować Ci stolik w restauracji, a HomePod rozpoznaje użytkowników w pokoju?

Lub z niepełnospRYTNością, jeśli nie dotyczy ruchowej.

Dla developerów polecam jeszcze rzucić okiem na Flutter, który między innymi może wyprzedzić Marcepana, albo być jego wersją z większymi możliwościami – tworzenie aplikacji na mobile (iOS i Android), TV, zegarki, web, desctop – niezależnie czy Win, Mac czy Linux. Wygląda to bardzo interesująco.
Ciekawe czy w nowym Xcode będzie hot-reload.
https://www.youtube.com/watch?v=IyFZznAk69U

Dla developerów polecam jeszcze rzucić okiem na Flutter, który między innymi może wyprzedzić Marcepana, albo być jego wersją z większymi możliwościami – tworzenie aplikacji na mobile (iOS i Android), TV, zegarki, web, desctop – niezależnie czy Win, Mac czy Linux. Wygląda to bardzo interesująco.
Ciekawe czy w nowym Xcode będzie hot-reload.
https://www.youtube.com/watch?v=IyFZznAk69U

Czy iOS ma AR w Maps, Translatora w Aparacie, Siri potrafi zarezerwować Ci stolik w restauracji, a HomePod rozpoznaje użytkowników w pokoju?

Lub z niepełnospRYTNością, jeśli nie dotyczy ruchowej.