Willy Lai
Mieliśmy okazję porozmawiać z Willym Laiem, byłym dyrektorem UX design w Apple, na terenie Campus Warsaw. Czasu było mało, ale rozmowa ciekawa.
Ten artykuł pochodzi z archiwalnego iMagazine 2/2017
Wojtek Pietrusiewicz: Mam osobiste pytanie o animacje w interfejsach użytkownika. Potrafią rozpraszać użytkownika, trzeba czekać, aż się zakończą, na przykład po wciśnięciu przycisku Home na iPhonie, musimy czekać, aż skończy się animacja, aby móc wykonać następny krok.
Willy Lai: To jest ciekawy temat. Krótka odpowiedź brzmi: to zależy. Jeśli animacja jest dobrze zrobiona i ma pomóc użytkownikowi, to pomaga, ale jeśli jest słabo wykonana, to może rozpraszać albo nawet przeszkadzać użytkownikowi. Nie wiem, czy na to pytanie jest jedna odpowiedź, ponieważ jeśli spojrzysz historycznie na kierunek UX i jak animacje były wykorzystywane, to… wiele animacji we wcześniejszym stadium rozwoju było używanych do promocji i celów reklamowych, ponieważ przyciągają uwagę użytkownika. Jako ludzi przyciągają nas rzeczy, które się ruszają. Reagujemy na to instynktownie. Być może to się wywodzi nawet z czasów naszych przodków, dla których ruch oznaczał konieczność reakcji, bo mógł być to czający się tygrys. Ruch może w nas wyzwalać alarm i może też równocześnie przyciągać naszą uwagę. Wszystko zależy od tego, jak dobrze animacja jest wykorzystana. Pamiętam, jak kiedyś projektowałem strony www, zanim jeszcze powstał zwrot UX, i byliśmy ograniczeni przez technologię – wszystko musiało być „lekkie”. Dzisiaj mamy szerokopasmowe łącza internetowe i większe możliwości. Najpierw używaliśmy GIF-ów do animowania różnych rzeczy, często reklam, a potem pojawił się Flash… wszyscy wiemy, co z nim się stało, ale trendy się zmieniają… To, co widzimy dzisiaj, to możliwość stworzenia prawie wszystkiego, co jesteśmy w stanie sobie wyobrazić, bo nie mamy (znaczących) limitów w przepustowości, ale ważniejszym pytaniem jest odpowiedzenie na pytanie: co jest najlepszą lub prawidłową rzeczą, którą powinniśmy zrobić? Z animacją jest podobnie. To, że coś możesz zrobić, nie oznacza, że powinieneś to zrobić. Myślę, że każdy temat powinien być rozpatrywany indywidualnie, bo jest tak dużo zmiennych, które należy brać pod uwagę.
Czasami w interakcjach pomagają przejścia, które mają komunikować użytkownikowi, co się dzieje, żeby nie było to gwałtowne zakończenie jakiejś czynności. Te przejścia, ruchy, mają tłumaczyć, co się dzieje na ekranie, aby doświadczenie było płynniejsze. Ta płynność przejść będzie się zmieniać i to trend, który myślę, że będzie kontynuowany tak długo, jak długo jest pomocny dla użytkownika. Jak porównasz świat dynamicznie generowanych, bogatych aplikacji, których utrzymanie ma sens, do wczesnych lat internetu, to wtedy takie rzeczy nie istniały. Wcześniej nasze doświadczenia były bardzo statyczne, a dzisiaj program może wydawać się nam dziwny, jeśli nie ma tych animacji. Powtórzę to, co mówiłem wcześniej: nie chodzi o to, czy możemy coś zrobić, ale o to, czy powinniśmy to robić.
Dominik Łada: Jakich trendów spodziewasz się w przyszłości? Za 5, 10, 15 lat?
WL: Za 5, 10, 15 lat… Obserwuję coraz więcej powstających technologii, coraz bardziej upowszechnionych. UX wywodzi się z czasów, kiedy wszystko było skoncentrowane wokół desktopów. Przez wiele lat UX był ograniczony do myszki, klawiatury i ekranu, dopóki nie nadeszła eksplozja mobilnych urządzeń, takich jak telefony, tablety, smartwatche, internet rzeczy… Najpierw był internet, a teraz są urządzenia, które go wykorzystują… Czujniki i wiele innych rzeczy, które stają się bardzo mądrymi maszynami. Są znacznie bardziej zaawansowane niż kiedyś były komputery biurkowe. To prowadzi do kilku nieuniknionych rzeczy, kilka z nich się już dzieje.
Niedługo na świecie będą miliardy czujników zbierających dane, a to z kolei prowadzi do Big Data. Wszystkie te urządzenia na całym świecie, zbierające informacje… to naprawdę dużo informacji. Możliwość wykorzystania ich jest niewyobrażalna. Same aplikacje i narzędzia, które wykorzystują te dane, są kolejnym miejscem z dużymi możliwościami.
Są też inne aspekty, które się zmieniają. We wczesnych latach UX o wykorzystaniu głosu nawet się nie myślało. Dzisiaj mamy akcelerometry i wszystkie pozostałe czujniki w smartfonach i dochodzi do tego możliwość wykonywania komend głosem oraz otrzymywania informacji w postaci głosowej. To przenosi się też na inne przemysły, na przykład na samochody, gdzie wpływ mobilnych urządzeń na projektantów jest ogromny. System sterowania samochodem i jego urządzenia. Ekrany w nim. Kiedyś ich nie było w samochodach. UX we wnętrzach samochodów staje się coraz ważniejszy i jego kierunek definiują między innymi urządzenia mobilne. Jeśli chodzi o głos… Siri, Amazon Echo i inne… już wkrótce osiągną one 90% drogi do prawdziwie naturalnego języka. Jeszcze im trochę do tego brakuje, ale w momencie, w którym głos stanie się naturalnym interfejsem, to będzie podobna zmiana jak wtedy, kiedy wyszukiwanie w internecie zyskało na popularności, bo zaczęło dobrze działać.
DŁ: A nasze mobilne urządzenia? Staną się terminalami?
WL: Spekuluje się, że głos jest przyszłością i nie będzie potrzeby posiadania ekranów. Nie mogę się z tym zgodzić. Myślę, że będzie miejsce dla odpowiedniego medium, do dostarczenia odpowiedniej wiadomości, w odpowiednim czasie. Są rzeczy, które do komunikacji głosowej się nadają, a inne nie. Analogicznie z ekranami – odpowiednie i nieodpowiednie. Myślę, że mieszanka tych mediów i sposobów dostarczania odpowiedzi będzie definiowała najlepsze doświadczenia dla użytkownika. Dla przykładu, w samochodach… mówię o świecie, w którym kierowca nadal prowadzi samochód… kierowca nie powinien być rozpraszany i chciałby mieć oczy na drodze. Głos to świetny sposób, aby zapewnić komunikację pomiędzy nim a samochodem, aby nie był wizualnie rozpraszany. W tej kwestii, jeśli kierowca zapyta się o drogę do jakiegoś celu, to samochód może mu wyświetlić mapę. To mieszanka mediów. Mapa to obrazek, który jest w tym wypadku odpowiednikiem tysiąca słów. Samochód mógłby kierowcy dokładnie opisać trasę do celu, ale mapa jest znacznie skuteczniejsza do przedstawienia przeglądu trasy. Ale jako komenda, głos jest… No wiesz, żeby oderwać oczy z drogi i wprowadzić adres do nawigacji – to nie jest dobre rozwiązanie.
Widzę w przyszłości mieszankę różnych mediów, które złożą się na możliwie najlepszy UX dla użytkownika. Głos, ekrany – wszystkie będą miały swoje miejsce. Oczywiście są też wschodzące technologie jak AR (augmented reality, czyli rozszerzona rzeczywistość) czy VR (virtual reality, czyli wirtualna rzeczywistość) i jest sporo dowodów, że wiele ludzi za tymi technologiami nadąża. Pokemon GO, w którego moje dzieci grają i był najczęściej pobieraną aplikacją przed paroma miesiącami, wykorzystuje wiele z tych technologii. Myślę, że w przyszłości nie będzie pytania o to, czy można coś wykorzystać, powinniśmy się zastanawiać, czy powinniśmy tego użyć.
Pokemon GO jest świetnym przykładem na to, jak różne technologie można łączyć. Jak pojawiły się smartfony, to całkowicie zmieniły znaczenie „bycia online”. Kiedyś, jak byliśmy online, to oznaczało, że siedzieliśmy w domu przed komputerem, a dzisiaj możemy być online w sklepie, poprzez smartfona. Bycie online teraz nie wyklucza bycia poza domem, a skoro pojawiły się AR, VR i inne technologie, to mamy potencjał na całkowicie nowe doświadczenia, które jeśli będą dobrze wykonane, to będą poprawiały jakość ich odbioru, a jeśli słabo, to mogą pogarszać. Dokładnie tak jak animacje. Moje wcześniejsze słowa „nie chodzi o to, czy możemy, tylko czy powinniśmy”, również powinny być tutaj zastosowane. Wiele z tych technologii zmieni rzeczy, do których jesteśmy przyzwyczajeni, jak na przykład robienie zakupów. Możemy wyobrazić sobie wiele różnych scenariuszy, jak to się może rozwinąć.
WP: A masz jakieś własne przemyślenia na temat tego, jak ludzie będą wchodzili w interakcje z komputerem? Oglądałeś na pewno „Raport Mniejszości”, w którym Tom Cruise machał rękoma.
WL: (śmiech) Tak, tak, tak. Tak Hollywood kilka lat temu przewidywało, w jakim kierunku mogą pójść komputery… Myślę, że to, co jest nieuniknione, to trend, który pozwoli nam przejść z interfejsów, które obecnie nazywam „fizycznymi” i głupimi, na interfejsy naturalnie i dostosowujące się do nas. Kiedyś spojrzymy w przeszłość, nawet na ekrany dotykowe, i zadamy sobie pytanie, dlaczego musieliśmy w ogóle podnosić rękę. To bardzo fizyczne rozwiązanie… Może nawet dojdziemy do miejsca, w którym będzie już tylko chodziło o nasze synapsy. Nie będziemy musieli pokonywać drogi mózg → myśl → ruch ręką → dotknięcie ekranu, tylko wytniemy wszystkie kroki pośrednie. Ale myślę, że progresja będzie najpierw wiodła przez interfejsy, które adaptują się do naszych potrzeb. Weźmy samochód jako przykład. Zobaczcie, jak skomplikowane są obecnie interfejsy współczesnych samochodów, bo mają tak dużo mocy obliczeniowej… Producenci starają się w nich upchnąć wszystko, co się da, a chodzi przecież o to, że my powinniśmy je prowadzić, a nie siedzieć z oczami wlepionymi w ekran. Powinniśmy się dzisiaj zapytać, czy ta cała technologia w motoryzacji, to korzyść czy przeszkoda. Nie da się na to odpowiedzieć bez zastanowienia się nad przyszłością i tym, co byłoby adaptacyjnym interfejsem.
A zaraz po tym pojawia się pytanie o AI (artificial intelligence, czyli sztuczna inteligencja), bo to są inteligencje interfejsy, które powinny myśleć, zamiast tylko przetwarzać nasze komendy… powinny wiedzieć, że codziennie pokonujemy tę samą trasę, wsiadając więc do samochodu następnego dnia, auto już powinno domyślać się, co dzisiaj będziemy chcieli zrobić. AI, adaptacyjne interfejsy, coraz bardziej naturalne interakcje… to prowadzi do Big Data i przetwarzania ich, abyśmy nie musieli mówić komputerowi, co chcemy wiedzieć, tylko żeby on mówił mi to, co potrzebuję wiedzieć.
Podejrzewam, że to wszystko idzie właśnie w tym kierunku, bo coraz więcej źródeł informacji, które próbujemy upchnąć w tej samej technologii do komunikowania jej do użytkownika, jest uciążliwe. Taki i-Drive w BMW jest świetnym przykładem, bo co z tego, że możemy robić tysięcy rzeczy, jeśli podstawowe czynności są tak trudne do wykonania. Starych interfejsów, polegających na specjalnych pokrętłach i przyciskach, nie da się natomiast dostosować do dzisiejszych potrzeb. Dlatego uważam, że inteligentne i adaptacyjne rozwiązania, będące w stanie przewidzieć, co od nich chcemy, zaczną odgrywać większą rolę, bo obecne możliwości już nie mieszczą się w zakresie systemów, które posiadamy. Dzisiaj to użytkownik sam musi zrozumieć interfejs i nauczyć się jak go wykorzystywać. Lubię jako przykład brać stary serial z lat osiemdziesiątych z Davidem Hasselhoffem w roli głównej – „Knight Rider” – ponieważ było tam kilka elementów, które miałyby realne zastosowanie w naszym świecie. Komendy wydajemy naturalną mową, a komputer je wykonuje, jednocześnie nie przytłaczając kierowcy ekranami i informacjami. Ale dostosowuje się zależnie od potrzeb. Jak trzeba pokazać, jak wygląda poszukiwany, to nie opisuje go, ale pokazuje zdjęcie. Dlatego tak ważne jest odpasowanie odpowiedniego medium do odpowiedniej treści.
WP: Mam szybkie pytanie! Znasz Iron Mana?
WL: Tak.
WP: A Jarvisa? AI żyjące w jego domu.
WL: Tak.
WP: Był taki moment, w którym Robert Downey Jr. włożył rękę do hologramu przedstawiającego silnik (albo coś innego) i rozszerzył palce na dłoni, a komputer instynktownie wyczuł, co on chce zrobić i rozłożył silnik na części pierwsze. Myślisz, że doczekamy się czegoś takiego jeszcze za naszego życia?
WL: Myślę, że wszystko jest możliwe, szczególnie jeśli spojrzymy na prędkość rozwoju technologii i świata komputerów. Nie rozmawialiśmy jeszcze o robotyce – to dziedzina, która zaczyna się coraz szybciej posuwać do przodu. Jeszcze długa droga przed nią… To tutaj dopiero zaczyna się punkt, w którym łączy się tak wiele różnych rzeczy. Możemy dojść do miejsca, w którym naszym interfejsem będzie właśnie robot, z którym będziemy się komunikowali dokładnie tak jak z innym człowiekiem.
WP: Westworld. Widziałeś go już?
WL: Jeszcze nie.
WP: To nie popsuję Ci zabawy! Czy myślisz, że… w dalekiej przyszłości, człowiek stanie się zbędny?
WL: (śmiech) Wchodzisz na scenariusze rodem z Terminatora. (śmiech) SkyNet przejmuje świat i nas wykańcza. (śmiech) Nie chcę przewidywać, dokąd to zmierza, ale już dzisiaj możemy zaobserwować przykłady, w których niektóre ludzkie zdolności stały się niepotrzebne.
WP: Dzisiaj mamy przecież Google’a AlphaGo, który pokonuje czołowych graczy na całym świecie. Bodajże przegrał jedną z 25 rozegranych partii.
WL: Takie scenariusze mogą rzeczywiście być straszne, ale niestety nie mam kryształowej kuli, aby przewidzieć, w którym kierunku to się rozwinie. Muszę jednak powiedzieć, że niektóre rzeczy już się dzieją. Mamy już zadania, kiedyś wykonywane przez ludzi, którymi teraz zajmują się maszyny lub komputery. Dotychczas ludzie potrafili się dostosowywać do tych zmian, przenosząc się na wyższe stanowiska pracy lub ucząc się nowych umiejętności. Ale naprawdę można się przestraszyć, wybiegając mocno w przyszłość…
DŁ: Wojtek rozpoczął od osobistego pytania i chciałbym takim samym zakończyć. Zastanawiam się nad tym, w jaki sposób Apple rozwiązuje problemy w UX i UI. Czy to wyłącznie własne doświadczenia, czy opierają się też o badania i research…
WL: (śmiech) Na tak szczegółowe pytania niestety nie mogę odpowiadać.
DŁ/WP: (śmiech) Dziękujemy za bardzo miłą rozmowę!
WL: Dzięki!