Mastodon
Zdjęcie okładkowe wpisu Apple opracowuje AI do rozpoznawania nowych gestów dłoni z sygnałów EMG

Apple opracowuje AI do rozpoznawania nowych gestów dłoni z sygnałów EMG

0
Dodane: 8 godzin temu
fot. Wojtek Pietrusiewicz

Apple opublikowało badanie EMBridge, prezentowane na konferencji ICLR 2026, które pokazuje, jak sztuczna inteligencja może rozpoznawać gesty dłoni wcześniej niewidziane w danych treningowych.

Co to jest EMG? Elektromiografia (EMG) mierzy aktywność elektryczną mięśni podczas skurczu. Zastosowania obejmują medycynę, rehabilitację, sterowanie protezami, a coraz częściej też wearables i AR/VR. Przykładem jest Meta Ray-Ban Display, które interpretuje sygnały mięśniowe z nadgarstka.

 EMBridge łączy sygnały EMG z danymi o pozie dłoni w ramach uczenia reprezentacji cross-modal. Model był wstępnie trenowany na danych EMG i pozie osobno, a następnie reprezentacje zostały wyrównane, by EMG encoder uczył się od pose encoder. Technika masked pose reconstruction pozwalała modelowi odtwarzać brakujące elementy pozy, korzystając wyłącznie z EMG.

Jakie wyniki osiągnięto?

  • EMBridge osiągnęło zero-shot gesture recognition, czyli rozpoznawanie gestów wcześniej nieobserwowanych.
  • Testy na emg2pose i NinaPro pokazały przewagę nad istniejącymi metodami, przy użyciu tylko 40% danych treningowych.
  • Model uwzględnia podobieństwa gestów, co poprawia generalizację i redukuje błędy.

Choć badanie nie wspomina konkretnych produktów Apple, technologia może w przyszłości umożliwić:

  • sterowanie Apple Vision Pro, Macami, iPhone’ami i innymi wearables,
  • nowe interakcje w VR/AR,
  • ułatwienia dla osób z niepełnosprawnościami.

Ograniczeniem jest potrzeba danych EMG zsynchronizowanych z pozycją dłoni, które są trudne do zebrania, ale EMBridge pokazuje znaczący potencjał w sterowaniu urządzeniami za pomocą gestów.

Zapraszamy do dalszej dyskusji na Mastodonie lub Twitterze .