Mastodon
Zdjęcie okładkowe wpisu Apple uczy AI lepszego projektowania UI

Apple uczy AI lepszego projektowania UI

0
Dodane: 9 godzin temu
fot. Apple

Apple uczy AI lepszego projektowania UI dzięki bezpośredniej współpracy z designerami.

Apple kontynuuje badania nad wykorzystaniem generatywnej AI do tworzenia interfejsów użytkownika. Nowe badanie zespołu odpowiedzialnego za UICoder pokazuje innowacyjne podejście do trenowania modeli AI, które generują funkcjonalny i estetyczny UI.

Tradycyjne metody RLHF (Reinforcement Learning from Human Feedback) nie są wystarczające do tworzenia dobrze zaprojektowanych interfejsów. Apple wprowadziło feedback designerów w formie komentarzy, szkiców i bezpośrednich edycji UI, który następnie służył do trenowania modelu nagrody.

W badaniu wzięło udział 21 profesjonalnych designerów z doświadczeniem od 2 do 30 lat w różnych dziedzinach projektowania. Zebrano 1 460 adnotacji, które pozwoliły stworzyć pary UI „przed i po poprawkach” i użyć ich do fine-tuningu modeli. Modele używane: Qwen2.5-Coder i mniejsze warianty Qwen, z najlepszymi wynikami dla Qwen3-Coder fine-tuned z wykorzystaniem szkiców.

Wyniki?

  • Modele trenowane na danych od designerów tworzyły wyraźnie lepsze interfejsy niż standardowe modele czy te trenowane na prostych rankingach.
  • Nawet niewielka liczba wysokiej jakości adnotacji (181 szkiców) znacząco poprawiała wydajność modeli.
  • Bezpośrednie poprawki i szkice były bardziej zgodne z oczekiwaniami zespołu badawczego niż zwykłe wybory rankingowe (76,1% vs. 49,2%).

Tego typu podejście pozwala AI generować UI bardziej zgodne z rzeczywistymi standardami projektowania. Nawet mniejsze modele mogą przewyższać większe LLM w zakresie projektowania interfejsów, jeśli otrzymają wysokiej jakości feedback ekspercki.

Pełną treść publikacji naukowej Apple znajdziecie tutaj.

Zapraszamy do dalszej dyskusji na Mastodonie lub Twitterze .