Mastodon
Zdjęcie okładkowe wpisu Google i OpenAI stracą przewagę w wyścigu AI?

Google i OpenAI stracą przewagę w wyścigu AI?

0
Dodane: 2 lata temu

Do takich wniosków może prowadzić nieoficjalny dokument, stanowiący wewnętrzną korespondencję Google’a. Nikt nie ma wątpliwości, że Google to technologiczny potentat, również w dziedzinie sztucznej inteligencji. Jednak słowa jednego ze starszych inżynierów, które wyciekły poza struktury firmy, pokazują, że Google czuje na plecach oddech konkurencji. Konkurencji, którą wcale nie jest OpenAI.

Jeżeli jesteście zainteresowanie dokładnie słowami, które opublikował jeden ze starszych inżynierów Google’a, specjalizujący się w AI, jej treść (oczywiście nieoficjalnie) znajdziecie w serwisie Semianalysis.com. Generalnie całość jest alarmem dla włodarzy z kalifornijskiego Mountain View, światowej centrali wyszukiwarkowego potentata. Nie ma wątpliwości, że w klasycznym wyszukiwaniu danych Google nie ma sobie równych, ale gdy mowa o algorytmach sztucznej inteligencji, przewagę mogą uzyskać zupełnie nieznani gracze.

Na czym polega problem? W czasie, gdy Google ze swoim głównym konkurentem, OpenAI intensywnie stara się rozwijać AI, co pochłania niebagatelnie duże środki, na rynku wyrasta trzeci konkurent, niewielkie, maszynowo wyuczone algorytmy, które są oparte na modelach otwartych, łatwo konfigurowalnych, nie wymagających specjalistycznego sprzętu oraz – co szczególnie istotne – znacznie tańszych od rozwiązań wypracowanych przez Google’a czy OpenAI.

Mówiąc wprost, społeczność korzystająca z otwartoźródłowych narzędzi do tworzenia sztucznych inteligencji (nawet o ograniczonym zakresie funkcjonalnym) okazuje się budować swoje narzędzia znacznie szybciej, są one znacznie tańsze (w tworzeniu, eksploatacji i utrzymaniu), a przy tym powstają w czasie rzędu tygodni, a nie miesięcy. Pracownik Google w swoim dokumencie ilustruje następujące problemy:

  • Możliwe jest uruchomienie LLM (Large Language Model), czyli dużych modeli językowych AI na zwykłym smartfonie z wykorzystaniem narzędzi open source, dostępnych za darmo. Oto przykład:

  • Ile zajmuje stworzenie skalowalnej, osobistej, sztucznej inteligencji na przeciętnym laptopie? Już dziś wystarczy na to zaledwie… jeden wieczór! Doskonałym tego przykładem jest Alpaca AI, korzystający z otwartego modelu językowego LLaMA (Large Language Model Meta AI; tak, słowo Meta nie jest tu przypadkowe, ten model opracowała ekipa Zuckerberga). W praktyce oznacza to, że możesz mieć „własnego” ChataGPT, praktycznie bezkosztowo, szczególnie w kontekście gigantycznych ilości dolarów, jakie zżerają potężne modele Google’a czy OpenAI.
  • Starszy inżynier podaje też sumy. Mówi wprost, że małe modele AI opracowane przez społeczność open source, są szybsze, bardziej konfigurowalne i bardziej wydajne, zaledwie 100 dolarów wystarczy, by mieć AI i sieć neuronową z 13 miliardami parametrów. Google „męczy” się z rozbudowanym modelem o 540 mld parametrach, kosztującym – bagatela – 10 milionów dolarów.

Owszem, modele AI wypracowane przez Google’a i OpenAI wciąż mają przewagę, głównie pod względem jakości, ale przewaga ta zgodnie z treścią ujawnionego dokumentu, bardzo szybko maleje. Pracownik Google’a wręcz sugeruje, że znacznie bardziej efektywnym podejściem jest skupienie się na mniejszych modelach (rzędu 20 mld parametrów), są one tańsze, mniejsze i niemal równie efektywne, a przy odpowiedniej bazie treningowej, mogą okazać się wręcz bardziej efektywne od istniejących dziś molochów.

Zapraszamy do dalszej dyskusji na Mastodonie lub Twitterze .