Mastodon
Zdjęcie okładkowe wpisu OpenAI, Sam Altman, zamieszanie i najważniejsze pytanie: czy GPT-5 to AGI?!

OpenAI, Sam Altman, zamieszanie i najważniejsze pytanie: czy GPT-5 to AGI?!

0
Dodane: 1 rok temu

Kilkadziesiąt godzin temu świat obiegła informacja, że Sam Altman, były (do tego jeszcze wrócimy) CEO OpenAI został pozbawiony stanowiska w trybie natychmiastowym. Tymczasem na jaw zaczynają wychodzić nowe fakty, które pokazują, że usunięcie (próba?) Altmana to zaledwie pierwsza przewrócona kostka domina. Pojawiły się domysły, że prawdziwą przyczyną próby usunięcia Altmana było osiągnięcie przez OpenAI pierwszej na świecie AGI – ogólnej sztucznej inteligencji dorównującej ludzkiej.

Kwestia opracowania przez OpenAI pierwszej na świecie ogólnej sztucznej inteligencji, czyli tzw. AGI (Artificial General Intelligence) o potencjale rozumienia i stosowania wiedzy porównywalnym z ludzkim pozostaje w sferze domysłów. Skupmy się jednak na faktach. A te przedstawiają się następująco.

Zwolnienie Sama Altmana uruchomiło odejścia innych ważnych dla OpenAI osób. O Gregu Brockmanie już wam wspominałem w moim poprzednim, zalinkowanym wyżej wpisie. Do niego dołączyło jeszcze trzech innych uznanych badaczy sztucznej inteligencji.

Rada dyrektorów OpenAI jeszcze przed zwolnieniem Altmana składała się z sześciu osób:

  • Sam Altman – CEO
  • Ilya Sutskever – główny naukowiec (Chief Scientist)
  • Greg Brockman – President
  • Adam D’angelo – CEO of Quora
  • Tasha McCauley – technologiczna bizneswoman, prywatnie żona Josepha Gordona Levitte’a
  • Helen Toner – dyrektorka ds. grantów w Georgetown

Warte uwagi jest drugie nazwisko na powyższej liście: Ilya Sutskever. Według wielu źródeł (m.in. The Information) to właśnie on stał za usunięciem Sama Altmana z OpenAI.

Rowan Cheung na platformie X zwraca uwagę, że dosłownie dzień przed głosowaniem rady dyrektorów OpenAI Sam Altman publicznie oznajmił, że dokonali (OpenAI) ogromnego odkrycia, nie ujawniając przy tym żadnych szczegółów.  Jednocześnie 6 listopada br. Ilya Sutskever opublikował na X cokolwiek zagadkowy wpis:

Działania rady dyrektorów OpenAI mocno wzburzyły Satyę Nadellę, CEO Microsoftu. W zasadzie „wzburzenie” nie jest właściwym słowem. Amerykańskie media (m.in. Bloomberg) powołujące się na źródła bliskie Nadelli wręcz informują o „furii” w jaką miał on wpaść po tym, jak dotarła do niego wiadomość o działaniach w OpenAI.

Co ma do powiedzenia szef Microsoftu? Ma co najmniej 10 miliardów powodów, by interesować się tym, co dzieje się w OpenAI. Choć OpenAI jest formalnie ogranizacją non-profit, to Microsoft jest głównym inwestorem (szkolenie AI to kosztowna zabawa), który dotychczas zainwestował w OpenAI niebagatelną kwotę ponad 10 mld dolarów. Wiele wskazuje na to, że Nadella bardzo mocno zaangażował się w proces przywrócenia Altmana na stanowisko CEO OpenAI, informuje o tym m.in. Emily Chang z Bloomberga. Zaczyna być ciekawie? Spokojnie, dopiero się rozgrzewamy.

Pracownicy OpenAI mieli ponoć postawić zarządowi firmy ultimatum: albo Sam Altman i Greg Brockman wracają do OpenAI albo… zarząd nie będzie miał kim zarządzać, a zespół OpenAI dołączy do Altmana i Brockmana w nowym ich projekcie (o ile taki w ogóle powstanie).

Interesującą hipotezę na temat wydarzeń w OpenAI ma prof. Andrzej Dragan, polski fizyk, który wielokrotnie wypowiadał się publicznie również w kwestiach związanych z AI:

Co ciekawe, zupełnie odmienny pogląd na sprawę wyraziła prof. Aleksandra Przegalińska:

Tymczasem warto przypomnieć, nawiązując do niedawnych słów Altmana o przełomowych odkryciach, że OpenAI już zapowiadało nowy model AI – GPT-5. Co wiemy o tym modelu? Niewiele, ale coś wiemy. GPT-4 to olbrzymi rozbudowany model AI operujący na 175 miliardach parametrów. Możliwości GPT-4 są znane, choć mam wrażenie, że przez wiele osób zignorowane i nie do końca poznane. GPT-5 ma być modelem operującym na liczbie ponad 1,5 biliona parametrów. Ma wchłaniać znacznie więcej informacji, szybciej się uczyć, lepiej rozumieć kontekst i niuasne, operować wielomodalnie (różne media, nie tylko obraz i tekst). To nie jest przyrost o kilka, kilkanaście czy nawet kilkadziesiąt procent. To model o potencjale rzędy wielkości większym od najlepszego jaki znamy dziś. Czy to właśnie spowodowało wielkie zawirowania w OpenAI? Czy może  – wszak jesteśmy tylko ludźmi – poszło po prostu o pieniądze? Czas pokaże. Jednego jestem pewien – żyjemy w ciekawych czasach.

Zapraszamy do dalszej dyskusji na Mastodonie lub Twitterze .