Mastodon
Zdjęcie okładkowe wpisu Polak głównym naukowcem w OpenAI – świetnie, ale niepokoi coś innego

Polak głównym naukowcem w OpenAI – świetnie, ale niepokoi coś innego

0
Dodane: 6 miesięcy temu

Polak Jakub Pachocki (na powyższym zdjęciu opublikowanym przez Ilyę Sutskevera, pierwszy z lewej) został głównym naukowcem w OpenAI. Miło, że umysł z naszego kraju zajął tak wysokie stanowisko w firmie, będącej jednym z liderów rozwoju AI w skali globalnej. Niepokoi tylko, czyje miejsce zajął, i nie tylko to, także inne odejścia.

Otóż nasz krajan, Jakub Pachocki zajął miejsce poprzedniego głównego naukowca OpenAI, Ilyi Sutskevera, który takimi oto słowami pożegnał się z firmą, w której piastował jedno z najważniejszych stanowisk:

Przeczytajcie to uważnie. Poniżej dla ułatwienia, maszynowe tłumaczenie jego wpisu:

Po prawie dekadzie podjąłem decyzję o opuszczeniu OpenAI. Trajektoria rozwoju firmy była po prostu cudowna i jestem pewien, że OpenAI zbuduje AGI, które będzie zarówno bezpieczne, jak i korzystne pod przewodnictwem @sama, @gdb, @miramurati a teraz, pod doskonałym kierownictwem badawczym: @merettm. Współpraca była dla mnie zaszczytem i zaszczytem. Będzie mi za wszystkimi bardzo tęsknić. To tyle i dziękuję za wszystko. Jestem podekscytowany tym, co będzie dalej – projektem, który ma dla mnie ogromne znaczenie osobiste i o którym podzielę się szczegółami w odpowiednim czasie.

Czyli tak, pan Sutskever jest pewien, że OpenAI zbuduje AGI, które będzie bezpieczne i korzystne, ale sam nie chce brać w tym udziału. I jeszcze w dalszej części podkreśla, że jest podekscytowany tym co nadchodzi i co, ponoć, ma dla niego olbrzymie znaczenie osobiste. Całość nie brzmi logicznie, nie ucieka się od projektu, któremu poświęciło się życie, przed jego ukończeniem. Czytanie pomiędzy wierszami pozostawiam wam, nie będę ferował teorii spiskowych, a odpowiedzi na pytanie, dlaczego naprawdę Sutskever zrezygnował, nie mam. To jednak nie koniec.

Oprócz byłego już głównego naukowca, struktury OpenAI opuścił również Jan Leike. W tym przypadku ogłoszenie tego faktu było bardziej lakoniczne, niż u Ilyi Sutskevera:

Już sama lakoniczność tej wypowiedzi, w obliczu ostatnich ogłoszeń tej firmy, promowanych niemal wszędzie przecież jako sukcesy w rozwoju AI budzi wątpliwości, ale pozwólcie że dodam trochę kontekstu. Otóż, Jan Leike był członkiem zespołu ds. bezpieczeństwa w OpenAI, który to zespół powołano do życia pod koniec ubiegłego roku. Jan Leike odpowiadał między innymi za informowanie o potencjalnych zagrożeniach, które może przynieść rozwój modeli sztucznej inteligencji, tworzył również rekomendacje dla zarządu firmy.

Idźmy dalej, zespół ten dzielił się na trzy komórki, z których każda odpowiadała za inny segment rozwoju sztucznych inteligencji: grupa Safety Systems odpowiada za analizę aktualnie działających modeli (w tym świeżego GPT-4o), druga grupa nazwana Preparedness analizowała bezpieczeństwo jeszcze nie opublikowanych, pionierskich modeli, ale była też grupa trzecia, zwana Superalignment. Ta odpowiadała za tzw. superinteligentne modele, czyli twory przybliżające OpenAI do stworzenia AGI. Jak sądzicie, w której grupie Jan Leike pracował? Tak, Moi Drodzy: w Superalignment. Był tam współprzewodniczącym. Ten zespół opuścił nie tylko on, wcześniej zrezygnowali z pracy w tym zespole tacy badacze AI jak Pavel Izmailov, czy Leopold Aschenbrenner.

Już jakiś czas temu serwis The Information informował o odejściach z OpenAI, firmę opuściła Diane Yoon i Chris Clark. Yoon odpowiadała za zasoby ludzkie (była wiceprezeską), a Clark za inicjatywy strategiczne i działania non-profit.

Przyznacie, że zapowiedzi Sutskevera o pracach nad bezpieczną i korzystną dla każdego AGI w kontekście jego odejścia i rezygnacji członków OpenAI, którzy mieli odpowiadać za bezpieczeństwo własnie superinteligentnych modeli, nie brzmią uspokajająco.

Łączmy kropki dalej. Dlaczego OpenAI udostępniło model GPT-4o za darmo każdemu? Tutaj trzeba postawić sobie inne pytanie, czego potrzebuje jakakolwiek AI, by się rozwijać? Dany, więcej danych i jeszcze raz mnóstwa danych. Jak te dane zdobyć? No cóż, udostępnienie za darmo rozbudowanego i imponującego możliwościami modelu AI, by każdy mógł z niego skorzystać, wydaje się dobrym pomysłem.

Korzystacie z najnowszego GPT-4o? Uważajcie co wpisujecie, być może kształtujecie przyszłość ludzkości.

Zapraszamy do dalszej dyskusji na Mastodonie lub Twitterze .