Mastodon
Zdjęcie okładkowe wpisu Kalifornia przyjęła kontrowersyjną ustawę „Safe and Secure Innovation for Frontier AI Models Act”

Kalifornia przyjęła kontrowersyjną ustawę „Safe and Secure Innovation for Frontier AI Models Act”

0
Dodane: 4 miesiące temu
fot. Solen Feyissa (Unsplash)

Kalifornia przyjęła kontrowersyjną ustawę „Safe and Secure Innovation for Frontier Artificial Intelligence Models Act” (SB 1047), która wprowadza regulacje dotyczące szkolenia modeli AI.

Ustawa nakłada na firmy zajmujące się AI obowiązek wdrożenia środków ostrożności przed rozpoczęciem treningu zaawansowanych modeli AI. Wymaga również, aby deweloperzy mogli szybko i całkowicie wyłączyć model AI, jeśli zostanie uznany za niebezpieczny, oraz zabezpieczenia modeli przed niebezpiecznymi modyfikacjami po treningu.

Ustawę chwalą eksperci, tacy jak były lider AI w Google, profesor Hinton, który podkreśla, że zagrożenia związane z potężnymi systemami AI są bardzo realne. Jednak firmy takie jak OpenAI oraz mniejsi deweloperzy krytykują przepisy, argumentując, że mogą one zaszkodzić małym firmom, które będą musiały stawić czoła nowym wymaganiom prawnym i biurokracji.

Senator Scott Wiener wyraził swoje uznanie dla całego zespołu pracującego nad SB 1047.

 

Gubernator Gavin Newsom ma czas do końca września, aby zatwierdzić lub zawetować ustawę.

Warto dodać, że wcześniej w tym roku Apple oraz inne firmy, jak Amazon, Google, Meta i OpenAI, zgodziły się na zestaw dobrowolnych zasad bezpieczeństwa AI, opracowanych przez administrację Bidena. Zasady te, choć nie są prawnie wiążące, zobowiązują do testowania zachowania systemów AI i dzielenia się wynikami z rządem i środowiskiem akademickim.

Krzysztof Kołacz

🎙️ O technologii i nas samych w podcaście oraz newsletterze „Bo czemu nie?”. ☕️ O kawie w podcaście „Kawa. Bo czemu nie?”. 🏃🏻‍♂️ Po godzinach biegam z wdzięczności za życie.

Zapraszamy do dalszej dyskusji na Mastodonie lub Twitterze .