Kalifornia przyjęła kontrowersyjną ustawę „Safe and Secure Innovation for Frontier AI Models Act”
Kalifornia przyjęła kontrowersyjną ustawę „Safe and Secure Innovation for Frontier Artificial Intelligence Models Act” (SB 1047), która wprowadza regulacje dotyczące szkolenia modeli AI.
Ustawa nakłada na firmy zajmujące się AI obowiązek wdrożenia środków ostrożności przed rozpoczęciem treningu zaawansowanych modeli AI. Wymaga również, aby deweloperzy mogli szybko i całkowicie wyłączyć model AI, jeśli zostanie uznany za niebezpieczny, oraz zabezpieczenia modeli przed niebezpiecznymi modyfikacjami po treningu.
Ustawę chwalą eksperci, tacy jak były lider AI w Google, profesor Hinton, który podkreśla, że zagrożenia związane z potężnymi systemami AI są bardzo realne. Jednak firmy takie jak OpenAI oraz mniejsi deweloperzy krytykują przepisy, argumentując, że mogą one zaszkodzić małym firmom, które będą musiały stawić czoła nowym wymaganiom prawnym i biurokracji.
Senator Scott Wiener wyraził swoje uznanie dla całego zespołu pracującego nad SB 1047.
SB 1047 — our AI safety bill — just passed off the Assembly floor. I’m proud of the diverse coalition behind this bill — a coalition that deeply believes in both innovation & safety.
AI has so much promise to make the world a better place. It’s exciting.
Thank you, colleagues.
— Senator Scott Wiener (@Scott_Wiener) August 28, 2024
Gubernator Gavin Newsom ma czas do końca września, aby zatwierdzić lub zawetować ustawę.
Warto dodać, że wcześniej w tym roku Apple oraz inne firmy, jak Amazon, Google, Meta i OpenAI, zgodziły się na zestaw dobrowolnych zasad bezpieczeństwa AI, opracowanych przez administrację Bidena. Zasady te, choć nie są prawnie wiążące, zobowiązują do testowania zachowania systemów AI i dzielenia się wynikami z rządem i środowiskiem akademickim.