Newsom respinge proiectul de lege pentru stabilirea primelor reglementări de siguranță AI în națiune în California

Guvernatorul Californiei Gavin Newsom, democrat, a respins duminică un proiect de lege pentru a crea măsuri de siguranță pentru modelele mari de inteligență artificială, care ar fi fost prima astfel de lege din națiune.

Veto-ul guvernatorului aduce un regres major încercărilor de a crea balustrade în jurul AI și a evoluției sale rapide, cu puțină supraveghere, potrivit The Associated Press. Legislația s-a confruntat cu o opoziție fermă din partea startup-urilor, giganților tehnologiei și a mai multor parlamentari democrați.

Newsom a declarat, la începutul acestei luni, la Dreamforce, o conferință anuală găzduită de gigantul de software Salesforce, că California trebuie să conducă în reglementarea AI, deoarece guvernul federal nu a reușit să pună măsuri de siguranță, dar că propunerea „poate avea un efect răcoritor asupra industriei. .”

SB 1047, a spus guvernatorul, ar fi putut dăuna industriei locale prin stabilirea unor cerințe stricte.

SENATOR DEMOCRAT ȚINTĂ DE IMPERSONATORUL DEEPFAKE AL OFICIALULUI UCRANIEN LA APEL ZOOM: RAPOARTE

Y5x Iul 2x" height="192" width="343">jyE V0e 2x" height="378" width="672">sNP nX6 2x" height="523" width="931">Cix CG1 2x" height="405" width="720">

Guvernatorul Californiei Gavin Newsom a respins un proiect de lege pentru a crea măsuri de siguranță pentru modelele mari de inteligență artificială din Golden State. (AP Foto/John Bazemore)

„Deși este bine intenționat, SB 1047 nu ia în considerare dacă un sistem AI este implementat în medii cu risc ridicat, implică luarea unor decizii critice sau utilizarea datelor sensibile”, a spus Newsom într-un comunicat. „În schimb, proiectul de lege aplică standarde stricte chiar și pentru cele mai de bază funcții – atâta timp cât un sistem mare îl implementează. Nu cred că aceasta este cea mai bună abordare pentru a proteja publicul de amenințările reale reprezentate de tehnologie”.

Newsom a anunțat în schimb că statul va colabora cu mai mulți experți din industrie pentru a dezvolta măsuri de siguranță pentru modele puternice de IA.

SB 1047 ar fi cerut companiilor să-și testeze modelele și să-și dezvăluie public protocoalele de siguranță pentru a preveni manipularea modelelor în scopuri dăunătoare, cum ar fi, de exemplu, distrugerea rețelei electrice a statului sau ajutarea la construirea de arme chimice, scenarii care spun experții. ar putea fi posibilă în viitor, deoarece industria continuă să evolueze rapid.

De asemenea, legislația ar fi oferit protecție a avertizorilor lucrătorilor din industrie.

Senatorul de stat democrat Scott Weiner, care a fost autorul proiectului de lege, a declarat că vetoul este „un regres pentru toți cei care cred în supravegherea corporațiilor masive care iau decizii critice care afectează siguranța și bunăstarea publicului și viitorul planetei. “

„Companiile care dezvoltă sisteme AI avansate recunosc că riscurile pe care aceste modele le prezintă publicului sunt reale și cresc rapid”, a spus el într-un comunicat. „În timp ce marile laboratoare de inteligență artificială și-au luat angajamente admirabile de a monitoriza și atenua aceste riscuri, adevărul este că angajamentele voluntare din partea industriei nu sunt aplicabile și rareori funcționează bine pentru public.”

Wiener a spus că dezbaterea în jurul proiectului de lege a ajutat să pună în lumină problema siguranței AI și că va continua să facă eforturi pentru a promova măsurile de siguranță în jurul tehnologiei.

Miliardarul tehnologic Elon Musk a susținut măsura.

800 DE PLUS DE FACTURI RĂSATE PE BIROUL NEWSOM ILLUSTRĂ PROBLEMA DE SUPRAREGLEMENTARE A CALIFORNIEI: EXPERȚI

BtM Tb9 2x" height="192" width="343">7Ql 0FN 2x" height="378" width="672">Zvs rGD 2x" height="523" width="931">g5p a5J 2x" height="405" width="720">

Newsom a anunțat că, în loc să adopte legislația, statul va colabora cu mai mulți experți din industrie pentru a dezvolta măsuri de siguranță pentru modele puternice de IA. (Don Campbell/The Herald-Palladium prin AP)

Propunerea este una dintre numeroasele proiecte de lege adoptate de Legislativul de stat în acest an care urmăresc să reglementeze IA, să combată falsurile și să protejeze lucrătorii. Legislatorii de stat au spus că California trebuie să ia măsuri în acest an, subliniind rezultatele eșecului în reținerea companiilor de social media atunci când ar fi avut o oportunitate.

Susținătorii proiectului de lege au spus că ar fi putut prezenta o anumită transparență și responsabilitate în ceea ce privește modelele AI la scară largă, deoarece dezvoltatorii și experții spun că încă nu au o înțelegere completă a modului în care se comportă modelele AI.

Proiectul de lege a urmărit să abordeze sistemele care necesită un nivel ridicat de putere de calcul și peste 100 de milioane de dolari pentru a fi construite. Niciun model actual de IA nu a îndeplinit aceste criterii, dar unii experți spun că acest lucru s-ar putea schimba în următorul an.

„Acest lucru se datorează extinderii masive a investițiilor în industrie”, a declarat Daniel Kokotajlo, un fost cercetător OpenAI care a demisionat la începutul acestui an din cauza a ceea ce el a descris drept nerespectarea riscurilor AI de către companie, a declarat pentru Associated Press. „Este o cantitate nebună de putere pentru a avea orice companie privată controlată în mod irresponsabil și este, de asemenea, incredibil de riscant”.

SUA sunt în spatele Europei în reglementarea tehnologiei în creștere, care ridică îngrijorări cu privire la pierderea locurilor de muncă, dezinformarea, invaziile de confidențialitate și prejudecățile automatizării, au spus susținătorii măsurii. Proiectul de lege din California nu a fost la fel de cuprinzător precum reglementările din Europa, dar susținătorii spun că ar fi fost un pas în direcția bună.

Anul trecut, mai multe companii de IA de top au acceptat în mod voluntar să urmeze măsurile de protecție stabilite de Casa Albă, care includ testarea și partajarea informațiilor despre modelele lor. Proiectul de lege din California, potrivit susținătorilor săi, ar fi cerut dezvoltatorilor de AI să respecte cerințe similare cu acele garanții.

Dar criticii măsurii au susținut că ar dăuna tehnologiei și ar înăbuși inovația în Statul de Aur. Propunerea i-ar fi descurajat pe dezvoltatorii de inteligență artificială să investească în modele mari sau să partajeze software cu sursă deschisă, potrivit criticilor, printre care se numără reprezentantul SUA Nancy Pelosi, D-Calif.

Alte două propuneri de inteligență artificială, care s-au confruntat și cu opoziția din partea industriei tehnologice, nu au trecut înainte de termenul legislativ de luna trecută. Proiectele de lege ar fi impus dezvoltatorilor AI să eticheteze conținutul generat de AI și să interzică discriminarea prin instrumentele AI utilizate pentru a lua decizii de angajare.

MXp EDC 2x" height="192" width="343">alO 8AU 2x" height="378" width="672">u6g DWl 2x" height="523" width="931">mOl WJ0 2x" height="405" width="720">

Senatorul statului California Scott Wiener a spus că dezbaterea în jurul proiectului de lege a ajutat să pună în lumină problema siguranței AI. (Scott Wiener)

Parlamentarii din California încă iau în considerare noi reguli împotriva discriminării AI în practicile de angajare.

Guvernatorul a spus anterior că dorește să protejeze statutul statului de lider global în IA, afirmând că 32 dintre cele mai bune 50 de companii AI din lume se află în Statul de Aur.

CLICK AICI PENTRU A OBȚINE APLICAȚIA FOX NEWS

Newsom a spus că California este unul dintre cei mai devreme care adoptă inteligența artificială, deoarece statul ar putea implementa instrumente generative de inteligență artificială în viitorul apropiat pentru a combate congestionarea autostrăzilor, pentru a oferi îndrumări fiscale și pentru a eficientiza programele pentru persoanele fără adăpost.

La începutul acestei luni, Newsom a semnat unele dintre cele mai stricte legi din țară pentru a lupta împotriva deepfake-urilor electorale și pentru a adopta măsuri pentru a proteja lucrătorii de la Hollywood de utilizarea neautorizată a IA.

Associated Press a contribuit la acest raport.

Leave a Comment