Reguli noi privind inteligența artificială în Guvernul SUA

Se așteaptă ca președintele Biden să anunțe noi reguli care să impună agențiilor guvernamentale să evalueze mai amănunțit instrumentele de inteligență artificială pentru a se asigura că acestea sunt sigure și nu expun informații sensibile.

De asemenea, se așteaptă ca guvernul să relaxeze politicile de imigrare pentru lucrătorii cu experiență în domeniul tehnologiei.

/images/1ef.jpg
Se așteaptă ca președintele Biden să anunțe noi reguli

După ce eforturile anterioare de a ține în frâu inteligența artificială generativă (genAI) au fost criticate ca fiind prea vagi și ineficiente, se așteaptă ca administrația Biden să anunțe noi reguli mai restrictive pentru utilizarea acestei tehnologii de către angajații federali.

Vicepreședintele Kamala Harris s-a întâlnit, de asemenea, cu directorii executivi ai Google, Microsoft și OpenAI - creatorul popularului chatbot ChatGPT - pentru a discuta despre problemele potențiale ale genAI, care includ probleme de securitate, confidențialitate și control.

/images/1ef41.jpg
Directorii executivi ai Google, Microsoft și OpenAI

Se așteaptă ca noul ordin executiv să ridice nivelul apărării naționale în materie de securitate cibernetică, cerând ca modelele lingvistice mari (LLM) - fundamentul AI generative - să fie supuse unor evaluări înainte de a putea fi utilizate de agențiile guvernamentale americane.

Printre aceste agenții se numără Departamentul SUA al Apărării, Departamentul Energiei și agențiile de informații, potrivit Post.

Ordinul executiv, care se așteaptă să fie prezentat luni, ar urma să modifice, de asemenea, standardele de imigrare pentru a permite un aflux mai mare de lucrători în domeniul tehnologiei care să contribuie la accelerarea eforturilor de dezvoltare ale SUA.

Generative AI, care a avansat cu o viteză amețitoare și a declanșat semnale de alarmă în rândul experților din industrie, l-a determinat pe Biden să emită “îndrumări” în luna mai a anului trecut.

Noile reguli vor consolida ceea ce a fost un angajament voluntar din partea a 15 companii de dezvoltare a AI de a face tot ce pot pentru a asigura o evaluare a sistemelor genAI care să fie în concordanță cu o utilizare responsabilă.

/images/1ef43.jpg
Schimbări în standardele de imigrare

“Halucinațiile se întâmplă pentru că LLM-urile, în forma lor cea mai vanilată, nu au o reprezentare a stării interne a lumii”, a declarat Jonathan Siddharth, CEO al Turing, o companie din California, care folosește AI pentru a găsi și angaja ingineri software de la distanță.

La nivelul cel mai elementar, instrumentele pot aduna și analiza cantități masive de date de pe internet, din corporații și chiar din surse guvernamentale pentru a oferi conținut mai precis și mai profund utilizatorilor.

Dezavantajul este că informațiile colectate de AI nu sunt neapărat stocate în siguranță.

/images/1ef434.jpg
Informațiile colectate de AI nu sunt neapărat stocate în siguranță

Aplicațiile și rețelele de IA pot face ca aceste informații sensibile să fie vulnerabile la exploatarea datelor de către terți.

În timp ce acel software de urmărire este menit să ajute tehnologia să înțeleagă mai bine obiceiurile pentru a servi mai eficient utilizatorii, acesta colectează, de asemenea, informații personale ca parte a unor seturi mari de date utilizate pentru antrenarea modelelor de AI.

Pentru companiile care dezvoltă AI, ordinul executiv ar putea necesita o revizuire a modului în care își abordează practicile, potrivit lui Adnan Masood, arhitect șef AI la compania de servicii de transformare digitală UST.

“Cu toate acestea, alinierea la standardele naționale ar putea, de asemenea, să simplifice procesele federale de achiziție pentru produsele lor și să încurajeze încrederea în rândul consumatorilor privați”, a declarat Masood.

/images/1ef415.jpg
Noile reguli în inteligența artificială

“Dacă înclinăm prea mult balanța spre o supraveghere restrictivă, în special în ceea ce privește cercetarea, dezvoltarea și inițiativele cu sursă deschisă, riscăm să înăbușim inovația și să cedăm teren în fața unor jurisdicții mai permisive la nivel global”, a continuat Masood.

Masood a declarat că viitoarele reglementări ale Casei Albe au fost “așteptate de mult timp și este un pas bun într-un un moment critic în abordarea guvernului SUA în ceea ce privește valorificarea și limitarea tehnologiei IA”.

“Am rezerve cu privire la extinderea domeniului de reglementare în domeniul cercetării și dezvoltării”, a declarat Masood. “Natura cercetării în domeniul IA necesită un nivel de deschidere și de examinare colectivă care poate fi sufocat de o reglementare excesivă.

În special, mă opun oricăror constrângeri care ar putea împiedica inițiativele de IA cu sursă deschisă, care au fost o forță motrice în spatele majorității inovațiilor din acest domeniu.”

Italia a interzis categoric dezvoltarea ulterioară a ChatGPT din cauza preocupărilor legate de confidențialitate, după ce aplicația de procesare a limbajului natural a suferit o încălcare a securității datelor care a implicat conversațiile utilizatorilor și informațiile de plată.

/images/1ef431.jpg
Italia a interzis categoric dezvoltarea ulterioară a ChatGPT

Statele și municipalitățile au în vedere propriile restricții privind utilizarea roboților bazați pe IA pentru a găsi, selecta, intervieva și angaja candidați la un loc de muncă, din cauza problemelor legate de confidențialitate și de prejudecăți.

Unele state au adoptat deja legi în acest sens.

Casa Albă se așteaptă, de asemenea, să solicite Institutului Național de Standarde și Tehnologie să înăsprească liniile directoare ale industriei în ceea ce privește testarea și evaluarea sistemelor de IA

Prevederi care ar urma să se bazeze pe angajamentele voluntare privind siguranța, securitatea și încrederea pe care administrația Biden le-a obținut anul acesta de la 15 mari companii de tehnologie în ceea ce privește IA.

/images/1ef4344.jpg
Demersul lui Biden este deosebit de critic

Demersul lui Biden este deosebit de critic în condițiile în care genAI cunoaște un boom continuu, ceea ce duce la capacități fără precedent în crearea de conținut, deepfakes și potențial noi forme de amenințări cibernetice, a declarat Masood.

“Acest peisaj face evident faptul că rolul guvernului nu este doar acela de reglementator, dar și de facilitator și consumator al tehnologiei AI”, a adăugat el.

Masood a declarat că este un susținător fervent al unei abordări nuanțate a reglementării IA, deoarece supravegherea implementării produselor de IA este esențială pentru a se asigura că acestea respectă standardele de siguranță și etice.

Related Content