Reguli noi privind inteligența artificială în Guvernul SUA
Se așteaptă ca președintele Biden să anunțe noi reguli care să impună agențiilor guvernamentale să evalueze mai amănunțit instrumentele de inteligență artificială pentru a se asigura că acestea sunt sigure și nu expun informații sensibile.
De asemenea, se așteaptă ca guvernul să relaxeze politicile de imigrare pentru lucrătorii cu experiență în domeniul tehnologiei.
Critici asupra regulilor IA anterioare
După ce eforturile anterioare de a ține în frâu inteligența artificială generativă (genAI) au fost criticate ca fiind prea vagi și ineficiente, se așteaptă ca administrația Biden să anunțe noi reguli mai restrictive pentru utilizarea acestei tehnologii de către angajații federali.
Vicepreședintele Kamala Harris s-a întâlnit, de asemenea, cu directorii executivi ai Google, Microsoft și OpenAI - creatorul popularului chatbot ChatGPT - pentru a discuta despre problemele potențiale ale genAI, care includ probleme de securitate, confidențialitate și control.
Se așteaptă ca noul ordin executiv să ridice nivelul apărării naționale în materie de securitate cibernetică, cerând ca modelele lingvistice mari (LLM) - fundamentul AI generative - să fie supuse unor evaluări înainte de a putea fi utilizate de agențiile guvernamentale americane.
Printre aceste agenții se numără Departamentul SUA al Apărării, Departamentul Energiei și agențiile de informații, potrivit Post.
Schimbări în standardele de imigrare
Ordinul executiv, care se așteaptă să fie prezentat luni, ar urma să modifice, de asemenea, standardele de imigrare pentru a permite un aflux mai mare de lucrători în domeniul tehnologiei care să contribuie la accelerarea eforturilor de dezvoltare ale SUA.
Generative AI, care a avansat cu o viteză amețitoare și a declanșat semnale de alarmă în rândul experților din industrie, l-a determinat pe Biden să emită “îndrumări” în luna mai a anului trecut.
Noile reguli vor consolida ceea ce a fost un angajament voluntar din partea a 15 companii de dezvoltare a AI de a face tot ce pot pentru a asigura o evaluare a sistemelor genAI care să fie în concordanță cu o utilizare responsabilă.
“Halucinațiile se întâmplă pentru că LLM-urile, în forma lor cea mai vanilată, nu au o reprezentare a stării interne a lumii”, a declarat Jonathan Siddharth, CEO al Turing, o companie din California, care folosește AI pentru a găsi și angaja ingineri software de la distanță.
La nivelul cel mai elementar, instrumentele pot aduna și analiza cantități masive de date de pe internet, din corporații și chiar din surse guvernamentale pentru a oferi conținut mai precis și mai profund utilizatorilor.
Dezavantajul este că informațiile colectate de AI nu sunt neapărat stocate în siguranță.
Aplicațiile și rețelele de IA pot face ca aceste informații sensibile să fie vulnerabile la exploatarea datelor de către terți.
În timp ce acel software de urmărire este menit să ajute tehnologia să înțeleagă mai bine obiceiurile pentru a servi mai eficient utilizatorii, acesta colectează, de asemenea, informații personale ca parte a unor seturi mari de date utilizate pentru antrenarea modelelor de AI.
Noile reguli în inteligența artificială: Provocări și Perspective.
Pentru companiile care dezvoltă AI, ordinul executiv ar putea necesita o revizuire a modului în care își abordează practicile, potrivit lui Adnan Masood, arhitect șef AI la compania de servicii de transformare digitală UST.
“Cu toate acestea, alinierea la standardele naționale ar putea, de asemenea, să simplifice procesele federale de achiziție pentru produsele lor și să încurajeze încrederea în rândul consumatorilor privați”, a declarat Masood.
“Dacă înclinăm prea mult balanța spre o supraveghere restrictivă, în special în ceea ce privește cercetarea, dezvoltarea și inițiativele cu sursă deschisă, riscăm să înăbușim inovația și să cedăm teren în fața unor jurisdicții mai permisive la nivel global”, a continuat Masood.
Masood a declarat că viitoarele reglementări ale Casei Albe au fost “așteptate de mult timp și este un pas bun într-un un moment critic în abordarea guvernului SUA în ceea ce privește valorificarea și limitarea tehnologiei IA”.
“Am rezerve cu privire la extinderea domeniului de reglementare în domeniul cercetării și dezvoltării”, a declarat Masood. “Natura cercetării în domeniul IA necesită un nivel de deschidere și de examinare colectivă care poate fi sufocat de o reglementare excesivă.
În special, mă opun oricăror constrângeri care ar putea împiedica inițiativele de IA cu sursă deschisă, care au fost o forță motrice în spatele majorității inovațiilor din acest domeniu.”
Italia a interzis categoric dezvoltarea ulterioară a ChatGPT din cauza preocupărilor legate de confidențialitate, după ce aplicația de procesare a limbajului natural a suferit o încălcare a securității datelor care a implicat conversațiile utilizatorilor și informațiile de plată.
Statele și municipalitățile au în vedere propriile restricții privind utilizarea roboților bazați pe IA pentru a găsi, selecta, intervieva și angaja candidați la un loc de muncă, din cauza problemelor legate de confidențialitate și de prejudecăți.
Unele state au adoptat deja legi în acest sens.
Casa Albă se așteaptă, de asemenea, să solicite Institutului Național de Standarde și Tehnologie să înăsprească liniile directoare ale industriei în ceea ce privește testarea și evaluarea sistemelor de IA
Prevederi care ar urma să se bazeze pe angajamentele voluntare privind siguranța, securitatea și încrederea pe care administrația Biden le-a obținut anul acesta de la 15 mari companii de tehnologie în ceea ce privește IA.
Demersul lui Biden este deosebit de critic în condițiile în care genAI cunoaște un boom continuu, ceea ce duce la capacități fără precedent în crearea de conținut, deepfakes și potențial noi forme de amenințări cibernetice, a declarat Masood.
“Acest peisaj face evident faptul că rolul guvernului nu este doar acela de reglementator, dar și de facilitator și consumator al tehnologiei AI”, a adăugat el.
Masood a declarat că este un susținător fervent al unei abordări nuanțate a reglementării IA, deoarece supravegherea implementării produselor de IA este esențială pentru a se asigura că acestea respectă standardele de siguranță și etice.