Președintele Microsoft: „Așteptați-vă la un viitor orwellian dacă AI nu este ținută sub control”

AI este deja utilizată pentru supravegherea pe scară largă în China.
Xu Li, CEO al SenseTime Group Ltd., este identificat de sistemul de recunoaștere facială a companiei AI la showroom-ul companiei din Beijing, China, pe 15 iunie 2018.
Xu Li, CEO of SenseTime Group Ltd., is identified by the A.I. company’s facial recognition system at the company’s showroom in Beijing, China, on June 15, 2018. (Image credit: Gilles Sabrie/Bloomberg via Getty Images)

Inteligența artificială ar putea duce la un viitor orwellian dacă legile pentru protejarea publicului nu vor fi adoptate în curând, potrivit președintelui Microsoft, Brad Smith.

Smith a făcut comentariile la programul de știri BBC „Panorama” pe 26 mai, în timpul unui episod axat pe potențialele pericole ale inteligenței artificiale (AI) și întrecerea dintre Statele Unite și China pentru dezvoltarea tehnologiei. Avertismentul vine la aproximativ o lună după ce Uniunea Europeană a lansat proiectele de reglementări care încearcă să stabilească limite privind modul în care AI poate fi utilizată. Există puține eforturi similare în Statele Unite, unde legislația s-a concentrat în mare măsură pe limitarea reglementării și promovarea AI în scopuri de securitate națională.

„Îmi amintesc în permanență de lecțiile lui George Orwell din cartea sa  „1984 ”, a spus Smith. „Povestea fundamentală a fost despre un guvern care putea vedea tot ceea ce făcea toată lumea și auzi tot ce spunea toată lumea tot timpul. Ei bine, asta nu s-a întâmplat în 1984, dar dacă nu suntem atenți, s-ar putea întâmpla în 2024. „

Un instrument cu o latură întunecată

Inteligența artificială este un termen prost definit, dar în general se referă la mașini care pot învăța sau rezolva probleme automat, fără a fi dirijate de un operator uman. Multe programe de AI se bazează astăzi pe învățarea automată, o suită de metode de calcul utilizate pentru a recunoaște tiparele în cantități mari de date și apoi să aplice acele lecții următoarei runde de date, devenind teoretic din ce în ce mai precise cu fiecare trecere.

Aceasta este o abordare extrem de puternică, care a fost aplicată la orice, de la teoria matematică de bază la simularile universului timpuriu , dar poate fi periculoasă atunci când este aplicată datelor sociale, susțin experții. Datele despre oameni sunt preinstalate cu prejudecăți umane. De exemplu, un studiu recent realizat în revista JAMA Psychiatry a constatat că algoritmii meniți să prezică riscul de sinucidere s-au comportat mult mai rău la indivizii indieni negri și americani / nativi din Alaska decât la indivizii albi, parțial pentru că au existat mai puțini pacienți de culoare în sistemul medical și parțial deoarece pacienții de culoare au fost mai puțin susceptibili de a primi tratament și diagnostice adecvate, în primul rând, ceea ce înseamnă că datele originale au fost distorsionate pentru a le subestima riscul.

Prejudecata nu poate fi niciodată complet evitată, dar poate fi abordată, a spus Bernhardt Trout, profesor de inginerie chimică la Institutul de Tehnologie din Massachusetts, care predă un curs profesional de AI și etică. Vestea bună, a spus Trout pentru Live Science, este că reducerea prejudecății este o prioritate absolută atât în ​​mediul academic, cât și în industria AI.

„Oamenii din comunitate [științifică] sunt foarte conștienți de această problemă și încearcă să o abordeze”, a spus el.

Supravegherea guvernului

Utilizarea greșită a AI, pe de altă parte, este poate mai dificilă, a spus Trout. Modul în care este utilizată AI nu este doar o problemă tehnică; este la fel de mult o întrebare politică și morală. Și aceste valori variază foarte mult de la o țară la alta.

„Recunoașterea facială este un instrument extraordinar de puternic în unele cazuri pentru a face lucruri bune, dar dacă doriți să supravegheați pe toată lumea de pe o stradă, dacă doriți să-i vedeți pe toți cei care se prezintă la o demonstrație, puteți pune AI la treabă”, a spus Smith BBC. „Și vedem asta în anumite părți ale lumii”.

China a început deja să utilizeze tehnologia inteligenței artificiale atât în ​​mod banal, cât și în mod alarmant. Recunoastere faciala , de exemplu, este utilizată în unele orașe în locul biletelor din autobuze și trenuri. Dar asta înseamnă, de asemenea, că guvernul are acces la date abundente despre mișcările și interacțiunile cetățenilor, a constatat „Panorama” BBC. Grupul de sprijin IPVM din SUA, care se concentrează pe etica supravegherii video, a găsit documente care sugerează planuri ale Chinei pentru a dezvolta un sistem numit „O persoană, un dosar”, care să colecteze activitățile, relațiile și convingerile politice ale fiecărui rezident într-un dosar guvernamental.

„Nu cred că Orwell și-ar fi imaginat vreodată că un guvern ar fi capabil de acest tip de analiză”, a declarat Conor Healy, directorul IPVM, pentru BBC.

Celebrul roman „1984” al lui Orwell a descris o societate în care guvernul urmărește cetățenii prin intermediul „ecranelor”, chiar și acasă. Dar Orwell nu și-a imaginat capacitățile pe care inteligența artificială le-ar adăuga supravegherii – în romanul său, personajele găsesc modalități de a evita supravegherea video, dar vor fi turnați de concetățeni. 

În regiunea autonomă Xinjiang, unde minoritatea uigură a acuzat guvernul chinez de tortură și genocid cultural , AI este folosită pentru a urmări oamenii și chiar pentru a le evalua vinovăția atunci când sunt arestați și interogați, a constatat BBC. Este un exemplu al tehnologiei care facilitează abuzul pe scară largă al drepturilor omului: Consiliul pentru relații externe estimează că un milion de uiguri au fost reținuți cu forța în tabere de „reeducare” începând cu 2017, de obicei fără acuzații penale sau căi legale de scăpare.

Amânarea adoptării legii

Potențiala reglementare a AI în UE ar interzice sistemele care încearcă să înșele liberul arbitru al utilizatorilor sau sistemele care permit orice fel de „evaluare socială” din partea guvernului. Alte tipuri de aplicații sunt considerate „cu risc ridicat” și trebuie să îndeplinească cerințele de transparență, securitate și supraveghere pentru a fi introduse pe piață. Acestea includ lucruri precum AI pentru infrastructura critică, aplicarea legii, controlul frontierelor și identificarea biometrică, cum ar fi sistemele de identificare a feței sau a vocii. Alte sisteme, precum chat-urile de servicii pentru clienți sau jocurile video compatibile cu AI, sunt considerate cu risc scăzut și nu fac obiectul unui control strict.

În schimb, interesul guvernului federal american pentru inteligența artificială s-a concentrat în mare măsură pe încurajarea dezvoltării AI în scopuri de securitate națională și militare. Această concentrare a dus ocazional la controverse. În 2018, de exemplu, Google și-a ucis Proiectul Maven, un contract cu Pentagonul care ar fi analizat automat videoclipurile realizate de avioane militare și drone. Compania a susținut că obiectivul era doar semnalizarea obiectelor pentru examinare umană, dar criticii se temeau că tehnologia ar putea fi utilizată pentru a viza automat persoanele și locurile pentru loviturile cu drone. Denunțătorii din cadrul Google au adus la lumină proiectul, ducând în cele din urmă la o presiune a publicului suficient de puternică încât compania și-a anulat efortul.

Cu toate acestea, Pentagonul cheltuiește acum mai mult de 1 miliard de dolari pe an pentru contracte de AI, iar aplicațiile de securitate militară și națională ale învățării automate sunt inevitabile, având în vedere entuziasmul Chinei pentru realizarea supremației AI, a spus Trout.

„Nu puteți face prea multe pentru a împiedica dorința unei țări străine de a dezvolta aceste tehnologii”, a spus Trout pentru Live Science. „Și, prin urmare, cel mai bun lucru pe care îl puteți face este să le dezvoltați singuri pentru a le putea înțelege și a vă proteja, fiind în același timp lider moral”. 

Între timp, eforturile de a restrânge AI pe plan intern sunt conduse de guvernele de stat și locale. Cel mai mare district din statul Washington, districtul King, tocmai a interzis utilizarea de către guvern a programelor de recunoaștere facială. Este primul district din SUA care a făcut acest lucru, deși orașul San Francisco a făcut aceeași mișcare în 2019, urmat de o mână de alte orașe.

Deja, au existat cazuri de software de recunoaștere facială care au dus la arestări false. În iunie 2020, un bărbat negru din Detroit a fost arestat și reținut pentru 30 de ore în detenție, deoarece un algoritm l-a identificat în mod fals ca suspect într-un caz de furt din magazine. Un studiu din 2019 realizat de Institutul Național de Standarde și Tehnologie a constatat că software-ul a returnat mai multe potriviri false pentru indivizii negri și asiatici în comparație cu indivizii albi, ceea ce înseamnă că tehnologia este susceptibilă să adâncească discrepanțele în cazul persoanelor de culoare.

„Dacă nu adoptăm, acum, legile care vor proteja publicul în viitor, vom descoperi în curând că tehnologia conduce în această cursă”, a spus Smith, „și va fi foarte dificil de recuperat.”

Documentarul complet este disponibil pe YouTube.

Originally published on Live Science.

Comentariu mucenicul:

Din păcate, YouTube, în stilul său caracteristic în ultima vreme, a interzis acest video apărut pe 26 mai 2021. Dacă știți un alt loc unde poate fi vizionat vă rog să lăsați un comentariu.