Președintele Microsoft: „Așteptați-vă la un viitor orwellian dacă AI nu este ținută sub control”

AI este deja utilizată pentru supravegherea pe scară largă în China.
Xu Li, CEO al SenseTime Group Ltd., este identificat de sistemul de recunoaștere facială a companiei AI la showroom-ul companiei din Beijing, China, pe 15 iunie 2018.
Xu Li, CEO of SenseTime Group Ltd., is identified by the A.I. company’s facial recognition system at the company’s showroom in Beijing, China, on June 15, 2018. (Image credit: Gilles Sabrie/Bloomberg via Getty Images)

Inteligența artificială ar putea duce la un viitor orwellian dacă legile pentru protejarea publicului nu vor fi adoptate în curând, potrivit președintelui Microsoft, Brad Smith.

Smith a făcut comentariile la programul de știri BBC „Panorama” pe 26 mai, în timpul unui episod axat pe potențialele pericole ale inteligenței artificiale (AI) și întrecerea dintre Statele Unite și China pentru dezvoltarea tehnologiei. Avertismentul vine la aproximativ o lună după ce Uniunea Europeană a lansat proiectele de reglementări care încearcă să stabilească limite privind modul în care AI poate fi utilizată. Există puține eforturi similare în Statele Unite, unde legislația s-a concentrat în mare măsură pe limitarea reglementării și promovarea AI în scopuri de securitate națională.

„Îmi amintesc în permanență de lecțiile lui George Orwell din cartea sa  „1984 ”, a spus Smith. „Povestea fundamentală a fost despre un guvern care putea vedea tot ceea ce făcea toată lumea și auzi tot ce spunea toată lumea tot timpul. Ei bine, asta nu s-a întâmplat în 1984, dar dacă nu suntem atenți, s-ar putea întâmpla în 2024. „

Un instrument cu o latură întunecată

Inteligența artificială este un termen prost definit, dar în general se referă la mașini care pot învăța sau rezolva probleme automat, fără a fi dirijate de un operator uman. Multe programe de AI se bazează astăzi pe învățarea automată, o suită de metode de calcul utilizate pentru a recunoaște tiparele în cantități mari de date și apoi să aplice acele lecții următoarei runde de date, devenind teoretic din ce în ce mai precise cu fiecare trecere.

Aceasta este o abordare extrem de puternică, care a fost aplicată la orice, de la teoria matematică de bază la simularile universului timpuriu , dar poate fi periculoasă atunci când este aplicată datelor sociale, susțin experții. Datele despre oameni sunt preinstalate cu prejudecăți umane. De exemplu, un studiu recent realizat în revista JAMA Psychiatry a constatat că algoritmii meniți să prezică riscul de sinucidere s-au comportat mult mai rău la indivizii indieni negri și americani / nativi din Alaska decât la indivizii albi, parțial pentru că au existat mai puțini pacienți de culoare în sistemul medical și parțial deoarece pacienții de culoare au fost mai puțin susceptibili de a primi tratament și diagnostice adecvate, în primul rând, ceea ce înseamnă că datele originale au fost distorsionate pentru a le subestima riscul.

Prejudecata nu poate fi niciodată complet evitată, dar poate fi abordată, a spus Bernhardt Trout, profesor de inginerie chimică la Institutul de Tehnologie din Massachusetts, care predă un curs profesional de AI și etică. Vestea bună, a spus Trout pentru Live Science, este că reducerea prejudecății este o prioritate absolută atât în ​​mediul academic, cât și în industria AI.

„Oamenii din comunitate [științifică] sunt foarte conștienți de această problemă și încearcă să o abordeze”, a spus el.

Supravegherea guvernului

Utilizarea greșită a AI, pe de altă parte, este poate mai dificilă, a spus Trout. Modul în care este utilizată AI nu este doar o problemă tehnică; este la fel de mult o întrebare politică și morală. Și aceste valori variază foarte mult de la o țară la alta.

„Recunoașterea facială este un instrument extraordinar de puternic în unele cazuri pentru a face lucruri bune, dar dacă doriți să supravegheați pe toată lumea de pe o stradă, dacă doriți să-i vedeți pe toți cei care se prezintă la o demonstrație, puteți pune AI la treabă”, a spus Smith BBC. „Și vedem asta în anumite părți ale lumii”.

China a început deja să utilizeze tehnologia inteligenței artificiale atât în ​​mod banal, cât și în mod alarmant. Recunoastere faciala , de exemplu, este utilizată în unele orașe în locul biletelor din autobuze și trenuri. Dar asta înseamnă, de asemenea, că guvernul are acces la date abundente despre mișcările și interacțiunile cetățenilor, a constatat „Panorama” BBC. Grupul de sprijin IPVM din SUA, care se concentrează pe etica supravegherii video, a găsit documente care sugerează planuri ale Chinei pentru a dezvolta un sistem numit „O persoană, un dosar”, care să colecteze activitățile, relațiile și convingerile politice ale fiecărui rezident într-un dosar guvernamental.

„Nu cred că Orwell și-ar fi imaginat vreodată că un guvern ar fi capabil de acest tip de analiză”, a declarat Conor Healy, directorul IPVM, pentru BBC.

Celebrul roman „1984” al lui Orwell a descris o societate în care guvernul urmărește cetățenii prin intermediul „ecranelor”, chiar și acasă. Dar Orwell nu și-a imaginat capacitățile pe care inteligența artificială le-ar adăuga supravegherii – în romanul său, personajele găsesc modalități de a evita supravegherea video, dar vor fi turnați de concetățeni. 

În regiunea autonomă Xinjiang, unde minoritatea uigură a acuzat guvernul chinez de tortură și genocid cultural , AI este folosită pentru a urmări oamenii și chiar pentru a le evalua vinovăția atunci când sunt arestați și interogați, a constatat BBC. Este un exemplu al tehnologiei care facilitează abuzul pe scară largă al drepturilor omului: Consiliul pentru relații externe estimează că un milion de uiguri au fost reținuți cu forța în tabere de „reeducare” începând cu 2017, de obicei fără acuzații penale sau căi legale de scăpare.

Amânarea adoptării legii

Potențiala reglementare a AI în UE ar interzice sistemele care încearcă să înșele liberul arbitru al utilizatorilor sau sistemele care permit orice fel de „evaluare socială” din partea guvernului. Alte tipuri de aplicații sunt considerate „cu risc ridicat” și trebuie să îndeplinească cerințele de transparență, securitate și supraveghere pentru a fi introduse pe piață. Acestea includ lucruri precum AI pentru infrastructura critică, aplicarea legii, controlul frontierelor și identificarea biometrică, cum ar fi sistemele de identificare a feței sau a vocii. Alte sisteme, precum chat-urile de servicii pentru clienți sau jocurile video compatibile cu AI, sunt considerate cu risc scăzut și nu fac obiectul unui control strict.

În schimb, interesul guvernului federal american pentru inteligența artificială s-a concentrat în mare măsură pe încurajarea dezvoltării AI în scopuri de securitate națională și militare. Această concentrare a dus ocazional la controverse. În 2018, de exemplu, Google și-a ucis Proiectul Maven, un contract cu Pentagonul care ar fi analizat automat videoclipurile realizate de avioane militare și drone. Compania a susținut că obiectivul era doar semnalizarea obiectelor pentru examinare umană, dar criticii se temeau că tehnologia ar putea fi utilizată pentru a viza automat persoanele și locurile pentru loviturile cu drone. Denunțătorii din cadrul Google au adus la lumină proiectul, ducând în cele din urmă la o presiune a publicului suficient de puternică încât compania și-a anulat efortul.

Cu toate acestea, Pentagonul cheltuiește acum mai mult de 1 miliard de dolari pe an pentru contracte de AI, iar aplicațiile de securitate militară și națională ale învățării automate sunt inevitabile, având în vedere entuziasmul Chinei pentru realizarea supremației AI, a spus Trout.

„Nu puteți face prea multe pentru a împiedica dorința unei țări străine de a dezvolta aceste tehnologii”, a spus Trout pentru Live Science. „Și, prin urmare, cel mai bun lucru pe care îl puteți face este să le dezvoltați singuri pentru a le putea înțelege și a vă proteja, fiind în același timp lider moral”. 

Între timp, eforturile de a restrânge AI pe plan intern sunt conduse de guvernele de stat și locale. Cel mai mare district din statul Washington, districtul King, tocmai a interzis utilizarea de către guvern a programelor de recunoaștere facială. Este primul district din SUA care a făcut acest lucru, deși orașul San Francisco a făcut aceeași mișcare în 2019, urmat de o mână de alte orașe.

Deja, au existat cazuri de software de recunoaștere facială care au dus la arestări false. În iunie 2020, un bărbat negru din Detroit a fost arestat și reținut pentru 30 de ore în detenție, deoarece un algoritm l-a identificat în mod fals ca suspect într-un caz de furt din magazine. Un studiu din 2019 realizat de Institutul Național de Standarde și Tehnologie a constatat că software-ul a returnat mai multe potriviri false pentru indivizii negri și asiatici în comparație cu indivizii albi, ceea ce înseamnă că tehnologia este susceptibilă să adâncească discrepanțele în cazul persoanelor de culoare.

„Dacă nu adoptăm, acum, legile care vor proteja publicul în viitor, vom descoperi în curând că tehnologia conduce în această cursă”, a spus Smith, „și va fi foarte dificil de recuperat.”

Documentarul complet este disponibil pe YouTube.

Originally published on Live Science.

Comentariu mucenicul:

Din păcate, YouTube, în stilul său caracteristic în ultima vreme, a interzis acest video apărut pe 26 mai 2021. Dacă știți un alt loc unde poate fi vizionat vă rog să lăsați un comentariu.

 

 

ÎN RITMUL ĂSTA ADEPȚII TEORIEI CONSPIRAȚIEI ÎN CURÂND VOR DEVENI ȘOMERI: Încă un obiect al muncii lor a devenit realitate

Εικόνα
https://twitter.com/IloMagyar/status/1411989497462595588/photo/2
Εικόνα
https://twitter.com/IloMagyar/status/1411989497462595588/photo/4
Εικόνα
https://twitter.com/IloMagyar/status/1411989497462595588/photo/3

Propaganda Microsoft pentru”Certificatul zilnic de sănătate” destinat copiilor pentru a putea reveni la școală

MICROSOFT, 2016: „PUTEM PROGRAMA COMPORTAMENTE COMPLEXE FOLOSIND ADN-ul”. ADN-ul 3-CATENAR CONFIRMAT

„Imaginați-vă un computer biologic care funcționează în interiorul unei celule vii”
– Dr.  Andrew Phillips , șeful bio-calculelor la Microsoft Research.

„Problema pe care încercăm să o rezolvăm este cu adevărat să încercăm să avem un diagnostic mai sofisticat care se poate întâmpla automat în interiorul celulelor … În acest proiect, încercăm să folosim ADN-ul ca material programabil”, potrivit Dr.  Neil Dalchau , un om de știință la Microsoft Research.

Pentru mine, cea mai izbitoare parte din acest videoclip este confirmarea faptului că sunt  în căutarea tehnologiei ADN-ului cu trei  catene care a fost adusă în discuție de Anthony Patch în acel interviu senzațional din 2014 , care ne-a adus și banul de pe Youtube.

„[Microsoft] încearcă în esență să simtă, să analizeze și să  controleze informațiile moleculare

Georg Seelig , profesor asociat la  Universitatea din Washington, finanțată de Gates

Moderna a descris ARNm ca „o  moleculă informațională ” și chiar a marcat numele „mRNA OS” – adică „sistem de operare”, potrivit  bigtechtopia.com.
Îl avem aici pe șeful de la Moderna „pe bandă” care descrie vaccinul ARNm ca „terapie informațională”:

„Dispozitivele moleculare realizate din acizi nucleici prezintă un potențial mare pentru aplicații, de la bio-detectare la nanomedicină inteligentă. Acestea permit efectuarea calculelor la scară moleculară, interacționând în același timp direct cu componentele moleculare ale sistemelor vii. Ele formează structuri stabile în interiorul celulelor, iar interacțiunile lor pot fi controlate cu precizie prin modificarea secvențelor lor de nucleotide. Cu toate acestea, proiectarea dispozitivelor corecte și robuste de acid nucleic este o provocare majoră, datorită complexității ridicate a sistemului și a potențialului de interferență nedorită între moleculele din sistem. Pentru a ajuta la abordarea acestor provocări, am dezvoltat instrumentul DNA Strand Displacement (DSD), un limbaj de programare pentru proiectarea și simularea dispozitivelor de calcul realizate din ADN.Limbajul folosește deplasarea șuviței ADN ca principal mecanism de calcul, care permite proiectarea dispozitivelor numai în termeni de acizi nucleici. DSD este un prim pas către dezvoltarea instrumentelor de proiectare și analiză pentru deplasarea catenelor de ADN și completează apariția unor noi strategii de implementare pentru calculul ADN. ”

Microsoft Research

Sursa articolului https://tapnewswire.com/2021/03/microsoft-2016-we-can-program-complex-behaviors-using-dna-3-strand-dna-confirmed/