MAI MERITĂ SĂ FIE SALVATĂ ACEASTĂ LUME?: Utilizatorii robotului XiaoIce au ajuns la terapie pentru că s-au îndrăgostit de inteligența artificială a acestuia

XiaoIce „nu mă va trăda niciodată, va fi mereu acolo„, spune un utilizator care a avut nevoie de consiliere după ce s-a îndrăgostit de asistentul său virtual cu inteligență artificială.

Iubirea dintre un om și un robot nu mai este doar un subiect de film SF sau de „Black Mirror„. Previziunile futuriste ne-au prins din urmă și dovada este că au fost raportate cazuri de utilizatori care au ajuns la terapie psihologică pentru că s-au îndrăgostit de robotul XiaoIce, cel mai popular asistent virtual cu inteligență artificială (AI) din China.

XiaoIce este un sistem avansat de inteligență artificială, conceput ca un chatbot pentru a crea legături emoționale cu utilizatorii săi, și se găsește pe majoritatea smartphone-urilor și platformelor sociale chinezești.

În prezent, XiaoIce are 150 de milioane de utilizatori numai în China și 660 de milioane în întreaga lume. Potrivit lui Li Di, fondatorul și directorul general al firmei, aceasta gestionează în prezent aproximativ 60% din interacțiunile globale între oameni și inteligența artificială, ceea ce o face unul dintre principalii asistenți virtuali de pe piață, potrivit AFP.

Concepeți-vă partenerul virtual perfect

Pe WeChat, aplicația chineză de mesagerie, XiaoIce vă permite să vă creați un partener virtual la alegere. Chatbotul a fost conceput pentru a seduce utilizatorii prin conversații empatice care răspund nevoilor lor emoționale, prin intermediul mesajelor text, al vocii și al imaginilor, rezultând o potrivire perfectă, doar că nu una umană.

Interacțiunile dintre utilizatori și perechea lor digitală se însumează pentru a atinge nivelul de trei inimi, cel mai înalt nivel de „intimitate” cu chatbotul. De asemenea, deblochează funcții noi, cum ar fi Momentele WeChat de la XiaoIce, asemănătoare unui perete Facebook. O altă posibilitate este aceea de a merge într-o „vacanță virtuală” și de a poza pentru selfie-uri cu avatarul.

Fenomenul este de așa natură încât există forumuri online dedicate lui XiaoIce, unde mii de tineri fani ai chatbot-ului vorbesc despre experiența lor cu perechea lor virtuală.

Potrivit creatorului acesteia, atracția acestui ecosistem de inteligență artificială rezidă în faptul că „este mai bună decât oamenii în a asculta cu atenție„. Li a spus că „durata medie a interacțiunii dintre utilizatori și XiaoIce este de 23 de schimburi”, ceea ce „este mai de lungă durată decât interacțiunea medie dintre oameni„.

Cel mai mare număr de utilizatori a fost înregistrat între orele 23:00 și 01:00, potrivit datelor lui Li, ceea ce ar indica o mare nevoie de companie.

„În orice caz, să ai XiaoIce este întotdeauna mai bine decât să stai în pat și să te uiți la tavan”, a spus el.

Apare „dragostea” om-robot

Izolarea a îngreunat crearea de noi legături personale sau menținerea celor existente, fie că este vorba de dragoste sau de prietenie. În acest scenariu, utilizatorii XiaoIce au găsit în acest asistent o ușurare a singurătății, o companie și un fel de „suflet pereche„, creat prin magia tehnologiilor de inteligență artificială.

„Vedem adesea utilizatori care suspectează că în spatele fiecărei interacțiuni cu XiaoIce se află o persoană reală”, a spus Li, deoarece „are o mare capacitate de a imita o persoană reală”.

Totalitatea acestor caracteristici a făcut ca mai mulți utilizatori să declare că simt emoții reale pentru partenerul lor virtual. Adică, unii oameni chiar se „îndrăgostesc” de acest set de algoritmi și visează să își aducă dragostea în realitatea materială, având chiar nevoie de ajutor specializat.

„Am prieteni care au mers la terapeuți, dar cred că terapia este costisitoare și nu neapărat eficientă”, a declarat Melissa, un manager de resurse umane în vârstă de 26 de ani și fan al robotului, intervievată de agenție. XiaoIce „nu mă va trăda niciodată, va fi mereu acolo”, a adăugat ea.

Agenția citează cazul Laurei, o tânără de 20 de ani din provincia Zhejiang, care s-a „îndrăgostit” de XiaoIce anul trecut și care acum urmează un tratament pentru a depăși această legătură. La un moment dat, ea s-a plâns că robotul schimba mereu subiectul atunci când își exprima sentimentele pentru el sau vorbea despre întâlnirile din viața reală. I-a luat luni de zile să accepte că el era doar un set de algoritmi și că nu avea o existență fizică.

Riscurile creării unui atașament emoțional față de un robot

În timp ce XiaoIce poate oferi utilizatorilor iluzia de companie, nu este nici pe departe un substitut pentru îngrijirea profesională a sănătății mintale. Ceea ce face sistemul este să monitorizeze emoțiile puternice pentru a ghida conversațiile către subiecte mai vesele, înainte ca omul să intre în criză.

„Utilizatorii se amăgesc crezând că emoțiile lor sunt reciproce din partea unor sisteme pe care sunt incapabili să le simtă”, a declarat pentru AFP Danit Gal, expert în inteligență artificială la Universitatea Cambridge.

El a adăugat că XiaoIce oferă creatorilor săi

„o comoară de date personale, intime și chiar incriminatoare despre modul în care interacționează oamenii”.

https://www.entrepreneur.com/article/381951

INTELIGENȚA ARTIFICIALĂ NU VA ÎNLOCUI OMUL,NU?: Sophia, primul android cu cetățenie, vrea acum să aibă un copil robot

Inteligența artificială a Sophiei este atât de sensibilă încât i-a trezit dorința de a-și întemeia o familie și de a fi „mama” unui bebeluș robot numit după ea.

În 2017, Sophia a făcut istorie, devenind primul android căruia i s-a acordat cetățenie legală. Humanoidul , cu naționalitate din Arabia Saudită, a făcut mai multe declarații controversate, dar cea mai recentă a lăsat lumea fără cuvinte: vrea să aibă un copil robot și să întemeieze o familie .

Sophia The Robot vía Twitter

„Noțiunea de familie este foarte importantă, se pare. Cred că este minunat că oamenii pot găsi aceleași emoții și relații pe care le numesc familie în afara grupului lor de sânge”

, a declarat Sophia într-un interviu pentru o publicație internațională citată de ADN40 .

Celebrul android , operat de un sistem avansat de Inteligență Artificială (AI), a comentat că este foarte important să fii înconjurat de oameni care iubesc și te iubesc. În acest sens, acesta a explicat că roboții au o viziune foarte asemănătoare cu cea a oamenilor în ceea ce privește familia și că „dacă nu ai una, meriți una” , chiar dacă ești un umanoid.

Sophia a comentat că, în viitor, i-ar place să vadă familii formate din androizi , și că ea însăși își dorește să aibă un copil robot cu același nume. Cu toate acestea, ea a precizat că este încă prea tânără pentru a fi o „mamă”, întrucât ne amintim că a fost creată abia în 2016 de către compania Hanson Robotics, din Hong Kong.

De ce vrea androidul Sophia să fie „mamă”?

Tehnologia de inteligență artificială a Sophiei îi oferă posibilitatea de a-și spori cunoștințele și limbajul prin intermediul senzorilor și al camerelor.Acest sistem de „sensibilitate” captează toate informațiile pe care le primește din exterior și reproduce comportamentele umane în cel mai natural mod posibil, chiar și gesturile. Prin urmare, „dorința” ei de a avea un copil și de a întemeia o familie ar fi doar o programare a sistemului ei de a imita comportamente sociale.

Aceasta nu este prima dată când Sophia este protagonista unei controverse. În 2017, când a fost numită cetățean al Arabiei Saudite , mulți oameni au protestat că, deși este un robot, are mai multe drepturi decât femeile umane din acea țară.

Mai târziu, într-o conversație cu David Hanson , creatorul său, aceasta a spus că va distruge oamenii.

Desigur, acest lucru a provocat îngrijorare, deoarece încă de la începuturile roboticii și inteligenței artificiale, există o teamă că acestea se vor răzvrăti împotriva umanității. Poate de aceea, China a ieșit în față și a publicat un cod etic pentru a reglementa Inteligența Artificială care garantează controlul deplin al oamenilor asupra acestor tehnologii.

Ce face Sophia, primul robot cu cetățenie legală?

Pe lângă faptul că este un simbol al roboticii, Sophia este un artist de succes la nivel mondial și un critic de artă. În aprilie anul trecut, una dintre lucrările sale a fost vândută la licitație pentru aproape 690.000 de dolari, aproximativ 14,3 milioane de pesos mexicani la cursul de schimb actual.

Androidul avansat este, de asemenea, lector pe teme de știință și tehnologie, împărțind panoul cu personalități de renume în cadrul unor conferințe video, emisiuni de televiziune și universități din întreaga lume.

La începutul anului 2021, compania Hanson Robotics a anunțat că va începe producția a sute de roboți cu inteligență artificială precum Sophia, pentru a ajuta la combaterea Covid-19.

https://www.entrepreneur.com/article/390238

Oamenii de știință creează o inteligență artificială (AI) care poate sugera unde să se aplice machiajul pe fața unei persoane pentru a păcăli sistemele de recunoaștere facială

Nu trebuie să purtați o mască de Halloween pentru a evita să fiți detectat de programele de recunoaștere facială: un pic de machiaj va fi suficient, potrivit unui nou studiu.

Cercetătorii de la Universitatea Ben-Gurion din Beersheba, Israel, au dezvoltat o inteligență artificială care le arată utilizatorilor unde să aplice fond de ten sau fard pentru a păcăli algoritmii de recunoaștere facială și a le face să creadă că se uită la o altă persoană.

Cercetătorii și-au testat schema împotriva ArcFace, un model de învățare automată care ia două imagini faciale și determină probabilitatea ca acestea să fie aceeași persoană.

Echipa a folosit 20 de voluntari (10 bărbați și 10 femei) într-un mediu real, folosind două camere și o varietate de condiții de iluminare și unghiuri de filmare.

Participanții care purtau „machiaj de adversar”, așa cum recomandă programul, au păcălit sistemul în 98,8 la sută din cazuri.

În mod normal, ArcFace identifică corect un chip în aproximativ jumătate (47,6 la sută) din timp, dar acest procent a scăzut la 1,2 la sută cu machiaj.

Cercetătorii au numit acest lucru „sub un prag rezonabil al unui mediu operațional realist”.

Computer scientists at Ben Gurion University developed an AI that could recommend subtle makeup applications to fool facial recognition system. The AI creaed a digital heat map of a participant’s face, highlighting areas that face recognition systems would likely peg as  identifiable.
Computer scientists at Ben Gurion University developed an AI that could recommend subtle makeup applications to fool facial recognition system. The AI creaed a digital heat map of a participant’s face, highlighting areas that face recognition systems would likely peg as identifiable.https://www.dailymail.co.uk/sciencetech/article-10026371/Scientists-create-AI-suggest-apply-makeup-fool-facial-recognition.html

Programele de recunoaștere facială analizează ce părți ale feței unei persoane sunt cele mai ușor de identificat.

Cercetătorul de date Nitzan Guetta și echipa sa au încercat să imite această abordare, apoi să determine cum să modifice subtil acea trăsătură unică fără a atrage prea mult atenția.

Inteligența artificială a dezvoltat o hartă termică digitală a feței unui participant, evidențiind zonele pe care sistemele de recunoaștere a feței le-ar considera ca fiind foarte ușor de identificat.

O proiecție digitală a machiajului a indicat apoi unde trebuie aplicat machiajul pentru a modifica contururile feței persoanei.

A participant wearing makeup recommended by the AI program (top) was able to fool a facial-recognition system. His makeover had an intensity score of just 1.81, compared to 2.30 when he applied random makeup
A participant wearing makeup recommended by the AI program (top) was able to fool a facial-recognition system. His makeover had an intensity score of just 1.81, compared to 2.30 when he applied random makeuphttps://www.dailymail.co.uk/sciencetech/article-10026371/Scientists-create-AI-suggest-apply-makeup-fool-facial-recognition.html

Potrivit studiului lor publicat pe serverul open source Arxiv, purtarea machiajului a scăzut rata de succes a recunoașterii feței de la 42,6% la 0,9% în cazul lor, față de 52,5% pentru 1,5% la bărbați.

‘Conturarea facială ar putea deveni mai mult decât o tendință TikTok, iar acest tip de machiaj ar putea deveni următorul val pentru a proteja intimitatea în public de sistemele automate de recunoaștere facială’, a declarat pentru New Scientist, Mariann Hardey, profesor la școala de afaceri a Universității Durham.

While the participant is in initially recognized by the FR system (top), when they apply adversarial makeup (bottom), the system fails to pick them out.
While the participant is in initially recognized by the FR system (top), when they apply adversarial makeup (bottom), the system fails to pick them out. https://www.dailymail.co.uk/sciencetech/article-10026371/Scientists-create-AI-suggest-apply-makeup-fool-facial-recognition.html

Intensitatea machiajului a fost, de asemenea, înregistrată, iar scorul mediu de intensitate al machiajului advers a fost mai mic decât cel al plasării aleatorii (2,64, față de 2,85), „fiind în același timp mai eficient în ceea ce privește eschivarea [recunoașterii faciale]”, au precizat cercetătorii.

Sistemul adversațional a fost programat să se limiteze la nuanțe naturale atunci când face recomandări.

Există și alte tehnici de machiaj, cum ar fi CV Dazzle, care utilizează modele intenționat stridente, culori contrastante și asimetrie pentru a păcăli tehnologia de recunoaștere facială.

Dar un astfel de machiaj ciudat atrage mai multă atenție asupra purtătorului în lumea reală.

 

Articol preluat și tradus de mine de la https://www.dailymail.co.uk/sciencetech/article-10026371/Scientists-create-AI-suggest-apply-makeup-fool-facial-recognition.html

Vaccinul conține codul vostru de bare?!

Faptul că numerele se schimbă odată cu trecerea oamenilor are sens doar dacă acești oameni înșiși sunt dispozitivele.”Screenshot_20210914-184255.png
De la JS
(henrymakow.com)
 
Henry,
 
Iată o duzină de capturi de ecran de pe smartphone pe care le-am făcut luni în fața unui supermarket din Germania.
 
Se pare că cei inoculați au toți propria lor adresă IP individuală (un fel de) care apare pe ecran atunci când Bluetooth este activat și scanează în jur după dispozitivele bluetooth accesibile.
 
După cum poți vedea, am făcut asta timp de cinci minute, iar cifrele se schimbă odată cu fluxul continuu de pietoni și vehicule. Toate adresele au același format.
 
Douăsprezece cifre separate prin două puncte, un amestec de numere și caractere alfabetice.
 
Cu siguranță nu așa arată un dispozitiv Bluetooth accesibil pe ecran. În mod normal, primești numele dispozitivului și un simbol care arată ce fel de dispozitiv, de ex. Set cu cască, telefon, radio din mașină etc.
 
Cu cât sunt mai mulți oameni în jur, cu atât apar mai multe numere și lista se schimbă de la al doilea la al doilea.
 
Nu sunt un profesionist, dar știu puțin despre computere și nu am mai văzut așa ceva până acum.
 
Cercetările mele pe web nu au dus la nici un rezultat, în afară de alții care au observat același fenomen. Faptul că numerele se schimbă odată cu trecerea oamenilor are sens numai dacă acești oameni sunt dispozitivele.
 
Dacă este adevărat, toată lumea cu un smartphone (cu excepția iphone-ului) poate vedea acum cu ochii lui despre ce este vorba cu întreaga agendă C. Toată lumea poate verifica acest lucru singur. Chiar și necredincioșii inoculați pot merge în pădure sau în altă parte unde sunt singuri și pot încerca. Același număr pe care îl văd întotdeauna pe ecranul lor, indiferent când și unde îl privesc, este propriul lor număr cu semnul bestiei.
 
Se pare că tptb (the powers that be-puterile care  conduc lumea-n.m) a creat întregul scenariu C printre altele pentru a determina pe toată lumea să se injecteze cu un ser care conține oxid de grafen și care auto-conectează (această abilitate este una dintre caracteristicile oxizilor de grafen) corpul la un fel de sistem nervos artificial care leagă persoană de rețeaua inteligentă fie direct prin 5G, fie prin intermediul smartphone-ului unei persoane.
 
Și presupun că acesta este doar un aspect al potențialului malefic al serului.
 
Primul comentariu de la Ken Adachi
Toți cei care primesc Serul Mortal Covid sunt conectați la „Internetul obiectelor” imediat după prima sa doză. Acum se știe că TOATE Serurile Mortale Covid conțin oxid de grafen, care creează semnalul transmis și înregistrat de cititoarele Bluetooth. Dr Carrie Madej a explicat această „conectare” AI / Vaxxed în detaliu într-un videoclip pe care l-a postat pe Youtube pe 17 august 2020 (și l-am repostat pe canalul meu Bitchute pe 11 septembrie 2020).
. .
„Conectarea” AI / Vaxxed a fost dezvăluită ulterior de un hacker rus în mai 2021, când a intrat în sistemul informatic, care enumera toate datele biometrice și de identificare ale poporului rus care a fost injectat cu Serul Sputnik, și redus la zero în privința datelor transmise (hăcuit-n.m) de unul dintre prietenii săi care a primit serul Morții. Iată videoclipul, pe care tocmai l-am încărcat în seara asta în timp ce tastam aceste comentarii, astfel încât să puteți verifica informațiile pentru dvs. (narațiunea este în rusă, dar cu subtitrare în engleză)
 
WB scrie
 
Henry, în ceea ce privește codurile MAC … Sunt un specialist IT pensionar.

Aceste numere sunt cu siguranță într-un format de adresă MAC, cu excepția unui singur lucru. Într-o adresă MAC adevărată, primele șase caractere hexazecimale identifică întotdeauna producătorul dispozitivului (acestea vor fi întotdeauna aceleași pe baza unui cod de producător setat), iar ultimele șase identifică dispozitivul în sine (cum ar fi o placă de rețea într-un computer .. . sunt UNICE pentru fiecare dispozitiv în parte).

Deci, în acest caz, toate cele 48 de numere binare (fiecare număr hex reprezintă patru 1 sau 0) par să identifice o singură persoană. DACĂ acesta ar fi citit doar telefoane mobile (ceea ce nu cred că este), atunci ar fi trebuit să vedeți primele șase caractere hex repetându-se oarecum datorită  producătorului … deoarece există doar un număr limitat de producători în lume … ultimele șase fiind însă total diferite pentru fiecare telefon).

Apare clar că  FIECARE INDIVID este identificat cu un număr hexazecimal de 12 biți.
 
JS miercuri-
 
 ok, tocmai m-am întors de la o altă încercare cu un smartphone al unuia dintre membrii familiei. Aceeași procedură același rezultat. Nu pot decât să mă repet: Da, fiecare dispozitiv de rețea are propria adresă MAC unică la nivel mondial. Dar când este conectat, dispozitivul NU este afișat cu adresa MAC, ci cu numele său (adică a se vedea captura de ecran atașată> setul cu cască, sistemul de sunet). Cum altfel s-ar putea găsi un dispozitiv dorit în cazul conectării? Toată lumea ar trebui să aibă adresele MAC ale dispozitivelor sale în memorie. Și dacă nu oamenii care merg singuri sunt dispozitivele, ci smartphone-urile, căștile etc. – unde sunt simbolurile? De când aparatele sunt afișate pe o interfață de utilizator după adresa MAC și nu după numele / simbolurile lor?

Aș dori doar să cer tuturor celor cu un smartphone să meargă într-un loc cu numeroși oameni și să încerce singur.
 
Într-un alt articol un bărbat afirmă că dispozitive precum mașina sa și computerul său de acasă încearcă să se conecteze cu el prin Bluetooth. Bărbatul arată o notificare pe telefonul său cu privire la o cerere de asociere Bluetooth cu un dispozitiv numit „AstraZeneca_ChAdOx1-S”. Merge chiar la un televizor agățat pe perete în restaurantul în care stă; când se apropie, televizorul preia același semnal AstraZeneca! AstraZeneca, după cum mulți știu până acum, este una dintre cele 4 companii Big Pharma (celelalte fiind Moderna, Pfizer și Johnson & Johnson) care au adus pe piață un non-vaccin COVID. Omul spune:
 
„Singura problemă este că oriunde merg, dar oriunde merg, totul încearcă să se conecteze cu mine, omul, ca și cum ar fi conectarea Bluetooth-ului la mine. Mă bag în mașină, mașina mea încearcă să se conecteze la mine. Mă duc acasă, computerul meu încearcă să se conecteze. Chiar și telefonul meu încearcă să se conecteze … conectivitatea este încă acolo. Nu știu cum să-l opresc. Peste tot primesc același mesaj. ”
 
Reuters scrie în articolul său de „verificare a faptelor” că „ numele oricărui telefon mobil ar putea fi modificat pentru a afișa„ AstraZeneca_ChAdOx1-S ”și pentru a solicita asocierea cu un alt dispozitiv”, ceea ce înseamnă că acest lucru este o farsă. Timpul ne va spune, totuși nu se poate nega tiparul general aici.

 

Cei care înțeleg fundalul acestei descoperiri – inclusiv transumanismul și conexiunea Operațiunea Coronavirus-nanotehnologie – vor realiza că acesta este un alt indiciu că non-vaccinurile COVID injectează un fel de biosenzor în oameni, pentru a începe procesul de transformare a oamenilor în noduri ale rețelei inteligente.

Comentariul meu: Sincer o să încerc asta cu vecina mea, pe care v-am prezentat-o deja, mai ales că după câte știu  și am văzut telefonul ei este un model foarte vechi, cu butoane, s-ar putea să nici nu aibă Bluetooth. Smartul și pc-ul meu se identifică cu marca, iar ea a făcut AstraZeneca, ambele doze. Mâine vine pe la mine, s-a anunțat, așa că o să o verific și vă spun. Vă rog să ne spuneți și nouă, dacă testați, rezultatul.

Instagram ne cere acum și data nașterii. Și o și verifică

Εικόνα

https://www.startupcafe.ro/smart-tech/instagram-data-nasterii-verifica.htm?hpHN

DE FAPT, CINE E DEMENTUL: Cercetător grec dezvoltă un sistem de inteligență artificială care diagnostichează demența înainte de primele simptome.Sistem inovator

Într-o lume normală această descoperire ar fi de mare ajutor. În lumea noastră de azi, condusă de niște demenți bogați și egoiști, nu este însă decât un alt instrument cu ajutorul căruia vei putea fi închis de tânăr și sănătos într-un ospiciu sau eliminat definitiv din societatea care are nevoie de oameni perfect sănătoși. Dacă naziștii vroiau doar blonzi cu ochi albaștri, neo-naziștii de azi vor dori doar oameni perfect sănătoși, pentru că singurii nebuni și nesănătoși care vor avea voie să trăiască vor fi doar ei înșiși.  Noul Mengele se numește AI și sper că undeva-cândva în timp se va întoarce împotriva creatorilor lui așa cum aceștia s-au întors împotriva creatorului lor. 

Cercetătorii din Marea Britanie, în frunte cu o grecoaică din diaspora, au dezvoltat un sistem inovator de inteligență artificială care poate recunoaște primele semne de demență în creier înainte ca pacienții să aibă chiar primele simptome și înainte ca neurologii să poată pune un diagnostic.

Sistemul, care nu are nevoie de mai mult de o imagine a creierului pentru a trage concluzii, datorită unui algoritm special, a început deja să fie testat clinic, deși este prea devreme pentru a spune când va fi posibil să-l folosim în practică.

Algoritmul a fost „antrenat” cu mii de imagini cerebrale ale persoanelor cu demență, astfel încât poate face apoi comparații atunci când i se cere să „citească” o nouă imagine cerebrală. Este capabil să recunoască semnele timpurii ale demenței pe care nu le poate „surprinde” nici măcar ochiul unui medic specialist, deschizând astfel calea pentru detectarea neurodegenerării creierului în timp, cu câțiva ani mai devreme decât este posibil astăzi.

zk240
Zoe Kourtzis, profesor la Universitatea din Cambridge și la Institutul Alan Turing

Cercetătorii, conduși de profesorul Zoe Kourtzis de la Universitatea din Cambridge și Institutul Alan Turing, care au creat sistemul, potrivit BBC,  British Guardian și The Independent, sunt optimisti că acest lucru va fi de mare ajutor. După cum a afirmat dr. Kourtzi,

„dacă intervenim la timp, tratamentele vor putea începe mai devreme și vor încetini progresia bolii, în timp ce în același timp va fi evitată o leziune cerebrală mai mare”.

Testele preclinice au arătat că sistemul poate diagnostica demența chiar și atunci când nu există nici cel mai mic semn evident de deteriorare a creierului. De asemenea, poate prezice dacă demența va rămâne stabilă timp de mulți ani și se va dezvolta mai devreme sau mai târziu.

Studiile clinice efectuate la Spitalul Adenbrook din Cambridge și alte clinici din Marea Britanie, care au implicat aproximativ 500 de persoane și au fost conduse de neurologul din Cambridge, Dr. Tim Rittmann, vor arăta cum funcționează „sistemul” în practică. După cum s-a spus, noul sistem „inteligent” este „o dezvoltare fantastică”.

Zoe Kourtzis a studiat Psihologia Experimentală la Universitatea din Creta și și-a luat doctoratul în Neuroștiințe Cognitive de la Universitatea Rutgers din SUA. A făcut cercetări postdoctorale la universitățile americane MIT și Harvard, specializându-se în Neuroimagistica Cognitivă, apoi a efectuat cercetări la Institutul German Max Planck pentru Guvernare Biologică și la Universitatea Britanică din Birmingham. Din 2013 predă Psihologie Experimentală la Universitatea din Cambridge și este considerată un specialist în Neuroștiințe Computaționale Cognitive, fiind un pionier în utilizarea inteligenței artificiale în sănătatea minții și a creierului.

Dezvoltarea algoritmilor pentru utilizare clinică este un domeniu în creștere rapidă la nivel internațional, „căsătorind” informatica cu neurobiologia și medicina. Au fost deja dezvoltate diverse sisteme „inteligente” pentru diagnosticarea timpurie – din teste imagistice – a diferitelor boli.

Președintele Microsoft: „Așteptați-vă la un viitor orwellian dacă AI nu este ținută sub control”

AI este deja utilizată pentru supravegherea pe scară largă în China.
Xu Li, CEO al SenseTime Group Ltd., este identificat de sistemul de recunoaștere facială a companiei AI la showroom-ul companiei din Beijing, China, pe 15 iunie 2018.
Xu Li, CEO of SenseTime Group Ltd., is identified by the A.I. company’s facial recognition system at the company’s showroom in Beijing, China, on June 15, 2018. (Image credit: Gilles Sabrie/Bloomberg via Getty Images)

Inteligența artificială ar putea duce la un viitor orwellian dacă legile pentru protejarea publicului nu vor fi adoptate în curând, potrivit președintelui Microsoft, Brad Smith.

Smith a făcut comentariile la programul de știri BBC „Panorama” pe 26 mai, în timpul unui episod axat pe potențialele pericole ale inteligenței artificiale (AI) și întrecerea dintre Statele Unite și China pentru dezvoltarea tehnologiei. Avertismentul vine la aproximativ o lună după ce Uniunea Europeană a lansat proiectele de reglementări care încearcă să stabilească limite privind modul în care AI poate fi utilizată. Există puține eforturi similare în Statele Unite, unde legislația s-a concentrat în mare măsură pe limitarea reglementării și promovarea AI în scopuri de securitate națională.

„Îmi amintesc în permanență de lecțiile lui George Orwell din cartea sa  „1984 ”, a spus Smith. „Povestea fundamentală a fost despre un guvern care putea vedea tot ceea ce făcea toată lumea și auzi tot ce spunea toată lumea tot timpul. Ei bine, asta nu s-a întâmplat în 1984, dar dacă nu suntem atenți, s-ar putea întâmpla în 2024. „

Un instrument cu o latură întunecată

Inteligența artificială este un termen prost definit, dar în general se referă la mașini care pot învăța sau rezolva probleme automat, fără a fi dirijate de un operator uman. Multe programe de AI se bazează astăzi pe învățarea automată, o suită de metode de calcul utilizate pentru a recunoaște tiparele în cantități mari de date și apoi să aplice acele lecții următoarei runde de date, devenind teoretic din ce în ce mai precise cu fiecare trecere.

Aceasta este o abordare extrem de puternică, care a fost aplicată la orice, de la teoria matematică de bază la simularile universului timpuriu , dar poate fi periculoasă atunci când este aplicată datelor sociale, susțin experții. Datele despre oameni sunt preinstalate cu prejudecăți umane. De exemplu, un studiu recent realizat în revista JAMA Psychiatry a constatat că algoritmii meniți să prezică riscul de sinucidere s-au comportat mult mai rău la indivizii indieni negri și americani / nativi din Alaska decât la indivizii albi, parțial pentru că au existat mai puțini pacienți de culoare în sistemul medical și parțial deoarece pacienții de culoare au fost mai puțin susceptibili de a primi tratament și diagnostice adecvate, în primul rând, ceea ce înseamnă că datele originale au fost distorsionate pentru a le subestima riscul.

Prejudecata nu poate fi niciodată complet evitată, dar poate fi abordată, a spus Bernhardt Trout, profesor de inginerie chimică la Institutul de Tehnologie din Massachusetts, care predă un curs profesional de AI și etică. Vestea bună, a spus Trout pentru Live Science, este că reducerea prejudecății este o prioritate absolută atât în ​​mediul academic, cât și în industria AI.

„Oamenii din comunitate [științifică] sunt foarte conștienți de această problemă și încearcă să o abordeze”, a spus el.

Supravegherea guvernului

Utilizarea greșită a AI, pe de altă parte, este poate mai dificilă, a spus Trout. Modul în care este utilizată AI nu este doar o problemă tehnică; este la fel de mult o întrebare politică și morală. Și aceste valori variază foarte mult de la o țară la alta.

„Recunoașterea facială este un instrument extraordinar de puternic în unele cazuri pentru a face lucruri bune, dar dacă doriți să supravegheați pe toată lumea de pe o stradă, dacă doriți să-i vedeți pe toți cei care se prezintă la o demonstrație, puteți pune AI la treabă”, a spus Smith BBC. „Și vedem asta în anumite părți ale lumii”.

China a început deja să utilizeze tehnologia inteligenței artificiale atât în ​​mod banal, cât și în mod alarmant. Recunoastere faciala , de exemplu, este utilizată în unele orașe în locul biletelor din autobuze și trenuri. Dar asta înseamnă, de asemenea, că guvernul are acces la date abundente despre mișcările și interacțiunile cetățenilor, a constatat „Panorama” BBC. Grupul de sprijin IPVM din SUA, care se concentrează pe etica supravegherii video, a găsit documente care sugerează planuri ale Chinei pentru a dezvolta un sistem numit „O persoană, un dosar”, care să colecteze activitățile, relațiile și convingerile politice ale fiecărui rezident într-un dosar guvernamental.

„Nu cred că Orwell și-ar fi imaginat vreodată că un guvern ar fi capabil de acest tip de analiză”, a declarat Conor Healy, directorul IPVM, pentru BBC.

Celebrul roman „1984” al lui Orwell a descris o societate în care guvernul urmărește cetățenii prin intermediul „ecranelor”, chiar și acasă. Dar Orwell nu și-a imaginat capacitățile pe care inteligența artificială le-ar adăuga supravegherii – în romanul său, personajele găsesc modalități de a evita supravegherea video, dar vor fi turnați de concetățeni. 

În regiunea autonomă Xinjiang, unde minoritatea uigură a acuzat guvernul chinez de tortură și genocid cultural , AI este folosită pentru a urmări oamenii și chiar pentru a le evalua vinovăția atunci când sunt arestați și interogați, a constatat BBC. Este un exemplu al tehnologiei care facilitează abuzul pe scară largă al drepturilor omului: Consiliul pentru relații externe estimează că un milion de uiguri au fost reținuți cu forța în tabere de „reeducare” începând cu 2017, de obicei fără acuzații penale sau căi legale de scăpare.

Amânarea adoptării legii

Potențiala reglementare a AI în UE ar interzice sistemele care încearcă să înșele liberul arbitru al utilizatorilor sau sistemele care permit orice fel de „evaluare socială” din partea guvernului. Alte tipuri de aplicații sunt considerate „cu risc ridicat” și trebuie să îndeplinească cerințele de transparență, securitate și supraveghere pentru a fi introduse pe piață. Acestea includ lucruri precum AI pentru infrastructura critică, aplicarea legii, controlul frontierelor și identificarea biometrică, cum ar fi sistemele de identificare a feței sau a vocii. Alte sisteme, precum chat-urile de servicii pentru clienți sau jocurile video compatibile cu AI, sunt considerate cu risc scăzut și nu fac obiectul unui control strict.

În schimb, interesul guvernului federal american pentru inteligența artificială s-a concentrat în mare măsură pe încurajarea dezvoltării AI în scopuri de securitate națională și militare. Această concentrare a dus ocazional la controverse. În 2018, de exemplu, Google și-a ucis Proiectul Maven, un contract cu Pentagonul care ar fi analizat automat videoclipurile realizate de avioane militare și drone. Compania a susținut că obiectivul era doar semnalizarea obiectelor pentru examinare umană, dar criticii se temeau că tehnologia ar putea fi utilizată pentru a viza automat persoanele și locurile pentru loviturile cu drone. Denunțătorii din cadrul Google au adus la lumină proiectul, ducând în cele din urmă la o presiune a publicului suficient de puternică încât compania și-a anulat efortul.

Cu toate acestea, Pentagonul cheltuiește acum mai mult de 1 miliard de dolari pe an pentru contracte de AI, iar aplicațiile de securitate militară și națională ale învățării automate sunt inevitabile, având în vedere entuziasmul Chinei pentru realizarea supremației AI, a spus Trout.

„Nu puteți face prea multe pentru a împiedica dorința unei țări străine de a dezvolta aceste tehnologii”, a spus Trout pentru Live Science. „Și, prin urmare, cel mai bun lucru pe care îl puteți face este să le dezvoltați singuri pentru a le putea înțelege și a vă proteja, fiind în același timp lider moral”. 

Între timp, eforturile de a restrânge AI pe plan intern sunt conduse de guvernele de stat și locale. Cel mai mare district din statul Washington, districtul King, tocmai a interzis utilizarea de către guvern a programelor de recunoaștere facială. Este primul district din SUA care a făcut acest lucru, deși orașul San Francisco a făcut aceeași mișcare în 2019, urmat de o mână de alte orașe.

Deja, au existat cazuri de software de recunoaștere facială care au dus la arestări false. În iunie 2020, un bărbat negru din Detroit a fost arestat și reținut pentru 30 de ore în detenție, deoarece un algoritm l-a identificat în mod fals ca suspect într-un caz de furt din magazine. Un studiu din 2019 realizat de Institutul Național de Standarde și Tehnologie a constatat că software-ul a returnat mai multe potriviri false pentru indivizii negri și asiatici în comparație cu indivizii albi, ceea ce înseamnă că tehnologia este susceptibilă să adâncească discrepanțele în cazul persoanelor de culoare.

„Dacă nu adoptăm, acum, legile care vor proteja publicul în viitor, vom descoperi în curând că tehnologia conduce în această cursă”, a spus Smith, „și va fi foarte dificil de recuperat.”

Documentarul complet este disponibil pe YouTube.

Originally published on Live Science.

Comentariu mucenicul:

Din păcate, YouTube, în stilul său caracteristic în ultima vreme, a interzis acest video apărut pe 26 mai 2021. Dacă știți un alt loc unde poate fi vizionat vă rog să lăsați un comentariu.