Alexa de la Amazon este din nou online, după ce mii de utilizatori din Europa au raportat întreruperi ale serviciului

Amazon Alexa este din nou online după ce vineri a suferit întreruperi în întreaga Europă, lăsând utilizatorii în imposibilitatea de a obține răspunsuri de la dispozitivele Echo.

Utilizatorii din Marea Britanie, Franța și Germania au raportat întreruperile, iar site-ul Down Detector a arătat, de asemenea, că a existat o creștere a numărului de rapoarte de probleme cu dispozitivele Amazon Alexa vineri dimineață.

Site-ul a detectat aproximativ 8.000 de rapoarte privind utilizatorii care au fost blocați de la serviciu.

Asistentul virtual a fost din nou online după o pană de curent de două ore, care a început în jurul orei 8.00 CET.

Downdetector.co.uk
The website Down Detector showed the spike in reports of outages.Downdetector.co.uk

„În această dimineață am avut o problemă care a afectat capacitatea unor clienți Alexa de a interacționa cu serviciul”, a confirmat un purtător de cuvânt al Amazon.

„Serviciul Alexa funcționează acum în mod normal”.

Ce s-a întâmplat?

Mulți utilizatori au rămas confuzi vineri, deoarece gadgetul nu răspundea la comenzile vocale sau răspundea cu un mesaj care spunea că „ceva nu a mers bine”.

De asemenea, rețelele de socializare au fost invadate de postări ale posesorilor de Alexa care nu puteau conversa cu companionii lor electronici.

Deși, în stilul tipic al internetului, mulți au reușit să vadă partea amuzantă.

Amazon încă nu a dezvăluit motivul întreruperii.

sursa

TRUST THE SCIENCE: Conform sistemului de recunoaștere a sexului de la Amazon, Michelle Obama și Serena Williams sunt bărbați (Video)

Conform sistemului de recunoaștere a sexului de la Amazon, Michelle Obama și Serena Williams sunt bărbați

Și o poză din tinerețe

Εικόνα
https://twitter.com/BurritoXrp/status/1478567660925423617/photo/1

Cred că-i destul de acurat sistemul ăsta, nu?

 

 

Microsoft brevetează un nou sistem de criptomonede care folosește datele privind activitatea corporală

Microsoft a patentat un sistem de minerit de criptomonede care folosește activitățile umane, inclusiv undele cerebrale și căldura corporală, atunci când efectuează sarcini online, cum ar fi utilizarea motoarelor de căutare, a modulelor de chat și citirea de anunțuri. „Un utilizator poate rezolva problema dificilă din punct de vedere computațional în mod inconștient”, se arată în brevet.

Microsoft Patents New Cryptocurrency System Using Body Activity Data

Sistem criptografic care utilizează datele privind activitatea corporală

Microsoft Technology Licensing, divizia de licențiere a Microsoft Corp. a primit un brevet internațional pentru un „sistem de criptomonede care utilizează datele privind activitatea corporală”. Brevetul a fost publicat de Organizația Mondială a Proprietății Intelectuale (OMPI) la 26 martie. Cererea a fost depusă la 20 iunie anul trecut. „Activitatea corpului uman asociată cu o sarcină furnizată unui utilizator poate fi utilizată într-un proces de minerit al unui sistem de criptomonede”, se arată în brevet, adăugând ca exemplu:

Unda cerebrală sau căldura corporală emisă de utilizator atunci când acesta îndeplinește sarcina oferită de un furnizor de informații sau de servicii, cum ar fi vizionarea unei reclame sau utilizarea anumitor servicii de internet, poate fi utilizată în procesul de extragere.

Cu mențiunea că metoda descrisă poate „reduce energia de calcul pentru procesul de minerit, făcând totodată ca procesul de minerit să fie mai rapid”, detaliază brevetul:

De exemplu, în loc de munca masivă de calcul cerută de unele sisteme convenționale de criptomonede, datele generate pe baza activității corporale a utilizatorului pot fi o dovadă de lucru și, prin urmare, un utilizator poate rezolva problema dificilă din punct de vedere computațional în mod inconștient.

Un brevet sugerează o modalitate alternativă de a mina criptomonedele

Brevetul descrie un sistem în care un dispozitiv poate verifica dacă „datele privind activitatea corporală îndeplinesc una sau mai multe condiții stabilite de sistemul de criptomonede și acordă criptomonede utilizatorului ale cărui date privind activitatea corporală sunt verificate”.

Microsoft Patents New Cryptocurrency System Using Body Activity Data
Microsoft brevetează un sistem de criptomonede care utilizează diferite tipuri de senzori pentru „măsurarea sau detectarea activității corporale sau scanarea corpului uman”, cum ar fi monitoarele de ritm cardiac, senzorii termici și senzorii optici.

Diferite tipuri de senzori pot fi folosite pentru „a măsura sau a detecta activitatea corpului sau pentru a scana corpul uman”, explică brevetul. Printre acestea se numără „scanere sau senzori de imagistică prin rezonanță magnetică funcțională (fMRI), senzori de electroencefalografie (EEG), senzori de spectroscopie în infraroșu apropiat (NIRS), monitoare de ritm cardiac, senzori termici, senzori optici, senzori de radiofrecvență (RF), senzori cu ultrasunete, camere foto sau orice alt senzor sau scaner” care va face aceeași treabă.

Sistemul poate recompensa cu criptomonede un proprietar sau un operator de sarcini „pentru furnizarea de servicii, cum ar fi, motoare de căutare, module de chat, aplicații sau site-uri web, oferind utilizatorilor acces gratuit la conținuturi cu plată (de exemplu, streaming video și audio sau cărți electrice), sau schimbul de informații sau date cu utilizatorii”, detaliază brevetul.

Ideea extragerii criptomonedelor folosind căldura corpului uman a fost explorată anterior de alte organizații. De exemplu, Manuel Beltrán, fondatorul Institutului olandez de Obsolescență Umană, a pus la cale un experiment în 2018 pentru a mina criptomonede cu ajutorul unui costum special care a recoltat căldura corpului uman într-o sursă de energie sustenabilă. Electricitatea generată a fost apoi alimentată la un computer pentru a mina criptomonede.

Sursa

AI și BIG BROTHER AU MAI GĂSIT O CALE DE ACCES: Chioșcurile interactive „gratuite” supraveghează pe toată lumea în timp ce le adună informații personale

Se pare că, indiferent unde mergeți, în orașele de pretutindeni sunt instalate chioșcuri interactive inteligente „gratuite”.

Se pare că politicienii din întreaga Americă nu se pot opri din a se lăuda cu chioșcurile gratuite „Smart City” ale IKE.

Chioșcurile interactive inteligente precum IKE se laudă că oferă publicitate gratuită întreprinderilor locale în timpul pandemiei, deci cum fac ei bani?

Site-ul web al IKE face o treabă foarte bună în a se prezenta ca un serviciu de chioșc interactiv „gratuit” pentru public. De fapt, ei fac o treabă atât de bună în a ascunde modul în care colectează informațiile personale ale utilizatorilor, încât nu am crezut că este vorba de o poveste prea mare.

După ce am făcut clic pe cele patru file ale IKE „Despre, Tehnologie, Aplicații și Echipa”, m-am gândit că poate chiar folosesc banii din publicitate pentru a-și plăti expansiunea rapidă. Dar apoi am dat lovitura după ce am dat click pe politicile de confidențialitate din partea de jos a site-ului lor.

IKE susține că „respectă confidențialitatea dvs. și se angajează să o protejeze prin respectarea acestei politici„, dar dacă continuați să citiți politica de confidențialitate, vă veți da seama că nu totul este așa cum pare.

IKE le spune utilizatorilor că va colecta informații despre interacțiunile fiecărui utilizator cu chioșcul.

„Putem împărtăși aceste informații fără restricții cu orașul în care se află chioșcul și cu agențiile sale…”.

Tipurile de informații pe care le colectează chioșcurile lor devin puțin mai clare în secțiunea interactivă a IKE.

IKE dezvăluie faptul că utilizatorii care accesează codurile lor QR pot fi identificați personal.

„Codul QR vă va lega în mod anonim dispozitivul mobil la aplicații. În cazul în care dispozitivul dvs. mobil nu este capabil să acceseze aplicațiile prin scanarea codului QR, puteți accesa aceste funcții furnizând informațiile solicitate de chioșc, unele dintre acestea putând să vă identifice personal.”

IKE susține că nu va împărtăși sau vinde informațiile personale ale utilizatorilor către terți, dar în paragraful următor spune exact contrariul.

„Dacă alegeți să folosiți aceste funcții, sunteți de acord că putem furniza informațiile pe care le furnizați unui chioșc, inclusiv orice informații care vă pot identifica personal, partenerului terț respectiv: (a) 311; (b) Get Around; și (c) Photo Booth.”

Practic, ceea ce spune IKE este că oricine folosește chioșcurile IKE este de acord să le ofere informații de identificare personală (PII-Informații de identificare personală) lor și terților. Cam atât despre respectarea intimității utilizatorilor.

IKE continuă să explice că 311 informații despre utilizatori sunt stocate de partenerii terți.

„În ceea ce privește orice funcție operată de un Partener terț, chioșcul va stoca doar informațiile pe care le furnizați suficient de mult timp pentru a efectua serviciul pe care îl solicitați. După aceea, informațiile nu vor mai fi păstrate de către Kiosk sau IKE, dar pot continua să fie păstrate de către Partenerul terț.”

În secțiunea IKE privind serviciile WiFi se precizează că chioșcurile lor ar putea

„partaja anumite informații tehnice cu furnizorul de servicii de internet prin semnalul Wi-Fi”.

Dar utilizatorii nu ar trebui să se îngrijoreze, deoarece IKE șterge datele lor de identificare personală la fiecare 12 luni.

Acesta este aproape același model de afaceri pe care „Smart City Kiosks” l-a folosit în New York în urmă cu trei ani, singura diferență fiind că chioșcurile IKE nu sunt echipate cu microfoane.

Deci, cum face IKE profit? Se pare că IKE face bani din faptul că permite partenerilor terți să plătească pentru dreptul de a colecta informații PII ale utilizatorilor.

Utilizatorii chioșcurilor IKE ar trebui să fie preocupați de două lucruri.

Împărtășirea anumitor informații tehnice cu un „furnizor de servicii de internet” este un mod ingenios de a spune că IKE și partenerii terți identifică fiecare dispozitiv cu Bluetooth.

A doua preocupare este că furnizorii terțiari de servicii de internet nu sunt obligați să șteargă informațiile personale ale unui utilizator la fiecare 12 luni sau niciodată.

Lucrurile devin mult mai deconcertante după ce citiți secțiunea „Camera” a IKE.

„Fiecare chioșc poate fi echipat cu una sau mai multe camere. Camerele captează imagini ale zonei din jurul chioșcului, iar aceste imagini vă pot include pe dumneavoastră. Nu vom păstra imaginile captate de nicio cameră mai mult de 15 zile, cu excepția cazului în care imaginile sunt necesare pentru a investiga un incident. În plus, nu vom utiliza sau dezvălui datele colectate de camerele noastre decât pentru a îmbunătăți funcționalitatea și a asigura securitatea chioșcurilor, după cum este necesar pentru a aborda activitățile ilegale desfășurate, asociate sau comise, împotriva acestora sau în zona înconjurătoare, sau în cazul în care considerăm că dezvăluirea este impusă de lege sau în interesul siguranței publice.”

Toți cei care trec prin fața unui chioșc „IKE Smart City” vor fi înregistrați și imaginile lor vor fi stocate timp de cel puțin 15 zile. Cu excepția, bineînțeles, a cazului în care IKE sau forțele de ordine vor dori să salveze imaginile, caz în care nimeni nu știe pentru cât timp vor păstra imaginile.

Secțiunea „divulgarea de informații” din IKE este practic o clauză de despăgubire împotriva unor procese viitoare.

„În plus față de dezvăluirile pe care le-am identificat în altă parte în această politică, putem, de asemenea, să dezvăluim toate informațiile colectate de noi sau pe care ni le furnizați prin intermediul unui chioșc, așa cum este descris în această politică, părinților, filialelor și afiliaților noștri și/sau oricărei entități care achiziționează, prin orice mijloace, o parte sau toate activele sau participațiile de proprietate ale IKE Smart City, LLC.”

„Noi (IKE) putem, de asemenea, să dezvăluim toate informațiile colectate de noi pe care le-ați furnizat prin intermediul unui chioșc”? A fost activat Bluetooth-ul telefonului dvs. atunci când ați folosit sau ați trecut pe lângă un chioșc IKE ? Cu excepția cazului în care se întâmplă să faceți clic pe politicile de confidențialitate din partea de jos a site-ului lor, utilizatorii nu au cum să știe cât de multe informații personale sunt colectate și stocate.

„Este posibil să actualizăm această politică de confidențialitate din când în când pentru a reflecta modificările legislației aplicabile. Deoarece orice informații personale pe care ni le furnizați nu sunt stocate sau menținute în baze de date deținute sau create de noi, nu vom putea să vă notificăm în momentul în care această Politică de confidențialitate este actualizată.”

Și pentru a înrăutăți situația, utilizatorii trebuie să verifice în mod constant și să se asigure că IKE nu și-a schimbat politica de confidențialitate. De asemenea, chioșcurile IKE nu ar trebui să fie folosite de copii sub 13 ani. De ce? A se vedea mai sus.

Chioșcurile cu camere de supraveghere ale IKE care apar în toate orașele de pretutindeni au toate caracteristicile unei rețele de supraveghere Big Brother mascată ca o rețea de chioșcuri interactive „gratuite”.

Chioșcurile cu camere de supraveghere IKE care apar în toate orașele de pretutindeni au toate caracteristicile unei rețele de supraveghere de tip Big Brother mascată ca o rețea de chioșcuri interactive „gratuite”.

Ce este PII sau IIP =Informațiile de identificare personală sunt informații care, atunci când sunt utilizate singure sau împreună cu alte date relevante, pot identifica o persoană. IIP pot conține identificatori direcți (de exemplu, informații despre pașaport) care pot identifica o persoană în mod unic sau cvasi-identificatori (de exemplu, rasa) care pot fi combinați cu alți cvasi-identificatori (de exemplu, data nașterii) pentru a recunoaște cu succes o persoană.

CONCLUZII CHEIE

Informațiile de identificare personală (IIP) sunt informații care, atunci când sunt utilizate singure sau împreună cu alte date relevante, pot identifica o persoană.
Informațiile sensibile de identificare personală pot include numele complet, numărul de asigurare socială, permisul de conducere, informații financiare și dosare medicale.
Informațiile de identificare personală nesensibile sunt ușor accesibile din surse publice și pot include codul poștal, rasa, sexul și data nașterii.

OPERAȚIUNEA OCHIUL: Creatorii unei noi criptomonede vor să scaneze irisul unui miliard de oameni până în 2023

Scanare iris
Scanare iris Foto: Tracy Lorna Nors / Panthermedia / Profimedia Images

Echipa care a dezvoltat o nouă criptomonedă vrea să grăbească adoptarea de monede digitale la nivel mondial și pentru a face acest lucru intenționează să scaneze irisul a un miliard de oameni până în 2023, mai exact, relatează Markets Insider.

Creatorii worldcoin, care au ieșit din umbră săptămâna aceasta, vor da criptomoneda lor fiecărei persoane care se înscrie în program. Până acum ei au scanat irisul a peste 100.000 de persoane din întreaga lume cu ajutorul unui nou dispozitiv pe care l-au numit „The Orb”.

Criptomoneda urmează să fie lansată în primul trimestru din 2022.

„The Orb”, un dispozitiv sferic cu culoare argintie de dimensiunea unei mingi de baschet, fotografiază ochiul unei persoane pentru a verifica dacă ea este reală și dacă acea persoană s-a înscris în program în trecut.

Noua monedă digitală, care deja a atras investitori precum cofondatorul LinkedIn Reid Hoffman, a strâns până acum 25 de milioane de dolari și este evaluată la un miliard de dolari.

„Încercăm să ajungem la o adoptare foarte, foarte rapidă a crypto și avem un răspuns foarte clar cu privire la cum să ajungem acolo”, a declarat Alex Blania, unul dintre cofondatorii monedei digitale, pentru Insider.

Citiți întreaga știre https://www.hotnews.ro/stiri-international-25136044-creatorii-unei-noi-criptomonede-vor-scaneze-irisul-miliard-oameni-pana-2023-cum-functioneaza-worldcoin.htm

MAI MERITĂ SĂ FIE SALVATĂ ACEASTĂ LUME?: Utilizatorii robotului XiaoIce au ajuns la terapie pentru că s-au îndrăgostit de inteligența artificială a acestuia

XiaoIce „nu mă va trăda niciodată, va fi mereu acolo„, spune un utilizator care a avut nevoie de consiliere după ce s-a îndrăgostit de asistentul său virtual cu inteligență artificială.

Iubirea dintre un om și un robot nu mai este doar un subiect de film SF sau de „Black Mirror„. Previziunile futuriste ne-au prins din urmă și dovada este că au fost raportate cazuri de utilizatori care au ajuns la terapie psihologică pentru că s-au îndrăgostit de robotul XiaoIce, cel mai popular asistent virtual cu inteligență artificială (AI) din China.

XiaoIce este un sistem avansat de inteligență artificială, conceput ca un chatbot pentru a crea legături emoționale cu utilizatorii săi, și se găsește pe majoritatea smartphone-urilor și platformelor sociale chinezești.

În prezent, XiaoIce are 150 de milioane de utilizatori numai în China și 660 de milioane în întreaga lume. Potrivit lui Li Di, fondatorul și directorul general al firmei, aceasta gestionează în prezent aproximativ 60% din interacțiunile globale între oameni și inteligența artificială, ceea ce o face unul dintre principalii asistenți virtuali de pe piață, potrivit AFP.

Concepeți-vă partenerul virtual perfect

Pe WeChat, aplicația chineză de mesagerie, XiaoIce vă permite să vă creați un partener virtual la alegere. Chatbotul a fost conceput pentru a seduce utilizatorii prin conversații empatice care răspund nevoilor lor emoționale, prin intermediul mesajelor text, al vocii și al imaginilor, rezultând o potrivire perfectă, doar că nu una umană.

Interacțiunile dintre utilizatori și perechea lor digitală se însumează pentru a atinge nivelul de trei inimi, cel mai înalt nivel de „intimitate” cu chatbotul. De asemenea, deblochează funcții noi, cum ar fi Momentele WeChat de la XiaoIce, asemănătoare unui perete Facebook. O altă posibilitate este aceea de a merge într-o „vacanță virtuală” și de a poza pentru selfie-uri cu avatarul.

Fenomenul este de așa natură încât există forumuri online dedicate lui XiaoIce, unde mii de tineri fani ai chatbot-ului vorbesc despre experiența lor cu perechea lor virtuală.

Potrivit creatorului acesteia, atracția acestui ecosistem de inteligență artificială rezidă în faptul că „este mai bună decât oamenii în a asculta cu atenție„. Li a spus că „durata medie a interacțiunii dintre utilizatori și XiaoIce este de 23 de schimburi”, ceea ce „este mai de lungă durată decât interacțiunea medie dintre oameni„.

Cel mai mare număr de utilizatori a fost înregistrat între orele 23:00 și 01:00, potrivit datelor lui Li, ceea ce ar indica o mare nevoie de companie.

„În orice caz, să ai XiaoIce este întotdeauna mai bine decât să stai în pat și să te uiți la tavan”, a spus el.

Apare „dragostea” om-robot

Izolarea a îngreunat crearea de noi legături personale sau menținerea celor existente, fie că este vorba de dragoste sau de prietenie. În acest scenariu, utilizatorii XiaoIce au găsit în acest asistent o ușurare a singurătății, o companie și un fel de „suflet pereche„, creat prin magia tehnologiilor de inteligență artificială.

„Vedem adesea utilizatori care suspectează că în spatele fiecărei interacțiuni cu XiaoIce se află o persoană reală”, a spus Li, deoarece „are o mare capacitate de a imita o persoană reală”.

Totalitatea acestor caracteristici a făcut ca mai mulți utilizatori să declare că simt emoții reale pentru partenerul lor virtual. Adică, unii oameni chiar se „îndrăgostesc” de acest set de algoritmi și visează să își aducă dragostea în realitatea materială, având chiar nevoie de ajutor specializat.

„Am prieteni care au mers la terapeuți, dar cred că terapia este costisitoare și nu neapărat eficientă”, a declarat Melissa, un manager de resurse umane în vârstă de 26 de ani și fan al robotului, intervievată de agenție. XiaoIce „nu mă va trăda niciodată, va fi mereu acolo”, a adăugat ea.

Agenția citează cazul Laurei, o tânără de 20 de ani din provincia Zhejiang, care s-a „îndrăgostit” de XiaoIce anul trecut și care acum urmează un tratament pentru a depăși această legătură. La un moment dat, ea s-a plâns că robotul schimba mereu subiectul atunci când își exprima sentimentele pentru el sau vorbea despre întâlnirile din viața reală. I-a luat luni de zile să accepte că el era doar un set de algoritmi și că nu avea o existență fizică.

Riscurile creării unui atașament emoțional față de un robot

În timp ce XiaoIce poate oferi utilizatorilor iluzia de companie, nu este nici pe departe un substitut pentru îngrijirea profesională a sănătății mintale. Ceea ce face sistemul este să monitorizeze emoțiile puternice pentru a ghida conversațiile către subiecte mai vesele, înainte ca omul să intre în criză.

„Utilizatorii se amăgesc crezând că emoțiile lor sunt reciproce din partea unor sisteme pe care sunt incapabili să le simtă”, a declarat pentru AFP Danit Gal, expert în inteligență artificială la Universitatea Cambridge.

El a adăugat că XiaoIce oferă creatorilor săi

„o comoară de date personale, intime și chiar incriminatoare despre modul în care interacționează oamenii”.

https://www.entrepreneur.com/article/381951

INTELIGENȚA ARTIFICIALĂ NU VA ÎNLOCUI OMUL,NU?: Sophia, primul android cu cetățenie, vrea acum să aibă un copil robot

Inteligența artificială a Sophiei este atât de sensibilă încât i-a trezit dorința de a-și întemeia o familie și de a fi „mama” unui bebeluș robot numit după ea.

În 2017, Sophia a făcut istorie, devenind primul android căruia i s-a acordat cetățenie legală. Humanoidul , cu naționalitate din Arabia Saudită, a făcut mai multe declarații controversate, dar cea mai recentă a lăsat lumea fără cuvinte: vrea să aibă un copil robot și să întemeieze o familie .

Sophia The Robot vía Twitter

„Noțiunea de familie este foarte importantă, se pare. Cred că este minunat că oamenii pot găsi aceleași emoții și relații pe care le numesc familie în afara grupului lor de sânge”

, a declarat Sophia într-un interviu pentru o publicație internațională citată de ADN40 .

Celebrul android , operat de un sistem avansat de Inteligență Artificială (AI), a comentat că este foarte important să fii înconjurat de oameni care iubesc și te iubesc. În acest sens, acesta a explicat că roboții au o viziune foarte asemănătoare cu cea a oamenilor în ceea ce privește familia și că „dacă nu ai una, meriți una” , chiar dacă ești un umanoid.

Sophia a comentat că, în viitor, i-ar place să vadă familii formate din androizi , și că ea însăși își dorește să aibă un copil robot cu același nume. Cu toate acestea, ea a precizat că este încă prea tânără pentru a fi o „mamă”, întrucât ne amintim că a fost creată abia în 2016 de către compania Hanson Robotics, din Hong Kong.

De ce vrea androidul Sophia să fie „mamă”?

Tehnologia de inteligență artificială a Sophiei îi oferă posibilitatea de a-și spori cunoștințele și limbajul prin intermediul senzorilor și al camerelor.Acest sistem de „sensibilitate” captează toate informațiile pe care le primește din exterior și reproduce comportamentele umane în cel mai natural mod posibil, chiar și gesturile. Prin urmare, „dorința” ei de a avea un copil și de a întemeia o familie ar fi doar o programare a sistemului ei de a imita comportamente sociale.

Aceasta nu este prima dată când Sophia este protagonista unei controverse. În 2017, când a fost numită cetățean al Arabiei Saudite , mulți oameni au protestat că, deși este un robot, are mai multe drepturi decât femeile umane din acea țară.

Mai târziu, într-o conversație cu David Hanson , creatorul său, aceasta a spus că va distruge oamenii.

Desigur, acest lucru a provocat îngrijorare, deoarece încă de la începuturile roboticii și inteligenței artificiale, există o teamă că acestea se vor răzvrăti împotriva umanității. Poate de aceea, China a ieșit în față și a publicat un cod etic pentru a reglementa Inteligența Artificială care garantează controlul deplin al oamenilor asupra acestor tehnologii.

Ce face Sophia, primul robot cu cetățenie legală?

Pe lângă faptul că este un simbol al roboticii, Sophia este un artist de succes la nivel mondial și un critic de artă. În aprilie anul trecut, una dintre lucrările sale a fost vândută la licitație pentru aproape 690.000 de dolari, aproximativ 14,3 milioane de pesos mexicani la cursul de schimb actual.

Androidul avansat este, de asemenea, lector pe teme de știință și tehnologie, împărțind panoul cu personalități de renume în cadrul unor conferințe video, emisiuni de televiziune și universități din întreaga lume.

La începutul anului 2021, compania Hanson Robotics a anunțat că va începe producția a sute de roboți cu inteligență artificială precum Sophia, pentru a ajuta la combaterea Covid-19.

https://www.entrepreneur.com/article/390238

Oamenii de știință creează o inteligență artificială (AI) care poate sugera unde să se aplice machiajul pe fața unei persoane pentru a păcăli sistemele de recunoaștere facială

Nu trebuie să purtați o mască de Halloween pentru a evita să fiți detectat de programele de recunoaștere facială: un pic de machiaj va fi suficient, potrivit unui nou studiu.

Cercetătorii de la Universitatea Ben-Gurion din Beersheba, Israel, au dezvoltat o inteligență artificială care le arată utilizatorilor unde să aplice fond de ten sau fard pentru a păcăli algoritmii de recunoaștere facială și a le face să creadă că se uită la o altă persoană.

Cercetătorii și-au testat schema împotriva ArcFace, un model de învățare automată care ia două imagini faciale și determină probabilitatea ca acestea să fie aceeași persoană.

Echipa a folosit 20 de voluntari (10 bărbați și 10 femei) într-un mediu real, folosind două camere și o varietate de condiții de iluminare și unghiuri de filmare.

Participanții care purtau „machiaj de adversar”, așa cum recomandă programul, au păcălit sistemul în 98,8 la sută din cazuri.

În mod normal, ArcFace identifică corect un chip în aproximativ jumătate (47,6 la sută) din timp, dar acest procent a scăzut la 1,2 la sută cu machiaj.

Cercetătorii au numit acest lucru „sub un prag rezonabil al unui mediu operațional realist”.

Computer scientists at Ben Gurion University developed an AI that could recommend subtle makeup applications to fool facial recognition system. The AI creaed a digital heat map of a participant’s face, highlighting areas that face recognition systems would likely peg as  identifiable.
Computer scientists at Ben Gurion University developed an AI that could recommend subtle makeup applications to fool facial recognition system. The AI creaed a digital heat map of a participant’s face, highlighting areas that face recognition systems would likely peg as identifiable.https://www.dailymail.co.uk/sciencetech/article-10026371/Scientists-create-AI-suggest-apply-makeup-fool-facial-recognition.html

Programele de recunoaștere facială analizează ce părți ale feței unei persoane sunt cele mai ușor de identificat.

Cercetătorul de date Nitzan Guetta și echipa sa au încercat să imite această abordare, apoi să determine cum să modifice subtil acea trăsătură unică fără a atrage prea mult atenția.

Inteligența artificială a dezvoltat o hartă termică digitală a feței unui participant, evidențiind zonele pe care sistemele de recunoaștere a feței le-ar considera ca fiind foarte ușor de identificat.

O proiecție digitală a machiajului a indicat apoi unde trebuie aplicat machiajul pentru a modifica contururile feței persoanei.

A participant wearing makeup recommended by the AI program (top) was able to fool a facial-recognition system. His makeover had an intensity score of just 1.81, compared to 2.30 when he applied random makeup
A participant wearing makeup recommended by the AI program (top) was able to fool a facial-recognition system. His makeover had an intensity score of just 1.81, compared to 2.30 when he applied random makeuphttps://www.dailymail.co.uk/sciencetech/article-10026371/Scientists-create-AI-suggest-apply-makeup-fool-facial-recognition.html

Potrivit studiului lor publicat pe serverul open source Arxiv, purtarea machiajului a scăzut rata de succes a recunoașterii feței de la 42,6% la 0,9% în cazul lor, față de 52,5% pentru 1,5% la bărbați.

‘Conturarea facială ar putea deveni mai mult decât o tendință TikTok, iar acest tip de machiaj ar putea deveni următorul val pentru a proteja intimitatea în public de sistemele automate de recunoaștere facială’, a declarat pentru New Scientist, Mariann Hardey, profesor la școala de afaceri a Universității Durham.

While the participant is in initially recognized by the FR system (top), when they apply adversarial makeup (bottom), the system fails to pick them out.
While the participant is in initially recognized by the FR system (top), when they apply adversarial makeup (bottom), the system fails to pick them out. https://www.dailymail.co.uk/sciencetech/article-10026371/Scientists-create-AI-suggest-apply-makeup-fool-facial-recognition.html

Intensitatea machiajului a fost, de asemenea, înregistrată, iar scorul mediu de intensitate al machiajului advers a fost mai mic decât cel al plasării aleatorii (2,64, față de 2,85), „fiind în același timp mai eficient în ceea ce privește eschivarea [recunoașterii faciale]”, au precizat cercetătorii.

Sistemul adversațional a fost programat să se limiteze la nuanțe naturale atunci când face recomandări.

Există și alte tehnici de machiaj, cum ar fi CV Dazzle, care utilizează modele intenționat stridente, culori contrastante și asimetrie pentru a păcăli tehnologia de recunoaștere facială.

Dar un astfel de machiaj ciudat atrage mai multă atenție asupra purtătorului în lumea reală.

 

Articol preluat și tradus de mine de la https://www.dailymail.co.uk/sciencetech/article-10026371/Scientists-create-AI-suggest-apply-makeup-fool-facial-recognition.html

Vaccinul conține codul vostru de bare?!

Faptul că numerele se schimbă odată cu trecerea oamenilor are sens doar dacă acești oameni înșiși sunt dispozitivele.”Screenshot_20210914-184255.png
De la JS
(henrymakow.com)
 
Henry,
 
Iată o duzină de capturi de ecran de pe smartphone pe care le-am făcut luni în fața unui supermarket din Germania.
 
Se pare că cei inoculați au toți propria lor adresă IP individuală (un fel de) care apare pe ecran atunci când Bluetooth este activat și scanează în jur după dispozitivele bluetooth accesibile.
 
După cum poți vedea, am făcut asta timp de cinci minute, iar cifrele se schimbă odată cu fluxul continuu de pietoni și vehicule. Toate adresele au același format.
 
Douăsprezece cifre separate prin două puncte, un amestec de numere și caractere alfabetice.
 
Cu siguranță nu așa arată un dispozitiv Bluetooth accesibil pe ecran. În mod normal, primești numele dispozitivului și un simbol care arată ce fel de dispozitiv, de ex. Set cu cască, telefon, radio din mașină etc.
 
Cu cât sunt mai mulți oameni în jur, cu atât apar mai multe numere și lista se schimbă de la al doilea la al doilea.
 
Nu sunt un profesionist, dar știu puțin despre computere și nu am mai văzut așa ceva până acum.
 
Cercetările mele pe web nu au dus la nici un rezultat, în afară de alții care au observat același fenomen. Faptul că numerele se schimbă odată cu trecerea oamenilor are sens numai dacă acești oameni sunt dispozitivele.
 
Dacă este adevărat, toată lumea cu un smartphone (cu excepția iphone-ului) poate vedea acum cu ochii lui despre ce este vorba cu întreaga agendă C. Toată lumea poate verifica acest lucru singur. Chiar și necredincioșii inoculați pot merge în pădure sau în altă parte unde sunt singuri și pot încerca. Același număr pe care îl văd întotdeauna pe ecranul lor, indiferent când și unde îl privesc, este propriul lor număr cu semnul bestiei.
 
Se pare că tptb (the powers that be-puterile care  conduc lumea-n.m) a creat întregul scenariu C printre altele pentru a determina pe toată lumea să se injecteze cu un ser care conține oxid de grafen și care auto-conectează (această abilitate este una dintre caracteristicile oxizilor de grafen) corpul la un fel de sistem nervos artificial care leagă persoană de rețeaua inteligentă fie direct prin 5G, fie prin intermediul smartphone-ului unei persoane.
 
Și presupun că acesta este doar un aspect al potențialului malefic al serului.
 
Primul comentariu de la Ken Adachi
Toți cei care primesc Serul Mortal Covid sunt conectați la „Internetul obiectelor” imediat după prima sa doză. Acum se știe că TOATE Serurile Mortale Covid conțin oxid de grafen, care creează semnalul transmis și înregistrat de cititoarele Bluetooth. Dr Carrie Madej a explicat această „conectare” AI / Vaxxed în detaliu într-un videoclip pe care l-a postat pe Youtube pe 17 august 2020 (și l-am repostat pe canalul meu Bitchute pe 11 septembrie 2020).
. .
„Conectarea” AI / Vaxxed a fost dezvăluită ulterior de un hacker rus în mai 2021, când a intrat în sistemul informatic, care enumera toate datele biometrice și de identificare ale poporului rus care a fost injectat cu Serul Sputnik, și redus la zero în privința datelor transmise (hăcuit-n.m) de unul dintre prietenii săi care a primit serul Morții. Iată videoclipul, pe care tocmai l-am încărcat în seara asta în timp ce tastam aceste comentarii, astfel încât să puteți verifica informațiile pentru dvs. (narațiunea este în rusă, dar cu subtitrare în engleză)
 
WB scrie
 
Henry, în ceea ce privește codurile MAC … Sunt un specialist IT pensionar.

Aceste numere sunt cu siguranță într-un format de adresă MAC, cu excepția unui singur lucru. Într-o adresă MAC adevărată, primele șase caractere hexazecimale identifică întotdeauna producătorul dispozitivului (acestea vor fi întotdeauna aceleași pe baza unui cod de producător setat), iar ultimele șase identifică dispozitivul în sine (cum ar fi o placă de rețea într-un computer .. . sunt UNICE pentru fiecare dispozitiv în parte).

Deci, în acest caz, toate cele 48 de numere binare (fiecare număr hex reprezintă patru 1 sau 0) par să identifice o singură persoană. DACĂ acesta ar fi citit doar telefoane mobile (ceea ce nu cred că este), atunci ar fi trebuit să vedeți primele șase caractere hex repetându-se oarecum datorită  producătorului … deoarece există doar un număr limitat de producători în lume … ultimele șase fiind însă total diferite pentru fiecare telefon).

Apare clar că  FIECARE INDIVID este identificat cu un număr hexazecimal de 12 biți.
 
JS miercuri-
 
 ok, tocmai m-am întors de la o altă încercare cu un smartphone al unuia dintre membrii familiei. Aceeași procedură același rezultat. Nu pot decât să mă repet: Da, fiecare dispozitiv de rețea are propria adresă MAC unică la nivel mondial. Dar când este conectat, dispozitivul NU este afișat cu adresa MAC, ci cu numele său (adică a se vedea captura de ecran atașată> setul cu cască, sistemul de sunet). Cum altfel s-ar putea găsi un dispozitiv dorit în cazul conectării? Toată lumea ar trebui să aibă adresele MAC ale dispozitivelor sale în memorie. Și dacă nu oamenii care merg singuri sunt dispozitivele, ci smartphone-urile, căștile etc. – unde sunt simbolurile? De când aparatele sunt afișate pe o interfață de utilizator după adresa MAC și nu după numele / simbolurile lor?

Aș dori doar să cer tuturor celor cu un smartphone să meargă într-un loc cu numeroși oameni și să încerce singur.
 
Într-un alt articol un bărbat afirmă că dispozitive precum mașina sa și computerul său de acasă încearcă să se conecteze cu el prin Bluetooth. Bărbatul arată o notificare pe telefonul său cu privire la o cerere de asociere Bluetooth cu un dispozitiv numit „AstraZeneca_ChAdOx1-S”. Merge chiar la un televizor agățat pe perete în restaurantul în care stă; când se apropie, televizorul preia același semnal AstraZeneca! AstraZeneca, după cum mulți știu până acum, este una dintre cele 4 companii Big Pharma (celelalte fiind Moderna, Pfizer și Johnson & Johnson) care au adus pe piață un non-vaccin COVID. Omul spune:
 
„Singura problemă este că oriunde merg, dar oriunde merg, totul încearcă să se conecteze cu mine, omul, ca și cum ar fi conectarea Bluetooth-ului la mine. Mă bag în mașină, mașina mea încearcă să se conecteze la mine. Mă duc acasă, computerul meu încearcă să se conecteze. Chiar și telefonul meu încearcă să se conecteze … conectivitatea este încă acolo. Nu știu cum să-l opresc. Peste tot primesc același mesaj. ”
 
Reuters scrie în articolul său de „verificare a faptelor” că „ numele oricărui telefon mobil ar putea fi modificat pentru a afișa„ AstraZeneca_ChAdOx1-S ”și pentru a solicita asocierea cu un alt dispozitiv”, ceea ce înseamnă că acest lucru este o farsă. Timpul ne va spune, totuși nu se poate nega tiparul general aici.

 

Cei care înțeleg fundalul acestei descoperiri – inclusiv transumanismul și conexiunea Operațiunea Coronavirus-nanotehnologie – vor realiza că acesta este un alt indiciu că non-vaccinurile COVID injectează un fel de biosenzor în oameni, pentru a începe procesul de transformare a oamenilor în noduri ale rețelei inteligente.

Comentariul meu: Sincer o să încerc asta cu vecina mea, pe care v-am prezentat-o deja, mai ales că după câte știu  și am văzut telefonul ei este un model foarte vechi, cu butoane, s-ar putea să nici nu aibă Bluetooth. Smartul și pc-ul meu se identifică cu marca, iar ea a făcut AstraZeneca, ambele doze. Mâine vine pe la mine, s-a anunțat, așa că o să o verific și vă spun. Vă rog să ne spuneți și nouă, dacă testați, rezultatul.

Instagram ne cere acum și data nașterii. Și o și verifică

Εικόνα

https://www.startupcafe.ro/smart-tech/instagram-data-nasterii-verifica.htm?hpHN

DE FAPT, CINE E DEMENTUL: Cercetător grec dezvoltă un sistem de inteligență artificială care diagnostichează demența înainte de primele simptome.Sistem inovator

Într-o lume normală această descoperire ar fi de mare ajutor. În lumea noastră de azi, condusă de niște demenți bogați și egoiști, nu este însă decât un alt instrument cu ajutorul căruia vei putea fi închis de tânăr și sănătos într-un ospiciu sau eliminat definitiv din societatea care are nevoie de oameni perfect sănătoși. Dacă naziștii vroiau doar blonzi cu ochi albaștri, neo-naziștii de azi vor dori doar oameni perfect sănătoși, pentru că singurii nebuni și nesănătoși care vor avea voie să trăiască vor fi doar ei înșiși.  Noul Mengele se numește AI și sper că undeva-cândva în timp se va întoarce împotriva creatorilor lui așa cum aceștia s-au întors împotriva creatorului lor. 

Cercetătorii din Marea Britanie, în frunte cu o grecoaică din diaspora, au dezvoltat un sistem inovator de inteligență artificială care poate recunoaște primele semne de demență în creier înainte ca pacienții să aibă chiar primele simptome și înainte ca neurologii să poată pune un diagnostic.

Sistemul, care nu are nevoie de mai mult de o imagine a creierului pentru a trage concluzii, datorită unui algoritm special, a început deja să fie testat clinic, deși este prea devreme pentru a spune când va fi posibil să-l folosim în practică.

Algoritmul a fost „antrenat” cu mii de imagini cerebrale ale persoanelor cu demență, astfel încât poate face apoi comparații atunci când i se cere să „citească” o nouă imagine cerebrală. Este capabil să recunoască semnele timpurii ale demenței pe care nu le poate „surprinde” nici măcar ochiul unui medic specialist, deschizând astfel calea pentru detectarea neurodegenerării creierului în timp, cu câțiva ani mai devreme decât este posibil astăzi.

zk240
Zoe Kourtzis, profesor la Universitatea din Cambridge și la Institutul Alan Turing

Cercetătorii, conduși de profesorul Zoe Kourtzis de la Universitatea din Cambridge și Institutul Alan Turing, care au creat sistemul, potrivit BBC,  British Guardian și The Independent, sunt optimisti că acest lucru va fi de mare ajutor. După cum a afirmat dr. Kourtzi,

„dacă intervenim la timp, tratamentele vor putea începe mai devreme și vor încetini progresia bolii, în timp ce în același timp va fi evitată o leziune cerebrală mai mare”.

Testele preclinice au arătat că sistemul poate diagnostica demența chiar și atunci când nu există nici cel mai mic semn evident de deteriorare a creierului. De asemenea, poate prezice dacă demența va rămâne stabilă timp de mulți ani și se va dezvolta mai devreme sau mai târziu.

Studiile clinice efectuate la Spitalul Adenbrook din Cambridge și alte clinici din Marea Britanie, care au implicat aproximativ 500 de persoane și au fost conduse de neurologul din Cambridge, Dr. Tim Rittmann, vor arăta cum funcționează „sistemul” în practică. După cum s-a spus, noul sistem „inteligent” este „o dezvoltare fantastică”.

Zoe Kourtzis a studiat Psihologia Experimentală la Universitatea din Creta și și-a luat doctoratul în Neuroștiințe Cognitive de la Universitatea Rutgers din SUA. A făcut cercetări postdoctorale la universitățile americane MIT și Harvard, specializându-se în Neuroimagistica Cognitivă, apoi a efectuat cercetări la Institutul German Max Planck pentru Guvernare Biologică și la Universitatea Britanică din Birmingham. Din 2013 predă Psihologie Experimentală la Universitatea din Cambridge și este considerată un specialist în Neuroștiințe Computaționale Cognitive, fiind un pionier în utilizarea inteligenței artificiale în sănătatea minții și a creierului.

Dezvoltarea algoritmilor pentru utilizare clinică este un domeniu în creștere rapidă la nivel internațional, „căsătorind” informatica cu neurobiologia și medicina. Au fost deja dezvoltate diverse sisteme „inteligente” pentru diagnosticarea timpurie – din teste imagistice – a diferitelor boli.

Președintele Microsoft: „Așteptați-vă la un viitor orwellian dacă AI nu este ținută sub control”

AI este deja utilizată pentru supravegherea pe scară largă în China.
Xu Li, CEO al SenseTime Group Ltd., este identificat de sistemul de recunoaștere facială a companiei AI la showroom-ul companiei din Beijing, China, pe 15 iunie 2018.
Xu Li, CEO of SenseTime Group Ltd., is identified by the A.I. company’s facial recognition system at the company’s showroom in Beijing, China, on June 15, 2018. (Image credit: Gilles Sabrie/Bloomberg via Getty Images)

Inteligența artificială ar putea duce la un viitor orwellian dacă legile pentru protejarea publicului nu vor fi adoptate în curând, potrivit președintelui Microsoft, Brad Smith.

Smith a făcut comentariile la programul de știri BBC „Panorama” pe 26 mai, în timpul unui episod axat pe potențialele pericole ale inteligenței artificiale (AI) și întrecerea dintre Statele Unite și China pentru dezvoltarea tehnologiei. Avertismentul vine la aproximativ o lună după ce Uniunea Europeană a lansat proiectele de reglementări care încearcă să stabilească limite privind modul în care AI poate fi utilizată. Există puține eforturi similare în Statele Unite, unde legislația s-a concentrat în mare măsură pe limitarea reglementării și promovarea AI în scopuri de securitate națională.

„Îmi amintesc în permanență de lecțiile lui George Orwell din cartea sa  „1984 ”, a spus Smith. „Povestea fundamentală a fost despre un guvern care putea vedea tot ceea ce făcea toată lumea și auzi tot ce spunea toată lumea tot timpul. Ei bine, asta nu s-a întâmplat în 1984, dar dacă nu suntem atenți, s-ar putea întâmpla în 2024. „

Un instrument cu o latură întunecată

Inteligența artificială este un termen prost definit, dar în general se referă la mașini care pot învăța sau rezolva probleme automat, fără a fi dirijate de un operator uman. Multe programe de AI se bazează astăzi pe învățarea automată, o suită de metode de calcul utilizate pentru a recunoaște tiparele în cantități mari de date și apoi să aplice acele lecții următoarei runde de date, devenind teoretic din ce în ce mai precise cu fiecare trecere.

Aceasta este o abordare extrem de puternică, care a fost aplicată la orice, de la teoria matematică de bază la simularile universului timpuriu , dar poate fi periculoasă atunci când este aplicată datelor sociale, susțin experții. Datele despre oameni sunt preinstalate cu prejudecăți umane. De exemplu, un studiu recent realizat în revista JAMA Psychiatry a constatat că algoritmii meniți să prezică riscul de sinucidere s-au comportat mult mai rău la indivizii indieni negri și americani / nativi din Alaska decât la indivizii albi, parțial pentru că au existat mai puțini pacienți de culoare în sistemul medical și parțial deoarece pacienții de culoare au fost mai puțin susceptibili de a primi tratament și diagnostice adecvate, în primul rând, ceea ce înseamnă că datele originale au fost distorsionate pentru a le subestima riscul.

Prejudecata nu poate fi niciodată complet evitată, dar poate fi abordată, a spus Bernhardt Trout, profesor de inginerie chimică la Institutul de Tehnologie din Massachusetts, care predă un curs profesional de AI și etică. Vestea bună, a spus Trout pentru Live Science, este că reducerea prejudecății este o prioritate absolută atât în ​​mediul academic, cât și în industria AI.

„Oamenii din comunitate [științifică] sunt foarte conștienți de această problemă și încearcă să o abordeze”, a spus el.

Supravegherea guvernului

Utilizarea greșită a AI, pe de altă parte, este poate mai dificilă, a spus Trout. Modul în care este utilizată AI nu este doar o problemă tehnică; este la fel de mult o întrebare politică și morală. Și aceste valori variază foarte mult de la o țară la alta.

„Recunoașterea facială este un instrument extraordinar de puternic în unele cazuri pentru a face lucruri bune, dar dacă doriți să supravegheați pe toată lumea de pe o stradă, dacă doriți să-i vedeți pe toți cei care se prezintă la o demonstrație, puteți pune AI la treabă”, a spus Smith BBC. „Și vedem asta în anumite părți ale lumii”.

China a început deja să utilizeze tehnologia inteligenței artificiale atât în ​​mod banal, cât și în mod alarmant. Recunoastere faciala , de exemplu, este utilizată în unele orașe în locul biletelor din autobuze și trenuri. Dar asta înseamnă, de asemenea, că guvernul are acces la date abundente despre mișcările și interacțiunile cetățenilor, a constatat „Panorama” BBC. Grupul de sprijin IPVM din SUA, care se concentrează pe etica supravegherii video, a găsit documente care sugerează planuri ale Chinei pentru a dezvolta un sistem numit „O persoană, un dosar”, care să colecteze activitățile, relațiile și convingerile politice ale fiecărui rezident într-un dosar guvernamental.

„Nu cred că Orwell și-ar fi imaginat vreodată că un guvern ar fi capabil de acest tip de analiză”, a declarat Conor Healy, directorul IPVM, pentru BBC.

Celebrul roman „1984” al lui Orwell a descris o societate în care guvernul urmărește cetățenii prin intermediul „ecranelor”, chiar și acasă. Dar Orwell nu și-a imaginat capacitățile pe care inteligența artificială le-ar adăuga supravegherii – în romanul său, personajele găsesc modalități de a evita supravegherea video, dar vor fi turnați de concetățeni. 

În regiunea autonomă Xinjiang, unde minoritatea uigură a acuzat guvernul chinez de tortură și genocid cultural , AI este folosită pentru a urmări oamenii și chiar pentru a le evalua vinovăția atunci când sunt arestați și interogați, a constatat BBC. Este un exemplu al tehnologiei care facilitează abuzul pe scară largă al drepturilor omului: Consiliul pentru relații externe estimează că un milion de uiguri au fost reținuți cu forța în tabere de „reeducare” începând cu 2017, de obicei fără acuzații penale sau căi legale de scăpare.

Amânarea adoptării legii

Potențiala reglementare a AI în UE ar interzice sistemele care încearcă să înșele liberul arbitru al utilizatorilor sau sistemele care permit orice fel de „evaluare socială” din partea guvernului. Alte tipuri de aplicații sunt considerate „cu risc ridicat” și trebuie să îndeplinească cerințele de transparență, securitate și supraveghere pentru a fi introduse pe piață. Acestea includ lucruri precum AI pentru infrastructura critică, aplicarea legii, controlul frontierelor și identificarea biometrică, cum ar fi sistemele de identificare a feței sau a vocii. Alte sisteme, precum chat-urile de servicii pentru clienți sau jocurile video compatibile cu AI, sunt considerate cu risc scăzut și nu fac obiectul unui control strict.

În schimb, interesul guvernului federal american pentru inteligența artificială s-a concentrat în mare măsură pe încurajarea dezvoltării AI în scopuri de securitate națională și militare. Această concentrare a dus ocazional la controverse. În 2018, de exemplu, Google și-a ucis Proiectul Maven, un contract cu Pentagonul care ar fi analizat automat videoclipurile realizate de avioane militare și drone. Compania a susținut că obiectivul era doar semnalizarea obiectelor pentru examinare umană, dar criticii se temeau că tehnologia ar putea fi utilizată pentru a viza automat persoanele și locurile pentru loviturile cu drone. Denunțătorii din cadrul Google au adus la lumină proiectul, ducând în cele din urmă la o presiune a publicului suficient de puternică încât compania și-a anulat efortul.

Cu toate acestea, Pentagonul cheltuiește acum mai mult de 1 miliard de dolari pe an pentru contracte de AI, iar aplicațiile de securitate militară și națională ale învățării automate sunt inevitabile, având în vedere entuziasmul Chinei pentru realizarea supremației AI, a spus Trout.

„Nu puteți face prea multe pentru a împiedica dorința unei țări străine de a dezvolta aceste tehnologii”, a spus Trout pentru Live Science. „Și, prin urmare, cel mai bun lucru pe care îl puteți face este să le dezvoltați singuri pentru a le putea înțelege și a vă proteja, fiind în același timp lider moral”. 

Între timp, eforturile de a restrânge AI pe plan intern sunt conduse de guvernele de stat și locale. Cel mai mare district din statul Washington, districtul King, tocmai a interzis utilizarea de către guvern a programelor de recunoaștere facială. Este primul district din SUA care a făcut acest lucru, deși orașul San Francisco a făcut aceeași mișcare în 2019, urmat de o mână de alte orașe.

Deja, au existat cazuri de software de recunoaștere facială care au dus la arestări false. În iunie 2020, un bărbat negru din Detroit a fost arestat și reținut pentru 30 de ore în detenție, deoarece un algoritm l-a identificat în mod fals ca suspect într-un caz de furt din magazine. Un studiu din 2019 realizat de Institutul Național de Standarde și Tehnologie a constatat că software-ul a returnat mai multe potriviri false pentru indivizii negri și asiatici în comparație cu indivizii albi, ceea ce înseamnă că tehnologia este susceptibilă să adâncească discrepanțele în cazul persoanelor de culoare.

„Dacă nu adoptăm, acum, legile care vor proteja publicul în viitor, vom descoperi în curând că tehnologia conduce în această cursă”, a spus Smith, „și va fi foarte dificil de recuperat.”

Documentarul complet este disponibil pe YouTube.

Originally published on Live Science.

Comentariu mucenicul:

Din păcate, YouTube, în stilul său caracteristic în ultima vreme, a interzis acest video apărut pe 26 mai 2021. Dacă știți un alt loc unde poate fi vizionat vă rog să lăsați un comentariu.

 

 

%d blogeri au apreciat: