Tehnologie

Unii oameni iubesc inteligența artificială, alții o urăsc. Iată de ce

Indiferent dacă iubești sau urăști inteligența artificială, aceasta are mult de-a face cu modul în care creierul tău procesează riscurile și încrederea.

De la crearea de e-mailuri prin ChatGPT, la sistemele de inteligență artificială care recomandă emisiuni TV și chiar ajută la diagnosticarea bolilor, prezența inteligenței artificiale în viața de zi cu zi nu mai este science fiction.

Și totuși, în ciuda tuturor promisiunilor de viteză, precizie și optimizare, există un disconfort persistent. Unor oameni le place să folosească instrumente de inteligență artificială. Alții se simt anxioși, suspicioși, chiar trădați de acestea. De ce?

Răspunsul nu este doar despre cum funcționează inteligența artificială. Este vorba despre cum funcționăm noi. Nu o înțelegem, așa că nu avem încredere în ea. Ființele umane sunt mai predispuse să aibă încredere în sistemele pe care le înțeleg. Instrumentele tradiționale sunt familiare: rotești o cheie și o mașină pornește. Apeși un buton și sosește un lift.

Însă multe sisteme de inteligență artificială funcționează ca niște cutii negre: tastezi ceva și apare o decizie. Logica dintre acestea este ascunsă. Din punct de vedere psihologic, acest lucru este tulburător. Ne place să vedem cauza și efectul și ne place să putem interoga deciziile. Când nu putem, ne simțim neputincioși. Acesta este unul dintre motivele pentru ceea ce se numește aversiune față de algoritmi. Acesta este un termen popularizat de cercetătorul de marketing Berkeley Dietvorst și colegii săi, ale cărui cercetări au arătat că oamenii preferă adesea judecata umană eronată în locul luării deciziilor algoritmice, în special după ce au fost martori chiar și la o singură eroare algoritmică.

Știm, rațional, că sistemele de inteligență artificială nu au emoții sau agende. Dar asta nu ne împiedică să le proiectăm asupra sistemelor de inteligență artificială. Când ChatGPT răspunde „prea politicos”, unii utilizatori consideră acest lucru straniu. Când un motor de recomandări devine puțin prea precis, pare intruziv. Începem să suspectăm manipularea, chiar dacă sistemul nu are sine. Aceasta este o formă de antropomorfism – adică atribuirea de intenții asemănătoare oamenilor sistemelor non-umane. Profesorii de comunicare Clifford Nass și Byron Reeves, împreună cu alții, au demonstrat că reacționăm social la mașini, chiar știind că nu suntem oameni.

O descoperire curioasă din știința comportamentală este că adesea iertăm mai mult erorile umane decât cele ale mașinilor. Când un om greșește, o înțelegem. Am putea chiar empatiza. Dar când un algoritm greșește, mai ales dacă a fost prezentată ca fiind obiectivă sau bazată pe date, ne simțim trădați.

Acest lucru se leagă de cercetările privind încălcarea așteptărilor, atunci când presupunerile noastre despre cum „ar trebui” să se comporte ceva sunt perturbate. Acest lucru provoacă disconfort și pierderea încrederii. Avem încredere că mașinile sunt logice și imparțiale. Așadar, atunci când acestea eșuează, cum ar fi clasificarea greșită a unei imagini, furnizarea de rezultate părtinitoare sau recomandarea a ceva extrem de nepotrivit, reacția noastră este mai ascuțită. Ne așteptam la mai mult.

Ironia? Oamenii iau decizii greșite tot timpul. Dar cel puțin îi putem întreba „de ce?”

Urăm când IA greșește

Pentru unii, IA nu este doar o problemă nefamiliară, ci este și tulburătoare din punct de vedere existențial. Profesorii, scriitorii, avocații și designerii se confruntă brusc cu instrumente care reproduc părți din munca lor. Nu este vorba doar despre automatizare, ci despre ceea ce face ca abilitățile noastre să fie valoroase și ce înseamnă să fii om. Acest lucru poate activa o formă de amenințare la adresa identității, un concept explorat de psihologul social Claude Steele și alții. Descrie teama că expertiza sau unicitatea cuiva este diminuată. Rezultatul? Rezistență, defensivă sau respingerea totală a tehnologiei. Neîncrederea, în acest caz, nu este o eroare – este un mecanism psihologic de apărare.

Tânjirea după indicii emoționale

Încrederea umană se bazează pe mai mult decât logică. Citim tonul, expresiile faciale, ezitarea și contactul vizual. IA nu are niciuna dintre acestea. Poate fi fluentă, chiar fermecătoare. Dar nu ne liniștește așa cum o poate face o altă persoană. Acest lucru este similar cu disconfortul din valea stranie, un termen inventat de roboticianul japonez Masahiro Mori pentru a descrie sentimentul straniu atunci când ceva este aproape uman, dar nu chiar. Arată sau sună corect, dar ceva pare ciudat. Această absență emoțională poate fi interpretată ca răceală sau chiar înșelăciune.

Într-o lume plină de deepfake-uri și decizii algoritmice, acea rezonanță emoțională lipsă devine o problemă. Nu pentru că IA face ceva greșit, ci pentru că nu știm cum să ne simțim în legătură cu asta. Este important de spus: nu toate suspiciunile față de IA sunt iraționale. S-a demonstrat că algoritmii reflectă și întăresc prejudecățile, în special în domenii precum recrutarea, poliția și scorarea creditelor. Dacă ați fost prejudiciat sau dezavantajat de sistemele de date înainte, nu sunteți paranoic, sunteți precaut.

Publicitate


Articole asemănătoare:

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Back to top button