|

Tehnologie

Când tehnologia devine instrument de discriminare, hărţuire şi opresiune

-A A +A

Când tehnologia devine instrument de discriminare, hărţuire şi opresiune
foto: www.onlinewebfonts.com/icon/458515
Un test psihologic popular cere participantului să indice cuvântul (conceptul) care i se pare cel mai potrivit să fie adăugat unei comparaţii. Testul indică asocierea cea mai puternică în mintea cuiva legată de ceva anume. De exemplu, în comparaţia „picioarele sunt pentru cal precum ... pentru automobil”, cuvântul lipsă pe care, probabil, majoritatea l-am adăuga este „roţile”. Sau, în propoziţia „Gura este pentru om la fel ca ... pentru pasăre”, cuvântul căutat este „cioc”. Normal, nu-i aşa? Să continuăm. În exemplul „Medicul este pentru bărbat precum ... pentru femeie”, mulţi dintre participanţi ar alege „asistenta” sau, în propoziţia „Directorul este pentru bărbat precum ... pentru femeie”, destui ar zice „secretara”. Aici însă apare necazul: ultimele două propoziţii sunt în mod evident nedrepte, discriminante, dacă nu de-a dreptul jignitoare la adresa femeilor. Nimic pe lumea asta, nici un argument biologic sau psihologic, nu justifică opinia că bărbaţii sunt mai apţi pentru meseria de medic decât sunt femeile, la fel cum bărbaţii nu sunt mai talentaţi în a fi directori. Astfel, realitatea actuală, în care procentul bărbaţilor în funcţii de conducere, precum cea de director, este mult mai mare decât procentul femeilor director nu este altceva decât continuarea secolelor de discriminare puternică a femeilor şi a tradiţiei nefericite în care bărbaţii ocupau cu prioritate funcţiile de conducere şi de decizie.
În cartea „Technically wrong. Sexist apps, biased algorithms and other threats of toxic tech”, scrisă de Sara Wachter-Boettcher şi publicată în 2017, se discută în detaliu despre felul în care tehnologiile moderne, dar mai ales aplicaţiile smart, cele pentru social networking şi nu numai (Facebook, Twitter, PureGym, Apple Siri, Snapchat, Glow, Etsy, TimeHop, Tumblr), s-au transformat în instrumente periculoase de discriminare, hărţuire, intimidare şi opresiune. În opinia autoarei, ruptura s-a produs din cauza atmosferei şi a culturii elitiste şi arogante cultivate şi perpetuate de companiile din high tech, mai ales de cele din Silicon Valley, care trăiesc în mirajul că ele - şi doar ele - deţin cei mai talentaţi, cei mai ambiţioşi şi cei mai inteligenţi angajaţi, geniile din IT, astfel că orice idee, proiect şi produs gândit de ei va fi un succes colosal – „o magie” - ce va schimba lumea de la rădăcină. Unul dintre exemplele cărţii descrie proiectul pentru crearea primului ceas smart, Apple, destinat special femeilor, adică un ceas în ton cu moda şi adaptat dorinţelor femeilor, notorie fiind lipsa de estetică şi eleganţă a ceasurilor smart de pe piaţă. Deşi s-a făcut o documentare serioasă pe bază de sondaje de piaţă minuţioase, propunerile venite de la designeri femei au fost criticate, combătute şi, în final, eliminate de grupul bărbaţilor cu putere de decizie în companie (şi a căror vanitate a fost aşa de mare, încât au crezut că înţeleg mult mai bine dorinţele şi preferinţele femeilor decât ele însele)... Vanitatea şi aroganţa nu substituie însă realitatea: ceasul construit pentru femei, după gusturi masculine, a fost un imens eşec de piaţă. Vorbind despre vanitatea geniilor din IT, aceasta este aşa de mare încât, potrivit zvonurilor, bogaţii din acest domeniu aflaţi la vârsta de treizeci şi un pic de ani îşi fac operaţii estetice pentru a arăta ca cei de douăzeci de ani.
Statisticile arată că actuala forţă de muncă în high tech este preponderent masculină, albă sau de origine asiatică, deşi nu există nici o explicaţie ştiinţifică care să sugereze că aceşti angajaţi sunt mai capabili sau mai talentaţi decât restul populaţiei. Astfel, în carte se spune că 77 la sută dintre angajaţii companiei Apple aflaţi în pozitii tehnice sunt bărbaţi, iar Google are 81 la sută. Cifre asemănătoare există şi pentru restul companiilor high tech, deşi studiile în psihologie şi sociologie arată că echipele mixte şi cu diversitate mare sunt mai productive, mai flexibile şi mai creative decât echipele omogene demografic. Explicaţia oficială a companiilor pentru acest dezechilibru este că universităţile nu educă suficiente femei în disciplinele high tech, deşi o analiză atentă sugerează că pe departe criteriul cel mai important la angajare este măsura în care candidatul se potriveşte culturii deja existente în companie, cultură care, aşa cum am spus, este dominată de bărbaţi, albi sau de origine asiatică. Consecinţa este, bineînţeles, perpetuarea status-quo-ului demografic, deşi nu rareori se ajunge la situaţii absurde, precum cele în care un grup de bărbaţi, destui la vârsta a doua, decid gusturile de modă ale femeilor, ba chiar şi cum acestea trebuie să-şi „planifice” şi „gestioneze” perioada când sunt gravide, inclusiv stările emoţionale (aici, cartea dă exemplul companiei Glow, condusă de patru bărbaţi, dar specializată în a ajuta femeile să rămână însărcinate).
Cartea oferă multe argumente convingătoare la observaţia că suficiente produse şi aplicaţii high tech de acum perpetuează, ba chiar solidifică, discriminări şi defavorizări deja adânc încastrate în societate şi în viaţa noastră de zi cu zi. Motivul este acela că mai toţi algoritmii moderni de predicţie a efectelor, rezultatelor şi situaţiilor viitoare se bazează pe datele culese despre trecut, potrivit vorbei populare „trecutul prezice viitorul”. Astfel, dacă ceva s-a întâmplat într-un fel în trecut, există toate şansele să se repete şi în viitor. Însă când legile viitorului nu sunt aceleaşi cu ale trecutului, pentru că societatea se transformă (acum zece ani nu era ca acum, nu-i aşa?), aceşti algoritmi ajung să perpetueze vechi stereotipuri şi şabloane, în final punându-le o piedică în plus celor care au fost deja defavorizaţi. Un exemplu ar fi cel în care statisticile arată că populaţia romă a avut în trecut şcoală mai puţină decât restul populaţiei, prin urmare asigurările lor de sănătate şi de viaţă trebuie să fie mai scumpe din moment ce există o corelaţie puternică între gradul de sănătate a unui om şi educaţia sa. În plus, este extrem de uşor să foloseşti datele culese de-a lungul vremii pentru a găsi punctele slabe ale unei persoane, pe care să o bombardezi apoi cu oferte speculând slăbiciunea sa (să zicem, pasiunea unui individ supraponderal pentru pizza, îngheţată şi prăjituri sau a unui fumător pasionat pentru ţigări scumpe).
Cartea a fost un imens şoc pentru mine. Eu am considerat în permanenţă că produsele high tech sunt neutre, apolitice, nerasiste, nexenofobe, nemisogine etc., pentru că un software executat pe un calculator nu are opinii, nu are preferinţe şi nu are antipatii. Nu mi-a trecut o secundă prin minte că extrăgând tiparele trecutului pentru a le aplica în deciziile noastre viitoare perpetuăm şi cimentăm injustiţii şi nedreptăţi. Că cineva va suferi intens. Bineînţeles, situaţia aceasta este injustă şi trebuie schimbată. În cazul meu, dintre studenţii pe care i-am îndrumat pentru doctorat şi teza de master, 14 sunt băieţi şi 10 fete. Adică, 58 la sută băieţi vs. 42 la sută fete, totuşi, mult mai bine decât raportul 81 la sută baieti vs. 19 la sută fete de la Google.
Ne oprim aici şi vom continua săptămâna viitoare cu o altă pastilă de high tech.

Alex Doboli


Alex Doboli este profesor universitar doctor în Departamentul „Electrical and Computer Engineering”, Stony Brook University, The State University of New York, SUA. Este autorul unei cărţi şi a peste 150 de articole ştiinţifice. A îndrumat 14 teze de doctorat în ingineria calculatoarelor. Foştii săi doctoranzi lucrează în companii cunoscute din high tech, între care IBM, Google, ARM şi Cadence.

Aprecierea dvs: - Media: 5 steluţe (2 voturi)

Comentarii

Comentariu nou

Conţinutul acestui câmp va fi considerat confidenţial şi nu va fi făcut public. If you have a Gravatar account associated with the e-mail address you provide, it will be used to display your avatar.

Copyright © 2000-2014 Mesagerul de Bistriţa-Năsăud
Str. Gheorghe Sincai, nr. 37, Telefon: 0263-234.688, 0263-234.689, 0740-030.550, 0758-837.291, E-mail: [email protected]

Close