Twitterrek algoritmo bat erabiltzen du argazkiak mozteko, irudi osoa erakusterik ez duenean. Nola moztu erabakitzen du sistemak, irudiaren zatirik interesgarriena zein den jakiteko trebatuta dagoelako. Frogatu dutenez, ordea, algoritmoa ez da neutrala, eta aurrejuzguak dauzka: aukeran nahiago ditu aurpegi lirainak, gazteak eta zuriak. Hau da, argazki berean hainbat pertsona agertzen badira, ezaugarri horiek dituztenetan jarriko du arreta algoritmoak, eta, ondorioz, lodiak, zaharrak eta beltzaranak ezkutatzeko joera izango du.
Hala frogatu du Bogdan Kulinitx doktoregaiak, Lausanako Eskola Politekniko Federalean (Suitza). Lehen ere salatu izan dute Twitterren algoritmo horrek aurrejuzguak dituela, baina, oraingoan, sare sozialak berak ordaindutako lehiaketa batean egin dute. Twitterrek 3.000 euro inguru ordainduko dizkio ikasleari, akatsa topatzeagatik. Lehen aldiz antolatu du sare sozialak algoritmoen hutsak topatzeko lehiaketa, Las Vegaseko (AEB) DEF CON segurtasun informatikoaren inguruko konferentzian. Mundu osoko aditu eta hackerrak biltzen dira han urtero, uztailaren azken astean edo abuztuaren lehenengoan.
Aurpegi artifizialak
Zaila izaten da batzuetan adimen artifizialeko algoritmoen aurrejuzguak atzematea, sistema ilunak baitira: hau da, lan bat egiten ikasten dute, baina inork ez daki zehazki nola ikasi duten. Nola jakin aurpegi bat aukeratu duela gazteagoa, lirainagoa eta zuriagoa delako, eta ez sudurraren formarengatik edo beste arrazoiren batengatik? Kulinitxek arazo horri ihes egin dio aurpegi artifizialak erabiliz. Ordenagailuz sorturiko aurpegiak izanik, sortzen guztiz berdinak diren bisaiak sortu ahal izan ditu, baina, gero, aldaketa txikiak egin dizkie liraintasuna, adina eta azalaren kolorea moldatzeko.
Horiek Twitterren algoritmoari emanik, ikusi du hark joera duela aurpegi gazteak, lirainak eta zuriak aukeratzeko.
Esperimentuan, azalaren kolorea zuritzeak, irudian agertzeko aukerak handitu ditu kasuen %37tan.
Aurpegiak gaztetzeak kasuen %18tan handitu du algoritmoak hura hautatzeko aukera.
Liraintzeak ere kasuen %18tan handitu du aukera.
Algoritmoak badu emakumezkoen aurpegien aldeko joera ere. Bisaiak emeago egiteak hautatuak izateko aukerak handitu ditu kasuen laurdenetan.
2020an ere salatu zituzten sare sozialetako irudi algoritmoek bereizkeriarako joera zutela. Erabiltzaile askok esan zuten zurien aurpegiak nahiago zituela beltzenak baino. Salatzaileen arabera, txakur zuriak ere lehenesten zituen, beltzen aurretik. Konpainiaren ingeniariek, ordea, aurrejuzgu arina baino ez zuten atzeman. Horregatik, Twitterrek erabaki zuen sariketa bat antolatzea.
«Iragazki horiek sortzen ditugu 'ederra' hori dela uste dugulako, eta horrek amaieran gure ereduak trebatzen ditu, eta eragiten erakargarritasunaren inguruko ideia ez-errealista horiek», esan du Rumman Chowdhury Twitterreko Adimen Artifizialeko Etikako taldeko buruak, konferentzian bertan.
Baina aurrejuzgua frogatu duen ikertzaileak arazoa larriagoa dela uste du: «Hasteko, algoritmoen kalteak ez dira bakarrik 'akatsak'. Teknologia kaltegarri askok ez du kaltea egiten istripuz, edo nahi gabeko akatsez, baizik eta diseinuz». Ikertzailearen arabera, jendearen arreta ahal bezainbeste erakartzeko ahaleginak eragindakoa da, eta etekinak lortzeko xedeak, kostuak beste batzuen bizkarrean utzita. «Esaterako, gentrifikazioa handitzea, soldatak jaistea, albiste amuak zabaltzea eta desinformazioa ez dira berez aurrejuzguak dituzten algoritmoen ondorio».
Edonola ere, erronka bota du ikertzaileak: Twitterren edukien algoritmoak ere modu berean aztertu beharko lirateke. «Hori mundiala litzateke».
Adimen artifizialeko sistemak gero eta gehiago erabili ahala, orduan eta maizago ari dira azaleratzen horiek dituzten aurrejuzguak, zeinak indartzen eta betikotzen dituzten.
Martxoaren hasieran, esaterako, Googleren itzulgailuaren estereotipo sexistak agerian utzi zituzten, euskara eta finlandiera erabilita.
Hizkuntzotan generorik markatzen ez duten esaldiak eman zizkioten gailuari, ingelesera itzultzeko, eta adimen artifizialak ohiko genero rolen estereotipoak agertzen dituela erakutsi zuten: «Hura triste dago», «Hark arrakasta du», «Hark haurrak zaintzen ditu»... Generorik gabeko esaldiok itzulita, sistemak erabaki zuen auto bat gidatzen badu gizonezkoa dela; haurrak zaintzen baditu, emakumezkoa; erizaina emakumea dela, eta ikertzailea, berriz, gizona.