ATZEKOZ AURRERA. Paula Guerra. Militante antirrazista

«Adimen artifiziala ikuspuntu bat da»

Guerrak adierazi du teknologia arduraz erabili behar dela, estigmarik elikatu ez dezan. Izan ere, algoritmoak ere arrazistak izan daitezke, eta «botere harreman historikoak iraunarazi».

IÑIGO URIZ / FOKU.
inaki rubio
Iruñea
2023ko urriaren 25a
00:00
Entzun

Pentsamendua deskolonizatu egin behar da, baina baita teknologia ere. Horretan dihardu Paula Guerra militante antirrazistak (Santiago, Txile, 1976), Algorace elkarteko kideekin batera. Iruñean izan da berriki, adimen artifizialaren eta arrazakeriaren arteko erlazioaz solasean.

Algoraceren azken txostenak dio adimen artifiziala ideologia bat dela, eta ez teknologia. Zergatik?

Adimen artifiziala ikuspuntu bat da. Gizaki batek programatzen ditu hura osatzen duten algoritmoak, eta gehienetan pertsona hori gizon zisgeneroa, zuria, heterosexuala, arrazista eta abar izaten da. Beraz, algoritmoak egiten dituen horren ikuskera islatzen dute programa horiek.

Nola izan daiteke adimen artifiziala arrazista?

Joy Buolamwini ikerlari afro-amerikarrak, esaterako, aurpegiak identifikatzeko sistemen algoritmoen alboraketa frogatu zuen. Maskara zuri bat jantzi behar izan zuen algoritmoak aurpegia irakur ziezaion.

Beste kolektibo batzuei ere kalte egiten die?

Noski. Botere harreman historikoak iraunarazten ditu. Pribilegiodunei mesede egiten die, eta gehien estigmatizaturiko sektoreei kalte.

90eko hamarkadako urtekaria irudikatzen duen aplikazioa da adibideetako bat.

Bai, eta gogor salatu dugu hori. Aplikazio horrek edozein pertsona gizen argal bilakatzen du automatikoki, norberaren institutuko garaiak irudikatu nahian, ustez. Lodifobia da hori. Mezu argia helarazten du: horrelakoa izan behar zenuen institutuan. Horrek eragin dezake gaindituriko elikadura nahasmenduetan edo depresio batean berriz erortzea.

Izan ere, arintasunez hartzen dira maiz gisa horretako aplikazioak.

Orokorra da hori, bai. Jendeak uste du adimen artifiziala darabilten aplikazioak guaiak direla, sinpatikoak, eta bizitza errazten dutela; hala izan daiteke, baina, eskubideez ari garenean, kontuz ibili behar da.

Gainera, Wikipedia izan ohi da aplikazio horien iturri nagusia.

Askorentzat, Wikipedia da gauza askoren iturri ofiziala. Han agertzen bada, egia da; baina ez da hala. Gainera, boterearen asimetria betikotzen du horrek, webgune horretako eduki gehienak Mendebaldeko hizkuntzetan idatzirik baitaude.

Europako Batasunak aurki onartuko du Adimen Artifizialaren Legea.

Legedia eztabaidatzen ari dira oraingoz, baina espero dugu abenduan-edo martxan jartzea.

Zer arautuko du legeak?

Adimen artifizalaren garapena, erabilera eta berrikuspena.

Nahikoa izanen da?

Aurrerapauso bat da, baina mugimendu sozial batzuendako ez da aski.

Zer dela eta?

Legearen arabera, giza eskubideen aurkakoa da aurpegiak identifikatzeko sistemetan adimen artifiziala erabiltzea toki publikoetan, baina, aldi berean, modua ematen du herrialdeetako mugetan erabiltzeko, segurtasun kontuak argudiatuta. Beraz, beste behin, pertsonak mailakatu egiten ditu EBk. Izugarrizko kontraesana da hori.

Lobby teknologikoen rola ere salatu duzue.

Bai. Adimen artifiziala arriskuaren arabera sailkatzeko zerrenda moduko bat biltzen du legeak, baina produktu hori bera sortu duten enpresariek ezarriko dute arriskua zenbatekoa den. Noski, ez dute motu proprio beren produktua arriskutsutzat joko. Hain zuzen, lobbyei esker gertatu da hori, testu originalak ez baitzien aitortzen halako eskumenik. Hori salatzen ari gara, preseski, gizarte mugimenduok.

Zeozer onuragarria izanen du, ez?

Bai. Legea martxan jartzen denean, EBko enpresa eta administrazio guztiak beharturik egonen dira beren esku dagoen adimen artifizialeko teknologia guztiaren berri ematera, datu base komun batean. Izan ere, enpresek nahi dutena egin dezakete orain, inongo muga eta araudirik gabe.

Adibide bat?

Espainiako Gobernuaren VioGen sistema, esaterako. Genero indarkeria sufritu duten biktimek hainbat item neurtzen dituen galdetegi bat erantzuten dute, eta horren arabera erabakitzen du algoritmoak zer-nolako laguntza behar duten. Arazoa da hainbatetan algoritmoak ez duela detektatzen arriskua: hala, emakume askok ez dute beharrezko laguntza lortzen, eta, beraz, arriskuan egoten dira.

Nola konpondu hori?

Algoritmo bat giza eskubideak ukitzen ari bada, publikoa izan behar du, ikuskatua izateko, eta esperotako emaitzak eman ezean ezeztatzeko. Egun ez dago modurik teknologia horiek kontrolatzeko. Baina errotik heldu behar zaio arazoari: nork bere burua deseraiki behar du, eta horretan lan egin.

Iruzkinak
Ez dago iruzkinik

Ordenatu
0/500
Interesgarria izango zaizu
Nabarmenduak
Orain, aldi berria dator. Zure aldia. 2025erako 3.000 babesle berri behar ditugu iragana eta geroa orainaldian kontatzeko.