Paula Guerra: «Adimen artifiziala ikuspuntu bat da»

  • Albistea entzun

Paula Guerra militante antirrazistak (Santiago, Txile, 1976) adierazi du teknologia arduraz erabili behar dela, estigmarik elikatu ez dezan. Izan ere, algoritmoak ere arrazistak izan daitezke, eta «botere harreman historikoak iraunarazi».

Europako Batasunak aurki onartuko du Adimen Artifizialaren Legea, eta aurrerapauso bat izango dela uste du, baina ez dela nahikoa.

closeLatinez, 'berez', 'norberak erabakita'.
Algoraceren azken txostenak dio adimen artifiziala ideologia bat dela, eta ez teknologia. Zergatik?

Adimen artifiziala ikuspuntu bat da. Gizaki batek programatzen ditu hura osatzen duten algoritmoak, eta gehienetan pertsona hori gizon zisgeneroacloseBere ezaugarri biologikoengatik jaiotzean ezarri zaion generokoa sentitzen dena.
, zuria, heterosexuala, arrazista eta abar izaten da. Beraz, algoritmoak egiten dituen horren ikuskeracloseZerbait ikusteko era.
islatzen dute programa horiek.

Nola izan daiteke adimen artifiziala arrazista?

Joy Buolamwini ikerlari afro-amerikarrak, esaterako, aurpegiak identifikatzeko sistemen algoritmoen alboraketa frogatu zuen. Maskara zuri bat jantzi behar izan zuen algoritmoak aurpegia irakur ziezaion.

«Joy Buolamwini ikerlari afro-amerikarrak maskara zuri bat jantzi behar izan zuen algoritmoak aurpegia irakur ziezaion».

Paula Guerra (militante antirrazista)

Beste kolektibo batzuei ere kalte egiten die?

Noski. Botere harreman historikoak iraunarazten ditu. Pribilegiodunei mesede egiten die, eta gehien estigmatizatucloseNorbaiti marka iraingarri edo lotsagarri bat ezarri.
riko sektoreei kalte.

90eko hamarkadako urtekaria irudikatzen duen aplikazioa da adibideetako bat.

Bai, eta gogor salatu dugu hori. Aplikazio horrek edozein pertsona gizen argal bilakatzen du automatikoki, norberaren institutuko garaiak irudikatu nahian, ustez. Lodifobia closePertsona lodiek pairatzen duten indarkeria.
da hori. Mezu argia helarazten du: horrelakoa izan behar zenuen institutuan. Horrek eragin dezake gaindituriko elikadura nahasmenduetan edo depresio batean berriz erortzea.

Izan ere, arintasunez hartzen dira maiz gisa horretako aplikazioak.

Orokorra da hori, bai. Jendeak uste du adimen artifiziala darabilten aplikazioak guaiak direla, sinpatikoak, eta bizitza errazten dutela; hala izan daiteke, baina, eskubideez ari garenean, kontuz ibili behar da.

«Jendeak uste du adimen artifiziala darabilten aplikazioak guaiak direla (...) baina, eskubideez ari garenean, kontuz ibili behar da».

Paula Guerra (militante antirrazista)

Gainera, Wikipedia izan ohi da aplikazio horien iturri nagusia.

Askorentzat, Wikipedia da gauza askoren iturri ofiziala. Han agertzen bada, egia da; baina ez da hala. Gainera, boterearen asimetriacloseSimetriarik eza.
betikotzen du horrek, webgune horretako eduki gehienak Mendebaldeko hizkuntzetan idatzirik baitaude.

Europako Batasunak aurki onartuko du Adimen Artifizialaren Legea.

Legedia eztabaidatzen ari dira oraingoz, baina espero dugu abenduan-edo martxan jartzea.

Zer arautuko du legeak?

Adimen artifizialaren garapena, erabilera eta berrikuspena.

Nahikoa izanen da?

Aurrerapauso bat da, baina mugimendu sozial batzuendako ez da aski.

Zer dela eta?

Legearen arabera, giza eskubideen aurkakoa da aurpegiak identifikatzeko sistemetan adimen artifiziala erabiltzea toki publikoetan, baina, aldi berean, modua ematen du herrialdeetako mugetan erabiltzeko, segurtasun kontuak argudiatuta. Beraz, beste behin, pertsonak mailakatu egiten ditu EBk. Izugarrizko kontraesana da hori.

LobbyclosePresio taldea.
teknologikoen rola ere salatu duzue.

Bai. Adimen artifiziala arriskuaren arabera sailkatzeko zerrenda moduko bat biltzen du legeak, baina produktu hori bera sortu duten enpresariek ezarriko dute arriskua zenbatekoa den. Noski, ez dute motu propriocloseLatinez, 'berez', 'norberak erabakita'.
beren produktua arriskutsutzat joko. Hain zuzen, lobbyei esker gertatu da hori, testu originalak ez baitzien aitortzen halako eskumenikcloseAhalmenik.
. Hori salatzen ari gara, preseski, gizarte mugimenduok.

«Adimen artifiziala arriskuaren arabera sailkatzeko zerrenda moduko bat biltzen du legeak, baina produktu hori bera sortu duten enpresariek ezarriko dute arriskua zenbatekoa den».

Paula Guerra (militante antirrazista)

Zeozer onuragarria izanen du, ez?

Bai. Legea martxan jartzen denean, EBko enpresa eta administrazio guztiak beharturik egonen dira beren esku dagoen adimen artifizialeko teknologia guztiaren berri ematera, datu base komuncloseGuztiei dagokiena.
batean. Izan ere, enpresek nahi dutena egin dezakete orain, inongo muga eta araudirik gabe.

Adibide bat?

Espainiako Gobernuaren VioGen sistema, esaterako. Genero indarkeria sufritu duten biktimek hainbat itemcloseMultzo bateko banakoa.
neurtzen dituen galdetegi bati erantzuten diote, eta horren arabera erabakitzen du algoritmoak zer-nolako laguntza behar duten. Arazoa da hainbatetan algoritmoak ez duela detektatzen arriskua: hala, emakume askok ez dute beharrezko laguntza lortzen, eta, beraz, arriskuan egoten dira.

Nola konpondu hori?

Algoritmo bat giza eskubideak ukitzen ari bada, publikoa izan behar du, ikuskatua izateko, eta espero diren emaitzak eman ezean ezeztatzeko. Egun ez dago modurik teknologia horiek kontrolatzeko. Baina errotik heldu behar zaio arazoari: nork bere burua deseraikicloseEraiki dena desegin.
behar du, eta horretan lan egin.

«Algoritmo bat giza eskubideak ukitzen ari bada, publikoa izan behar du, ikuskatua izateko».

Paula Guerra (militante antirrazista)

Jatorrizko artikuluak