Aterki bat zAApAArrAAdAAri

Herritarren lana arindu dute adimen artifizialeko sistemek. Adituen iritziz, halere, sistema horiek arautu beharra dago, nahi gabeko lerratzerik gabeak eta «justuak» izan daitezen.

Adimen artifiziala erreportajea
Olatz Silva Rodrigo.
2024ko martxoaren 28a
05:00
Entzun

Testu bat itzultzeko eskatu, eta segituan egin. Sare sozialetan, erabiltzaileak gustukoen dituen edukiak eskaini. Diru laguntza bat eskatu, eta hura eman edo ukatu. Hamaika dira adimen artifizialaren zereginak. Gaur egun, teknologia mota hori herritarren egunerokoaren parte bihurtu da, eta haren garapenak ez du etenik. Ezinbestekoa da, hortaz, sistema horiek gertutik ezagutzea, arriskurik ekar ez dezaten.

Azkenaldian harrabotsa piztu duen arren, adimen artifiziala ez da berria. «Hainbat esparru konkretutan, adimen artifizialeko sistemak aspaldi zabaldu ziren», zehaztu du Mikel Artetxek. Adimen artifizialarekin lan egiten duen Reka enpresaren sortzaileetako bat da, eta EHUko ikertzailea. Posta elektronikora ailegatzen den spama adimen artifizialeko sistemek detektatzen dute, esaterako. Gaur egun, baina, «helburu orokorragoak» dituzten sistemak hedatu dira, eta horiek «oihartzun handiagoa» izan dute; ChatGPT da horren adibide.

Eskuz egin beharreko ekintzak «automatizatzeko» aukera ematen du adimen artifizialak. «Lanaren automatizazioak positiboa izan behar luke: orain arte bezala bizitzea, lan gutxiago eginda; beste kontu bat da aberastasun hori nola banatzen den gizartean», azaldu du Artetxek.

Adimen artifizialak herritarren lana arindu badu ere, ugariak dira sistema horiek eragin ditzaketen arriskuak. Itziar Alkorta legelari eta EHUko irakasle eta ikertzailearen arabera, «norbanakoen borondate librea manipulatu» dezake, eta herritarren portaera aurreikusi: «Portaera aurreikusita, herritarrak sailkatzen dituzte, eta, horren arabera, tratu bat edo beste ematen diete». Batez ere, osasun arloko adimen artifiziala aztertzen du Alkortak.

Adimen artifiziala: filosofia eta teknologiaren bilgune liburuan, Usue Mori Carrascal eta Olatz Arbelaitz Gallego EHUko Informatika irakasleek gogoeta egin dute adimen artifizialaren justutasunaren inguruan. Liburu hori UEU Udako Euskal Unibertsitateko 50. ikastaroan egindako informatikari eta filosofoen arteko bilkuraren emaitza da. Moriren eta Arbelaitzen iritziz, adimen artifizialeko sistemez inguratuta egonda, ezinbestekoa da sistema horiek ahalik eta «justuenak» eta «alborapenik gabeak» izatea. «Adimen artifizialeko sistemek sekulako eragina eduki dezakete gure inguruan».

Adimen artifizialak eragin handiagoa izan dezake pertsona batzuengan, besteengan baino. Moriren eta Arbelaitzen arabera, sistemak diseinatzeko orduan, erabakiak pertsonek hartzen dituzte, eta, hortaz, «joeraz betetako sistemak» sortzen dituzte. Izan ere, «ez da kasualitatea» hizketa bidezko laguntzaileena: «Urteetan, emakume izen eta ahotsa izan dute lehenetsia, eta zerbitzurako dohainak dituenaren pertsonalitatea adierazten dute». Argi utzi dute sistemek «gizartearen eredua» errepikatzen dutela eta «bertan ageri den joera» islatzen dutela.

«Lanaren automatizazioak positiboa izan behar luke: orain arte bezala bizitzea, lan gutxiago eginda; beste kontu bat da aberastasun hori nola banatzen den gizartean».

MIKEL ARTETXEReka enpresaren kofundatzaile eta EHUko ikertzailea

Sexua ez da nahi gabeko lerratzea eragiten duen aldagai bakarra. Izan ere, «arrazaren auzia» aztertzeko sortu zuten duela bi urte Algorace elkartea. «Eskubide digitalen auzian, ikuspuntu antirrazista txertatu beharra ikusi genuen», azaldu du Youssef Ouled Algoraceko koordinatzaileak. Salatu duenez, arrazakeria «automatizatu» egin da adimen artifizialarekin: «Esaterako, poliziek erabiltzen dituzten sistemek polizien datuak jasotzen dituzte: sistemari esaten badiote kriminalitatearekin gehien lotzen dituzten pertsonak arrazializatuak direla, horiekin kontu handiagoa izateko esaten diete sistemei». Hortaz, sistema horiek ez dira neutralak. «Egiturazko desberdintasunak eta diskriminazioak dauden testuinguru batean eraikitzen dira», kritikatu du Ouledek.

«Giza ezaugarriak hartzen dituzten eta kuantifikatzen dituzten algoritmo matematikoek ondorio kaltegarriak eragiten dituzte, zenbait pertsona talderen aurkako alborapenak betikotuz», onartu dute Mori eta Arbelaitz informatika irakasleek. Hortaz, garrantzitsua da adimen artifizialari hainbat esparrutatik heltzea, sistemak «justuagoak» izateko.

Lantalde askotarikoak

Adimen artifizial justuago baterako bidean, ezinbestekoa da lantalde askotarikoak osatzea, Moriren eta Arbelaitzen ustetan. Izan ere, duela bi urte unibertsitate ikasketak egiten dituztenen %77 emakumeak ziren, baina Informatika ikasketetan, berriz, %88 gizonezkoak ziren. Aniztasunak modua emango du ideia diferenteak lantzeko eta «kasu esanguratsuak» zein diren jabetzea.

Sistemak sortu aurretik, garrantzitsua da erabiliko diren datuak aztertzea, nahi gabeko lerratzerik ez dela egongo ziurtatzeko. «Datuek, gizartearen isla izanik, estereotipoak adieraz ditzakete kontzienteki ala inkontzienteki». Halakorik ez gertatzeko, sistema bat sortzeko erabilitako laginak errealitatera egokitu beharko dira, ager daitezkeen kasu diferente guztietako adibideak jasota. Horrez gain, sistemek «gardenak» eta «azalpenak emateko gai» izan beharko lukete, herritarrek erabiltzen duten sistema ezagutu dezaten, eta aukera izan dezaten haiengandik jasotako erabakien zergatia zein izan den jakiteko. «Mailegu bat ematea edo ez, ezin da sexu, arraza edo antzekoen mende egon», argi utzi dute Morik eta Arbelaitzek.

«Giza ezaugarriak hartzen dituzten eta kuantifikatzen dituzten algoritmo matematikoek ondorio kaltegarriak eragiten dituzte zenbat pertsona talderen aurkako alborapenak betikotuz».

USUE MORI CARRASCAL ETA OLATZ ARBELAITZ GALLEGOEHUko Informatika irakasleak

Adimen artifiziala arautzearen aldekoak dira Alkorta eta Ouled. Izan ere, Europako Batasunak adimen artifiziala arautzeko legea onartu berri du. Herritarren segurtasuna bermatzea eta oinarrizko eskubideak errespetatzea du xede, baita berrikuntza sustatzea ere. Alkortaren arabera, legea «onargarria» den arren, emaitza «gazi-gozoa» izan da; Oulederentzat, berriz, akordioa «ezin txarragoa» da.

Legeak arriskuen arabera sailkatuko ditu teknologia hori erabiltzen duten sistemak. Pertsonei arriskurik handiena eragiten dieten sistemak debekatu egingo dituzte. Beste sistema batzuei, berriz, baldintza batzuk ezarriko dizkiete. Alkortaren iritziz, adimen artifizial mugatuak ondo araututa egongo dira aurrerantzean. Ez, ordea, orokorrak. Zein da diferentzia? Adimen artifizial mugatuek ataza edo portaera konkretuak bakarrik egin ditzakete. Orokorrek, berriz, gizakiek egin dezaketen edozein ataza egin dezakete.

Onartutako legeaz gain, adimen artifizialaren «erantzukizuna» arautuko duen beste lege batean ari dira lanean, Alkortak azaldu duenez. Sistemek sortzen dituzten «kalteak» nork ordaindu beharko dituen jasoko dute. Izan ere, adimen artifiziala martxan jartzean, hainbat lagunek hartzen dute parte; besteak beste, fabrikatzaileak, banatzaileak eta erabiltzaileak. «Demagun ospitale batek irudi bidezko diagnostikorako sistema bat erosten duela eta datu berriekin elikatzen duela, baina gizon zurien datuak besterik ez duela sartzen. Ezaugarri horiek betetzen ez dituen pertsona bati diagnostiko okerra egiten badiote, norena izango da erantzukizuna?». Alkortak esan duenez, ospitalea izan liteke erantzulea, nahi gabeko lerratzea eragin duten datuak sartu baitituzte.

Artetxek ere uste du adimen artifiziala erregulatu behar dela. Haren iritziz, arriskutsua izan daiteke, baina «ñabardura» askorekin. Hain justu, erabilera jakin bat duten sistemak arautzearen aldekoa da. «Argi dago ezin dugula errepidean jarri auto autonomo bat, hau da, inor bolantean ez duen auto bat, ez baditu segurtasun baldintza batzuk betetzen», jarri du adibidetzat.

Beste sistema batzuen erregulazioa, berriz, ez du hain begi onez ikusten. «Batzuen ustez, adimen artifiziala gero eta aurreratuagoa eta adimentsuagoa den heinean, posible da eskuetatik alde egitea eta gure kontra jartzea. Legeak horren kontrako neurriak jaso ditu». Artetxeren ustez, hori arautzeak kontrako efektua eragin dezake, eta berrikuntza mugatu. Eta erantsi du enpresa handiek laurre egin ahal izango dietela egeak ezarritako neurriei; enpresa txikiek, berriz, zailago izango dute.

«Europako Batasuneko pertsonei aplikatu ezin zaizkien sistemak kanpoko pertsonei aplikatuko dizkiete».

YOUSSEF OULEDAlgorace elkarteko koordinatzailea

Legea oinarri bat izango dela onartu du Ouledek, gardentasun handiagoa ematera behartuko dituelako sistema batzuk: «Nik, herritar moduan, jakin behar nuke ea, prozedura jakin bat garatzean, adimen artifizialeko sistema bat aplikatu zaidan, eta zer irizpide erabili diren, esaterako, laguntza bat emateko edo ukatzeko». Baina akordioak «gauza asko» utzi ditu kanpoan. Besteak beste, ez ditu kontuan hartuko migratzaileen eta pertsona arrazializatuen eskubideak.

«Hierarkia arrazista» indartzea

Ouledek nabarmendu du «hierarkia arrazista osoa» eta «egiturazko arrazakeria» indartuko dituela. «Europako herritarren eskubideak bermatu nahi dituzte, baina zein herritarrenak?». Izan ere, gogoratu du datu biometrikoen bilketa debekatuta egongo dela. Ez, ordea, mugetan. «Europako Batasuneko pertsonei aplikatu ezin zaizkien sistemak kanpoko pertsonei aplikatuko dizkiete».

Hau da, legeak ez ditu kontuan hartuko migratzaileen eskubideak. Aitzitik, aurretik dagoen hierarkia egonkortuko du. «Batzuetan, eskubideak urratzen direla diote; beste batzuetan, berriz, ez dute hori kontuan hartzen, ondorioztatzen dutelako testuinguru eta pertsona jakin batzuei sistemak aplikatu ahal zaizkiela, besteen babesa bermatzeko». Migratzaileen kriminalizazioa salatu du koordinatzaileak. «Araudia ez da bermatzailea, guztiz kontrakoa baizik».

«Euskarak presentzia izan behar du; indar eta inbertsio gehiago behar ditugu horretarako».

ITZIAR ALKORTALegelaria eta EHUko irakasle eta ikertzailea

Euskal Herrian ere eragina izango dute legeok. Artetxek azaldu duenez, nahiz eta Europako «lidergoan» ez egon, Euskal Herrian badago «ekosistema indartsu bat», proiektu «interesgarriekin». Hortaz, legeak sistema horietan zer eragin izango duen aztertu behar dute orain, Alkortaren hitzetan: «Badirudi arriskurik ez duten sistemak direla, baina begiratu behar da ea ziurtagiririk eskatzen ote duten, edo gardentasuna eskaini behar den».

Hizkuntzalaritzarekin lotutako sistemek aurrera egitea garrantzitsua da euskararentzat, Alkortaren iritziz. «Euskarak presentzia izan behar du». Egun presentzia badu ere, gehiago izan behar luke, legelariaren iritziz. «Indar eta inbertsio gehiago behar ditugu horretarako».

Iruzkinak
Ez dago iruzkinik

Ordenatu
0/500
Interesgarria izango zaizu
Nabarmenduak
Orain, aldi berria dator. Zure aldia. 2025erako 3.000 babesle berri behar ditugu iragana eta geroa orainaldian kontatzeko.