Orai NLP Teknologiak. Informatika Ingeniaritzan doktorea

Adimen artifiziala dilema moralen aurrean

Xabier Saralegi
2024ko otsailaren 23a
05:00
Entzun

Koka gaitezen etorkizun ez oso urruneko hiri batean, gaur egun gizakiek egiten dituzten zeregin asko adimen artifizialak (AA) kudeatuko dituen hiri batean. Pentsa dezagun, adibidez, adimen artifizialak gidatutako tranbia-sistema batean. Demagun ustekabean egoera arriskutsu hau gertatzen dela: gaizki aparkatutako ibilgailu batek trenbidea oztopatzen du, eta bidaiarien heriotza saihesteko aukera bakarra bagoia errailetik ateratzea da; horrek trenbide inguruan dauden oinezkoak harrapatzea eta sakrifikatzea eragingo luke. Nola erantzun beharko luke AAk dilema moral horren aurrean? Arrazoibide moral autonomoa izan beharko luke?

Ezin da zalantzan jarri AAren esparruan egin berri diren aurrerapen teknologikoei esker sortzen diren sistemek gero eta gaitasun gehiago dituztela. Ikaskuntza sakonaren iraultzak ataza gero eta konplexuagoak automatizatzeko atea ireki du, baina testuinguru gehiago kudeatzea ere eskatzen du. Testuinguru-aniztasun horrek ugaritu egiten ditu dilema moralei heltzea eskatzen duten egoerak, eta horietako batzuk aipatutako tranbiaren kasua bezain muturrekoak izan daitezke.

Gizakiok judizio moralak egiten ditugu ongia eta gaizkia bereizteko, eta erabakiak hartzeko maiz erabiltzen ditugun tresnak dira. Judizio horiek irizpide-multzo konplexu baten ondoriozkoak izaten dira, eta ez datoz beti bat etika arauemaile batzuek zuzentzat jotzen dutenarekin. Badago etika erreal bat, gizarteak erabiltzen duena (etika deskribatzailea), eta etika erreferentzial edo arauemaile bat, esaterako, deontologia edo utilitarismoa. Tranbiaren adibidera itzulita, etika deontologikoaren arabera (Kanten inperatibo kategorikoak ongi adierazia), zeinak ekintzak ontzat edo txartzat definitzen baititu ondorioak kontuan izan gabe, sakrifikatze aktiboa ez litzateke etikoki zuzentzat hartuko, erailtzea berez delako txarra. Ikuspegi utilitarista batetik, berriz, aukera bakoitzaren onura orokorra kalkulatzeko azterketa zehatza egin beharko litzateke erantzun ahal izateko. Azterketa horretan, baina, haztapena ez da inondik ere agerikoa. Hobe al da kardiologiako aditu baten bizia salbatzea ala pertsona anonimo batena salbatzea? Eta sistemari gizarte arrazista baten testuinguruko etika deskribatzailea jarriko bagenio? Erabakia, seguruenik, zenbait etniaren kontrakoa izango litzateke.

Garrantzitsua da kontuan hartzea ez dagoela adostasunik etika arauemaile zuzena zein den erabakitzeko, eta horrek ez du errazten zein etika aplikatu behar den erabakitzea etika deskribatzaile teorikoki akastun bati atxiki beharrean. Baina etika deskribatzailea ere ez da homogeneoa. Beste faktore batzuen artean, kulturaren mende dago. Shwederrek etika «hiru bloke handitan» banatzea proposatu zuen: komunitatea, jainkotasuna eta autonomia indibiduala. Gizarteek bloke bakoitzari ematen dioten garrantzia aldatu egiten da zenbait parametroren arabera; adibidez, gizarte bakoitzaren kulturaren arabera. Desberdinak izango al lirateke Asian eta Mendebaldean nagusi diren judizio moralak tranbiaren dilemari dagokionez? Izan litezke, antzeko beste esperimentu batean ikusi zen bezala (Moral Machine, 2016). Esperimentu hartan, mendebaldeko herrialdeek, norbanakoaren autonomiaren edo indibidualismoaren balorazio handiagoa izanik, pertsona gehiago salbatzeko soluzioak aukeratu zituzten asiarrek ez bezala, hau da, norbanakoaren autonomiarekin bat zetorren jarrera izan zuten.

Tranbiaren adibidea futurista samarra bada ere, garrantzitsua da adieraztea gaur egun dagoeneko ari direla judizio moralak txertatzen adimen artifizialaren sistema batzuetan. Adibiderik ezagunena, agian, elkarrizketa-laguntzaileena da, hala nola ChatGPT ezaguna eta antzekoak. Sistema horiek gai dira hizkuntza ulertu eta sortzeko zenbait ataza egiteko, eta ataza horietan, besteak beste, arrazoitzeko gaitasuna, ezagutza faktikoa eta sen ona erabiltzen dituzte. Funtzio-aniztasun hori dela eta, sarritan arazo moralei egin behar izaten diete aurre, eta horregatik kalibratzen dira berariaz eredu horiek balio moral jakin batzuez hornitzeko. Laguntzaile horiei balio moralak txertatzeko ikuspegia botton-up (behetik gora) motakoa da. Egoera zehatzak erakusten dituzten adibideetatik abiatuta ikasten ditu sistemak balio moral generikoak, baina judizio morala gizaki ohargileek ezartzen dute, alegia, sistema elikatzeko adibideak etiketatzen dituzten gizakiek. Beste modu batean esanda, pertsona-talde batek du balio horiek transmititzeko ardura, eta horrek homogeneizazio-arazoak eragin ditzake. Hainbat azterlanen arabera, eredu horiek ikasten duten etikak autonomia lehenesten du komunitatearen edo jainkotasunaren gainetik, eta bat dator ongintza inpartzialaren printzipio utilitaristarekin. Horrek esan nahi du, nolabait, eredua diseinatzen duten pertsonen balio moralak islatzen dituztela eredu horiek, hau da, hezkuntza-maila handiko mendebaldeko gazteen balio moralak.

Azken batean, AAri judizio moralak emateko eta nola eman erabakitzeko arazoa oso konplexua da, bai ebazteko zailtasunagatik, bai horrek berekin dituen inplikazio sozialengatik. Milaka urtez etika komun bat adostea ameskeria bat izan bada, ez dirudi ariketa bera bideragarria izango denik makinetan. Makinetan sartzen dugun autonomia-maila eta arrazoibide moralaren mota zehazteko bidean, beharrezkoa izango da gutxieneko adostasuna lortzeko ahalegina egitea, ondo eta gaizki dagoena neurri batean ezartzen duten ordenamendu juridikoak adosteko egiten dugun bezala. Seinaleztatu gabeko bidea izango da, dilema moralez betetakoa, eta, aurrera egin ahala, aurkitu eta eraiki beharko duguna, adostasun demokratikoen bidez eta errealitate kultural eta sozial desberdinetara egokituz.

Iruzkinak
Ez dago iruzkinik

Ordenatu
0/500
Interesgarria izango zaizu
Nabarmenduak
Orain, aldi berria dator. Zure aldia. 2025erako 3.000 babesle berri behar ditugu iragana eta geroa orainaldian kontatzeko.