Makinek erabakia hartu behar dutenean

Tranbia bat kontrolik gabe doa abiadura bizian, eta, ezer egin ezean, aurrean dituen bost pertsona hilko ditu. Aukera bakarra dago tranbia gelditzeko: alboan dagoen seigarren laguna trenbidera bultzatzea; bere gorputzarekin tranbia geldiaraziko du zorigaitzeko lagun horrek. Bizitza bat bosten truke, beraz. Zorionez, psikologoek prestatutako esperimentu bat baino ez da, tranbiaren dilema izenekoa. Logika matematikoak bost bizitzak salbatzea aginduko luke, baina inkesta gehienetan hiru lagunetik batek baino ez du aukera hori hautatzen. Gehienentzat pertsona bat hiltzea ez da zilegi, heriotza horrek bizitza asko salbatuko baditu ere; askoren iritziz, hori da gizakia gizaki egiten duena.
Adimen artifizialaren garapenak, ordea, erabaki zail horiei erantzuteko premia azaleratu du. Izan ere, makinek ez dute moralik: gizakiek irakatsi beharko diete halako egoeretan zer egin. Azken urteotan probatzen ari diren ibilgailu autonomoek logika erabiltzen dute istripuek sortutako egoerei aurre egiteko, baina programatzaileek zehaztutako arauen arabera erabakitzen dute. Asteon Science aldizkarian plazaratutako ikerketa batek eztabaida horretan sakondu du.
1.928 pertsonari egindako inkesta batean oinarritu dira, gidari gabeko autoek istripuetan erabili beharreko irizpideei buruzko jarrerak ikertzeko. Adibidez: semaforo gorria izanda ere, lagun talde bat autoaren bidean jartzen da, baina autoak ez du gelditzeko denborarik, eta hil ala biziko erabaki bat hartu behar du. Bost bizitzak salbatzeko modu bakarra bidetik atera eta horma baten kontra talka egitea da, eta barruan doan bidaiariaren heriotza eragitea. Zilegi al da? Zer gertatzen da barruan ere bost lagun badoaz?
Besteek eros ditzatela
Inkestak azaleratu dituen datuen arabera, gehiengoak begi onez hartzen du oinezkoen bizitza lehenestea. Adibidez, hamar heriotza saihesteko barruan doan bidaiariaren bizitza sakrifikatzearen alde azaldu dira galdetutakoen %76. Hala ere, orokorrean eredu hori nahiago izan arren, gehienek ez lukete eurentzat horrelako autorik erosiko, eta administrazioek autook erregulatzea ere ez dute onesten.
Ikerketan planteatzen den arazoa, ordea, erreala al da? Baietz uste du Deustuko Unibertsitatean adimen artifiziala ikertzen duen Gorka Azkunek: «Auto horiek teknologikoki posible dira, baina kultura eta lege arazoek hedatzea moteltzen ari dira. Seguruenik gure seme-alabek edo ilobek normaltzat hartuko dituzte, baina gure belaunaldian jende askok oraindik beldurra die».
AEBetako Tesla Motors enpresaren Model S ezaguna ekarri du gogora Azkunek. «Ibilgailu horrek Autopilot izeneko modu bat du. Saltzaileek berez ez dute aurkezten autonomo gisa, asistentzia gisa baizik: bidetik ez ateratzeko edo aurrean doan ibilgailuarekin segurtasun tartea mantentzeko. Baina jende askok dio modu hori erabili duela gidatu gabe etxetik lanera joateko». Gaineratu du ikerketak jorratu dituen arazo etikoak «gizakiek gidatutako autoetan ere» badaudela.
«Askotan gizakiei eskatzen ez dieguna makinei eskatzen diegu», nabarmendu du NUP Nafarroako Unibertsitate Publikoko Automatika eta Konputazioko katedradun Humberto Bustincek. «Gizaki batek istripu bat izaten duenean, askotan hutsegite batez hitz egiten da, baina makina bat tartean bada, akats hori ez dugu onartzen».
Arlo etikoan sakondu beharra azpimarratu du. Science-ko azterlanak bide laburra egin duela uste baitu. «Seguruenera ikerketa horretarako erabilitako antzeko inkesta asko egingo dira, eta horiekin datu baseak osatuko dira. Horrela, autoak segundo milarenetan erabaki txarren artean onena aukeratuko du».
Ibilgailu autonomoek gizartean erabateko iraultza ekarriko dutela uste du. «Istripu kopurua asko jaitsiko da, familia bakoitzean auto gutxiago beharko dira, eta hirietan aparkalekua bilatzeko sistema ere guztiz aldatuko da». 2017ko maiatzean NUPek antolatuko duen adimen artifizialaren astearen barruan Iruñeko kale bat ibilgailu autonomoetarako prestatzen saiatuko direla aurreratu du Bustincek.
Gaiak
Kinka buletina
Klima larrialdiari eta ingurumenari buruzko azken berriak zabaltzen dituen buletina.