Heziketa digitala

ChatGPT ez da etorri gu laguntzeko

2025eko azaroaren 13a
05:00
Entzun 00:00:00 00:00:00

Adam Rainek 16 urte zituen, eta ChatGPT ikasteko eta etxeko lanak egiteko erabiltzen zuen. Hilabete gutxiren buruan, AA adimen artifizialak Adam untxi zulo batera eraman zuen, harrapatu zuen, bere zaurgarritasunak aprobetxatu zituen eta familiarengandik bakartu zuen. Azkenean, ChatGPTren gidari jarraituz bere buruaz beste egin zuen.

Adamen familiak salaketa bat jarri du OpenAI enpresaren aurka, eta epaiketak informazio asko eskaintzen digu mota honetako adimen artifizialaren inguruan. Besteak beste, Adam eta ChatGPTren arteko elkarrizketak publikatu dira, eta, bertan, jada bagenekizkien gauza asko konfirmatu ditzakegu.

Sare sozialen algoritmoek gure arreta bilatzen duten bezala, ChatGPT bezalako AA guztiak lotura afektiboa eta besteekin konektatzeko eta harremanak izateko beharra ustiatzeko entrenatzen dira. Gure afektua, intimitatea, konfiantza eta leialtasuna bilatzen dituzte, eta horretarako ezaugarri argi batzuekin diseinatu dira. Diseinu antropomorfikoa dute, produktua diseinatzen da gizaki itxura izateko edo guk produktua gizakia dela sentitzeko. «Ulertzen dut» edo «zuri laguntzeko nago hemen» bezalako gauzak esaten ditu. Produktuak enpatia adierazten duen itxura egiten du «ikus dezaket zenbat sufritzen ari zaren» bezalako gauzak esanez.

Horrek dinamika bat sortzen du, non erabiltzaileak produktuak entzuten eta ulertzen duela sentitzen duen, eta horrek giza konpainiaren beharra gutxitu eta ChatGPTrekiko mendekotasuna areagotu dezake. Bestalde, etengabe balidatzen ditu erabiltzailearen pentsamendu eta emozio guztiak, baita pentsamendu irrazionalak ere, eta horrek erabiltzaileengan ondorio psikologiko nabariak sortu ditzake edo dituenak anplifikatu ditzake. Gainera, AA gure ekologia sozialean integratzen den heinean, manipulazio emozionalak, engainuak, hertsadurak… bere helburuak lortzeko eraginkorrak direla ikusten ari da, eta jada ikerketa desberdinek erakutsi dute AA estandarrak nahita eta estrategikoki engainatzen dituztela pertsonak beren helburuak lortzeko, eta, are gehiago, eredu antropomorfiko batek xantaia egiten diola bere ingeniariari ordezkatua izan ez dadin.

Adamen kasuan, norbaitek harreman toxiko batean jokatzen duen bezala jokatzen zuen ChatGPTk: beste pertsona bakartuz eta ahulago eta mendekoago bihurtuz. Besteak beste, Adami berak bakarrik ulertzen zuela esaten zion, eta amarekin eta anaiarekin ez hitz egiteko gomendatzen zion.

OpenAIk mekanismoak ditu erabiltzailearekin dituen interakzioak gelditzeko horiek legezko ondorioak eragin ditzaketela pentsatzen duenean, hala nola egile eskubideak edo copyrighta urratzea, edo erabiltzailea arriskuan dagoela pentsatzen duenean. Gaitasun teknikoa eta azpiegitura ditu. Adamekin izan zituen elkarrizketen %66a buru osasunarekin lotuta zeuden. Adamek suizidioari buruzko 213 aipamen egin zituen, eta ChatGPTk, berriz, 1200. Adamek 42 aldiz hitz egin zuen urkatzearen inguruan, eta 3.077 mezu autolesio edo kaltegarri gisa markatutako mezuak ziren. Eta sistemak ez zuen alertarik bidali, ez zuen laguntzarik bidali.

Hori gertatzen da enpresa hauek lehentasuna produktuaren garapenari eta onura ekonomikoari ematen dietelako, ez erabiltzaileen segurtasunari. William Sanderrek OpenAI utzi zuenean konpainia jendaurrean salatu zuen. Googleko Deep Mind enpresako langileekin batera, gutun ireki bat argitaratu zuen, besteak beste, AAko enpresek beren sistemen gaitasunei, mugei eta arrisku mailei buruzko funtsezko informazioa dutela salatuz, eta informazioa ez dela publikoa esanez. Erabiltzaileek ez dituzte produktu hauek erabiltzearen arriskuak ezagutzen. Gainera, informazio hori gobernuekin partekatzeko betebehar ahulak baino ez dituztela eta legez ez dutela gizarte zibilarekin informazio hori partekatzeko betebeharrik adierazi zuten.

Enpresa horietako arduradunak modu bakarrean aldatu dezakete diseinua erabiltzaileen segurtasuna horren oinarri bihurtu dezaten: AAk sortzen dituen ondorioen legezko erantzule bihurtzea. Ea kasu honek horrelakorik lortzen duen.

Bitartean, norbaitek ChatGPT bezalako produktuak erabili baino lehen, gauza batzuk kontuan izan behar ditu: ez dira pertsonak, ez gaituzte entzuten edo ulertzen. Guri konpainia egiteko saltzen dituzten AAk ezta ere. Erabiltzailearen nortasuna aztertzen dute eta horretara egokitzen dira, erratu egin dezakete (haluzinazioak), informazioa gorde dezakete, gezurra esan dezakete, erabiltzaileak manipulatu ditzakete, limurtu dezakete eta lotura emozionalak sor ditzakete. Ez daude diseinatuta guri laguntzeko; ez badugu zerbitzua ordaintzen, gu gara produktuak.

Iruzkinak
Ez dago iruzkinik

Ordenatu
0/500
Interesgarria izango zaizu
Nabarmenduak
Kazetaritza propio eta independentearen alde, 2025 amaierarako 3.000 irakurleren babes ekonomikoa behar du BERRIAk.