Gure inguruan orokortzen doazen Adimen Artifizialaren sistemek lengoaiaren estereotipo kulturalak kopiatzen dituzte. Hauetan, soslai arrazista eta sexistak nabarmentzen dira. Eta ez da arraroa, gizakion jardueretatik ikasten dutelako. Beraz, arlo teknologikoan ere badugu zer aldatu. Edo, hobeto esanda, jarrerak aldatuta, arlo teknologikoan ere eragina izango du.
Egun, Adimen Artifizialaz (AI, ingeleseko akronimoan) baliatzen diren sistema linguistikoak hainbat euskarri eta baliabidetan aurki genitzake: testuzko mezuak bidaltzeko ahots-errekonozimendua, zuzentzaileak, onlineko itzulpenak… Baina ezaugarriren bat nabarmentzekotan, sarritan ikusi ez dugun bat azpimarratu behar da: Adimen Artifizialeko sistema hauek soslai arrazista eta sexistak dituztela. Ez da harritzekoa, hala ere, gizakiok sortuta baitira eta makinek gugandik ikasi baitute…
Ikasketa automatikoa edo Machine learning delakoari esker, makinek datuetatik ereduak aurkitu eta errepikatzen dituzte. Datu hauek testu formatukoak direnean (liburu, artikulu, blogetan… esaterako), makinek soslai sexista berdinak errepikatzen dituzte; azken finean, gizakion lengoaian oso barneratuta ditugunak. Eta gugandik ikasten dutenez, jarrera horiek errepikatzen dituzte. Horretan dago koxka.
Horrela ondorioztatu dute Princeton Unibertsitateko Aylin Caliskan, Joanna J. Bryson eta Arvind Narayanan ikertzaileek, Science-n argitaratutako ikerketaren aurkezpenean.
Ikuspegi negatiboa eta horri aurre egiteko neurriak
Ondorioztatutako baieztapena larria da: ikasketa automatikoak gizakiok erakusten dugun arraza-banaketa eta sexuala errepikatzen ditu, nahiz eta guk batzuetan inkontzienteki bideratu. Jarrera hauek ohikoak bilakatu dira ikasketa profesionala aukeratzerakoan, lanpostuetarako hautaketa prozesuetan… Honi buruzko eztabaidak azken aldian maiz errepikatu izan dira gizarte mailan.
Egoera honi aurre egiteko, ikertzaile hauek soslai horiek antzemateko eta zuzentzeko metodoa asmatu dute. Baina zoritxarrez lan handia daukate oraindik aurretik.
Beraz, estereotipo kulturalak egunerokoan erabilera ematen dizkiegun Adimen Artifizialeko teknologietan hedatu eta zabaltzen dira.
Zein izan da ikerketarako erabili duten metodoa?
Oinarri bezala Seattle-ko Washington-eko Unibertsitateko Anthony Greenwald ikertzaileak gizakiontzako sortutako proban oinarritu dira. Test honek Implicit Association Test du izena eta gizakion soslai inkontzienteak ezartzeko informazio iturria da.
Metodologiari dagokionez, boluntarioei hitz bikoteak aurkeztu eta hauek hitzak elkarrekin erlazionatuta dauden edo ez adieraztea eskatzen zaie, tekla bat sakatuz. Erantzunerako denbora neurtzen da, bi hitz horien artean erlazio inkontzientea baldin badago ezartzeko erabiltzen den adierazle gisa.
Test hau oinarri hartuta, Princeton-eko ikertzaileek makinentzako antzeko proba bat sortu dute. Kasu honetan, gizaki baten erantzuna emateko denbora neurtzearen ordez, makinak eskaintzen duen hitzen arteko erlazio maila neurtzen du. Eta makinak erlazioa dagoen edo ez erabakiko du, bi hitzak testu batean elkarrekin agertu izan diren aldien kopuruaren estatistikaren arabera. Metodo honi hitzen doikuntza deitu diote eta beste hainbat ikerketa teknologikotan erabiltzen da.
Jarrera sexista eta arrazistaren adibideak
Adibide zehatz batzuetan berehala nabarmentzen da makinek soslai arrazista eta sexista hauek gizakiongandik ikasi dituztela:
- Emakumezkoen izenak familiarekin erlazionatutako hitzekin lotzen dira, ibilbide profesionalera baino askoz gehiagotan. Gizonezkoen izenak, aldiz, arlo profesionalarekin lotzen dira.
- Europar jatorria duten Ameriketako estatu batuetarren izenak plazera edo esanahi positiboa duten hitzekin lotzen dira gehiago, izen afro-amerikarrak baino.
- Emakumea edo neska bezalako terminoak arte arloko gaiekin lotzen dira gehiago, zientzia edo matematikakoekin alderatuz.
Ondorioak