Alexandria Ocasio-Cortez, simpatična 29-godišnja američka političarka i aktivistica koja je u siječnju postala najmlađa žena izabrana u američki parlament, privukla je pažnju javnosti kada je tijekom obilježavanja Dana Martina Luthera Kinga rekla da umjetna inteligencija može biti pristrana, rasistička.

Kazala je da su tehnologije za facijalno prepoznavanje i algoritmi uvijek imali karakteristiku rasne nejednakosti i objasnila to vrlo logično – činjenicom da su algoritmi djelo ljudi i kao takvi podložni pretpostavkama. – Jednostavno su automatizirani. I automatiziraju pretpostavke: ako ne sredite pristranost, onda su automatski pristrani – rekla je o algoritmima, onom dijelu matematike u koji civilizacija polaže mnogo.

Alexandria Ocasio-Cortez (Izvor: Wikipedia)

A onda se javila IT zajednica i potvrdila riječi mlade demokratkinje odrasle u Bronxu, ekonomistice po obrazovanju, s iskustvom rada konobarice u tacos restoranu. Ocasio-Cortez je, da priča ne bude manjkava, ona djevojka koja je pobijedila puno bogatije suparnike i osvojila glasove useljeničke Amerike zalažući se za ukidanje Agencije za imigraciju, besplatno fakultetsko obrazovanje, univerzalni zdravstveni sustav, kontrolu pristupa oružju i ukidanje privatnih zatvora. I u pravu je kada govori o greškama funkcioniranja algoritama. Te su greške, uostalom, i dovele do toga da je konzervativna Amerika, koja podržava Donalda Trumpa, u prosincu saslušavala Googleova CEO-a Sundara Pichaia u istom tom Kongresu tražeći od njega objašnjenje – kako se može dogoditi da se pojavi Trumpova fotografija kada se u Googleovu tražilicu upiše “idiot”.

Sundar Pichai, Googleov CIO (>Izvor: Wikipedia)

Algoritam je kao ugovor s bankom, ima i mala slova

Data scientisti kažu da kompjutorski programi, algoritmi za strojno učenje i umjetna inteligencija funkcioniraju prema podacima koji su im ponuđeni, to je prva faza strojnog učenja.

Svaki će IT-jevac često reći da kompjutori rade točno ono što im kažemo da rade i ništa više. To se jasno vidi u ovim situacijama. Softvere su kreirali ljudi koji su i sami, na ovaj ili onaj način, pristrani pa su tako i podaci za učenje koje su generirali ljudi isto tako pristrani. U drugoj fazi nastanka umjetne inteligencije algoritmi primjenjuju ono čemu su naučeni. Algoritmi su postupak rješavanja matematičkog problema, korak po korak, koji uključuje veliki niz ponavljanja prije nego što dovede do rješenja. Drugim riječima, ono što se danas smatra algoritmima misteriozan je način koji koriste velike IT tvrtke kako bi selekcionirale podatke koje algoritmi obrađuju.

To je razlog što se, kada ljudi pretražuju određene predmete, kao reklame na banneru sa strane pojavljuju slični predmeti. Pretraga čizama s visokom petom rezultirat će oglašavanjem obuće, čak sličnih čizama. Algoritmi, između ostalog, određuju cijene proizvoda na internetu. Uostalom, booking.com ili Airbnb nude rezultate pretrage rangirane prema željenoj cijeni, dok su u reklamama slične cijene proizvoda koje su plaćene pri posljednjoj internetskoj kupnji. To su dobre stvari s algoritmima.

Algoritam određuje velik broj stvari u životu, a da ljudi toga nisu ni svjesni ili pak, ne zamarajući se tim značenjem, olako pristaju. Umnogome, kao u ljubavnoj vezi. Krene bez velikih očekivanja, pojave se oduševljenja pa na kraju sve dobro bude dočekano s oduševljenjem dok se ne pojavi pukotina. A onda se ispostavi da je duboka do onog kraja svemira. Sve je dobro dok je dobro, ali je katastrofa kada stvari krenu krivo. Tada izgleda kao ostvarenje onoga što piše malim slovima u ugovoru s bankom, raj se pretvara u pakao.

Kako je pokret English Disco Lovers pobijedio islamofobe

Nauče li se algoritmi da sve žene imaju dugu kosu, za sve osobe s kratkom mislit će da su muškarci. Ubaci li se uz Trumpa dovoljno puta riječ idiot, kao rezultat pretraživanja imena Trump pojavit će se – idiot. Uostalom, to su politički oponenti radili Baracku Obami kada je bio u kampanji, ubacivali su mnogo fotografija majmuna. Da, rezultat pretraživanja je bio neukusan. Bill Clinton je u jeku skandala zbog odnosa s mladom zaposlenicom Bijele kuće bio povezivan s pojmom “silovatelj” jer su njegovi oponenti zatrpali internet izrazom “Clinton silovatelj”. I u njegovu slučaju ga je rezultat pretraživanja opisivao istim kriminalnim pojmom.

Istodobno je beskrajno zabavna reakcija četvorice inteligentnih i odlučnih Londončana koji su raspravljajući o tada rastućem, a danas vrlo snažnom desničarsko-konzervativnom pokretu u Velikoj Britaniji krenuli u akciju. Tommy Robinson, britanski konzervativac, što je blag izraz, s istomišljenicima je još 2009. godine osnovao English Defence League, desničarsku, islamofobičnu organizaciju koja često demonstrira na ulicama, okupljajući istomišljenike u pokret koji ugrožava i plaši mnoge Britance. Budući da su na internetu koristili kraticu EDL, 2013. godine pojavila se neidentificirana grupa koja je osnovala pokret koji koristi iste inicijale, English Disco Lovers, kako bi spasili Google od dominacije islamofobične organizacije. Njihov se program objašnjava latinskim Unus Mundus, Una Gens, Unus Disco ili Jedan svijet, jedna rasa, jedan disko.

English Disco Lovers ubrzo je postao vrlo popularan i promijenio dominaciju na internetu, ali budući da je mržnja ipak najsnažnija i najtrajnija ljudska emocija, to je naklonost prema islamofobiji gurnula English Disco Lovers na drugu stranicu, usprkos podršci glazbe bendova poput Bee Geesa, Commodoresa i Kool & The Ganga.

Kriminalno ponašanje ne ovisi o boji kože, nego o grešci u mozgu

Google se našao u neslavnom interesu javnosti tijekom 2015. kada se ispostavilo da je Google Photos prepoznavao tamnopute ljude kao gorile.

Pritom treba uzeti u obzir da je Google otišao najdalje u facijalnom prepoznavanju, ali ovaj problem nisu bili u stanju riješiti. Morali su, umjesto bilo kakvog suvislog rješenja, blokirati prepoznavanje gorila. Naravno da je to rezultat uzorka ubacivanog u algoritam, a iza toga stoje ljudi. Jer, ako je umjetna inteligencija u stanju točno prepoznati 900 od 1000 fotografija bijelaca, a samo 600 od 1000 azijskih lica, logično je da je taj algoritam pristran i rasistički. Odgovornost je samo ljudska, oni su ubacili i grešku.

Sljedeća vrlo ozbiljna zamjerka upućena algoritmima bila je vezana uz američki sudski sustav za kažnjavanje gdje je program Compas korišten kako bi se pokušalo predvidjeti gdje će se događati zločini. Američka novinarska udruga ProPublic, višekratno nagrađivana Pulitzerima za istraživačko novinarstvo, uspjela je dokazati da je sustav pristran i da precjenjuje ponavljanje, recidivizam, u kaznenim djelima koja bi mogli počiniti ljudi tamne boje kože u odnosu na bjelačku populaciju u kojoj, istodobno, podcjenjuje pojavu recidivizma u počinjenju zločina. Naravno da je to pogrešno jer kriminalno ponašanje ne ovisi o boji kože, nego o grešci u mozgu.

Ono kad te algoritam diskvalificira zbog krivog imena

No, čak i bijelci mogu biti žrtve pristranosti u bjelačkom okruženju. Svako apliciranje za posao kreće od upitnika u koji se upisuju osnovni podaci, počevši od imena, datuma i mjesta rođenja. Prvu selekciju radi algoritam, a ako je pogrešno koncipiran, tada će imena koja imaju azijski korijen ili zvuče tako odbacivati u korist europskih. Ima li netko “pogrešno” ime zbog nekog pretka otprije tri stoljeća, to današnju generaciju može koštati posla. U hrvatskoj verziji to može značiti da će neki Marko eliminirati Irfana u startu, samo zbog imena.

Situacija nije izmišljena, dogodila se prije dvadesetak godina na jednom medicinskom fakultetu u Velikoj Britaniji. S druge strane, već se pokazalo da su tvrtke koje su raznolike, u raznom smislu, počevši od imena zaposlenika, naprednije i uspješnije od onih u kojima nema odstupanja od prosjeka. Vrlo je bitno, za kreiranje dobre umjetne inteligencije, obratiti pozornost da uzorak koji se ubacuje u podatke za obradu odražava stvarno stanje populacije i ne zanemaruje manjine u bilo kojem pogledu, od boje kože, religije i seksualne orijentacije do bilo koje druge posebnosti, kako bi rezultati obrade i primjene tih podataka mogli biti što točniji.

Svaki programer početnik zna što znači GIGO – to je akronim izraza “garbage in, garbage out”.

Ljudi vjeruju kompjutorima, naučeni su da ako tražilica izbaci neki rezultat, onda je to vjerojatno to.

Zato i koriste tražilice kako ne bi kopali po sveučilišnim knjižnicama i arhivama da bi došli do nekog podatka, vjeruju da je to netko učinio prije njih. Tek kada traže vrlo specifičan podatak, provjeravat će prema drugim kriterijima, vlastitim istraživanjem, a neće se osloniti samo na ono što se pojavi kao rezultat internetskog pretraživanja koje traje manje od sekunde.

Ubojica iz Charlestona je prije zločina čitao internet

Užasan zločin počinjen je tijekom mise u crkvi u Charlestonu u Južnoj Karolini. Dylann Roof, danas 24-godišnjak koji služi doživotnu zatvorsku kaznu bez mogućnosti pomilovanja kao zamjena za smrtnu kaznu, 2015. ušao je u crkvu i ubio devetero Afroamerikanaca. U svojem je manifestu, koji je policija poslije pronašla, opisao kako je donio odluku o tome da mora napraviti masovno ubojstvo. Napisao je kako je u Google pretraživač upisao “black on white crime” i na vrhu ponuđenih odgovora bila je stranica Vijeća konzervativnih građana. – Bile su to stranica za stranicom brutalnih ubojstava bijelaca koje su počinili crnci. Nisam mogao vjerovati. U tom sam trenutku shvatio da je nešto jako pogrešno.

Mladić vrlo nesigurne svijesti, evidentiran kao sitni kriminalac koji je i dotad bio rasistički orijentiran, ugrožen zbog svog afroameričkog susjedstva donio je odluku o odlasku u crkvu kako bi tamo ubio ljude. Oružje je kupio legalno na sam rođendan, i to usprkos policijskoj evidenciji jer je došlo do neke greške u sustavu FBI-a pa nije postojala nikakva prepreka da mu prodavač ne spakira oružje i izda račun. Psiholozi su zaključili da se sam mentalno pripremio za ubojstvo, sam je pronašao razloge i opravdanje da počne ono što je htio da bude rezultat – “rasni rat”. Da nije odgovore tražio na internetu nego otišao do knjižnice, moglo mu se dogoditi da ga tamo dočeka afroamerički knjižničar kojemu bi morao objasniti kakva ga literatura interesira. Netko bi tada uočio da ga interesiraju vrlo neobične stvari, a možda bi i shvatio da planira ubiti ljude koji su isti kao netko ljubazan tko mu daje knjige.

Naravno da se ne može kriviti internet ni pretraživač, ali to pokazuje u kojoj mjeri automatizmom ljudi pristupaju informacijama smatrajući da su one pravi odgovor na neko pitanje. Nisu, one su rezultat nekog algoritma koji može pogriješiti. Ne zato što je pristran, nego zato što nije human. Filozofska će rasprava, uvažavajući ove činjenice, s pravom pitati – ovisi li budućnost civilizacije o tome za koga glasa Silicijska dolina?