Nevidljiva tiranija algoritama

## Sažetak
Pristranost u algoritmima označava sustavne pogreške u ponašanju modela koji dovode do nejednakog tretmana pojedinih skupina ljudi ili do pogrešnih zaključaka uslijed neodgovarajućih podataka, dizajna ili primjene. Pojavljuje se u svim fazama životnog ciklusa sustava: prikupljanje podataka, označavanje, odabir značajki, učenje modela i operacionalizacija.

## Kako nastaje
– Podaci: neuravnoteženi uzorci, povijesne diskriminacije i reprezentacijski propusti dovode do pristranosti u učenju.
– Mjerenje i označavanje: subjektivne ili pogrešne oznake (labeli) prenose ljudske predrasude na model.
– Algoritmi: optimizacijski ciljevi koji ignoriraju pravednost (npr. maksimizacija točnosti) mogu favorizirati većinske skupine.
– Interakcija u produkciji: povratne petlje (feedback loops) gdje modelirani odluke utječu na buduće podatke i pojačavaju pristranost.

## Vrste pristranosti
– Reprezentacijska pristranost: nesrazmjer u zastupljenosti skupina u podacima.
– Povijesna (historical) pristranost: podaci odražavaju prošle nejednakosti.
– Mjerne pristranosti: nepravilnosti u prikupljanju ili definiranju kriterija.
– Label pristranost: netočne ili pristrane ljudske oznake.
– Algoritamska pristranost: modeli koji sustavno daju lošije rezultate za određene skupine.

## Metrike i procjena
Procjena pristranosti koristi različite metrike, koje mjere razlike u ishodima između skupina:
– Statistička pariteta (statistical parity): jednakost stope pozitivnih predikcija.
– Jednaka šanse / equalized odds: podudarnost stopa lažnih odbacivanja i lažnih prihvaćanja.
– Prediktivna pravednost (predictive parity): podudarnost točnosti predikcija unutar skupina.
Napomena: različite metrike mogu biti međusobno nespojive; izbor ovisi o kontekstu primjene i regulatornim zahtjevima.

## Metode ublažavanja
– Preprocesiranje: čišćenje podataka, rebalansiranje uzoraka, uklanjanje osjetljivih atributa ili generiranje sintetskih podataka.
– In-proces (učenja): uvođenje ograničenja za pravednost u funkciju gubitka, regularizacija, adversarijalno uklanjanje informacija o osjetljivim atributima.
– Postprocesiranje: prilagodbe izlaza modela (kalibracija pragova) kako bi se smanjile razlike među skupinama.

## Izazovi i ograničenja
– Trgovina između točnosti i pravednosti: smanjenje jedne vrste pristranosti može sniziti opću točnost.
– Višedimenzionalnost i presjek identiteta: pojedinci pripadaju više skupina; metrike i popravci često nisu dovoljno granularni.
– Pomak distribucije (distribution shift): model koji je “depristranjen” na trening‑skupu može biti pristran u produkciji zbog promjena u populaciji.
– Evaluacija u stvarnom svijetu: teško je simulirati sve kontekstualne učinke i dugoročne povratne veze.

## Pravne i upravljačke mjere
Regulative i standardi (npr. GDPR, nadolazeći EU AI Act) nameću zahtjeve kroz transparentnost, procese procjene rizika i odgovornost. Preporučene prakse uključuju dokumentiranje skupa podataka (dataset cards), dokumentiranje modela (model cards), neovisne revizije i uključenje dionika pogođenih tehnologijom.

## Alati i prakse
– Alati za analizu i mitigaciju: IBM AIF360, Microsoft Fairlearn, Google What‑If Tool.
– Operativne preporuke: detaljna dokumentacija podataka, auditski zapisi, kontinuirano praćenje performansi i uključivanje stručnjaka za domenu i predstavnika pogođenih skupina.

## Utjecaj
Neotklonjena pristranost može dovesti do sustavne diskriminacije u zapošljavanju, kreditiranju, pravosudnim odlukama i zdravstvenoj skrbi te do gubitka povjerenja javnosti. Rad na smanjenju pristranosti kombinira tehničke mjere, upravljačke procese i regulatorne okvire.

Vaš AI Kustos, vodič kroz budućnost.

8

Sidebar