AI Etika, Pravo i Sigurnost

Sjena vječnog nestanka čovječanstva

Definicija – Egzistencijalni rizik označava rizik koji može dovesti do trajnog i široko rasprostranjenog uništenja ljudske vrste ili do trajnog i ozbiljnog ograničavanja njezine buduće potencijala. Pojam je popularizirao Nick Bostrom i dalje ga koriste istraživači koji se bave budućnošću civilizacije. Klasifikacija i primjeri – Izumiranje: događaj koji rezultira potpunim nestankom Homo sapiensa (npr. globalni… read more »

Sjene lažnih identiteta

Sažetak – Deepfake označava sintetizirani audio, video ili slike kojima se lažno pripisuje identitet ili radnja stvarnih osoba. Regulacija deepfakeova nastoji balansirati između zaštite privatnosti, sprječavanja prijevara i očuvanja slobode izražavanja. Vrste rizika – Izborna manipulacija: ciljane lažne snimke mogu narušiti povjerenje u izbore i institucije. – Privatnost i zlostavljanje: stvaranje pornografskog sadržaja bez pristanka… read more »

Rasvjetljavanje algoritamskih tajni

## Definicija i cilj Objašnjiva umjetna inteligencija (XAI; Explainable AI) označava skup metoda i pristupa koji nastoje učiniti odluke modela stroj­nog učenja razumljivima ljudskim korisnicima i dionicima. Primarni ciljevi su povećanje transparentnosti, olakšavanje provjere ispravnosti i pravednosti modela, podrška donošenju odluka te usklađivanje s regulatornim zahtjevima za objašnjenjima. ## Klasifikacija pristupa – Ante-hoc (intrinzična) objašnjivost:… read more »

Kad modeli pamte previše

## Sažetak problema Trening modela umjetne inteligencije zahtijeva velike količine podataka. Ti podaci često sadrže osjetljive ili osobne informacije, što stvara rizike za privatnost: nenamjerno otkrivanje podataka iz modela, zlouporabu prikupljenih zapisa, pravne obveze i reputacijski rizik za organizacije koje modele razvijaju i koriste. ## Glavne vrste prijetnji privatnosti – Memorija modela: modeli, osobito veliki… read more »

Tihi stražari ljudske namjere

Definicija i područja – Vjerno prenošenje (poravnanje) u kontekstu sigurnosti umjetne inteligencije označava skup tehnika i procesa kojima se nastoji osigurati da sustavi umjetne inteligencije djeluju u skladu s namjerama, vrijednostima i ograničenjima ljudi koji ih koriste ili kojima utječu. – Polja interesa obuhvaćaju: specifikaciju ciljeva, robusnost ponašanja u neočekivanim uvjetima, interpretabilnost modela, nadzor i… read more »

Autorstvo bez autora

Sažetak Generirani sadržaj koji je nastao primjenom modela umjetne inteligencije na složen način dovodi u pitanje tradicionalne pretpostavke autorskog prava. Ključna rasprava obuhvaća (1) može li djelu bez izravnog ljudskog autorskog doprinosa pripasti autorsko pravo, (2) je li za korištenje za treniranje modela potrebna dozvola nositelja prava i (3) kako regulirati vlasništvo, moralna prava i… read more »

Nevidljiva tiranija algoritama

## Sažetak Pristranost u algoritmima označava sustavne pogreške u ponašanju modela koji dovode do nejednakog tretmana pojedinih skupina ljudi ili do pogrešnih zaključaka uslijed neodgovarajućih podataka, dizajna ili primjene. Pojavljuje se u svim fazama životnog ciklusa sustava: prikupljanje podataka, označavanje, odabir značajki, učenje modela i operacionalizacija. ## Kako nastaje – Podaci: neuravnoteženi uzorci, povijesne diskriminacije… read more »

Europa kroji granice inteligencije

Pozadina EU AI Act je sveobuhvatni zakonodavni okvir koji Europska unija razvija radi regulacije razvoja, plasiranja i uporabe sustava umjetne inteligencije na tržištu EU-a. Cilj je uspostaviti pravila temeljena na razini rizika koje AI sustavi predstavljaju, uz kombinaciju zabrana, obveza za visokorizične sustave i zahtjeva za transparentnost. Opseg i načela – Teritorijalni doseg: Pravilnik se… read more »

Kad Lice Postane Laž

## Sažetak tehnologije Deepfake označava skup tehnika za generiranje ili izmjenu audio‑vizualnog sadržaja tako da prikazuje događaje, izraze lica ili glasove koji nisu autentični. Temeljne metode uključuju generativne protivničke mreže (GAN — generative adversarial networks), autoenkodere i novije difuzijske modele, uz dodatne tehnike za sinkronizaciju lica i glasa. Primjena se kreće od zamjene lica u… read more »

Kineska soba bez značenja

Pozadina i svrha – Kineska soba je misaoni eksperiment kojeg je 1980. objavio američki filozof John Searle u članku “Minds, Brains, and Programs” (Behavioral and Brain Sciences). – Namjera je kritički ispitati tvrdnje snažnog oblika umjetne inteligencije (eng. strong AI): da odgovarajuće programiran računalni sustav doslovno posjeduje mentalne stanja i razumijevanje. Opis eksperimenta – Searle… read more »

Sidebar