2026 February

Tkanje svjetla iz riječi

## Sažetak Stable Diffusion je skup generativnih modela za stvaranje slika iz tekstualnih opisa temeljen na pristupu latentne difuzije. Prvi veći javni izdanci pojavljeni su 2022. godine kao open-source projekt u suradnji Stability AI, istraživača iz CompVis-a i LAION-a. Model je brzo postao široko korišten zbog kombinacije kvalitete rezultata, fleksibilnosti i dostupnosti za lokalno izvođenje… read more »

Skulptori digitalne misli

## Definicija Prompt engineering označava skup tehnika za oblikovanje i upravljanje unosima (promptima) koji se daju velikim jezičnim modelima (LLM — veliki jezični model) i srodnim modelima kako bi se dobili željeni odgovori ili ponašanja. Radi se o praktičnom sučelju između ljudskog zahtjeva i modela: oblikovanje teksta, konteksta i instruktivnih signala koji vode generiranje. ##… read more »

Granica pamćenja digitalnih umova

## Definicija Kontekstualni prozor (eng. context window) u velikim jezičnim modelima (LLM) označava ograničenje količine ulaznog teksta koju model može istovremeno obraditi. Mjeri se u tokenima (jedinice koje predstavljaju riječi ili dijelove riječi) i određuje maksimalnu duljinu niza nad kojim se izračunava samopažnja (self-attention). ## Kako to radi – Transformer arhitektura koristi mehanizam samopažnje koji… read more »

Kad strojevi traže istinu

## Pregled Retrieval-Augmented Generation (RAG) označava skup metoda koje kombiniraju dohvaćanje vanjskih dokumenata s generativnim modelima kako bi se poboljšala točnost, ažurnost i opseg odgovora velikih jezičnih modela (LLM). Ključna ideja je zamijeniti ili nadopuniti ograničeno znanje modela koja je pohranjena parametarski korištenjem vanjskog indeksa znanja koji se u realnom vremenu dohvaća i prosljeđuje generatoru… read more »

Varljiva stvarnost jezičnih modela

### Što su halucinacije Halucinacije u kontekstu velikih jezičnih modela (LLM) odnose se na generiranje netočnih, izmisljenih ili nekonzistentnih informacija koje model iznosi s naletom povjerenja. To nisu samo jezične greške: radi se o tvrdnjama koje nemaju potporu u podacima ili stvarnom svijetu — primjerice izmišljeni citati, netočne činjenice ili pogrešne reference. ### Vrste halucinacija… read more »

Tajne jezika u tokenima

## Definicija Tokenizacija je proces razbijanja teksta u diskretne jedinice (tokena) koje model može obraditi. U kontekstu obrade prirodnog jezika najčešće se radi o riječima, podriječnim jedinicama (subword), znakovima ili bajtovima. Tokenizacija preslikava tekst u niz identifikatora (token ID) koji se potom mapiraju na vektorske reprezentacije u modelu. ## Glavne kategorije tokenizacije – Riječna (word-level):… read more »

LLaMA nova jezična revolucija

Pozadina i svrha – LLaMA (Large Language Model Meta AI) je serija velikih jezičnih modela koje je razvio tim Meta AI s namjerom da ponudi visoku učinkovitost na raznim zadacima jezika uz manji broj parametara u odnosu na neke konkurentske modele. – Prva generacija (LLaMA) i sljedeća (LLaMA 2) objavljene su tijekom 2023. godine. Meta… read more »

Gemini otvara epohu multimodalnosti

Opis Gemini je obitelj velikih modela jezika koju su razvili Google DeepMind i Google Research za generativne i multimodalne zadatke. Modeli iz Gemini serije dizajnirani su za obradu teksta i slika te za integraciju u proizvode i usluge Googlea (npr. Bard, Google Workspace) te kao komercijalna ponuda kroz Google Cloud/Vertex AI. Gemini zamjenjuje ili nadograđuje… read more »

Claude Ustavni Glas Budućnosti

Opis Claude je obitelj velikih jezičnih modela (LLM — veliki jezični model) razvijenih od strane Anthropic, tvrtke osnovane 2021. godine. Modeli su dizajnirani za rad u obliku asistenta za tekstualne zadatke i dijaloge, s naglaskom na sigurnost, upravljivost i robusnost u interakciji s korisnicima. Povijest i razvoj Anthropic su osnovali bivši istraživači iz velikih AI… read more »

Kad pažnja stvara inteligenciju

Uvod Transformer je arhitektura neuronskih mreža predstavljena 2017. od Vaswanija i suradnika u radu “Attention Is All You Need”. Dizajnirana je za obradu sekvenci bez rekurentnih ili konvolucijskih slojeva, oslanjajući se na mehanizam pažnje (attention) za usmjeravanje informacije između elemenata ulazne sekvence. Osnovna ideja Temeljna operacija u Transformeru je računska pažnja između upita (queries), ključeva… read more »

Sidebar