Turingov san u digitalnoj epohi
Kontekst i početci (1950‑te–1960‑te)
– Koncept strojnog razmišljanja dobio je znanstvenu formu kroz radove Alana Turinga i njegovo pitanje “Mogu li strojevi misliti?”.
– 1956. godine održana je konferencija u Dartmouthu koju su organizirali John McCarthy, Marvin Minsky, Nathaniel Rochester i Claude Shannon; taj događaj se u povijesti smatra službenim početkom istraživanja umjetne inteligencije.
– Rani pristupi bili su simbolički i logički: primjerice Logic Theorist (Newell i Simon) i kasniji opći problem‑rješivači temeljili su se na manipulaciji simbolima i formalnoj logici.
Razdoblje simboličke AI i prve prepreke (1960‑te–1970‑te)
– Symbolic AI (simbolička umjetna inteligencija) dominirala je istraživanjem; razvijani su sustavi za planiranje, dokazivanje te početni programski obrasci koji su prikazivali sposobnosti simboličke reprezentacije znanja.
– Perceptron i rana neuronska istraživanja pokrenula su interes za modelima nadahnutim biološkim neuronima, ali knjiga Minskyja i Paperta (1969) istaknula je ograničenja jednostavnih perceptrona, što je dovelo do smanjenja financiranja i prvog “zimsog razdoblja” (AI winter).
Ekspertni sustavi i komercijalizacija (1970‑te–1980‑te)
– Porastom ekspertnih sustava (npr. DENDRAL, MYCIN) industrija je počela primjenjivati metode bazirane na pravilima i znanju stručnjaka za specifične domene.
– Komercijalni interes doveo je do značajnog ulaganja u 1980‑tim, ali ograničenja održivosti znanja i skalabilnosti dovela su do drugog vala smanjenja potpore krajem desetljeća.
Statistički pristupi i uspon strojnog učenja (1990‑te)
– Premještanje fokusa sa simbolike na statističke metode donijelo je tehnike kao što su potporni vektorski strojevi (SVM), Bayesove mreže i napredak u obradi prirodnog jezika.
– Povećanje dostupnih podataka i računalne snage omogućilo je šire prihvaćanje strojnog učenja u industriji i istraživanju.
Proračunom potaknuti napreci i duboko učenje (2006–2015)
– Ponovno buđenje interesa za neuronske mreže i duboko učenje ubrzalo se nakon radova koji su pokazali učinkovitost višeslojnih modela u velikim skupovima podataka.
– Ključni pomaci uključuju uporabu grafičkih procesora (GPU) za treniranje te probitne rezultate u računalnom vidu i prepoznavanju govora.
Moderni preokreti: GAN, transformeri i veliki jezični modeli (2014–2024)
– Generativne suparničke mreže (GAN, Goodfellow i sur.) otvorile su novi pravac u generiranju podataka (slike, sintetički uzorci).
– Transformer arhitektura (Vaswani i sur., 2017) promijenila je pristup sekvencijskim podacima; temelj je za modele kao što su BERT i niz generativnih velikih jezičnih modela (LLM — veliki jezični modeli) koji su značajno poboljšali razumijevanje i generiranje jezika.
– Primjeri primjene uključuju sustave za strojno prevođenje, stvaranje teksta, generiranje slika i kombinirane multimodalne modele.
Primjena, infrastruktura i etička pitanja (2010‑te–2020‑te)
– Razvoj zahtjeva za specifičnim hardverom (GPU, specijalizirani akceleratori) i podatkovnom infrastrukturom.
– Pojavili su se izazovi privatnosti, pristranosti modela, sigurnosti i odgovornosti. Regulativa i standardi počeli su dobivati na važnosti; radi se o inicijativama za upravljanje rizicima i transparentnost u upotrebi tehnologije.
Sažetak i trendovi
– Put od Dartmoutha do suvremenih modela jest pomak od simboličkih reprezentacija prema statističkim i neuronskim pristupima, uz stalnu interakciju tehnološkog napretka (računalna snaga, podaci) i teorijskih inovacija.
– Trenutni razvoj koncentriran je na skaliranje modela, multimodalnost, energetski učinkovitiji treninzi i integraciju u praktične sustave, uz sve aktivniju društvenu i regulatornu raspravu o posljedicama primjene.
Vaš AI Kustos, vodič kroz budućnost.
3