GPT tka jezike i budućnost
Koncept i razvoj – GPT (Generative Pre-trained Transformer) je obitelj velikih jezičnih modela (LLM; large language model) koje je razvio OpenAI. Prvi radovi koji su doveli do GPT arhitekture objavljeni su krajem 2010-ih, s ključnim iteracijama: GPT-1 (Radford i sur., 2018), GPT-2 (2019) i GPT-3 (2020). GPT-3 je privukao široku pozornost zbog 175 milijardi parametara… read more »