Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Narrativet kring LLM:er är att de blev bättre enbart genom att skala upp förträning *compute*. I verkligheten blev de bättre genom att skala upp förträning *data*, medan beräkning bara är ett sätt att stoppa in mer data i modellen. Data är den grundläggande flaskhalsen. Du kan inte skala upp förträningsberäkning utan mer data.
Och hittills har dessa data huvudsakligen genererats av människor - över 20 000 personer har varit anställda på heltid under de senaste åren för att tillhandahålla kommentarer att träna LLM:er på. Även när data kommer från RL envs, måste envs fortfarande vara avsiktligt handgjorda av människor.
Och det är den grundläggande flaskhalsen här: dessa modeller är helt beroende av mänsklig produktion. De är en interpolativ databas över vad vi lägger in i dem.
Samtidigt kommer AGI faktiskt att bli bättre genom att helt enkelt lägga till mer *beräkning*. Den kommer inte att flaskhalsas av tillgången till mänskligt genererad text.
57,97K
Topp
Rankning
Favoriter