Populární témata
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Příběh kolem LLM je takový, že se zlepšili čistě tím, že zvětšili předtrénování *compute*. Ve skutečnosti se zlepšili tím, že zvětšili předtrénovaná *data*, zatímco výpočetní výkon je pouze prostředkem k nacpání dalších dat do modelu. Data jsou základním úzkým hrdlem. Bez dalších dat nemůžete vertikálně navýšit kapacitu předtrénovacích výpočetních prostředků.
A doposud byla tato data převážně generována lidmi – v posledních několika letech bylo zaměstnáno na plný úvazek více než 20 000 lidí, kteří poskytovali anotace pro školení LLM. I když data pocházejí z RL env, envs stále musely být záměrně ručně vytvořeny lidmi.
A to je zde základní překážka: tyto modely jsou zcela závislé na lidském výstupu. Jsou interpolativní databází toho, co do nich vkládáme.
Mezitím se AGI ve skutečnosti zlepší tím, že jednoduše přidá více *compute*. Nebude omezena dostupností textu generovaného člověkem.
83,69K
Top
Hodnocení
Oblíbené