Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Todo tiene sentido.
Google + Anthropic se centraron en el pre-entrenamiento, así que obtienes una gran respuesta más rápido, pero el techo de capacidad es más bajo.
OpenAI se centró en el post-entrenamiento, así que las grandes respuestas tardan más, pero puedes llevar los modelos mucho más lejos.
Para ser claros (recibiendo muchos comentarios confusos), obviamente no quiero decir que ninguna de estas empresas esté enfocada únicamente en una cosa.
OAI/Anthropic/Google se centran tanto en el pre-entrenamiento como en el post-entrenamiento (obviamente hay etapas dentro de esos, solo lo estoy simplificando aquí).
Pero parece que OAI hizo un mejor trabajo en el post-entrenamiento, mientras que Google/Anthropic hicieron un mejor trabajo en el pre-entrenamiento. Todos están interconectados (un mejor pre-entrenamiento facilita el post-entrenamiento/aumenta el techo para el post-entrenamiento, por ejemplo).
Esto se manifiesta en cómo se siente trabajar con los modelos día a día.
118,16K
Parte superior
Clasificación
Favoritos
