Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Es ergibt alles Sinn.
Google + Anthropic konzentrierten sich auf das Pre-Training, sodass man schneller zu einer großartigen Antwort kommt, aber die Fähigkeitsschwelle ist niedriger.
OpenAI konzentrierte sich auf das Post-Training, sodass großartige Antworten länger dauern, aber man die Modelle viel weiter treiben kann.
Um klarzustellen (ich bekomme viele verwirrte Kommentare), meine ich offensichtlich nicht, dass sich eines dieser Unternehmen ausschließlich auf eine Sache konzentriert.
OAI/Anthropic/Google konzentrieren sich sowohl auf das Pre-Training als auch auf das Post-Training (offensichtlich gibt es innerhalb dieser Phasen Unterteilungen, ich vereinfache hier nur).
Aber es fühlt sich so an, als hätte OAI beim Post-Training einen besseren Job gemacht, während Google/Anthropic beim Pre-Training besser abgeschnitten haben. Sie sind alle miteinander verbunden (besseres Pre-Training erleichtert das Post-Training/erhöht die Obergrenze für das Post-Training, zum Beispiel).
Das zeigt sich darin, wie sich die Modelle im täglichen Umgang anfühlen.
117,59K
Top
Ranking
Favoriten
