@VictorTaelin Użyłem połączonego promptu, aby niektóre modele zaimplementowały różne nietrywialne algorytmy przy użyciu twojego systemu. Zamieszczę kilka tutaj. Pierwszy został wymyślony i początkowo napisany przez Opus 4.1, a następnie poprawiony przez GPT-5 Pro w celu naprawienia błędów.
@VictorTaelin Zapytałem Opusa o dodatkowe spostrzeżenia, które są odzwierciedlone w tym samym URL, który został udostępniony w poprzednim tweecie.
Zrobiłem to dla własnego umysłu, ale teraz mocno podejrzewam, że jeśli po prostu dołączysz wszystkie wyniki z Claude'a do pełnego promptu z opisu i użyjesz połączonego tekstu, aby wstępnie ustawić model na początku rozmowy (w aplikacji webowej) lub sesji (w codex-cli) przed poproszeniem go o wykonanie zamierzonego zadania, to GPT-5 i inne modele będą działać ZNACZNIE lepiej z intuicyjnym językiem i „mostem do Pythona”, który jest zawarty w połączonym promptcie.
W każdym razie byłoby to bardzo interesujące doświadczenie do przeprowadzenia. Jeśli możesz, proszę podziel się swoim najtrudniejszym ostatnim zadaniem, na którym się nie udało.
Tym razem jest, w rzeczywistości, inaczej. Odrzucanie LLM-ów jako jedynie „predyktorów następnych tokenów” jest tak głupie i redukcyjne, jak opisywanie mózgu jako jedynie „zbioru neuronów wykonujących sygnalizację elektrochemiczną.”
Najbardziej przekonującym dowodem jest ich ekstremalna uniwersalność w różnych modalnościach.