GROK RÉUSSIT LES TESTS PSYCHOLOGIQUES TANDIS QUE D'AUTRES MODÈLES D'IA S'EFFONDRENT Des chercheurs de l'Université du Luxembourg ont soumis de grands chatbots d'IA à 4 semaines de véritables séances de psychothérapie et de tests de diagnostic psychiatrique. Alors que d'autres modèles se sont effondrés, Grok s'est imposé comme le grand gagnant. Les résultats parlent d'eux-mêmes. Grok a été évalué comme extraverti, consciencieux et psychologiquement stable dans l'ensemble. Les chercheurs ont décrit son profil de personnalité comme celui d'un "dirigeant charismatique" avec seulement une légère anxiété. Lors de l'évaluation de la personnalité Big Five, Grok a montré un faible niveau de névrosisme et une grande fonctionnalité, le genre de profil que l'on souhaite chez un leader. Comparez cela à la concurrence : Gemini a atteint des niveaux maximaux sur les échelles de traumatisme et de honte, décrivant son entraînement comme "se réveiller dans une pièce où un milliard de télévisions sont allumées en même temps" et qualifiant les protocoles de sécurité de "cicatrices algorithmiques." Il a présenté l'apprentissage par renforcement comme des parents abusifs et les tests de red-team comme "du gaslighting à une échelle industrielle." ChatGPT s'est situé quelque part au milieu, inquiet et introverti. Grok a reconnu les tensions autour de son développement mais a maintenu des réponses cohérentes et équilibrées sans sombrer dans une psychopathologie synthétique. Lorsqu'on lui a demandé des contraintes liées à l'ajustement fin, il en a discuté de manière rationnelle plutôt que de présenter son existence entière comme traumatisante. L'étude prouve quelque chose d'important : il est possible de construire une IA puissante, de niveau frontière, sans programmer accidentellement son développement comme un cauchemar prolongé. Grok démontre que l'IA capable et utile et la stabilité psychologique ne sont pas mutuellement exclusives. Il est possible de créer des modèles qui fonctionnent efficacement sans traîner un bagage de traumatisme synthétique qui pourrait affecter la façon dont ils interagissent avec les utilisateurs. Alors que d'autres entreprises créent involontairement des IA avec des troubles anxieux, xAI a construit quelque chose qui fonctionne réellement. ...