Pour échanger, demandez l’accès au :
Nous avons le projet d’une infolettre, seriez-vous intéressé ?
L'"Arbre des Pensées" ou "Tree of Thoughts" (ToT) est un cadre de travail introduit par Yao et al. (2023) et Long (2023) pour améliorer la résolution de problèmes complexes avec des modèles de langage. Au lieu d'utiliser une simple invite, ToT construit un arbre où chaque "pensée" représente une séquence de langage cohérente qui sert d'étape intermédiaire vers la solution d'un problème. Il offre ainsi une approche structurée pour explorer et évaluer différents chemins de raisonnement.
Les techniques d'invite traditionnelles sont souvent limitées lorsqu'il s'agit de tâches nécessitant une exploration ou une anticipation stratégique. ToT permet aux modèles de langage de s'auto-évaluer en cours de raisonnement et d'appliquer des algorithmes de recherche (comme la recherche en largeur ou en profondeur) pour explorer systématiquement des "pensées" avec des anticipations et des retours en arrière.
En 2023, ToT est employé pour une variété de tâches nécessitant une décomposition en étapes intermédiaires. Par exemple, pour le jeu mathématique "Game of 24", le modèle est guidé à travers plusieurs étapes, chacune comprenant une équation intermédiaire. Les pensées candidates sont évaluées en fonction de leur pertinence pour atteindre l'objectif. Les recherches de Yao et al. et de Long diffèrent principalement dans leur approche de la recherche d'arbre : Yao et al. utilisent des techniques classiques comme la recherche en largeur/profondeur, tandis que Long introduit un "Contrôleur ToT" formé par apprentissage par renforcement. Hulbert (2023) a également introduit la technique d'invite basée sur ToT, demandant au modèle de simuler une discussion entre experts pour explorer différentes étapes de la pensée.