Logo LeBonLLM
Carnet de code et de réflexions autour de l’IA générative à la française
codecorpuscontributionsconversationscurationlexiquefaqrecherche
Communauté

Pour échanger, demandez l’accès au :

Infolettre

Nous avons le projet d’une infolettre, seriez-vous intéressé ?

Misc
XLinkedInMentions légales
Contact

Quel est le plus petit modèle LLM (Large Language Model) ?

La plus petite taille de modèle LLM peut varier en fonction des critères spécifiques tels que le nombre de paramètres ou la complexité de l'architecture. Cependant, parmi les modèles LLM couramment utilisés, certains des plus petits modèles incluent GPT-2 Small de OpenAI, qui a une taille de 117 millions de paramètres, et DistilBERT, une version compressée de BERT qui a environ 66 millions de paramètres.

Il est important de noter que, bien que ces modèles soient considérés comme plus petits par rapport à leurs homologues plus grands, ils peuvent encore fournir des performances significatives et être utiles pour de nombreuses tâches de traitement du langage naturel..