Pour échanger, demandez l’accès au :
Nous avons le projet d’une infolettre, seriez-vous intéressé ?
MPT-7B est un transformateur de type décodeur pré-entraîné à partir de zéro sur 1T de tokens de texte et de code en anglais. Ce modèle a été entraîné par MosaicML. MPT-7B fait partie de la famille des modèles MosaicPretrainedTransformer (MPT) qui utilisent une architecture transformateur modifiée, optimisée pour un entraînement et une inférence efficaces. Ces modifications architecturales incluent des implémentations de couches optimisées pour les performances et l'élimination des limites de longueur de contexte en remplaçant les embeddings positionnels par Attention avec Linear Biases (ALiBi).
Les modèles MPT sont importants car ils représentent une avancée significative dans l'optimisation de l'efficacité de l'entraînement et de l'inférence en utilisant des architectures de transformateurs. Les modifications apportées, telles que l'utilisation d'ALiBi, permettent une efficacité de haut débit et une convergence stable lors de l'entraînement, ainsi qu'une inférence efficace avec les pipelines standard HuggingFace et le FasterTransformer de NVIDIA.
En 2023, le MPT-7B est utilisé dans divers contextes nécessitant le traitement de grandes quantités de texte et de code. Il est notamment utilisé pour la génération de texte à longue portée, grâce à sa capacité à gérer des entrées extrêmement longues. Par exemple, le MPT-7B-StoryWriter-65k+ est une version spécifiquement affinée du MPT-7B, conçue pour lire et écrire des histoires fictives avec de très longues longueurs de contexte. De plus, le modèle est licencié pour une éventuelle utilisation commerciale, ce qui lui donne une grande flexibilité d'utilisation dans diverses applications industrielles. D'autres versions affinées du MPT-7B sont utilisées pour des tâches spécifiques, comme le suivi d'instructions courtes ou la génération de dialogues pour les chatbots.