Pré-entraînement de langage masqué

Le pré-entraînement de langage masqué (Masked Language Modeling – MLM) est une tâche d’apprentissage automatique où un modèle de langage est entraîné à prédire des mots masqués dans une séquence de texte donnée. Cette approche est couramment utilisée dans les modèles de langage pré-entraînés tels que BERT pour apprendre des représentations contextuelles des mots.

Exemple : Dans BERT, des mots aléatoires sont masqués dans une phrase et le modèle est entraîné à prédire les mots masqués en se basant sur le contexte environnant, ce qui permet d’apprendre des représentations riches et contextuelles des mots dans le langage naturel.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page