Métriques d’évaluation

Les métriques d’évaluation pour les modèles génératifs sont des mesures utilisées pour évaluer la qualité, la cohérence et la pertinence des sorties générées par ces modèles. Ces métriques peuvent inclure des mesures de similarité avec les données réelles, des évaluations par des juges humains, ou des mesures spécifiques à la tâche pour évaluer la performance des modèles.

Exemple : Des métriques telles que la perplexité, la BLEU score, ou la ROUGE score sont couramment utilisées pour évaluer les performances des modèles de génération de texte en comparant leurs sorties avec des références humaines ou des données de test.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page