Métriques d’évaluation
Les métriques d’évaluation pour les modèles génératifs sont des mesures utilisées pour évaluer la qualité, la cohérence et la pertinence des sorties générées par ces modèles. Ces métriques peuvent inclure des mesures de similarité avec les données réelles, des évaluations par des juges humains, ou des mesures spécifiques à la tâche pour évaluer la performance des modèles.
Exemple : Des métriques telles que la perplexité, la BLEU score, ou la ROUGE score sont couramment utilisées pour évaluer les performances des modèles de génération de texte en comparant leurs sorties avec des références humaines ou des données de test.
Retourner à l'index du lexique