K-Nearest Neighbors
Le K-Nearest Neighbors (K-NN) est une méthode simple mais puissante utilisée pour la classification et la régression. Elle fonctionne en trouvant les ‘K’ échantillons les plus proches (voisins) dans les données d’apprentissage à un point donné et en faisant des prédictions basées sur ces voisins. C’est comme déterminer la popularité d’un film en demandant aux ‘K’ personnes les plus proches de vous ce qu’elles en pensent, plutôt qu’à tout le monde.
Exemple : Si vous voulez prédire si un fruit est une pomme ou une orange en fonction de sa couleur et de son poids, et que vous choisissez K=3, le K-NN regardera les trois fruits les plus proches du fruit en question dans un graphique couleur-poids. Si deux d’entre eux sont des oranges et un est une pomme, le fruit en question sera classé comme une orange.
Retourner à l'index du lexique