Qu’est-ce que l' »overfitting » et l' »underfitting » en apprentissage automatique ?
Posted on
– S1E14
Si votre tâche principale est de sélectionner un algorithme d’apprentissage et de l’entraîner sur certaines données, les deux choses qui peuvent mal tourner sont « mauvais algorithme » et « mauvaises données »
Ce sont des exemples de mauvais algorithme-
Surajustement-
Le surajustement est une erreur de modélisation qui se produit lorsqu’une fonction est trop étroitement ajustée à un ensemble limité de points de données. Cela signifie que le modèle est performant sur les données d’entraînement, mais qu’il ne se généralise pas bien.
Ex- Disons que vous visitez un pays étranger et que le chauffeur de taxi vous arnaque. Vous pourriez être tenté de dire que tous les chauffeurs de taxi de ce pays sont des voleurs
Ligne pointillée- formée sur des cercles uniquement,
Ligne pointillée- entraînée sur les cercles et les carrés
Ligne pleine- est un modèle entraîné sur les cercles seulement
Vous pouvez voir que la régularisation a forcé le modèle à avoir une plus petite pente : ce modèle ne s’ajuste pas aux données d’entraînement (cercles) aussi bien que le premier modèle, mais il généralise en fait mieux aux nouveaux exemples qu’il n’a pas vus pendant l’entraînement (carrés).
La quantité de régularisation à appliquer pendant l’apprentissage peut être contrôlée par un hyperparamètre.
Un hyperparamètre est un paramètre d’un algorithme d’apprentissage (pas du modèle). Il doit être défini avant l’entraînement et reste constant pendant l’entraînement.
Si vous définissez l’hyperparamètre de régularisation à-
une valeur très grande- vous obtiendrez un modèle presque plat (une pente proche de zéro), l’algorithme d’apprentissage ne surajustera presque certainement pas les données d’entraînement, mais il sera moins susceptible de trouver une bonne solution.
Le réglage des hyperparamètres est une partie importante de la construction d’un système de Machine Learning (vous verrez un exemple détaillé dans les épisodes suivants).
L’underfitting se produit lorsque votre modèle est trop simple pour apprendre la structure sous-jacente des données.
Un modèle linéaire de la satisfaction de la vie est enclin à l’underfit, la réalité est juste plus complexe que le modèle, donc ses prédictions sont forcément inexactes.
Voici les principales options pour corriger ce problème-
Sélectionner un modèle plus puissant, avec plus de paramètres.
Fournir de meilleures caractéristiques à l’algorithme d’apprentissage (feature engineering).
Réduire les contraintes sur le modèle (par ex, réduire l’hyperparamètre de régularisation).
Lire la suite – Test et validation d’un modèle entraîné