Property |
Value |
dbo:abstract
|
- En statistique et en apprentissage automatique, le dilemme (ou compromis) biais–variance est le problème de minimiser simultanément deux sources d'erreurs qui empêchent les algorithmes d'apprentissage supervisé de généraliser au-delà de leur échantillon d'apprentissage :
* Le biais est l'erreur provenant d’hypothèses erronées dans l'algorithme d'apprentissage. Un biais élevé peut être lié à un algorithme qui manque de relations pertinentes entre les données en entrée et les sorties prévues (sous-apprentissage).
* La variance est l'erreur due à la sensibilité aux petites fluctuations de l’échantillon d'apprentissage. Une variance élevée peut entraîner un surapprentissage, c'est-à-dire modéliser le bruit aléatoire des données d'apprentissage plutôt que les sorties prévues. La décomposition biais-variance est une façon d'analyser l'espérance de l'erreur de prédiction d'un algorithme d'apprentissage d'un problème particulier comme une somme de trois termes : le biais, la variance et une quantité, appelée erreur irréductible, résultant du bruit dans le problème lui-même. Ce compromis s'applique à toutes les formes d'apprentissage supervisé : classification, régression (fonction de montage), et le (en). Il a également été invoqué pour expliquer l'efficacité des heuristiques dans l'apprentissage humain. (fr)
- En statistique et en apprentissage automatique, le dilemme (ou compromis) biais–variance est le problème de minimiser simultanément deux sources d'erreurs qui empêchent les algorithmes d'apprentissage supervisé de généraliser au-delà de leur échantillon d'apprentissage :
* Le biais est l'erreur provenant d’hypothèses erronées dans l'algorithme d'apprentissage. Un biais élevé peut être lié à un algorithme qui manque de relations pertinentes entre les données en entrée et les sorties prévues (sous-apprentissage).
* La variance est l'erreur due à la sensibilité aux petites fluctuations de l’échantillon d'apprentissage. Une variance élevée peut entraîner un surapprentissage, c'est-à-dire modéliser le bruit aléatoire des données d'apprentissage plutôt que les sorties prévues. La décomposition biais-variance est une façon d'analyser l'espérance de l'erreur de prédiction d'un algorithme d'apprentissage d'un problème particulier comme une somme de trois termes : le biais, la variance et une quantité, appelée erreur irréductible, résultant du bruit dans le problème lui-même. Ce compromis s'applique à toutes les formes d'apprentissage supervisé : classification, régression (fonction de montage), et le (en). Il a également été invoqué pour expliquer l'efficacité des heuristiques dans l'apprentissage humain. (fr)
|
dbo:thumbnail
| |
dbo:wikiPageExternalLink
| |
dbo:wikiPageID
| |
dbo:wikiPageLength
|
- 14250 (xsd:nonNegativeInteger)
|
dbo:wikiPageRevisionID
| |
dbo:wikiPageWikiLink
| |
prop-fr:align
| |
prop-fr:caption
|
- Fonction et données bruitées. (fr)
- spread=0.1 (fr)
- spread=1 (fr)
- spread=5 (fr)
- Fonction et données bruitées. (fr)
- spread=0.1 (fr)
- spread=1 (fr)
- spread=5 (fr)
|
prop-fr:date
|
- juin 2012 (fr)
- juin 2012 (fr)
|
prop-fr:direction
|
- vertical (fr)
- vertical (fr)
|
prop-fr:footer
|
- Une fonction est estimée à l'aide de fonctions de base radiales . Plusieurs essais sont présentés dans chaque graphique.
Pour chaque essai, quelques points de données bruitées sont fournis comme ensemble d'apprentissage .
Pour une forte valeur du paramètre d'envergure , le biais est élevé : les RBFs ne peuvent pleinement approximer la fonction , mais la variance entre les différents essais est faible. Lorsque le paramètre d'envergure diminue , le biais diminue : les courbes bleues se rapprochent davantage de la courbe rouge. Cependant, en fonction du bruit dans les différents essais, la variance entre les essais augmente. Dans l'image du bas, les approximations pour x = 0 varient énormément selon l'endroit où se trouvaient les points de données. (fr)
- Une fonction est estimée à l'aide de fonctions de base radiales . Plusieurs essais sont présentés dans chaque graphique.
Pour chaque essai, quelques points de données bruitées sont fournis comme ensemble d'apprentissage .
Pour une forte valeur du paramètre d'envergure , le biais est élevé : les RBFs ne peuvent pleinement approximer la fonction , mais la variance entre les différents essais est faible. Lorsque le paramètre d'envergure diminue , le biais diminue : les courbes bleues se rapprochent davantage de la courbe rouge. Cependant, en fonction du bruit dans les différents essais, la variance entre les essais augmente. Dans l'image du bas, les approximations pour x = 0 varient énormément selon l'endroit où se trouvaient les points de données. (fr)
|
prop-fr:fr
|
- Instance-based learning (fr)
- structured prediction (fr)
- Instance-based learning (fr)
- structured prediction (fr)
|
prop-fr:image
|
- Radial basis function fit, spread=0.1.png (fr)
- Radial basis function fit, spread=1.png (fr)
- Radial basis function fit, spread=5.png (fr)
- Test function and noisy data.png (fr)
- Radial basis function fit, spread=0.1.png (fr)
- Radial basis function fit, spread=1.png (fr)
- Radial basis function fit, spread=5.png (fr)
- Test function and noisy data.png (fr)
|
prop-fr:lang
| |
prop-fr:nom
|
- Fortmann-Roe (fr)
- Fortmann-Roe (fr)
|
prop-fr:prénom
| |
prop-fr:texte
|
- structured learning (fr)
- structured learning (fr)
|
prop-fr:url
|
- http://scott.fortmann-roe.com/docs/BiasVariance.html|titre = Understanding the Bias-Variance Tradeoff (fr)
- http://scott.fortmann-roe.com/docs/BiasVariance.html|titre = Understanding the Bias-Variance Tradeoff (fr)
|
prop-fr:width
| |
prop-fr:wikiPageUsesTemplate
| |
dct:subject
| |
rdfs:comment
|
- En statistique et en apprentissage automatique, le dilemme (ou compromis) biais–variance est le problème de minimiser simultanément deux sources d'erreurs qui empêchent les algorithmes d'apprentissage supervisé de généraliser au-delà de leur échantillon d'apprentissage : La décomposition biais-variance est une façon d'analyser l'espérance de l'erreur de prédiction d'un algorithme d'apprentissage d'un problème particulier comme une somme de trois termes : le biais, la variance et une quantité, appelée erreur irréductible, résultant du bruit dans le problème lui-même. (fr)
- En statistique et en apprentissage automatique, le dilemme (ou compromis) biais–variance est le problème de minimiser simultanément deux sources d'erreurs qui empêchent les algorithmes d'apprentissage supervisé de généraliser au-delà de leur échantillon d'apprentissage : La décomposition biais-variance est une façon d'analyser l'espérance de l'erreur de prédiction d'un algorithme d'apprentissage d'un problème particulier comme une somme de trois termes : le biais, la variance et une quantité, appelée erreur irréductible, résultant du bruit dans le problème lui-même. (fr)
|
rdfs:label
|
- Bias–variance tradeoff (en)
- Compromesso bias-varianza (it)
- Dilemme biais-variance (fr)
- Verzerrung-Varianz-Dilemma (de)
|
owl:sameAs
| |
prov:wasDerivedFrom
| |
foaf:depiction
| |
foaf:isPrimaryTopicOf
| |
is dbo:wikiPageRedirects
of | |
is dbo:wikiPageWikiLink
of | |
is oa:hasTarget
of | |
is foaf:primaryTopic
of | |