La régression des moindres carrés partiels a été inventée en 1983 par Svante Wold et son père Herman Wold ; on utilise fréquemment l'abréviation anglaise régression PLS (« Partial Least Squares regression » et/ou « Projection to Latent Structure »). La régression PLS maximise la variance des prédicteurs (Xi) = X et maximise la corrélation entre X et la variable à expliquer Y. Cet algorithme emprunte sa démarche à la fois à l'analyse en composantes principales (ACP) et à la régression. Plus précisément, la régression PLS cherche des composantes, appelées variables latentes, liées à X et à Y, servant à exprimer la régression de Y sur ces variables et finalement de Y sur X.

Property Value
dbo:abstract
  • La régression des moindres carrés partiels a été inventée en 1983 par Svante Wold et son père Herman Wold ; on utilise fréquemment l'abréviation anglaise régression PLS (« Partial Least Squares regression » et/ou « Projection to Latent Structure »). La régression PLS maximise la variance des prédicteurs (Xi) = X et maximise la corrélation entre X et la variable à expliquer Y. Cet algorithme emprunte sa démarche à la fois à l'analyse en composantes principales (ACP) et à la régression. Plus précisément, la régression PLS cherche des composantes, appelées variables latentes, liées à X et à Y, servant à exprimer la régression de Y sur ces variables et finalement de Y sur X. (fr)
  • La régression des moindres carrés partiels a été inventée en 1983 par Svante Wold et son père Herman Wold ; on utilise fréquemment l'abréviation anglaise régression PLS (« Partial Least Squares regression » et/ou « Projection to Latent Structure »). La régression PLS maximise la variance des prédicteurs (Xi) = X et maximise la corrélation entre X et la variable à expliquer Y. Cet algorithme emprunte sa démarche à la fois à l'analyse en composantes principales (ACP) et à la régression. Plus précisément, la régression PLS cherche des composantes, appelées variables latentes, liées à X et à Y, servant à exprimer la régression de Y sur ces variables et finalement de Y sur X. (fr)
dbo:discoverer
dbo:thumbnail
dbo:wikiPageExternalLink
dbo:wikiPageID
  • 5108860 (xsd:integer)
dbo:wikiPageLength
  • 12393 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID
  • 177711342 (xsd:integer)
dbo:wikiPageWikiLink
prop-fr:année
  • 1998 (xsd:integer)
  • 2010 (xsd:integer)
prop-fr:colonnes
  • 2.0
prop-fr:consultéLe
  • 2011-05-14 (xsd:date)
  • 2011-12-16 (xsd:date)
prop-fr:group
  • "b" (fr)
  • "b" (fr)
prop-fr:isbn
  • 978 (xsd:integer)
prop-fr:langue
  • fr (fr)
  • fr (fr)
prop-fr:lieu
  • Paris (fr)
  • Paris (fr)
prop-fr:lireEnLigne
prop-fr:nom
  • Tenenhaus (fr)
  • Tufféry (fr)
  • Tenenhaus (fr)
  • Tufféry (fr)
prop-fr:pagesTotales
  • 254 (xsd:integer)
  • 705 (xsd:integer)
prop-fr:prénom
  • Stéphane (fr)
  • Michel (fr)
  • Stéphane (fr)
  • Michel (fr)
prop-fr:sousTitre
  • Théorie et Pratique (fr)
  • l'intelligence des données (fr)
  • Théorie et Pratique (fr)
  • l'intelligence des données (fr)
prop-fr:titre
  • Data Mining et statistique décisionnelle (fr)
  • La régression PLS (fr)
  • Data Mining et statistique décisionnelle (fr)
  • La régression PLS (fr)
prop-fr:wikiPageUsesTemplate
prop-fr:éditeur
  • éditions Technip (fr)
  • éditions Technip (fr)
dct:subject
rdfs:comment
  • La régression des moindres carrés partiels a été inventée en 1983 par Svante Wold et son père Herman Wold ; on utilise fréquemment l'abréviation anglaise régression PLS (« Partial Least Squares regression » et/ou « Projection to Latent Structure »). La régression PLS maximise la variance des prédicteurs (Xi) = X et maximise la corrélation entre X et la variable à expliquer Y. Cet algorithme emprunte sa démarche à la fois à l'analyse en composantes principales (ACP) et à la régression. Plus précisément, la régression PLS cherche des composantes, appelées variables latentes, liées à X et à Y, servant à exprimer la régression de Y sur ces variables et finalement de Y sur X. (fr)
  • La régression des moindres carrés partiels a été inventée en 1983 par Svante Wold et son père Herman Wold ; on utilise fréquemment l'abréviation anglaise régression PLS (« Partial Least Squares regression » et/ou « Projection to Latent Structure »). La régression PLS maximise la variance des prédicteurs (Xi) = X et maximise la corrélation entre X et la variable à expliquer Y. Cet algorithme emprunte sa démarche à la fois à l'analyse en composantes principales (ACP) et à la régression. Plus précisément, la régression PLS cherche des composantes, appelées variables latentes, liées à X et à Y, servant à exprimer la régression de Y sur ces variables et finalement de Y sur X. (fr)
rdfs:label
  • Regresión de mínimos cuadrados parciales (es)
  • Regressió de mínims quadrats parcials (ca)
  • Régression des moindres carrés partiels (fr)
  • Regresión de mínimos cuadrados parciales (es)
  • Regressió de mínims quadrats parcials (ca)
  • Régression des moindres carrés partiels (fr)
rdfs:seeAlso
owl:sameAs
prov:wasDerivedFrom
foaf:depiction
foaf:isPrimaryTopicOf
is dbo:wikiPageDisambiguates of
is dbo:wikiPageRedirects of
is dbo:wikiPageWikiLink of
is oa:hasTarget of
is foaf:primaryTopic of
pFad - Phonifier reborn

Pfad - The Proxy pFad of © 2024 Garber Painting. All rights reserved.

Note: This service is not intended for secure transactions such as banking, social media, email, or purchasing. Use at your own risk. We assume no liability whatsoever for broken pages.


Alternative Proxies:

Alternative Proxy

pFad Proxy

pFad v3 Proxy

pFad v4 Proxy