Qu'est-ce que la régression linéaire multiple - MLR?
La régression linéaire multiple (MLR), également connue simplement sous le nom de régression multiple, est une technique statistique qui utilise plusieurs variables explicatives pour prédire le résultat d'une variable de réponse. Le but de la régression linéaire multiple (MLR) est de modéliser la relation linéaire entre les variables explicatives (indépendantes) et la réponse (dépendante).
En substance, la régression multiple est l'extension de la régression des moindres carrés ordinaires (OLS) qui implique plus d'une variable explicative.
La formule de régression linéaire multiple est
La Yi = β0 + β1 xi1 + β2 xi2 +… + βp xip + ϵoù, pour i = n observations: yi = variable dépendantexi = variables expanatoiresβ0 = ordonnée à l'origine (constante terme) βp = coefficients de pente pour chaque variable explicativeϵ = terme d'erreur du modèle (également connu sous le nom de résidus)
Expliquer la régression linéaire multiple
Une régression linéaire simple est une fonction qui permet à un analyste ou à un statisticien de faire des prédictions sur une variable en fonction des informations connues sur une autre variable. La régression linéaire ne peut être utilisée que si l'on a deux variables continues - une variable indépendante et une variable dépendante. La variable indépendante est le paramètre utilisé pour calculer la variable ou le résultat dépendant. Un modèle de régression multiple s'étend à plusieurs variables explicatives.
Le modèle de régression multiple est basé sur les hypothèses suivantes:
- Il existe une relation linéaire entre les variables dépendantes et les variables indépendantes.Les variables indépendantes ne sont pas trop fortement corrélées entre elles.y Les observations i sont sélectionnées de manière indépendante et aléatoire dans la population.Les résiduels doivent être normalement distribués avec une moyenne de 0 et une variance σ.
Le coefficient de détermination (R au carré) est une métrique statistique qui est utilisée pour mesurer dans quelle mesure la variation du résultat peut être expliquée par la variation des variables indépendantes. R 2 augmente toujours à mesure que de nouveaux prédicteurs sont ajoutés au modèle MLR même si les prédicteurs peuvent ne pas être liés à la variable de résultat.
Le R 2 à lui seul ne peut donc pas être utilisé pour identifier les prédicteurs à inclure dans un modèle et ceux à exclure. R 2 ne peut être compris qu'entre 0 et 1, où 0 indique que le résultat ne peut être prédit par aucune des variables indépendantes et 1 indique que le résultat peut être prédit sans erreur à partir des variables indépendantes.
Lors de l'interprétation des résultats d'une régression multiple, les coefficients bêta sont valides tout en maintenant toutes les autres variables constantes ("toutes choses égales par ailleurs"). La sortie d'une régression multiple peut être affichée horizontalement sous forme d'équation, ou verticalement sous forme de tableau.
Exemple d'utilisation de la régression linéaire multiple
Par exemple, un analyste peut vouloir savoir comment le mouvement du marché affecte le prix d'Exxon Mobil (XOM). Dans ce cas, son équation linéaire aura la valeur de l'indice S&P 500 comme variable indépendante, ou prédicteur, et le prix de XOM comme variable dépendante.
En réalité, plusieurs facteurs prédisent l'issue d'un événement. Le mouvement des prix d'Exxon Mobil, par exemple, dépend de plus que de la performance du marché global. D'autres prédicteurs tels que le prix du pétrole, les taux d'intérêt et le mouvement des prix des contrats à terme sur le pétrole peuvent affecter le prix de la XOM et les cours des actions d'autres sociétés pétrolières. Pour comprendre une relation dans laquelle plus de deux variables sont présentes, une régression linéaire multiple est utilisée.
La régression linéaire multiple (MLR) est utilisée pour déterminer une relation mathématique entre un certain nombre de variables aléatoires. En d'autres termes, MLR examine comment plusieurs variables indépendantes sont liées à une variable dépendante. Une fois que chacun des facteurs indépendants a été déterminé pour prédire la variable dépendante, les informations sur les multiples variables peuvent être utilisées pour créer une prédiction précise sur le niveau d'effet qu'elles ont sur la variable de résultat. Le modèle crée une relation sous la forme d'une ligne droite (linéaire) qui correspond le mieux à tous les points de données individuels.
En se référant à l'équation MLR ci-dessus, dans notre exemple:
- y i = variable dépendante: prix de XOMx i1 = taux d'intérêt x i2 = prix du pétrole x i3 = valeur de l'indice S&P 500 x i4 = prix des contrats à terme sur le pétrole B 0 = ordonnée à l'origine au temps zéro B 1 = coefficient de régression qui mesure un changement unitaire de la personne à charge variable lorsque x i1 change - la variation du prix XOM lorsque les taux d'intérêt changentB 2 = valeur du coefficient qui mesure une variation unitaire de la variable dépendante lorsque x i2 change - la variation du prix XOM lorsque les prix du pétrole changent
Les estimations des moindres carrés, B 0, B 1, B 2 … B p, sont généralement calculées par un logiciel statistique. Autant de variables peuvent être incluses dans le modèle de régression dans lequel chaque variable indépendante est différenciée par un nombre - 1, 2, 3, 4… p. Le modèle de régression multiple permet à un analyste de prédire un résultat sur la base d'informations fournies sur plusieurs variables explicatives.
Pourtant, le modèle n'est pas toujours parfaitement précis car chaque point de données peut différer légèrement du résultat prévu par le modèle. La valeur résiduelle, E, qui est la différence entre le résultat réel et le résultat prévu, est incluse dans le modèle pour tenir compte de ces légères variations.
En supposant que nous exécutons notre modèle de régression des prix XOM via un logiciel de calcul de statistiques, qui renvoie cette sortie:
Un analyste interpréterait cette sortie comme signifiant que si les autres variables sont maintenues constantes, le prix du XOM augmentera de 7, 8% si le prix du pétrole sur les marchés augmente de 1%. Le modèle montre également que le prix du XOM diminuera de 1, 5% suite à une hausse de 1% des taux d'intérêt. R 2 indique que 86, 5% des variations du cours des actions d'Exxon Mobil peuvent s'expliquer par des variations du taux d'intérêt, du prix du pétrole, des contrats à terme sur le pétrole et de l'indice S&P 500.
Points clés à retenir
- La régression linéaire multiple (MLR), également connue sous le nom de régression multiple, est une technique statistique qui utilise plusieurs variables explicatives pour prédire le résultat d'une variable de réponse. La régression multiple est une extension de la régression linéaire (OLS) qui utilise une seule variable explicative. Le MLR est largement utilisé en économétrie et en inférence financière.
La différence entre régression linéaire et régression multiple
La régression linéaire (OLS) compare la réponse d'une variable dépendante compte tenu d'un changement dans une variable explicative. Cependant, il est rare qu'une variable dépendante soit expliquée par une seule variable. Dans ce cas, un analyste utilise une régression multiple, qui tente d'expliquer une variable dépendante à l'aide de plusieurs variables indépendantes. Les régressions multiples peuvent être linéaires et non linéaires.
Les régressions multiples sont basées sur l'hypothèse qu'il existe une relation linéaire entre les variables dépendantes et indépendantes. Il ne suppose pas non plus de corrélation majeure entre les variables indépendantes.
