44 Régression logistique ordinale
La régression logistique ordinale est une extension de la régression logistique binaire (cf. Chapitre 22) aux variables qualitatives à trois modalités ou plus qui sont ordonnées, par exemple modéré, moyen et fort.
Pour une variable ordonnée, il est possible de réaliser une régression logistique multinomiale (cf. Chapitre 43) comme on le ferait avec une variable non ordonnée. Dans ce cas de figure, chaque modalité de la variable d’intérêt serait comparée à une modalité de référence.
Alternativement, on peut réaliser une régression logistique ordinale aussi appelée modèle cumulatif ou modèle logistique à égalité des pentes. Ce type de modèle est plus simple que la régression multinomiale car il ne renvoie qu’un seul jeu de coefficients.
Supposons une variable d’intérêt à trois modalités A, B et C telles que A < B < C. Les odds ratios qui seront calculés comparerons la probabilité que Y≥B par rapport à la probabilité que Y≤A (aspect cumulatif) et ferons l’hypothèse que ce ratio est le même quand on compare la probabilité que Y≥C par rapport à la probabilité que Y≤B (égalité des pentes).
44.1 Données d’illustration
Pour illustrer la régression logistique multinomiale, nous allons reprendre le jeu de données hdv2003
du package questionr et portant sur l’enquête histoires de vie 2003 de l’Insee et l’exemple utilisé dans le chapitre sur la régression logistique multinomiale (cf. Chapitre 43).
Nous allons considérer comme variable d’intérêt la variable trav.satisf, à savoir la satisfaction ou l’insatisfaction au travail.
n % val%
Satisfaction 480 24.0 45.8
Insatisfaction 117 5.9 11.2
Equilibre 451 22.6 43.0
NA 952 47.6 NA
Nous allons devoir ordonner les modalités de la plus faible à la plus forte.
Et nous allons indiquer qu’il s’agit d’un facteur ordonné.
Nous allons aussi en profiter pour raccourcir les étiquettes de la variable trav.imp :
Enfin, procédons à quelques recodages additionnels :
d <- d |>
mutate(
sexe = sexe |> fct_relevel("Femme"),
groupe_ages = age |>
cut(
c(18, 25, 45, 99),
right = FALSE,
include.lowest = TRUE,
labels = c("18-24 ans", "25-44 ans",
"45 et plus")
),
etudes = nivetud |>
fct_recode(
"Primaire" = "N'a jamais fait d'etudes",
"Primaire" = "A arrete ses etudes, avant la derniere annee d'etudes primaires",
"Primaire" = "Derniere annee d'etudes primaires",
"Secondaire" = "1er cycle",
"Secondaire" = "2eme cycle",
"Technique / Professionnel" = "Enseignement technique ou professionnel court",
"Technique / Professionnel" = "Enseignement technique ou professionnel long",
"Supérieur" = "Enseignement superieur y compris technique superieur"
) |>
fct_na_value_to_level("Non documenté")
) |>
set_variable_labels(
trav.satisf = "Satisfaction dans le travail",
sexe = "Sexe",
groupe_ages = "Groupe d'âges",
etudes = "Niveau d'études",
trav.imp = "Importance accordée au travail"
)
44.2 Calcul du modèle ordinal
44.2.1 avec MASS::polr()
Le plus facile pour le calcul d’un modèle ordinal est d’avoir recours à la fonction MASS::polr()
.
Nous pouvons aisément simplifier le modèle avec step()
(cf. Chapitre 23).
Start: AIC=1978.29
trav.satisf ~ sexe + etudes + groupe_ages + trav.imp
Df AIC
- groupe_ages 2 1977.2
- sexe 1 1978.3
<none> 1978.3
- etudes 4 1991.5
- trav.imp 3 2014.0
Step: AIC=1977.23
trav.satisf ~ sexe + etudes + trav.imp
Df AIC
- sexe 1 1977.0
<none> 1977.2
- etudes 4 1990.6
- trav.imp 3 2013.2
Step: AIC=1976.97
trav.satisf ~ etudes + trav.imp
Df AIC
<none> 1977.0
- etudes 4 1990.6
- trav.imp 3 2011.6
44.2.2 Fonctions alternatives
Un package alternatif pour le calcul de régressions ordinales est le package dédié ordinal et sa fonction ordinal::clm()
. Pour les utilisateurs avancés, ordinal permet également de traiter certains prédicteurs comme ayant un effet nominal (et donc avec un coefficient par niveau) via l’argument nominal
. Il existe également une fonction ordinal::clmm()
permet de définir des modèles mixtes avec variables à effet aléatoire.
Les modèles créés avec ordinal::clm()
sont plutôt bien traités par des fonctions comme gtsummary::tbl_regression()
ou ggstats::ggcoef_model()
.
Enfin, on peut également citer la fonction VGAM::vgam()
en spécifiant family = VGAM::cumulative(parallel = TRUE)
. Cette famille de modèles offre des options avancées (par exemple il est possible de calculer des modèles non parallèles, c’est-à-dire avec une série de coefficients pour chaque changement de niveau). Par contre, le support de gtsummary::tbl_regression()
et ggstats::ggcoef_model()
sera limité (seulement des résultats bruts).
En toute rigueur, il faudrait tester l’égalité des pentes. Laurent Rouvière propose un code permettant d’effectuer ce test sous R à partir d’un modèle réalisé avec VGAM::vglm()
, voir la diapositive 33 sur 35 d’un de ses cours de janvier 2015 intitulé Quelques modèles logistiques polytomiques.
44.3 Affichage des résultats du modèle
Pour un tableau des coefficients, on peut tout simplement appeler gtsummary::tbl_regression()
. Nous allons indiquer exponentiate = TRUE
car, comme pour la régression logistique binaire, l’exponentielle des coefficients peut s’interpréter comme des odds ratios. Pour éviter certains messages d’information, nous allons préciser tidy_fun = broom.helpers::tidy_parameters
(cela implique juste que le tableau des coefficients sera calculé avec le package parameters plutôt qu’avec le package broom). Nous pouvons calculer à la volée la p-valeur globale de chaque variable avec gtsummary::add_global_p()
.
rego2 |>
tbl_regression(
exponentiate = TRUE,
tidy_fun = broom.helpers::tidy_parameters
) |>
bold_labels() |>
add_global_p(keep = TRUE)
Réajustement pour obtenir le Hessien
Caractéristique |
OR 1 |
95% IC 1 |
p-valeur |
---|---|---|---|
Niveau d'études | <0,001 | ||
Primaire | — | — | |
Secondaire | 1,06 | 0,67 – 1,67 | 0,8 |
Technique / Professionnel | 1,01 | 0,67 – 1,53 | >0,9 |
Supérieur | 1,84 | 1,20 – 2,83 | 0,006 |
Non documenté | 0,66 | 0,25 – 1,72 | 0,4 |
Importance accordée au travail | <0,001 | ||
Le plus | — | — | |
Aussi | 1,39 | 0,65 – 2,97 | 0,4 |
Moins | 1,03 | 0,50 – 2,14 | >0,9 |
Peu | 0,19 | 0,08 – 0,48 | <0,001 |
1
OR = rapport de cotes, IC = intervalle de confiance |
La même commande fonctionne avec un modèle créé avec ordinal::clm()
.
Pour un graphique des coefficients, on va procéder de même avec ggstats::gcoef_model()
ou ggstats::gcoef_table()
.
Pour faciliter l’interprétation, on pourra représenter les prédictions marginales du modèle (cf. Chapitre 24) avec broom.helpers::plot_marginal_predictions()
.
44.4 Données pondérées
44.4.1 avec survey::svyolr()
L’extension survey (cf. Chapitre 28) propose une fonction native survey::svyolr()
pour le calcul d’une régression ordinale.
Nous allons commencer par définir le plan d’échantillonnage.
Calculons le modèle.
Le résultat peut être visualisé aisément avec gtsummary::tbl_regression()
ou ggstats::ggcoef_model()
.
44.4.2 avec svrepmisc::svymultinom()
Alternativement, il est possible d’utiliser à ordinal::clm()
en ayant recours à des poids de réplication, comme suggéré par Thomas Lumley dans son ouvrage Complex Surveys: A Guide to Analysis Using R.
L’extension svrepmisc disponible sur GitHub fournit quelques fonctions facilitant l’utilisation des poids de réplication avec survey. Pour l’installer, on utilisera le code ci-dessous :
En premier lieu, il faut définir le design de notre tableau de données puis calculer des poids de réplication.
Il faut prévoir un nombre de replicates
suffisant pour calculer ultérieurement les intervalles de confiance des coefficients. Plus ce nombre est élevé, plus précise sera l’estimation de la variance et donc des valeurs p et des intervalles de confiance. Cependant, plus ce nombre est élevé, plus le temps de calcul sera important. Pour gagner en temps de calcul, nous avons ici pris une valeur de 25, mais l’usage est de considérer au moins 1000 réplications.
svrepmisc fournit une fonction svrepmisc::svyclm()
pour le calcul d’une régression multinomiale avec des poids de réplication.
svrepmisc fournit également des méthodes svrepmisc::confint()
et svrepmisc::tidy()
. Nous pouvons donc calculer et afficher les odds ratio et leur intervalle de confiance.
Coefficient SE t value Pr(>|t|)
Insatisfaction|Equilibre -2.03917466 0.68578624 -2.9735 0.00947 **
Equilibre|Satisfaction 0.27271800 0.70391645 0.3874 0.70388
sexeHomme -0.13280477 0.16514615 -0.8042 0.43386
etudesSecondaire -0.04271403 0.29847702 -0.1431 0.88811
etudesTechnique / Professionnel 0.00042809 0.19997661 0.0021 0.99832
etudesSupérieur 0.64247607 0.22827571 2.8145 0.01307 *
etudesNon documenté -0.46945975 0.53333962 -0.8802 0.39262
trav.impAussi 0.12071087 0.58062352 0.2079 0.83810
trav.impMoins 0.05267146 0.62836491 0.0838 0.93431
trav.impPeu -1.53039056 0.66160102 -2.3132 0.03531 *
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
2.5 % 97.5 %
Insatisfaction|Equilibre -3.5008934 -0.5774559
Equilibre|Satisfaction -1.2276444 1.7730804
sexeHomme -0.4848055 0.2191959
etudesSecondaire -0.6789027 0.5934747
etudesTechnique / Professionnel -0.4258120 0.4266681
etudesSupérieur 0.1559179 1.1290342
etudesNon documenté -1.6062462 0.6673267
trav.impAussi -1.1168589 1.3582806
trav.impMoins -1.2866566 1.3919996
trav.impPeu -2.9405598 -0.1202214
term estimate std.error statistic p.value
1 Equilibre|Satisfaction 1.3135298 0.7039165 0.387429505 0.703880188
2 etudesNon documenté 0.6253400 0.5333396 -0.880226664 0.392621184
3 etudesSecondaire 0.9581854 0.2984770 -0.143106607 0.888110688
4 etudesSupérieur 1.9011825 0.2282757 2.814474071 0.013072196
5 etudesTechnique / Professionnel 1.0004282 0.1999766 0.002140676 0.998320199
6 Insatisfaction|Equilibre 0.1301361 0.6857862 -2.973484363 0.009470254
7 sexeHomme 0.8756360 0.1651462 -0.804165077 0.433862196
8 trav.impAussi 1.1282986 0.5806235 0.207898683 0.838104447
9 trav.impMoins 1.0540833 0.6283649 0.083823045 0.934305585
10 trav.impPeu 0.2164511 0.6616010 -2.313162322 0.035313682
conf.low conf.high
1 0.29298191 5.8889659
2 0.20063935 1.9490201
3 0.50717319 1.8102676
4 1.16873026 3.0926683
5 0.65323915 1.5321441
6 0.03017042 0.5613246
7 0.61581699 1.2450752
8 0.32730629 3.8895000
9 0.27619265 4.0228860
10 0.05283614 0.8867241
Par contre, le support de gtsummary::tbl_regression()
et ggstats::ggcoef_model()
est plus limité. Vous pourrez afficher un tableau basique des résultats et un graphiques des coefficients, mais sans les enrichissements usuels (identification des variables, étiquettes propres, identification des niveaux, etc.).
44.4.3 avec svyVGAM::svy_glm()
Une alternative possible pour le calcul de la régression logistique multinomiale avec des données pondérées est svyVGAM::svy_vglm()
avec family = VGAM::multinomial
.
Nous allons commencer par définir le plan d’échantillonnage.
Puis, on appelle svyVGAM::svy_vglm()
en précisant family = VGAM::cumulative(parallel = TRUE)
.
rego7 <- svyVGAM::svy_vglm(
trav.satisf ~ sexe + etudes + trav.imp,
family = VGAM::cumulative(parallel = TRUE),
design = dw
)
rego7 |> summary()
svy_vglm.survey.design(trav.satisf ~ sexe + etudes + trav.imp,
family = VGAM::cumulative(parallel = TRUE), design = dw)
Independent Sampling design (with replacement)
Called via srvyr
Sampling variables:
- ids: `1`
- weights: poids
Data variables:
- id (int), age (int), sexe (fct), nivetud (fct), poids (dbl), occup (fct),
qualif (fct), freres.soeurs (int), clso (fct), relig (fct), trav.imp (fct),
trav.satisf (ord), hard.rock (fct), lecture.bd (fct), peche.chasse (fct),
cuisine (fct), bricol (fct), cinema (fct), sport (fct), heures.tv (dbl),
groupe_ages (fct), etudes (fct)
Coef SE z p
(Intercept):1 -2.03917232 0.52467564 -3.8865 0.0001017
(Intercept):2 0.27272042 0.51315926 0.5315 0.5951044
sexeHomme 0.13280416 0.15421876 0.8611 0.3891602
etudesSecondaire 0.04271296 0.28498254 0.1499 0.8808599
etudesTechnique / Professionnel -0.00043004 0.25720348 -0.0017 0.9986659
etudesSupérieur -0.64247750 0.26590126 -2.4162 0.0156823
etudesNon documenté 0.46945812 0.52541495 0.8935 0.3715896
trav.impAussi -0.12071140 0.48525530 -0.2488 0.8035476
trav.impMoins -0.05267211 0.47029563 -0.1120 0.9108251
trav.impPeu 1.53036737 0.65156164 2.3488 0.0188356
Là encore, le support de gtsummary::tbl_regression()
et ggstats::ggcoef_model()
sera limité (seulement des résultats bruts). Pour calculer les odds ratios avec leurs intervalles de confiance, on pourra avoir recours à broom.helpers::tidy_parameters()
.
term estimate std.error conf.level conf.low
1 (Intercept):1 0.1301364 0.06827939 0.95 0.04653653
2 (Intercept):2 1.3135330 0.67405160 0.95 0.48043985
3 sexeHomme 1.1420263 0.17612188 0.95 0.84412131
4 etudesSecondaire 1.0436383 0.29741869 0.95 0.59699738
5 etudesTechnique / Professionnel 0.9995700 0.25709290 0.95 0.60378349
6 etudesSupérieur 0.5259877 0.13986079 0.95 0.31234891
7 etudesNon documenté 1.5991274 0.84020546 0.95 0.57101702
8 trav.impAussi 0.8862897 0.43007677 0.95 0.34239361
9 trav.impMoins 0.9486910 0.44616524 0.95 0.37740568
10 trav.impPeu 4.6198737 3.01013253 0.95 1.28830837
conf.high statistic df.error p.value
1 0.3639179 -3.886538948 Inf 0.0001016836
2 3.5912276 0.531453766 Inf 0.5951043720
3 1.5450672 0.861141383 Inf 0.3891601794
4 1.8244316 0.149879202 Inf 0.8808599211
5 1.6547990 -0.001671995 Inf 0.9986659418
6 0.8857499 -2.416225817 Inf 0.0156823321
7 4.4783403 0.893499744 Inf 0.3715896094
8 2.2941709 -0.248758549 Inf 0.8035475563
9 2.3847407 -0.111997880 Inf 0.9108250872
10 16.5668669 2.348768359 Inf 0.0188356206