44  Régression logistique ordinale

La régression logistique ordinale est une extension de la régression logistique binaire (cf. Chapitre 22) aux variables qualitatives à trois modalités ou plus qui sont ordonnées, par exemple modéré, moyen et fort.

Pour une variable ordonnée, il est possible de réaliser une régression logistique multinomiale (cf. Chapitre 43) comme on le ferait avec une variable non ordonnée. Dans ce cas de figure, chaque modalité de la variable d’intérêt serait comparée à une modalité de référence.

Alternativement, on peut réaliser une régression logistique ordinale aussi appelée modèle cumulatif ou modèle logistique à égalité des pentes. Ce type de modèle est plus simple que la régression multinomiale car il ne renvoie qu’un seul jeu de coefficients.

Supposons une variable d’intérêt à trois modalités A, B et C telles que A < B < C. Les odds ratios qui seront calculés comparerons la probabilité que Y≥B par rapport à la probabilité que Y≤A (aspect cumulatif) et ferons l’hypothèse que ce ratio est le même quand on compare la probabilité que Y≥C par rapport à la probabilité que Y≤B (égalité des pentes).

44.1 Données d’illustration

Pour illustrer la régression logistique multinomiale, nous allons reprendre le jeu de données hdv2003 du package questionr et portant sur l’enquête histoires de vie 2003 de l’Insee et l’exemple utilisé dans le chapitre sur la régression logistique multinomiale (cf. Chapitre 43).

library(tidyverse)
library(labelled)
data("hdv2003", package = "questionr")
d <- hdv2003

Nous allons considérer comme variable d’intérêt la variable trav.satisf, à savoir la satisfaction ou l’insatisfaction au travail.

questionr::freq(d$trav.satisf)
                 n    % val%
Satisfaction   480 24.0 45.8
Insatisfaction 117  5.9 11.2
Equilibre      451 22.6 43.0
NA             952 47.6   NA

Nous allons devoir ordonner les modalités de la plus faible à la plus forte.

d$trav.satisf <- d$trav.satisf |>
  fct_relevel("Insatisfaction", "Equilibre")

Et nous allons indiquer qu’il s’agit d’un facteur ordonné.

d$trav.satisf <- d$trav.satisf |>
  as.ordered()

Nous allons aussi en profiter pour raccourcir les étiquettes de la variable trav.imp :

levels(d$trav.imp) <- c("Le plus", "Aussi", "Moins", "Peu")

Enfin, procédons à quelques recodages additionnels :

d <- d |> 
  mutate(
    sexe = sexe |> fct_relevel("Femme"),
    groupe_ages = age |>
      cut(
        c(18, 25, 45, 99),
        right = FALSE,
        include.lowest = TRUE,
        labels = c("18-24 ans", "25-44 ans",
                   "45 et plus")
      ),
    etudes = nivetud |> 
      fct_recode(
        "Primaire" = "N'a jamais fait d'etudes",
        "Primaire" = "A arrete ses etudes, avant la derniere annee d'etudes primaires",
        "Primaire" = "Derniere annee d'etudes primaires",
        "Secondaire" = "1er cycle",
        "Secondaire" = "2eme cycle",
        "Technique / Professionnel" = "Enseignement technique ou professionnel court",
        "Technique / Professionnel" = "Enseignement technique ou professionnel long",
        "Supérieur" = "Enseignement superieur y compris technique superieur"
    ) |> 
    fct_na_value_to_level("Non documenté")  
  ) |> 
  set_variable_labels(
    trav.satisf = "Satisfaction dans le travail",
    sexe = "Sexe",
    groupe_ages = "Groupe d'âges",
    etudes = "Niveau d'études",
    trav.imp = "Importance accordée au travail"
  )

44.2 Calcul du modèle ordinal

44.2.1 avec MASS::polr()

Le plus facile pour le calcul d’un modèle ordinal est d’avoir recours à la fonction MASS::polr().

rego <- MASS::polr(
  trav.satisf ~ sexe + etudes + groupe_ages + trav.imp,
  data = d
)

Nous pouvons aisément simplifier le modèle avec step() (cf. Chapitre 23).

rego2 <- rego |> step()
Start:  AIC=1978.29
trav.satisf ~ sexe + etudes + groupe_ages + trav.imp

              Df    AIC
- groupe_ages  2 1977.2
- sexe         1 1978.3
<none>           1978.3
- etudes       4 1991.5
- trav.imp     3 2014.0

Step:  AIC=1977.23
trav.satisf ~ sexe + etudes + trav.imp

           Df    AIC
- sexe      1 1977.0
<none>        1977.2
- etudes    4 1990.6
- trav.imp  3 2013.2

Step:  AIC=1976.97
trav.satisf ~ etudes + trav.imp

           Df    AIC
<none>        1977.0
- etudes    4 1990.6
- trav.imp  3 2011.6

44.2.2 Fonctions alternatives

Un package alternatif pour le calcul de régressions ordinales est le package dédié ordinal et sa fonction ordinal::clm(). Pour les utilisateurs avancés, ordinal permet également de traiter certains prédicteurs comme ayant un effet nominal (et donc avec un coefficient par niveau) via l’argument nominal. Il existe également une fonction ordinal::clmm() permet de définir des modèles mixtes avec variables à effet aléatoire.

rego3 <- ordinal::clm(
  trav.satisf ~ sexe + etudes + groupe_ages + trav.imp,
  data = d
)

Les modèles créés avec ordinal::clm() sont plutôt bien traités par des fonctions comme gtsummary::tbl_regression() ou ggstats::ggcoef_model().

Enfin, on peut également citer la fonction VGAM::vgam() en spécifiant family = VGAM::cumulative(parallel = TRUE). Cette famille de modèles offre des options avancées (par exemple il est possible de calculer des modèles non parallèles, c’est-à-dire avec une série de coefficients pour chaque changement de niveau). Par contre, le support de gtsummary::tbl_regression() et ggstats::ggcoef_model() sera limité (seulement des résultats bruts).

rego4 <- VGAM::vgam(
  trav.satisf ~ sexe + etudes + groupe_ages + trav.imp,
  data = d,
  family = VGAM::cumulative(parallel = TRUE)
)
Important

En toute rigueur, il faudrait tester l’égalité des pentes. Laurent Rouvière propose un code permettant d’effectuer ce test sous R à partir d’un modèle réalisé avec VGAM::vglm(), voir la diapositive 33 sur 35 d’un de ses cours de janvier 2015 intitulé Quelques modèles logistiques polytomiques.

44.3 Affichage des résultats du modèle

Pour un tableau des coefficients, on peut tout simplement appeler gtsummary::tbl_regression(). Nous allons indiquer exponentiate = TRUE car, comme pour la régression logistique binaire, l’exponentielle des coefficients peut s’interpréter comme des odds ratios. Pour éviter certains messages d’information, nous allons préciser tidy_fun = broom.helpers::tidy_parameters (cela implique juste que le tableau des coefficients sera calculé avec le package parameters plutôt qu’avec le package broom). Nous pouvons calculer à la volée la p-valeur globale de chaque variable avec gtsummary::add_global_p().

library(gtsummary)
theme_gtsummary_language("fr", decimal.mark = ",")
rego2 |> 
  tbl_regression(
    exponentiate = TRUE,
    tidy_fun = broom.helpers::tidy_parameters
  ) |> 
  bold_labels() |> 
  add_global_p(keep = TRUE)

Réajustement pour obtenir le Hessien

Caractéristique

OR

1

95% IC

1

p-valeur

Niveau d'études

<0,001
    Primaire
    Secondaire 1,06 0,67 – 1,67 0,8
    Technique / Professionnel 1,01 0,67 – 1,53 >0,9
    Supérieur 1,84 1,20 – 2,83 0,006
    Non documenté 0,66 0,25 – 1,72 0,4
Importance accordée au travail

<0,001
    Le plus
    Aussi 1,39 0,65 – 2,97 0,4
    Moins 1,03 0,50 – 2,14 >0,9
    Peu 0,19 0,08 – 0,48 <0,001
1

OR = rapport de cotes, IC = intervalle de confiance

Table 44.1: Tableau des odds ratio de la régression logistique ordinale

La même commande fonctionne avec un modèle créé avec ordinal::clm().

Pour un graphique des coefficients, on va procéder de même avec ggstats::gcoef_model() ou ggstats::gcoef_table().

rego2 |> 
  ggstats::ggcoef_model(
    exponentiate = TRUE,
    tidy_fun = broom.helpers::tidy_parameters
  )
Figure 44.1: Graphique des coefficients du modèle ordinal
rego2 |> 
  ggstats::ggcoef_table(
    exponentiate = TRUE,
    tidy_fun = broom.helpers::tidy_parameters
  )
Figure 44.2: Graphique et table des coefficients du modèle ordinal

Pour faciliter l’interprétation, on pourra représenter les prédictions marginales du modèle (cf. Chapitre 24) avec broom.helpers::plot_marginal_predictions().

rego2 |> 
  broom.helpers::plot_marginal_predictions() |> 
  patchwork::wrap_plots(ncol = 1) &
  scale_y_continuous(labels = scales::percent, limits = c(0, .6)) &
  coord_flip()
Figure 44.3: Prédictions marginales du modèle ordinal

44.4 Données pondérées

44.4.1 avec survey::svyolr()

L’extension survey (cf. Chapitre 28) propose une fonction native survey::svyolr() pour le calcul d’une régression ordinale.

Nous allons commencer par définir le plan d’échantillonnage.

library(survey)
library(srvyr)
dw <- d |>
  as_survey(weights = poids)

Calculons le modèle.

rego5 <- svyolr(
  trav.satisf ~ sexe + etudes + groupe_ages + trav.imp,
  design = dw
)

Le résultat peut être visualisé aisément avec gtsummary::tbl_regression() ou ggstats::ggcoef_model().

44.4.2 avec svrepmisc::svymultinom()

Alternativement, il est possible d’utiliser à ordinal::clm() en ayant recours à des poids de réplication, comme suggéré par Thomas Lumley dans son ouvrage Complex Surveys: A Guide to Analysis Using R.

L’extension svrepmisc disponible sur GitHub fournit quelques fonctions facilitant l’utilisation des poids de réplication avec survey. Pour l’installer, on utilisera le code ci-dessous :

remotes::install_github("carlganz/svrepmisc")

En premier lieu, il faut définir le design de notre tableau de données puis calculer des poids de réplication.

library(survey)
library(srvyr)
dw_rep <- d |>
  as_survey(weights = poids) |> 
  as_survey_rep(type = "bootstrap", replicates = 25)

Il faut prévoir un nombre de replicates suffisant pour calculer ultérieurement les intervalles de confiance des coefficients. Plus ce nombre est élevé, plus précise sera l’estimation de la variance et donc des valeurs p et des intervalles de confiance. Cependant, plus ce nombre est élevé, plus le temps de calcul sera important. Pour gagner en temps de calcul, nous avons ici pris une valeur de 25, mais l’usage est de considérer au moins 1000 réplications.

svrepmisc fournit une fonction svrepmisc::svyclm() pour le calcul d’une régression multinomiale avec des poids de réplication.

library(svrepmisc)
rego6 <- svyclm(
  trav.satisf ~ sexe + etudes + trav.imp,
  design = dw_rep
)

svrepmisc fournit également des méthodes svrepmisc::confint() et svrepmisc::tidy(). Nous pouvons donc calculer et afficher les odds ratio et leur intervalle de confiance.

rego6
                                Coefficient          SE t value Pr(>|t|)   
Insatisfaction|Equilibre        -2.03917466  0.68578624 -2.9735  0.00947 **
Equilibre|Satisfaction           0.27271800  0.70391645  0.3874  0.70388   
sexeHomme                       -0.13280477  0.16514615 -0.8042  0.43386   
etudesSecondaire                -0.04271403  0.29847702 -0.1431  0.88811   
etudesTechnique / Professionnel  0.00042809  0.19997661  0.0021  0.99832   
etudesSupérieur                  0.64247607  0.22827571  2.8145  0.01307 * 
etudesNon documenté             -0.46945975  0.53333962 -0.8802  0.39262   
trav.impAussi                    0.12071087  0.58062352  0.2079  0.83810   
trav.impMoins                    0.05267146  0.62836491  0.0838  0.93431   
trav.impPeu                     -1.53039056  0.66160102 -2.3132  0.03531 * 
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
rego6 |> confint()
                                     2.5 %     97.5 %
Insatisfaction|Equilibre        -3.5008934 -0.5774559
Equilibre|Satisfaction          -1.2276444  1.7730804
sexeHomme                       -0.4848055  0.2191959
etudesSecondaire                -0.6789027  0.5934747
etudesTechnique / Professionnel -0.4258120  0.4266681
etudesSupérieur                  0.1559179  1.1290342
etudesNon documenté             -1.6062462  0.6673267
trav.impAussi                   -1.1168589  1.3582806
trav.impMoins                   -1.2866566  1.3919996
trav.impPeu                     -2.9405598 -0.1202214
rego6 |>
  broom::tidy(exponentiate = TRUE, conf.int = TRUE)
                              term  estimate std.error    statistic     p.value
1           Equilibre|Satisfaction 1.3135298 0.7039165  0.387429505 0.703880188
2              etudesNon documenté 0.6253400 0.5333396 -0.880226664 0.392621184
3                 etudesSecondaire 0.9581854 0.2984770 -0.143106607 0.888110688
4                  etudesSupérieur 1.9011825 0.2282757  2.814474071 0.013072196
5  etudesTechnique / Professionnel 1.0004282 0.1999766  0.002140676 0.998320199
6         Insatisfaction|Equilibre 0.1301361 0.6857862 -2.973484363 0.009470254
7                        sexeHomme 0.8756360 0.1651462 -0.804165077 0.433862196
8                    trav.impAussi 1.1282986 0.5806235  0.207898683 0.838104447
9                    trav.impMoins 1.0540833 0.6283649  0.083823045 0.934305585
10                     trav.impPeu 0.2164511 0.6616010 -2.313162322 0.035313682
     conf.low conf.high
1  0.29298191 5.8889659
2  0.20063935 1.9490201
3  0.50717319 1.8102676
4  1.16873026 3.0926683
5  0.65323915 1.5321441
6  0.03017042 0.5613246
7  0.61581699 1.2450752
8  0.32730629 3.8895000
9  0.27619265 4.0228860
10 0.05283614 0.8867241

Par contre, le support de gtsummary::tbl_regression() et ggstats::ggcoef_model() est plus limité. Vous pourrez afficher un tableau basique des résultats et un graphiques des coefficients, mais sans les enrichissements usuels (identification des variables, étiquettes propres, identification des niveaux, etc.).

44.4.3 avec svyVGAM::svy_glm()

Une alternative possible pour le calcul de la régression logistique multinomiale avec des données pondérées est svyVGAM::svy_vglm() avec family = VGAM::multinomial.

Nous allons commencer par définir le plan d’échantillonnage.

library(survey)
library(srvyr)
dw <- d |>
  as_survey(weights = poids)

Puis, on appelle svyVGAM::svy_vglm() en précisant family = VGAM::cumulative(parallel = TRUE).

rego7 <- svyVGAM::svy_vglm(
  trav.satisf ~ sexe + etudes + trav.imp,
  family = VGAM::cumulative(parallel = TRUE),
  design = dw
)
rego7 |> summary()
svy_vglm.survey.design(trav.satisf ~ sexe + etudes + trav.imp, 
    family = VGAM::cumulative(parallel = TRUE), design = dw)
Independent Sampling design (with replacement)
Called via srvyr
Sampling variables:
  - ids: `1` 
  - weights: poids 
Data variables: 
  - id (int), age (int), sexe (fct), nivetud (fct), poids (dbl), occup (fct),
    qualif (fct), freres.soeurs (int), clso (fct), relig (fct), trav.imp (fct),
    trav.satisf (ord), hard.rock (fct), lecture.bd (fct), peche.chasse (fct),
    cuisine (fct), bricol (fct), cinema (fct), sport (fct), heures.tv (dbl),
    groupe_ages (fct), etudes (fct)
                                       Coef          SE       z         p
(Intercept):1                   -2.03917232  0.52467564 -3.8865 0.0001017
(Intercept):2                    0.27272042  0.51315926  0.5315 0.5951044
sexeHomme                        0.13280416  0.15421876  0.8611 0.3891602
etudesSecondaire                 0.04271296  0.28498254  0.1499 0.8808599
etudesTechnique / Professionnel -0.00043004  0.25720348 -0.0017 0.9986659
etudesSupérieur                 -0.64247750  0.26590126 -2.4162 0.0156823
etudesNon documenté              0.46945812  0.52541495  0.8935 0.3715896
trav.impAussi                   -0.12071140  0.48525530 -0.2488 0.8035476
trav.impMoins                   -0.05267211  0.47029563 -0.1120 0.9108251
trav.impPeu                      1.53036737  0.65156164  2.3488 0.0188356

Là encore, le support de gtsummary::tbl_regression() et ggstats::ggcoef_model() sera limité (seulement des résultats bruts). Pour calculer les odds ratios avec leurs intervalles de confiance, on pourra avoir recours à broom.helpers::tidy_parameters().

rego7 |> broom.helpers::tidy_parameters(exponentiate = TRUE) 
                              term  estimate  std.error conf.level   conf.low
1                    (Intercept):1 0.1301364 0.06827939       0.95 0.04653653
2                    (Intercept):2 1.3135330 0.67405160       0.95 0.48043985
3                        sexeHomme 1.1420263 0.17612188       0.95 0.84412131
4                 etudesSecondaire 1.0436383 0.29741869       0.95 0.59699738
5  etudesTechnique / Professionnel 0.9995700 0.25709290       0.95 0.60378349
6                  etudesSupérieur 0.5259877 0.13986079       0.95 0.31234891
7              etudesNon documenté 1.5991274 0.84020546       0.95 0.57101702
8                    trav.impAussi 0.8862897 0.43007677       0.95 0.34239361
9                    trav.impMoins 0.9486910 0.44616524       0.95 0.37740568
10                     trav.impPeu 4.6198737 3.01013253       0.95 1.28830837
    conf.high    statistic df.error      p.value
1   0.3639179 -3.886538948      Inf 0.0001016836
2   3.5912276  0.531453766      Inf 0.5951043720
3   1.5450672  0.861141383      Inf 0.3891601794
4   1.8244316  0.149879202      Inf 0.8808599211
5   1.6547990 -0.001671995      Inf 0.9986659418
6   0.8857499 -2.416225817      Inf 0.0156823321
7   4.4783403  0.893499744      Inf 0.3715896094
8   2.2941709 -0.248758549      Inf 0.8035475563
9   2.3847407 -0.111997880      Inf 0.9108250872
10 16.5668669  2.348768359      Inf 0.0188356206