Resumen

Partimos de datos relativos a tiempos, censurados por la derecha, hasta cierto evento crítico como es el segundo infarto, para pacientes infartados y tratados en dos centros hospitalarios localizados geográficamente distantes (Alicante y A Coruña). El objetivo primario es descubrir qué variables afectan a estos tiempos, con el fin de obtener predicciones confiables de los tiempos hasta el evento.

Utilizamos árboles de clasificación para abordar este objetivo primario y resolver otros objetivos que amplían las posibilidades de predicción al respecto del seguimiento de estos pacientes. Presentamos dos aproximaciones para generar la clasificación en los árboles de decisión basados en algoritmos de partición recursiva, y justificamos la utilización de una de ellas para proporcionar respuestas fundamentadas en base a los objetivos de predicción. Estas dos aproximaciones son los árboles de clasificación condicionales y los árboles de clasificación basados en modelos. Estos últimos serán la opción preferente, como se fundamentará a continuación.

Objetivos

En nuestro estudio, el objetivo base es predecir eficazmente la supervivencia de los pacientes en base a la información recabada sobre su estado de salud en el primer ingreso hospitalario por infarto. Ante la numerosa información recabada para cada paciente, cabe plantear varias cuestiones:

  1. Qué variables (covariables/factores relativos al estado de salud del paciente) son relevantes para predecir la supervivencia. En este sentido, cabe encontrar tanto las características de los pacientes al ingreso más relevantes para su supervivencia, como los tratamientos más efectivos para prolongar supervivencia.
  2. Qué perfiles de pacientes encontraríamos si fuéramos capaces de separarlos entre sí de forma significativa, en base a sus características y a los tratamientos recibidos. Esto lo conseguimos en base a la división binaria que se va generando respecto de las covariables y factores seleccionados en el modelo.
  3. Cómo se predice la supervivencia (tiempo hasta un evento adverso) cuando conocemos el perfil del paciente y el tratamiento clínico que se le ha administrado. Para cada perfil se consigue la curva Kaplan-Meier de supervivencia estimada.
  4. Yendo más allá, conociendo el perfil del paciente (sus características al ingreso), identificar qué tratamiento clínico generará mayores beneficios para su prolongar su supervivencia. Esto se consigue identificando qué tratamientos clínicos intervienen positivamente sobre la supervivencia en cada uno de los perfiles de pacientes generados en el árbol.

Información disponible

La base de datos recoge todos los pacientes con un un episodio, al menos, de insuficiencia cardiaca, tratados por el Servicio de Cardiología del Hospital Universitario de Sant Joan d’Alacant y por el Hospital ….. de A Coruña, entre noviembre del 2003 y noviembre del 2017 (8798 registros). Se han excluido 453 pacientes que no sobrevivieron al primer ingreso (mortalidad_basal=0) y 450 más que presentan valores negativos o faltantes en la variable principal del estudio (meses_hasta_ICC). Estos últimos representan un 5.39%, una cifra que consideramos lo suficientemente baja para no aplicar una técnica de evaluación de valores ausentes para incorporarlos a la base de datos. Todo esto nos lleva a trabajar con los registros de 7895 pacientes, si bien en cada modelización también serán eliminados aquellos pacientes con algún valor faltante en las variables utilizadas.

Vamos a trabajar los objetivos planteados utilizando como variable respuesta el “tiempo hasta el segundo infarto” (meses_hasta_ICC), junto con la variable de censura correspondiente (ICCenseguimiento). Consideraremos entre el set de variables susceptibles de añadir información, la variable de localización “Centro”, que identifica los hospitales/ubicaciones de referencia de los pacientes en el estudio, como una posible fuente de variabilidad en los resultados. Las variables explicativas consideradas en el análisis son:

Metodología

Utilizaremos para elaborar las particiones, distintos sets de covariables/factores explicativos plausibles en base a la información experta de los clínicos. Estos sets/modelos se muestran en la Tabla 1.

Tabla 1: Modelos propuestos para predecir tiempo hasta evento (siguiente infarto).

Var M1 M2 M3 M4 M5 M6
ACVprevio x
antiagreg_alta x x x
ArtritisEnf_Inflamat x
CIsquemica x x x x x x
ckd_epi x x x
ckd_epi_60 x
Claudicacion x x x x x x
Creaing x x
cTnIpico x
DM x x x x x x
Edad x x x x x
EPOC x x x x x x
FA_antec x x x x x x
FC x
FE_40 x
FEVI x x x x
Fumador x x x x x x
Hbing x x x x x x
HDL x
HTA x x x x x x
IC_eningreso x x x x x x
ICCenseguimiento
ICCprev x x x x x x
LDL x
meses_hasta_ICC
Primero_IECA_ARA x x x
PrimeroDeBetabloqueantes x x x
PrimeroDeEstatinas x x x
revasc_basal x x x x x x
SAOS x
sexo x x x x x x
sum_charlson x x x x x x
sum_grace x
TAS x
TMO x x x

Utilizaremos dos procedimientos de segmentación: la basada en árboles de clasificación condicionales y la basada en modelos, cuyos fundamentos exponemos a continuación. Plantearemos ventajas e inconvenientes de ambos procedimientos.

Árboles de clasificación condicionales

Los árboles de clasificación condicionales son un tipo de árboles de regresión no-paramétricos, aplicables a todos los tipos de problemas de regresión, incluyendo respuestas nominales, ordinales, numéricas, censuradas, así como a variables respuesta multivariante y covariables medidas en escalas arbitrarias.

Los árboles de inferencia condicional (Hothorn et al, 2006) plantean una estrategia de provocar particiones binarias en las variables explicativas (covariables y factores) de forma recursiva, de modo que se van seleccionando como covariables/factores que segmentan aquellas que manifiestan mayor asociación con la respuesta (en términos de ciertos estadísticos condicionales de asociación). Las variables que aparecen antes en el árbol son aquellas que manifiestan una mayor asociación con la respuesta (p-valores significativos más pequeños), y la partición binaria que se propone sobre ella es aquella que genera las máximas diferencias en las respuestas entre los dos grupos resultantes.

Por otro lado, la ventaja de utilizar estos árboles es la flexibilidad que da el hecho de no exigir el compromiso con ningún modelo paramétrico, y por lo tanto con una distribución concreta para los tiempos de supervivencia. La partición se deriva en base a la asociación entre las variables explicativas y la respuesta. El resultado final se plasma en curvas Kaplan-Meier diferentes en cada uno de los nodos terminales. No es preciso modificar los tiempos de supervivencia igual a 0, pues la estimación no-paramétrica no plantea problemas.

El problema que presentan los árboles condicionales es que el ajuste no está basado en ningún modelo paramétrico de supervivencia, por lo que no es posible comparar modelos (particiones) alternativos en términos de verosimilitud u otros criterios basados en ella, y en consecuencia no es viable identificar el mejor modelo/partición.

Para el ajuste de los árboles condicionados imponemos la restricción de una profundidad máxima de 5 niveles en la partición y un mínimo del 15% de registros en cada uno de los nodos terminales, con el fin de asegurar grupos/perfiles de pacientes suficientemente “grandes”.

Partición recursiva basada en modelos

La partición recursiva basada en modelos, en lugar de ajustar un modelo global a un conjunto de datos, estima modelos locales en subconjuntos de los datos que se generan aprendiendo entre sí a través de particiones recursivas. La partición finalmente proporcionará una estimación del tiempo esperado de supervivencia en cada uno de los nodos terminales, garantizando que dichas estimaciones son significativamente diferentes entre los distintos nodos terminales o perfiles de pacientes que se generan.

El objetivo de una estimación basada en modelos paramétricos parte de un planteamiento genérico basado en minimizar cierta función con la que se cuantifica el error entre la estimación del tiempo esperado de supervivencia y el valor observado, y que depende de un parámetro incluido en la modelización paramétrica de la respuesta (como puede ser la verosimilitud cambiada de signo u otro criterio útil para la comparación de modelos): \[\hat{\theta}= argmin_{\theta} \sum_i \psi(y_i,x_i,\theta)\]

El proceso de generación del árbol sigue los siguientes pasos:

  1. Se ajusta un modelo paramétrico a un conjunto de datos.
  2. Se testa la “inestabilidad paramétrica” de \(\theta\) (variaciones en la estimación de los parámetros del modelo) sobre un conjunto de variables (explicativas), cuya respuesta es susceptible de ser “dividida” en dos trozos.
  3. De entre las variables que muestran inestabilidad paramétrica, se secciona el modelo con respecto a la variable con la inestabilidad más grande (o lo que es lo mismo, la asociación más fuerte o el p-valor más pequeño). Se elige el punto de corte que proporciona la mejora más grande en el ajuste del modelo respecto de la función de error.
  4. Se repite el procedimiento en cada una de las submuestras resultantes hasta que no es posible particionar más. Es posible también detener el crecimiento del árbol especificando el mínimo tamaño del nodo (minsize) y la máxima profundidad del árbol (maxdepth), o incluso especificando criterios concretos de selección como la verosimilitud, el AIC o el BIC.

Para calcular la estabilidad de todos los parámetros del modelo en cierta variable de partición se usan los tests propuestos por Zeileis and Hornik (2007), así como una corrección por Bonferroni al testar conjuntamente múltiples variables de partición.

Si realizamos la partición en términos paramétricos, asumiremos una distribución específica para los tiempos de supervivencia, de entre las habituales para estas variables (exponencial, weibull,…). Cualquiera de estas distribuciones exigen tiempos de supervivencia mayores a cero, por lo que al tener en nuestra bd algunos 0s (en concreto 372, que representan un 4.7% del total de registros) identificando pacientes que han sufrido un segundo infarto antes de un mes tras el primero, hemos de transformar las observaciones con tiempos 0, y optamos por convertirlas en tiempos 0.1.

Son cuestiones a resolver al plantear un procedimiento de segmentación basado en modelos:

  • la elección de la distribución para los tiempos de supervivencia (Weibull, Exponencial y Lognormal son las más habituales);
  • el tamaño del árbol, esto es, cuándo no merece la pena seguir particionando/incorporando más variables;
  • la elección del mejor modelo de ajuste, a través de algún estadístico de bondad de ajuste.

Estas tres cuestiones se resuelven conjuntamente comparando los modelos resultantes mediante la utilización de algún criterio de selección de modelos. En nuestro caso utilizaremos el criterio BIC, que tiene en cuenta la log-verosimilitud (\(\hat{L}\)) de los datos (se premian modelos más verosímiles a la vista de los datos) y penaliza por la complejidad del modelo (nº parámetros o nodos, \(k\)) algo más de lo que lo hace el AIC, y por el número de datos (\(n\)). Con el BIC podremos comparar modelos entre sí, dando preferencia a los que proporcionan un menor BIC, e incluso dirigir la partición solicitándole detenerse cuando no sean significativas las diferencias entre la supervivencia estimada en perfiles (nodos) distintos. Regirá pues también, el proceso de selección de variables. Asimismo el BIC nos permitirá elegir la mejor distribución para los tiempos de supervivencia. \[BIC=-2 ln(\hat{L}) + k \ ln(n)\]

Asumida una determinada distribución sobre los tiempos de supervivencia \(T\), se plantea segmentar el conjunto de pacientes en grupos “homogéneos” de modo que en todos ellos se proporcione una estimación común del tiempo esperado de supervivencia, esto es, \[ E(T_{ij})=\theta_i\] para todos los sujetos \({ij}, i=1,...,n_j\) clasificados en un mismo grupo o nodo terminal identificado por el subíndice \(j, j=1,\ldots,J\), y que a la vez genere máximas diferencias con otros perfiles/nodos creados previamente. El número de parámetros estimados en cada árbol será pues igual al número de nodos terminales generados.

Al visualizar los árboles, obtenemos para los nodos terminales los coeficientes estimados (identificados como \(x\) en los gráficos) en escala logarítmica. Representan el logaritmo de la estimación obtenida para el tiempo esperado de supervivencia \(\hat{t}\) en cada nodo terminal, \[x=log(\hat{t}),\] de modo que el tiempo esperado de supervivencia \(\hat{t}\) se estimará con la exponencial de este valor: \[\hat{t}=exp(x).\] ### Distribuciones para los tiempos de supervivencia

Las distribuciones que planteamos para los tiempos de supervivencia son la Exponencial, la Lognormal y la Weibull.

Cuando asumimos una distribución exponencial para los tiempos de supervivencia \(T\), estamos formulando el modelo de ajuste según: \[T|\theta \sim Exp(\theta), t>0\] donde \(\theta\) representa el riesgo base dado por la función hazard, que no depende de \(t\) y permanece constante a lo largo del tiempo, \[f(t|\theta)/S(t|\theta)=\theta e^{-\theta t}/e^{-\theta t}=\theta.\] La mediana de supervivencia \(\hat{t}\) se obtiene de resolver \(0.5=exp(\theta \hat{t})\), de lo que resulta \(\hat{t}=log(2)/\theta=0.69/\theta\), que depende de \(\theta\).

La distribución Weibull es una generalización de la exponencial. Cuando asumimos una distribución Weibull para los tiempos de supervivencia \(T\), estamos formulando el modelo de ajuste según: \[ T|\alpha,\lambda \sim Weib(\alpha,\lambda ), t>0, \alpha>0, \lambda >0 \] La mediana de los tiempos de supervivencia es \[\hat{t}=[log(2)/\lambda]^{1/\alpha}.\] La función hazard es creciente para \(\alpha>1\) y decreciente para \(\alpha<1\), y viene dada por: \[h(t|\alpha,\lambda )=\frac{f(t|\alpha,\lambda )}{S(t|\alpha,\lambda )}=\lambda \alpha t^{\alpha-1}.\]

Cuando asumimos una distribución lognormal para los tiempos de supervivencia \(T\), estamos formulando el modelo de ajuste según: \[ T \sim LN(\mu,\sigma^2), t>0\] donde \(\mu\) y \(\sigma^2\) representan respectivamente la media y la varianza de la distribución normal para el logaritmo de los tiempos de supervivencia, \(log(T)\sim N(\mu,\sigma^2)\). La mediana del tiempo de supervivencia es \[\hat{t}=exp(\hat{\mu}).\] La función hazard tiene una forma compleja que no escribimos aquí.

Software y ajuste

Todos los ajustes basados en árboles de clasificación se pueden ajustar en R con la librería partykit (Hothorn and Zeileis, 2015). La función ctree() (Hothorn, Hornik, and Zeileis, 2006) se utiliza para obtener los árboles de clasificación condicionados. Para obtener los árboles basados en modelos se utiliza la función mob() (Zeileis, Hothorn, and Hornik, 2008).

Resultados

Si bien mostramos una primera aproximación a la clasificación con árboles utilizando los árboles condicionados, el grueso del trabajo lo centramos en la selección del mejor modelo con las particiones basadas en modelos.

Árboles condicionados

Árbol condicionado con M1

Puesto que la utilización de este algoritmo responde exclusivamente a fines ilustrativos para mostrar cómo se cubren los objetivos de estudio planteados, proponemos inicialmente el ajuste de uno de los modelos plateados: el Modelo 1.

Puesto que los árboles que se generan resultan muy profundos, decidimos detener la partición cuando se llega a un máximo de 5 ramificaciones en profundidad; esto evita generar modelos costosos de interpretar y con un número excesivamente grande de perfiles de pacientes. Reiteramos que la finalidad de presentar este ajuste es puramente ilustrativa.

Partimos del Modelo 1, en el que consideramos posibles predictores el conjunto de variables formado por:

  • PREDICTORES DISCRETOS: sexo, DM, HTA, CIsquemica,ICCprev,Claudicacion, revasc_basal, Fumador, EPOC,FA_antec, IC_eningreso, TMO
  • PREDICTORES CONTINUOS: Edad, ckd_epi, FEVI, Hbing, sum_charlson

El árbol se ajusta finalmente con 7097 registros, omitiendo aquellos con valores faltantes.

Respondemos pues, con el modelo ajustado, a las preguntas vinculadas con los objetivos propuestos:

  1. Las variables explicativas relacionadas con el segundo infarto son:
  • PREDICTORES DISCRETOS: IC_eningreso, DM,CIsquemica, FA_antec
  • PREDICTORES CONTINUOS: ckd_epi, Edad, FEVI, Hbing, sum_charlson, distinguiendo grupos para los siguientes valores frontera
    • Edad:63, 67
    • ckd_epi: 49.52
    • FEVI: 34, 49
    • Hbing: 14.3
    • sum_charlson: 2
  1. Los 15 perfiles de pacientes que surgen vienen dados por la categorización en los nodos terminales:
  • Nodo 3 (n=708): ckd_epi \(\leq 49.52\), IC_eningreso=No
  • Nodo 5 (n=181): ckd_epi \(\leq 49.52\), IC_eningreso=Yes, DM= No
  • Nodo 6 (n=189): ckd_epi \(\leq 49.52\), IC_eningreso=Yes, DM=Yes
  • Nodo 10 (n=118): ckd_epi \(>49.52\), Edad \(\leq 67\), FEVI <= 34
  • Nodo 11 (n=481): ckd_epi \(>49.52\), Edad \(\leq 67\), 34 <FEVI <= 49
  • Nodo 14 (n=1766): ckd_epi \(>49.52\), Edad \(\leq 63\), FEVI > 49, sum_charlson <= 2
  • Nodo 15 (n=331): ckd_epi \(>49.52\), 63< Edad \(\leq 67\), FEVI > 49, sum_charlson <= 2
  • Nodo 17 (n=320): ckd_epi \(>49.52\), Edad \(\leq 67\), FEVI >49, sum_charlson > 2, Hbing <= 14.3
  • Nodo 18 (n=340): ckd_epi \(>49.52\), Edad \(\leq 67\), FEVI >49, sum_charlson > 2, Hbing>14.3
  • Nodo 22 (n=1124): ckd_epi \(>49.52\), Edad \(> 67\),IC_eningreso=No, sum_charlson<= 2, FA_antec =No
  • Nodo 23 (n=201): ckd_epi \(>49.52\), Edad \(> 67\),IC_eningreso=No, sum_charlson<= 2, FA_antec=Yes
  • Nodo 25 (n=152): ckd_epi \(>49.52\), Edad \(> 67\),IC_eningreso=No, sum_charlson > 2, FEVI<=49
  • Nodo 26 (n=689): ckd_epi \(>49.52\), Edad \(> 67\),IC_eningreso=No, sum_charlson > 2, FEVI>49
  • Nodo 28 (n=359): ckd_epi \(>49.52\), Edad \(> 67\),IC_eningreso=Yes, CIsquemica=No
  • Nodo 29 (n=138): ckd_epi \(>49.52\), Edad \(> 67\),IC_eningreso=Yes, CIsquemica=Yes
  1. La diferenciación de perfiles de pacientes a través del árbol, da lugar a curvas de supervivencia (Kaplan-Meier) diferentes que se muestran a continuación, y con las que se puede predecir la supervivencia en función del perfil de entrada del paciente cuando ingresa la primera vez por infarto. En nuestro caso visualizamos en los gráficos a continuación la probabilidad de segundo infarto en función del número de meses desde el primer ingreso.

  1. Ningún tratamiento se ha descubierto como relevante para predecir el tiempo al segundo infarto.

Árbol condicionado con M6

Adelantándonos a los resultados obtenidos en la segmentación basada en modelos, buscamos el ajuste de árboles condicionados con las variables explicativas propuestas en el Modelo 6. Compararemos posteriormente los resultados obtenidos. De nuevo exigimos como regla de parada, un árbol de profundidad máxima 5.

El modelo es ajustado coen 6598 registros y resulta en un total de 17 nodos o perfiles de pacientes. Las variables explicativas que intervienen para explicar la supervivencia son:

  1. Las variables explicativas relacionadas con el segundo infarto son:
  • PREDICTORES DISCRETOS: IC_eningreso, FA_antec, DM, Centro, revasc_basal.
  • PREDICTORES CONTINUOS: Edad, sum_charlson, FC, Hbing, distinguiendo grupos para los siguientes valores frontera
    • Edad: 70,83
    • FC: 76, 90, 109
    • Hbing: 13.3
    • sum_charlson: 2
  1. Los 18 perfiles de pacientes que surgen son:
  • Nodo 4 (n=2292): Edad <= 70, sum_charlson <= 2, FC <= 90
  • Nodo 7 (n=254): Edad <= 70, sum_charlson <= 2, 90< FC <= 109, IC_eningreso=No
  • Nodo 8 (n=61): Edad <= 70, sum_charlson <= 2, FC >109, IC_eningreso=No
  • Nodo 9 (n=91): Edad <= 70, sum_charlson <= 2, FC >109, IC_eningreso=Yes
  • Nodo 12 (n=284): Edad <= 63, sum_charlson > 2,FC <= 76
  • Nodo 14 (n=287): Edad <= 63, sum_charlson>2,FC >76, IC_eningreso =No
  • Nodo 15 (n=69): Edad <= 63, sum_charlson > 2,FC > 76, IC_eningreso =Yes
  • Nodo 17 (n=371): 63<Edad <= 70,sum_charlson >2,IC_eningreso=No
  • Nodo 18 (n=85): 63<Edad <= 70,sum_charlson >2,IC_eningreso =Yes
  • Nodo 23 (n=871): 70<Edad<=83,IC_eningreso=No, sum_charlson <= 2, FA_antec =No
  • Nodo 24 (n=179): Edad>83,IC_eningreso=No, sum_charlson <= 2, FA_antec =No
  • Nodo 25 (n=192): Edad>70,IC_eningreso=No, sum_charlson <= 2, FA_antec=Yes
  • Nodo 28 (n=309): Edad>70,IC_eningreso=No, sum_charlson >2, Centro =SA,Hbing <= 13.3
  • Nodo 29 (n=318): Edad>70,IC_eningreso=No, sum_charlson >2, Centro =SA,Hbing >13.3
  • Nodo 30 (n=284): Edad>70,IC_eningreso=No, sum_charlson >2, Centro =SJ
  • Nodo 32 (n=366): Edad>70,IC_eningreso=Yes, DM=No
  • Nodo 34 (n=83):Edad>70,IC_eningreso=Yes, DM=Yes, revasc_basal=No
  • Nodo 35 (n=202): Edad>70,IC_eningreso=Yes, DM=Yes, revasc_basal=Yes
  1. Las curvas de probabilidad del tiempo al infarto son las siguientes
  2. El tratamiento revasc_basal es significativo en el modelo (nodos 34,35): con revasc_basal=Yes es menor la probabilidad de sufrir antes un infarto.

Ajuste basado en modelos

Para proceder con la partición basada en modelos, se ha considerado, en cada uno de los modelos de la Tabla 1, la utilización y no utilización de la variable “Centro” como ‘cluster’ o agregador de los datos disponibles (para incluir en el ajuste la varianza intrínseca a cada localización hospitalaria).

A pesar de haber modificado los tiempos de supervivencia 0 al asignarles como valor 0.1, la convergencia de los algoritmos de partición no es viable nunca cuando se utiliza la distribución Weibul y tampoco convergen para el modelo lognormal con clúster; la distribución Exponencial es la que da más viabilidad de convergencia en todos los modelos propuestos.

A raíz del ajuste con los árboles basados en modelos, los resultados obtenidos (en los que ha convergido el algoritmo) se presentan en la Tabla 2, diferenciados por la distribución asumida para los tiempos de supervivencia (exponencial o lognormal) y el hecho de utilizar el Centro como una variable ‘clúster’ (SC=sin clúster, CC=con clúster).

Tabla 2: Resultados de la partición basada en modelos para predecir el tiempo hasta evento (siguiente infarto).

BIC Exponencial (SC) Lognormal (SC) Exponencial(CC)
M1 12290,42 11998,28 12329,15
M2 12284,33 11998,29 12326,42
M3 12312,08 12048,07 12343,22
M4 12326 11999,59 12351,41
M5 13466,7 13293,64 13519,59
M6 11137,62 10887,79 11144,88

Se identifica pues como mejor modelo el M6 con distribución lognormal (BIC= 10887.79) y sin efecto clúster debido al Centro, seguido por el modelo M6 con distribución exponencial, también sin clúster (da mejores resultados que el modelo con cluster, con BIC=11137.62). Obviando el modelo M6, los siguientes mejores modelos son el M1, M2 y M4 con distribución log-normal y sin clúster (BIC 11998.28, 11998.29 y 11999.56 respectivamente). De hecho, las particiones obtenidas a partir de los modelos M1 y M2 son idénticas, y muy similares a la obtenida con M4.

Mejores modelos

Los gráficos de árbol resultantes para los modelos mencionados se presentan a continuación, para ilustrar de un modo más completo las semejanzas y diferencias entre las particiones obtenidas.

Modelo 1-lognormal

Modelo 2-lognormal

Modelo 4-lognormal

Modelo 6-exponencial

Modelo 6-lognormal

  1. Variables predictoras Al respecto de las variables que intervienen en las particiones según los mejores modelos seleccionados, se encuentran unas coincidencias muy relevantes en la Tabla 3, donde se presentan las variables seleccionadas para cada uno de los tres modelos. Las variables categóricas que están incluidas en las particiones de estos modelos, se indican con una “X”; las particiones generadas respecto de la variables numéricas incluidas se indican con los puntos de corte de dichas particiones; las celdas en blanco indican que dicha variable no fue seleccionada como variable relevante. En esta tabla también se indican, para cada uno de los modelos, el número de perfiles de pacientes (nodos) identificados con supervivencias distintas.

Tabla 3: Variables predictoras seleccionadas en los mejores modelos.

Variables M1/M2-LOG M4-LOG M6-LOG M6-EXP
Nº PERFILES 14 13 13 20
CIsquemica X
ckd_edpi 48,6; 67,28
Creaing 1,46 1,48
DM X X X X
Edad 64 64; 83 63; 70 63
FA_antec X X X X
FC X
FEVI 45; 52 45; 52; 54
Hbing 13,5 13,4 11,2 11,5; 11,9
HDL 30
IC_eningreso X X X X
ICCprev X X X
revasc_basal X X
sum_charlson 2 2 2 2
  1. Los perfiles de pacientes identificados con el mejor modelo (M6-lognormal):
  • Nodo 5 (n=1870): IC_eningreso=No, Edad\(\leq 63\), ICCprev=No, sum_charlson \(\leq 2\)
  • Nodo 6 (n=553): IC_eningreso=No, Edad\(\leq 63\), ICCprev=No, sum_charlson \(>2\)
  • Nodo 7 (n=18): IC_eningreso=No, Edad\(\leq 63\), ICCprev=Yes
  • Nodo 9 (n=298): IC_eningreso=No, Edad\(>63\), Hbing \(\leq 11.2\)
  • Nodo 14 (n=556): IC_eningreso=No, 63<Edad<=70, Hbing \(> 11.2\), sum_charlson \(\leq 2\),FA_antec=No, ICCprev=No
  • Nodo 15 (n=951): IC_eningreso=No, Edad>70, Hbing \(> 11.2\), sum_charlson \(\leq 2\),FA_antec=No, ICCprev=No
  • Nodo 16 (n=22): IC_eningreso=No, Edad>63, Hbing \(> 11.2\), sum_charlson \(\leq 2\),FA_antec=No, ICCprev=Yes
  • Nodo 17 (n=211): IC_eningreso=No, Edad>63, Hbing \(> 11.2\), sum_charlson \(\leq 2\),FA_antec=Yes
  • Nodo 18 (n=1096): IC_eningreso=No, Edad>63, Hbing \(> 11.2\), sum_charlson \(>2\)
  • Nodo 20 (n=613): IC_eningreso=Yes, DM=No
  • Nodo 22 (n=106): IC_eningreso=Yes, DM=Yes, revasc_basal=No
  • Nodo 24 (n=234): IC_eningreso=Yes, DM=Yes, revasc_basal=Yes, Creaing <=1,46
  • Nodo 25 (n=70): IC_eningreso=Yes, DM=Yes, revasc_basal=Yes, Creaing >1,46
  1. Las predicciones (Kaplan-Meier) del tiempo hasta el evento (segundo infarto) para cada uno de los perfiles de pacientes identificados en el modelo M6-Lognormal se muestran en los gráficos a continuación.

  2. Por último, el tratamiento revasc_basal se manifiesta relevante para predecir el tiempo a segundo infarto en el modelo M6-Lognormal. En concreto, da menor probabilidad para el segundo infarto cuando el nivel de creatinina al ingreso de los pacientes está por debajo de 1,46.

Este tratamiento también aparece en el modelo M6-exponencial, pero no lo hace en los otros mejores modelos identificados (M1/M2 y M4).

Referencias

Hothorn, T., Hornik, K. and Zeileis, A. (2015). ctree: Conditional inference trees. The comprehensive R archive network, 8. Retrieved from https://cran.r-project.org/web/packages/partykit/vignettes/ctree.pdf in November 2021.

Hothorn, T., Zeileis, A., & Hothorn, M. T. (2021). partykit: A Toolkit for Recursive Partytioning. The comprehensive R archive network. Retrieved from https://cran.r-project.org/web/packages/partykit/vignettes/partykit.pdf in November 2021.

Zeileis, A., & Hothorn, T. (2015). Parties, Models, Mobsters: A New Implementation of Model-Based Recursive Partitioning in R. The comprehensive R archive network. Retrieved from https://cran.r-project.org/web/packages/partykit/vignettes/mob.pdf in November 2021.

http://partykit.r-forge.r-project.org/partykit/