Articles

Estimador de Kaplan-Meier

Posted by admin

Aquí, mostramos dos derivaciones del estimador de Kaplan–Meier. Ambos se basan en reescribir la función de supervivencia en términos de lo que a veces se llama riesgo o tasas de mortalidad. Sin embargo, antes de hacer esto vale la pena considerar un estimador ingenuo.

un estimador ingenuoeditar

para comprender el poder del estimador de Kaplan–Meier, vale la pena describir primero un estimador ingenuo de la función de supervivencia.,

Proposición 1: Si la censura en el tiempo c k {\displaystyle c_{k}} de evento k {\displaystyle k} excede t {\displaystyle t} ( c k ≥ t {\displaystyle c_{k}\geq t} ), entonces τ ~ k = t {\displaystyle {\tilde {\tau }}_{k}=t} si y sólo si τ k = t {\displaystyle \tau _{k}=t} .

sea k {\displaystyle K} tal que c k ≥ t {\displaystyle c_{k} \ geq t} . Se deduce de la proposición anterior que

Prob ⁡ (τ k ≥ t) = Prob ⁡ ( τ ~ k ≥ t). {\displaystyle \operatorname {Prob} (\tau _{k}\geq t)=\operatorname {Prob} ({\tilde {\tau }}_{k}\geq t).,} S ^ ingenuo ( t − 1 ) = 1 m ( T ) ∑ k : C K ≥ T X K = | { 1 ≤ k ≤ n : τ ~ K ≥ T } | m ( T ) , {\displaystyle {\hat {s}}_{\text{ingenuo}}(T-1)={\frac {1}{M(T)}}\sum _{k:c_{K}\geq t}X_{K}={\frac {|\{1\leq k\leq n\,:\,{\tilde {\tau }}_{k}\geq T\}|}{M(T)}},}

donde la última igualdad se sigue porque τ ~ k ≥ t {\displaystyle {\tilde {\tau }}_{K}\geq t} implica c k ≥ t {\displaystyle c_{K}\geq t} .,5″>

t-1)\operatorname {Prob} (\tau >t-1)\\&=(1-\operatorname {Prob} (\tau \leq t\mid \tau >t-1))\operatorname {Prob} (\tau >t-1)\\&=(1-\operatorname {Prob} (\tau =t\mid \tau \geq t))\operatorname {Prob} (\tau >t-1)\\&=q(t)S(t-1)\,,\end{aligned}}}

donde uno pero la última igualdad utilizado que τ {\displaystyle \tau } es un entero con valores y para la última línea se introdujo

q ( t ) = 1 − Prob ⁡ ( τ = t ∣ τ ≥ t ) ., {\displaystyle q(t)=1-\operatorname {Prob} (\tau =T \mid \tau \ geq t).}

Por un recursiva de expansión de la igualdad de S ( t ) = q ( t ) S ( t − 1 ) {\displaystyle S(t)=q(t)S(t-1)} , obtenemos

S ( t ) = q ( t ) q ( t − 1 ) ⋯ q ( 0 ) . {\displaystyle S(t) = q(t) q(t-1)\cdots q(0).}

tenga en cuenta que aquí p ( 0 ) = 1 − Prob ⁡ ( τ = 0 ∣ τ > 1 ) = 1 − Prob ⁡ ( τ = 0 ) {\displaystyle q(0)=1-\operatorname {Prob} (\tau =0\mid \tau >-1)=1-\operatorname {Prob} (\tau =0)} .

Prob ⁡ ( τ = s | τ ≥ s ) = Prob ⁡ ( τ ~ k = s ) / Prob ⁡ ( τ ~ k ≥ s ) ., {\displaystyle \operatorname {Prob} (\tau =s|\tau \geq s)=\operatorname {Prob} ({\tilde {\tau }}_{k}=s)/\operatorname {Prob} ({\tilde {\tau }}_{k}\geq s).,}

por un razonamiento similar que conducen a la construcción de los ingenuos estimador anterior, llegamos a la estimador

q ^ ( s ) = 1 − | { 1 ≤ k ≤ n : c k ≥ s , τ ~ k = s } | | { 1 ≤ k ≤ n : c k ≥ s , τ ~ k ≥ s } | = 1 − | { 1 ≤ k ≤ N : τ ~ k = s } | | { 1 ≤ k ≤ n : τ ~ k ≥ s } | {\displaystyle {\hat {Q}}(s)=1-{\frac {|\{1\leq K\leq n\,:\,c_{K}\geq s,{\tilde {\Tau }}_{K}=S\}|}{|\{1\leq k \ leq n\,:\, c_{K} \ geq s, {\tilde {\tau }}_{K} \ geq s\}|}}=1-{\frac {/\{1 \ leq k \ leq n\,:\, {\tilde {\tau }}_{k} = s\}|}{|\{1\leq k \ leq n\,:\, {\tilde {\tau }}_{K} \ geq s\}/}}S} ^ (t ) = ∏ s = 0 t q ^ (s ) ., {\displaystyle {\hat {S}}(t)=\prod _{s=0}^{t}{\hat {q}}(s).} S ^ (t) = i i : t i ≤ t ( 1 − d i n i). {\displaystyle {\hat {S}}(t)=\prod _{i:t_{i}\leq t}\left(1-{\frac {d{i}}{n_{i}}}\right).}

A diferencia del estimador ingenuo, se puede ver que este estimador utiliza la información disponible de manera más efectiva: en el caso especial mencionado anteriormente, cuando hay muchos eventos tempranos registrados, el estimador multiplicará muchos términos con un valor por debajo de uno y, por lo tanto, tendrá en cuenta que la probabilidad de supervivencia no puede ser grande., j log ⁡ ( h j ) + ( n j − d j ) registro de ⁡ ( 1 − h j ) ) {\displaystyle \log({\mathcal {L}})=\sum _{j=1}^{i}\left(d_{j}\log(h_{j})+(n_{j}-d{j})\log(1-h_{j})\derecho)}

encontrar el máximo de registro de probabilidad con respecto a h i {\displaystyle h_{i}} produce:

∂ log ⁡ ( L ) ∂ h i = d i h ^ i − n i − d i 1 − h ^ i = 0 ⇒ h ^ i = d i n i {\displaystyle {\frac {\partial \log({\mathcal {L}})}{\partial h_{i}}}={\frac {d{i}}{{\widehat {h}}_{i}}}-{\frac {n_{i}-d{i}}{1-{\widehat {h}}_{i}}}=0\Rightarrow {\widehat {h}}_{i}={\frac {d{i}}{n_{i}}}}

cuando el sombrero se utiliza para denotar la estimación de máxima verosimilitud., Dado este resultado, podemos escribir:

S ^ ( t ) = ∏ i : t i ≤ t ( 1 − h ^ i ) = ∏ i : t i ≤ t ( 1 − d i n i ) {\displaystyle {\widehat {S}}(t)=\prod \límites de _{i:\ t_{i}\leq t}\left(1-{\widehat {h}}_{i}\derecho)=\prod \límites de _{i:\ t_{i}\leq t}\left(1-{\frac {d{i}}{n_{i}}}\right)}

Leave A Comment