Cadenas de Markov, modelos de investigacion de operaciones
En el siguiente video se habla de los estados absorbentes.Se dice que un estado del proceso es Absorbente, si pii= 1. Esto es; llegando a ľ nunca se sale. Si una cadena tiene algunos de sus estados absorbentes y el resto no (transitorio), entonces si iniciamos en un estado transitorio, es segu...
Guardat en:
| Altres autors: | |
|---|---|
| Format: | Llibre |
| Idioma: | espanyol |
| Matèries: | |
| Accés en línia: | Cadenas de Markov, modelos de investigacion de operaciones |
| Etiquetes: |
Afegir etiqueta
Sense etiquetes, Sigues el primer a etiquetar aquest registre!
|
| Sumari: | En el siguiente video se habla de los estados absorbentes.Se dice que un estado del proceso es Absorbente, si pii= 1. Esto es; llegando a ľ nunca se sale. Si una cadena tiene algunos de sus estados absorbentes y el resto no (transitorio), entonces si iniciamos en un estado transitorio, es seguro que en algn͠ momento se termina en alguno de sus estados absorbentes.En este caso puede interesar conocer:El nm͠ero esperado de pero̕dos que pasa en el estado transitorio antes de pasar al estado absorbente.Si una cadena empieza en un estado transitorio, cul̀ es la probabilidad de terminar en particular en cada uno de los estados absorbentes. |
|---|