Cadenas de Markov, modelos de investigacion de operaciones
En el siguiente video se habla de los estados absorbentes.Se dice que un estado del proceso es Absorbente, si pii= 1. Esto es; llegando a ľ nunca se sale. Si una cadena tiene algunos de sus estados absorbentes y el resto no (transitorio), entonces si iniciamos en un estado transitorio, es segu...
Saved in:
| Other Authors: | |
|---|---|
| Format: | Book |
| Language: | Spanish |
| Subjects: | |
| Online Access: | Cadenas de Markov, modelos de investigacion de operaciones |
| Tags: |
Add Tag
No Tags, Be the first to tag this record!
|
| Summary: | En el siguiente video se habla de los estados absorbentes.Se dice que un estado del proceso es Absorbente, si pii= 1. Esto es; llegando a ľ nunca se sale. Si una cadena tiene algunos de sus estados absorbentes y el resto no (transitorio), entonces si iniciamos en un estado transitorio, es seguro que en algn͠ momento se termina en alguno de sus estados absorbentes.En este caso puede interesar conocer:El nm͠ero esperado de pero̕dos que pasa en el estado transitorio antes de pasar al estado absorbente.Si una cadena empieza en un estado transitorio, cul̀ es la probabilidad de terminar en particular en cada uno de los estados absorbentes. |
|---|