Cadenas de Markov, modelos de investigacion de operaciones

En el siguiente video se habla de los estados absorbentes.Se dice que un estado del proceso es Absorbente, si pii= 1. Esto es; llegando a ľ nunca se sale. Si una cadena tiene algunos de sus estados absorbentes y el resto no (transitorio), entonces si iniciamos en un estado transitorio, es segu...

Fuld beskrivelse

Saved in:
Bibliografiske detaljer
Andre forfattere: Canal Para Estudiantes / YouTube
Format: Bog
Sprog:spansk
Fag:
Online adgang:Cadenas de Markov, modelos de investigacion de operaciones
Tags: Tilføj Tag
Ingen Tags, Vær først til at tagge denne postø!
Beskrivelse
Summary:En el siguiente video se habla de los estados absorbentes.Se dice que un estado del proceso es Absorbente, si pii= 1. Esto es; llegando a ľ nunca se sale. Si una cadena tiene algunos de sus estados absorbentes y el resto no (transitorio), entonces si iniciamos en un estado transitorio, es seguro que en algn͠ momento se termina en alguno de sus estados absorbentes.En este caso puede interesar conocer:El nm͠ero esperado de pero̕dos que pasa en el estado transitorio antes de pasar al estado absorbente.Si una cadena empieza en un estado transitorio, cul̀ es la probabilidad de terminar en particular en cada uno de los estados absorbentes.