Cadenas de Markov, modelos de investigacion de operaciones

En el siguiente video se habla de los estados absorbentes.Se dice que un estado del proceso es Absorbente, si pii= 1. Esto es; llegando a ľ nunca se sale. Si una cadena tiene algunos de sus estados absorbentes y el resto no (transitorio), entonces si iniciamos en un estado transitorio, es segu...

Full description

Saved in:
Bibliographic Details
Other Authors: Canal Para Estudiantes / YouTube
Format: Book
Language:Spanish
Subjects:
Online Access:Cadenas de Markov, modelos de investigacion de operaciones
Tags: Add Tag
No Tags, Be the first to tag this record!
Description
Summary:En el siguiente video se habla de los estados absorbentes.Se dice que un estado del proceso es Absorbente, si pii= 1. Esto es; llegando a ľ nunca se sale. Si una cadena tiene algunos de sus estados absorbentes y el resto no (transitorio), entonces si iniciamos en un estado transitorio, es seguro que en algn͠ momento se termina en alguno de sus estados absorbentes.En este caso puede interesar conocer:El nm͠ero esperado de pero̕dos que pasa en el estado transitorio antes de pasar al estado absorbente.Si una cadena empieza en un estado transitorio, cul̀ es la probabilidad de terminar en particular en cada uno de los estados absorbentes.