Loading presentation...

Present Remotely

Send the link below via email or IM

Copy

Present to your audience

Start remote presentation

  • Invited audience members will follow you as you navigate and present
  • People invited to a presentation do not need a Prezi account
  • This link expires 10 minutes after you close the presentation
  • A maximum of 30 users can follow your presentation
  • Learn more about this feature in our knowledge base article

Do you really want to delete this prezi?

Neither you, nor the coeditors you shared it with will be able to recover it again.

DeleteCancel

Make your likes visible on Facebook?

Connect your Facebook account to Prezi and let your likes appear on your timeline.
You can change this under Settings & Account at any time.

No, thanks

Cadenas de Markov

No description
by

on 6 May 2014

Comments (0)

Please log in to add your comment.

Report abuse

Transcript of Cadenas de Markov

Cadenas de Markov

"Cuando, conociendo el pasado y el presente, el comportamiento probabilistico del futuro inmediato, solo depende del estado presente"
Asi se formula......
Formulacion de las Cadenas de Markov
Tipos de Cadenas de Markov
Conceptos Basicos
Conceptos Primarios
Tipos de Cadenas de Markov
Ejemplo:
Definicion
Las cadenas de markov son modelos probabilísticos que se usan para predecir la evolución y el comportamiento a corto y a largo plazo de determinados sistemas.
Caracteristica
Las cadenas de este tipo tienen MEMORIA, es decir recuerdan el ultimo evento y esto condiciona las posibilidades de los eventos futuros.
Por lo cual.......
Esta dependencia del evento anterior distingue a las cadenas de MARKOV, de las series de eventos independientes, como tirar una moneda al aire o tirar un dado.
¿Para que son?
Las cadenas de Markov son una herramienta para analizar el comportamiento y el gobierno de determinados tipos de procesos estocásticos, esto es, procesos que evolucionan de forma no determinista a lo largo del tiempo en torno a un conjunto de estados.
¿Que representa?
Contexto Historico
¿Quien es Andrei Markov?
Fue un matemático ruso conocido por sus trabajos en la teoría de los números y la teoría de probabilidades.
Su aportación más conocida es otra: su trabajo teórico en el campo de los procesos en los que están involucrados componentes aleatorios (procesos estocásticos) darían fruto en un instrumento matemático que actualmente se conoce como cadena de Márkov: secuencias de valores de una variable aleatoria en las que el valor de la variable en el futuro depende del valor de la variable en el presente, pero es independiente de la historia de dicha variable.
¿Que es.........?
Un
fenómeno aleatorio
es un fenómeno empírico que obedece a leyes probabilísticas en lugar de determinísticas.
Un
proceso estocástico
es un fenómeno aleatorio que surge en un proceso que se desarrolla en el tiempo de una manera controlada por medio de leyes probabilísticas.
Así, el analisis de MARKOV permite encontrar la probablidad de que un sistema, se encuentre en un estado en particular en un momento dado.

¿Que es un estado?
Es una caracterizacion de la situacion en que se encuentra el sistema en un instante dado, dicha propiedad puede ser cualitativa o cuantitativa.
Como ya se definio la Cadena de Markov
Entonces.......
Modelos Estocasticos
Un conjunto finito de M estados, exhaustivos y mutuamente excluyentes
Ciclo de markov (“paso”) : periodo de tiempo que sirve de base para examinar las transiciones entre estados
Probabilidades de transición entre estados, en un ciclo
Distribución inicial del sistema entre los M estados posibles
Elementos de una Cadena Markov
INTEGRANTES:
JAVIER CAHUI CAMA
BRENDA JUAREZ PAUCAR
MISSAEL CALIZAYA MAMANI
FRANS RAMIREZ GUTIERRES
ANDRES ALDANA NAQUIRA
ELEMENTOS DE LA CADENA DE MARKOV
MATRIZ DE TRANSICION
Es el arreglo numérico donde se encuentran las probabilidades de un estado a otro.
Dicha matriz es cuadrada con tantas filas y columnas como estados que tiene el sistema, y los elementos de matriz representan la probabilidad de que el estado próximo sea el correspondiente a la columna si el estado actual es el correspondiente a la fila.
ESTADO
Una cadena de Markov es una secuencia X1, X2, X3, … de variables aleatorias, el rango de estas variables, es llamado espacio -estado, el valor de Xn es el estado del proceso en el tiempo n.
CONCLUSIONES
Podemos concluir que las cadenas de Márkov son una herramienta para analizar el comportamiento de determinados procesos estocásticos, estos procesos evolucionan de forma determinística a lo largo del tiempo en torno a un conjunto de estados, solo una cadena representa un sistema que varía su estado a lo largo del tiempo, siendo cada cambio una transición del sistema
El análisis de markov, permite encontrar la posibilidad de que un sistema se encuentre en un estado en particular en un momento dado. Además permite encontrar el promedio a la larga o las probabilidades de estado estable para cada estado el cual nos sirve para predecir el comportamiento del sistema a través del tiempo.
Las cadenas de Márkov se pueden utilizar en modelos simples de valuación para determinar cuándo existe oportunidad de arbitraje, así como en el modelo de colapsos de una bolsa de valores, para determinar la volatilidad de precios, para analizar los patrones de compra de los deudores morosos y el remplazo de equipo, para planear las necesidades de personal, como también para establecer o no algunas estrategias de mercadeo y ventas.
Una cadena de Markov, por tanto, representa un sistema que varía su estado a lo largo del tiempo,siendo cada cambio una transición del sistema. Dichos cambios no están predeterminados, aunque sí lo está la probabilidad del próximo estado en función de los estados anteriores.
El departamento de estudios de mercado de una fábrica estima que el 20% de la gente que compra un producto un mes, no lo comprará el mes siguiente. Además, el 30% de quienes no lo compren un mes lo adquirirá al mes siguiente. En una población de 1000 individuos, 100 compraron el producto el primer mes. ¿Cuántos lo comprarán al mes próximo? ¿Y dentro de dos meses?

Compran el producto=A
No compran el producto=B
Full transcript