
Cadenas de Markov en Tiempo Discreto
Authored by JESUS SEGURA URETA
Mathematics
University
Used 3+ times

AI Actions
Add similar questions
Adjust reading levels
Convert to real-world scenario
Translate activity
More...
Content View
Student View
15 questions
Show all answers
1.
MULTIPLE CHOICE QUESTION
30 sec • 1 pt
¿Qué es una cadena de Markov y cuáles son sus propiedades?
Una cadena de Markov se basa en la historia completa de los estados anteriores.
Una cadena de Markov es un tipo de algoritmo de búsqueda.
Una cadena de Markov es un modelo probabilístico que describe transiciones entre estados, con la propiedad de que el futuro depende solo del presente.
Las cadenas de Markov son solo útiles en programación.
2.
MULTIPLE CHOICE QUESTION
30 sec • 1 pt
Define el concepto de estado en una cadena de Markov.
Un estado en una cadena de Markov es una representación de la situación actual del sistema, donde las transiciones entre estados dependen solo del estado presente.
Un estado en una cadena de Markov es una variable que no cambia con el tiempo.
Un estado en una cadena de Markov es una representación gráfica de las transiciones entre estados.
Un estado en una cadena de Markov es un conjunto de todos los posibles resultados del sistema.
3.
MULTIPLE CHOICE QUESTION
30 sec • 1 pt
¿Cómo se calcula la probabilidad de transición entre dos estados?
P(A->B) = N(A->B) + N(A)
P(A->B) = N(A->B) / N(A)
P(A->B) = N(A) * N(B)
P(A->B) = N(A) / N(A->B)
4.
MULTIPLE CHOICE QUESTION
30 sec • 1 pt
Dibuja un diagrama de estados para una cadena de Markov simple y explica su significado.
Un diagrama de estados para una cadena de Markov simple incluye al menos dos estados, A y B, con transiciones como A -> A (probabilidad p), A -> B (probabilidad 1-p), B -> A (probabilidad q), y B -> B (probabilidad 1-q).
Un diagrama de estados para una cadena de Markov simple debe tener al menos tres estados.
Un diagrama de estados para una cadena de Markov simple solo incluye un estado.
Las transiciones en un diagrama de estados no tienen probabilidades asociadas.
5.
MULTIPLE CHOICE QUESTION
30 sec • 1 pt
Si tienes una matriz de transición, ¿cómo puedes determinar si es estocástica?
Una matriz de transición es estocástica si cada columna suma 1 y todos sus elementos son positivos.
Una matriz de transición es estocástica si cada fila suma 1 y todos sus elementos son no negativos.
Una matriz de transición es estocástica si todos sus elementos son iguales a 0.5.
Una matriz de transición es estocástica si tiene al menos una fila con elementos negativos.
6.
MULTIPLE CHOICE QUESTION
30 sec • 1 pt
Resuelve el siguiente problema de Markov: Un sistema tiene tres estados A, B y C con las siguientes probabilidades de transición: P(A->B)=0.3, P(B->C)=0.5, P(C->A)=0.2. ¿Cuál es la probabilidad de estar en el estado A después de dos transiciones?
0.25
0.45
0.64
0.75
7.
MULTIPLE CHOICE QUESTION
30 sec • 1 pt
Explica el teorema de la cadena de Markov y su importancia.
El teorema establece que el futuro es completamente predecible a partir del pasado.
Las cadenas de Markov son irrelevantes en la teoría de probabilidades.
El teorema de la cadena de Markov se basa en la historia completa del proceso.
El teorema de la cadena de Markov describe que el futuro de un proceso depende solo del estado actual, no de los anteriores, y es crucial en múltiples disciplinas.
Access all questions and much more by creating a free account
Create resources
Host any resource
Get auto-graded reports

Continue with Google

Continue with Email

Continue with Classlink

Continue with Clever
or continue with

Microsoft
%20(1).png)
Apple
Others
Already have an account?