{"id":181430,"date":"2026-02-19T14:30:48","date_gmt":"2026-02-19T13:30:48","guid":{"rendered":"https:\/\/liora.io\/es\/?p=181430"},"modified":"2026-02-25T08:52:04","modified_gmt":"2026-02-25T07:52:04","slug":"cadena-de-markov-que-es","status":"publish","type":"post","link":"https:\/\/liora.io\/es\/cadena-de-markov-que-es","title":{"rendered":"Cadena de Markov: \u00bfQu\u00e9 es? \u00bfPara qu\u00e9 sirve?"},"content":{"rendered":"\n<p><b>Se dice que un modelo tiene la propiedad de Markov si su estado en un momento T depende \u00fanicamente de su estado en el momento T-1. Si podemos observar los estados en los que se encuentra el modelo en cada instante, hablamos de un modelo de Markov observable. De lo contrario, hablamos de un modelo de Markov oculto. En este art\u00edculo, ilustraremos estos modelos para comprender su funcionamiento y utilidad.<\/b><\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-definicion-matematica-rigurosa\">Definici\u00f3n matem\u00e1tica rigurosa<\/h2>\n\n\n\n<figure class=\"wp-block-image size-large\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/9\/2025\/08\/output1-77.png\" alt=\"\" \/><\/figure>\n\n\n\n<p>Matem\u00e1ticamente, una secuencia de variables aleatorias (Xn) con valores en un espacio de estados E es una cadena de Markov si cumple con la propiedad de Markov d\u00e9bil. Esta propiedad se expresa mediante la siguiente relaci\u00f3n:<\/p>\n\n\n\n<pre class=\"wp-block-preformatted\">P(X_{n+1} = i_{n+1} | X_1 = i_1, ..., X_n = i_n) = P(X_{n+1} = i_{n+1} | X_n = i_n)<\/pre>\n\n\n\n<div style=\"height:1px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p>Esta ecuaci\u00f3n significa que la probabilidad de transici\u00f3n hacia el estado futuro i_{n+1} solo depende del estado presente i_n, y no de la secuencia completa de estados pasados.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-los-elementos-clave-de-una-cadena-de-markov\">Los elementos clave de una cadena de Markov<\/h3>\n\n\n\n<p>El espacio de estados E: el conjunto de todos los estados posibles en los que el sistema puede encontrarse. En nuestro ejemplo meteorol\u00f3gico, E = {sol, nubes, lluvia}.<\/p>\n\n\n\n<p>Las probabilidades de transici\u00f3n: P(X_{n+1} = j | X_n = i) representa la probabilidad de pasar del estado i al estado j en un paso.<\/p>\n\n\n\n<p>La homogeneidad temporal: si estas probabilidades de transici\u00f3n no dependen del tiempo n, se dice que la cadena es homog\u00e9nea. Es el caso m\u00e1s frecuentemente estudiado.<\/p>\n\n\n\n<p>Esta formalizaci\u00f3n matem\u00e1tica permite distinguir claramente las cadenas de Markov de otros procesos estoc\u00e1sticos y constituye la base de toda su teor\u00eda.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-historia-y-fundamentos-de-las-cadenas-de-markov\">Historia y fundamentos de las cadenas de Markov<\/h2>\n\n\n\n<figure class=\"wp-block-image size-large\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/9\/2025\/08\/output1-87.png\" alt=\"Pantalla que muestra c\u00f3digo Python en un editor de texto, ilustrando un proyecto de programaci\u00f3n.\" \/><\/figure>\n\n\n\n<p>Las cadenas de Markov llevan el nombre del matem\u00e1tico ruso Andre\u00ed Andreievich Markov (1856-1922), quien introdujo este concepto en 1902 en el marco de sus investigaciones sobre la extensi\u00f3n de la ley de los grandes n\u00fameros a las cantidades dependientes.<\/p>\n\n\n\n<p>Markov se interes\u00f3 inicialmente en extender los teoremas l\u00edmite de las probabilidades m\u00e1s all\u00e1 del caso de las variables aleatorias independientes. Su motivaci\u00f3n era comprender c\u00f3mo la ley de los grandes n\u00fameros pod\u00eda aplicarse a las secuencias de eventos donde cada evento depende de aquel que lo precede, pero no de todo el historial.<\/p>\n\n\n<h3 class=\"wp-block-heading\" id=\"la-innovacion-conceptual\">La innovaci&oacute;n conceptual<\/h3>\n\n\n\n<p>La idea revolucionaria de Markov fue modelar procesos donde el futuro depende del pasado solo a trav\u00e9s del presente. Esta propiedad, hoy llamada \u00abpropiedad de Markov\u00bb, puede expresarse de forma intuitiva as\u00ed: \u00abla historia solo importa por su influencia en el estado actual\u00bb.<\/p>\n\n\n\n<p>Markov mismo aplic\u00f3 sus cadenas al an\u00e1lisis de las sucesiones de letras en la literatura rusa, especialmente en la obra \u00abEugenio Oneguin\u00bb de Pushkin, demostrando as\u00ed que los conceptos matem\u00e1ticos pod\u00edan aplicarse a campos no matem\u00e1ticos.<\/p>\n\n\n<h3 class=\"wp-block-heading\" id=\"desarrollos-modernos\">Desarrollos modernos<\/h3>\n\n\n\n<p>Desde su creaci\u00f3n, las cadenas de Markov han experimentado un desarrollo extraordinario y se han convertido en una herramienta fundamental en numerosos campos cient\u00edficos y tecnol\u00f3gicos, desde la f\u00edsica estad\u00edstica hasta la inteligencia artificial moderna.<\/p>\n\n\n\n<div class=\"wp-block-buttons is-content-justification-center is-layout-flex wp-container-core-buttons-is-layout-a89b3969 wp-block-buttons-is-layout-flex\">\n<div class=\"wp-block-button\"><a class=\"wp-block-button__link wp-element-button\">Dominar los modelos de Markov<\/a><\/div>\n<\/div>\n\n\n<h2 class=\"wp-block-heading\" id=\"modelo-de-markov-observable\">Modelo de Markov observable<\/h2>\n\n\n\n<figure class=\"wp-block-image size-large\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/9\/2025\/08\/output1-85.png\" alt=\"\" \/><\/figure>\n\n\n\n<p>Consideremos la situaci\u00f3n que sigue:&nbsp;<\/p>\n\n\n\n<p>Est\u00e1s encerrado en casa un d\u00eda de lluvia y te gustar\u00eda determinar el clima que har\u00e1 en los pr\u00f3ximos cinco d\u00edas.<\/p>\n\n\n\n<p>Como no eres meteor\u00f3logo, te simplificas la tarea haciendo la hip\u00f3tesis de que el clima sigue un modelo de Markov: el clima en el d\u00eda J depende \u00fanicamente del clima en el d\u00eda J-1.<\/p>\n\n\n\n<p>Para simplificar a\u00fan m\u00e1s, consideras que solo hay tres tipos de clima posibles: sol, nubes o lluvia.<\/p>\n\n\n\n<p>Bas\u00e1ndote en las observaciones de los \u00faltimos meses, estableces el siguiente diagrama de transiciones:<\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/7\/2025\/08\/image1_markdown.png\" alt=\"\" \/><\/figure>\n\n\n\n<p>La <b>matriz de transici\u00f3n<\/b> asociada es<\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/7\/2025\/08\/image2_markdown.png\" alt=\"\" \/><\/figure>\n\n\n\n<p>Recordatorio, esta matriz se lee de la siguiente manera:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>La probabilidad de que haya sol ma\u00f1ana sabiendo que hoy llueve es de 35%<\/li>\n\n\n\n<li>La probabilidad de que haya nubes ma\u00f1ana sabiendo que ya hay hoy es de 25%<\/li>\n<\/ul>\n\n\n\n<p>Calculemos la probabilidad de que el clima de los pr\u00f3ximos cinco d\u00edas sea \u201csol, sol, lluvia, nubes, sol\u201d.<\/p>\n\n\n\n<p>Como el clima de un d\u00eda depende \u00fanicamente del clima que hizo el d\u00eda anterior, basta con multiplicar las probabilidades (recordatorio: hoy llueve):<\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter size-large is-resized\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/9\/2023\/10\/image3_markdown.png\" alt=\"\" style=\"width:auto;height:100px\" \/><\/figure>\n\n\n\n<p>Podemos calcular esta probabilidad para todas las combinaciones posibles, y <b>seleccionar la combinaci\u00f3n con la probabilidad m\u00e1s alta para responder a la problem\u00e1tica<\/b>.<\/p>\n\n\n\n<p>En nuestro caso, aqu\u00ed est\u00e1n las 5 combinaciones que tienen m\u00e1s probabilidades de realizarse:<\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/7\/2025\/08\/image4_markdown.png\" alt=\"\" \/><\/figure>\n\n\n\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\">\n<div class=\"wp-block-button\"><a class=\"wp-block-button__link wp-element-button\" href=\"https:\/\/liora.io\/es\/nuestros-cursos-de-data\">Aprender matem\u00e1ticas aplicadas<\/a><\/div>\n<\/div>\n\n\n<h2 class=\"wp-block-heading\" id=\"propiedades-fundamentales-de-la-matriz-de-transicion\">Propiedades fundamentales de la matriz de transici&oacute;n<\/h2>\n\n\n\n<figure class=\"wp-block-image\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/7\/2025\/08\/output1-83.png\" alt=\"\" \/><\/figure>\n\n\n\n<p>La matriz de transici\u00f3n que hemos utilizado en el ejemplo anterior posee propiedades matem\u00e1ticas importantes que conviene entender.<\/p>\n\n\n<h3 class=\"wp-block-heading\" id=\"estructura-de-la-matriz\">Estructura de la matriz<\/h3>\n\n\n\n<p>Una matriz de transici\u00f3n P = (p_{ij}) debe cumplir dos restricciones esenciales:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Todos los elementos son positivos o nulos: p_{ij} \u2265 0 para todo i, j<\/li>\n\n\n\n<li>Cada fila suma 1: \u03a3_j p_{ij} = 1 para todo i<\/li>\n<\/ul>\n\n\n\n<p>Esta segunda propiedad refleja el hecho de que desde cualquier estado, el sistema debe necesariamente transitar hacia un estado (inclusive permanecer en el mismo estado).<\/p>\n\n\n<h3 class=\"wp-block-heading\" id=\"potencias-de-la-matriz-y-predicciones-a-largo-plazo\">Potencias de la matriz y predicciones a largo plazo<\/h3>\n\n\n\n<p>Una de las propiedades m\u00e1s notables es que la matriz P^n (P elevada a la potencia n) proporciona directamente las probabilidades de transici\u00f3n en n pasos. As\u00ed, el elemento (P^n)_{ij} representa la probabilidad de pasar del estado i al estado j en exactamente n pasos.<\/p>\n\n\n\n<p>Esta propiedad nos permite hacer predicciones meteorol\u00f3gicas a largo plazo. Por ejemplo, si calculamos P10, obtenemos las probabilidades de transici\u00f3n para 10 d\u00edas.<\/p>\n\n\n<h3 class=\"wp-block-heading\" id=\"convergencia-hacia-el-equilibrio\">Convergencia hacia el equilibrio<\/h3>\n\n\n\n<p>Bajo ciertas condiciones, las sucesivas potencias de la matriz P convergen hacia una matriz l\u00edmite, cuyas filas son todas id\u00e9nticas. Esta fila com\u00fan representa la distribuci\u00f3n estacionaria del sistema; la distribuci\u00f3n de las probabilidades hacia la cual el sistema tiende a largo plazo, independientemente de su estado inicial.<\/p>\n\n\n\n<p>En nuestro ejemplo meteorol\u00f3gico, esto significar\u00eda que en el muy largo plazo, la probabilidad de tener sol, nubes o lluvia se vuelve constante y predecible.<\/p>\n\n\n<h2 class=\"wp-block-heading\" id=\"clasificacion-de-los-estados-en-una-cadena-de-markov\">Clasificaci&oacute;n de los estados en una cadena de Markov<\/h2>\n\n\n\n<figure class=\"wp-block-image size-large\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/9\/2025\/08\/output1-93.png\" alt=\"\" \/><\/figure>\n\n\n\n<p>Una vez establecida la matriz de transici\u00f3n, es esencial comprender el comportamiento a largo plazo de cada estado. Este an\u00e1lisis permite clasificar los estados seg\u00fan sus propiedades din\u00e1micas.<\/p>\n\n\n<h3 class=\"wp-block-heading\" id=\"estados-transitorios-y-recurrentes\">Estados transitorios y recurrentes<\/h3>\n\n\n\n<p>Un estado se dice <b>transitorio<\/b> si, partiendo de ese estado, existe una probabilidad no nula de no volver a \u00e9l nunca. Por el contrario, un estado es <b>recurrente<\/b> si, partiendo de ese estado, estamos seguros de regresar a \u00e9l tarde o temprano.<\/p>\n\n\n\n<p>En nuestro ejemplo meteorol\u00f3gico, si modificamos la matriz para incluir un estado \u00abtormenta\u00bb del cual solo se puede salir hacia \u00ablluvia\u00bb y al que no se puede volver, entonces \u00abtormenta\u00bb ser\u00eda un estado transitorio.<\/p>\n\n\n<h3 class=\"wp-block-heading\" id=\"estados-absorbentes\">Estados absorbentes<\/h3>\n\n\n\n<p>Un estado se dice <b>absorbente<\/b> si es imposible salir de \u00e9l una vez que se ha entrado. Matem\u00e1ticamente, esto significa que p_{ii} = 1 para este estado i.<\/p>\n\n\n\n<p>Ejemplo concreto: en un modelo de duraci\u00f3n de vida de un organismo con los estados \u00abjuvenil\u00bb, \u00abadulto\u00bb, \u00absenescente\u00bb, y \u00abfallecido\u00bb, el estado \u00abfallecido\u00bb es absorbente porque un organismo muerto no puede cambiar de estado.<\/p>\n\n\n<h3 class=\"wp-block-heading\" id=\"cadenas-irreducibles\">Cadenas irreducibles<\/h3>\n\n\n\n<p>Una cadena de Markov es <b>irreducible<\/b> si todos los estados se comunican entre s\u00ed, es decir, es posible pasar de cualquier estado a cualquier otro estado en un n\u00famero finito de pasos.<\/p>\n\n\n\n<p>Nuestro modelo meteorol\u00f3gico es irreducible: podemos pasar del sol a la lluvia (v\u00eda las nubes), de la lluvia al sol, etc. Esta propiedad garantiza la existencia de una distribuci\u00f3n estacionaria \u00fanica.<\/p>\n\n\n<h3 class=\"wp-block-heading\" id=\"periodicidad\">Periodicidad<\/h3>\n\n\n\n<p>Un estado tiene un <b>per\u00edodo d<\/b> si solo se puede regresar a \u00e9l en instantes m\u00faltiplos de d. Si d = 1, el estado se dice <b>aperi\u00f3dico<\/b>. Una cadena irreducible y aperi\u00f3dica siempre converge hacia su distribuci\u00f3n estacionaria.<\/p>\n\n\n\n<p>Esta clasificaci\u00f3n permite predecir el comportamiento asint\u00f3tico del sistema y determina qu\u00e9 herramientas matem\u00e1ticas pueden aplicarse para el an\u00e1lisis.<\/p>\n\n\n\n<div class=\"wp-block-buttons is-content-justification-center is-layout-flex wp-container-core-buttons-is-layout-a89b3969 wp-block-buttons-is-layout-flex\">\n<div class=\"wp-block-button\"><a class=\"wp-block-button__link wp-element-button\" href=\"https:\/\/liora.io\/es\/nuestros-cursos-de-data\">Formarse en ciencia de datos<\/a><\/div>\n<\/div>\n\n\n<h2 class=\"wp-block-heading\" id=\"distribucion-estacionaria-y-convergencia-hacia-el-equilibrio\">Distribuci&oacute;n estacionaria y convergencia hacia el equilibrio<\/h2>\n\n\n\n<figure class=\"wp-block-image size-large\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/7\/2025\/08\/output1-88.png\" alt=\"\" \/><\/figure>\n\n\n\n<p>Hemos mencionado anteriormente el concepto de convergencia hacia el equilibrio. Ahora profundicemos en esta noci\u00f3n fundamental.<\/p>\n\n\n<h3 class=\"wp-block-heading\" id=\"que-es-una-distribucion-estacionaria\">&iquest;Qu&eacute; es una distribuci&oacute;n estacionaria?<\/h3>\n\n\n\n<p>Una distribuci\u00f3n estacionaria \u03c0 es un vector de probabilidades que permanece inalterado por la din\u00e1mica de la cadena. Matem\u00e1ticamente, verifica la ecuaci\u00f3n: \u03c0 = \u03c0P, donde P es la matriz de transici\u00f3n.<\/p>\n\n\n\n<p>En nuestro ejemplo meteorol\u00f3gico, si la distribuci\u00f3n estacionaria es \u03c0 = (0.4, 0.3, 0.3) para (sol, nubes, lluvia), esto significa que a largo plazo, habr\u00e1 sol el 40% del tiempo, nubes el 30% del tiempo, y lluvia el 30% del tiempo, independientemente del clima de hoy.<\/p>\n\n\n<h3 class=\"wp-block-heading\" id=\"existencia-y-unicidad\">Existencia y unicidad<\/h3>\n\n\n\n<p>Para una cadena de Markov irreducible en un espacio de estados finito, siempre existe una \u00fanica distribuci\u00f3n estacionaria. Esta propiedad notable garantiza que el sistema tiene un comportamiento predecible a largo plazo.<\/p>\n\n\n<h3 class=\"wp-block-heading\" id=\"el-teorema-ergodico\">El teorema erg&oacute;dico<\/h3>\n\n\n\n<p>El teorema erg\u00f3dico es uno de los resultados m\u00e1s poderosos de la teor\u00eda de las cadenas de Markov. Establece que, para una cadena irreducible y aperi\u00f3dica:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><b>Convergencia<\/b>: No importa el estado inicial, las probabilidades convergen hacia la distribuci\u00f3n estacionaria<\/li>\n\n\n\n<li><b>Ley fuerte de los grandes n\u00fameros<\/b>: La proporci\u00f3n de tiempo pasado en cada estado converge hacia su probabilidad estacionaria<\/li>\n<\/ol>\n\n\n\n<p>Concretamente, esto significa que si observamos nuestro clima durante muchos a\u00f1os, la frecuencia observada de cada tipo de tiempo converger\u00e1 hacia las probabilidades de la distribuci\u00f3n estacionaria.<\/p>\n\n\n<h3 class=\"wp-block-heading\" id=\"aplicaciones-practicas-de-la-ergodicidad\">Aplicaciones pr&aacute;cticas de la ergodicidad<\/h3>\n\n\n\n<p>Esta propiedad permite calcular promedios a largo plazo sin simulaci\u00f3n exhaustiva. Por ejemplo, si una m\u00e1quina tiene una probabilidad estacionaria de 0.95 de estar funcional, sabemos que estar\u00e1 disponible el 95% del tiempo a largo plazo, informaci\u00f3n crucial para la planificaci\u00f3n industrial.<\/p>\n\n\n\n<p>La ergodicidad tambi\u00e9n justifica el uso de las cadenas de Markov en los algoritmos de muestreo Monte Carlo: dejando que la cadena evolucione durante suficiente tiempo, se obtienen muestras seg\u00fan la distribuci\u00f3n deseada.<\/p>\n\n\n<h2 class=\"wp-block-heading\" id=\"ejercicios-practicos-para-dominar-las-cadenas-de-markov\">Ejercicios pr&aacute;cticos para dominar las cadenas de Markov<\/h2>\n\n\n\n<figure class=\"wp-block-image size-large\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/9\/2025\/08\/output1-84.png\" alt=\"Gr\u00e1fico que presenta los convergence diagnostics y las posterior distributions para los par\u00e1metros \u03b8\u2081 y \u03b8\u2082 derivados del an\u00e1lisis bayesiano.\" \/><\/figure>\n\n\n\n<p>Para consolidar su comprensi\u00f3n, aqu\u00ed hay algunos ejercicios cl\u00e1sicos con sus soluciones detalladas.<\/p>\n\n\n<h3 class=\"wp-block-heading\" id=\"ejercicio-1-la-urna-de-ehrenfest\">Ejercicio 1: La urna de Ehrenfest<\/h3>\n\n\n\n<p>Una urna contiene 4 bolas numeradas. En cada etapa, se saca un n\u00famero al azar y se mueve la bola correspondiente a la otra urna. El estado del sistema es el n\u00famero de bolas en la primera urna.<\/p>\n\n\n\n<p><strong>Pregunta:<\/strong> Determine la matriz de transici\u00f3n y calcule la distribuci\u00f3n estacionaria.<\/p>\n\n\n\n<p><strong>Soluci\u00f3n:<\/strong> Los estados posibles son {0,1,2,3,4}. Si la urna 1 contiene i bolas, la probabilidad de pasar al estado i-1 es i\/4 (sacar una bola de la urna 1), y la probabilidad de pasar al estado i+1 es (4-i)\/4 (sacar una bola de la urna 2).<\/p>\n\n\n\n<p>La distribuci\u00f3n estacionaria sigue una ley binomial: \u03c0(i) = C(4,i)\/16, es decir, \u03c0 = (1\/16, 4\/16, 6\/16, 4\/16, 1\/16).<\/p>\n\n\n<h3 class=\"wp-block-heading\" id=\"ejercicio-2-caminata-aleatoria-en-un-grafo\">Ejercicio 2: Caminata aleatoria en un grafo<\/h3>\n\n\n\n<p>Un pe\u00f3n se mueve en un cuadrado cuyos v\u00e9rtices son A, B, C, D. En cada etapa, pasa a un v\u00e9rtice adyacente con probabilidad igual.<\/p>\n\n\n\n<p><strong>Pregunta: <\/strong>\u00bfLa cadena es irreducible? \u00bfPeri\u00f3dica? Calcule el tiempo medio de regreso.<\/p>\n\n\n\n<p><strong>Soluci\u00f3n:<\/strong><\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Irreducible: S\u00ed, se puede ir de cualquier v\u00e9rtice a cualquier otro<\/li>\n\n\n\n<li>Peri\u00f3dica: S\u00ed, de per\u00edodo 2 (se requiere un n\u00famero par de etapas para regresar al punto de partida)<\/li>\n\n\n\n<li>Tiempo medio de regreso: 4 etapas para cada v\u00e9rtice<\/li>\n<\/ul>\n\n\n<h3 class=\"wp-block-heading\" id=\"ejercicio-3-modelo-de-duracion-de-vida\">Ejercicio 3: Modelo de duraci&oacute;n de vida<\/h3>\n\n\n\n<p>Un organismo pasa por los estados: juvenil (J), maduro (M), senescente (S), fallecido (D). La matriz de transici\u00f3n es:<\/p>\n\n\n\n<pre class=\"wp-block-code has-xsmall-font-size\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><code>J    M    S    D\nJ &#091;0.6  0.4  0    0  ]\nM &#091;0    0.7  0.3  0  ]\nS &#091;0    0    0.8  0.2]\nD &#091;0    0    0    1  ]<\/code><\/pre>\n\n\n\n<p><strong>Pregunta: <\/strong>Calcule la probabilidad de que un individuo juvenil alcance el estado senescente.<\/p>\n\n\n\n<p><strong>Soluci\u00f3n: <\/strong>Se debe resolver el sistema de ecuaciones. La probabilidad buscada es de 0.4 \u00d7 (0.3\/0.3) = 0.4, porque todo individuo maduro alcanza inevitablemente el estado senescente.<\/p>\n\n\n<h3 class=\"wp-block-heading\" id=\"ejercicio-4-tiempo-de-absorcion\">Ejercicio 4: Tiempo de absorci&oacute;n<\/h3>\n\n\n\n<p>Retomemos el ejercicio anterior. Calcule la esperanza de vida de un individuo juvenil.<\/p>\n\n\n\n<p><strong>Soluci\u00f3n: <\/strong>Utilizando las ecuaciones de tiempo de absorci\u00f3n, la esperanza de vida de un juvenil es de aproximadamente 8.33 unidades de tiempo.<\/p>\n\n\n\n<p>Estos ejercicios ilustran los conceptos te\u00f3ricos a trav\u00e9s de situaciones concretas y lo preparan para modelar sus propios problemas con las cadenas de Markov.<\/p>\n\n\n\n<div class=\"wp-block-buttons is-content-justification-center is-layout-flex wp-container-core-buttons-is-layout-a89b3969 wp-block-buttons-is-layout-flex\">\n<div class=\"wp-block-button\"><a class=\"wp-block-button__link wp-element-button\" href=\"https:\/\/liora.io\/es\/nuestros-cursos-de-data\">Descubre nuestras formaciones<\/a><\/div>\n<\/div>\n\n\n<h2 class=\"wp-block-heading\" id=\"extension-a-las-cadenas-de-markov-en-tiempo-continuo\">Extensi&oacute;n a las cadenas de Markov en tiempo continuo<\/h2>\n\n\n\n<figure class=\"wp-block-image size-large\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/9\/2025\/08\/output1-80.png\" alt=\"\" \/><\/figure>\n\n\n\n<p>Hasta ahora, hemos estudiado cadenas de Markov en tiempo discreto, donde las transiciones ocurren en instantes regulares (d\u00eda 1, d\u00eda 2, etc.). En muchas aplicaciones reales, los cambios de estado pueden ocurrir en cualquier momento: este es el \u00e1mbito de los <b>procesos de Markov en tiempo continuo<\/b>.<\/p>\n\n\n<h3 class=\"wp-block-heading\" id=\"diferencias-conceptuales-fundamentales\">Diferencias conceptuales fundamentales<\/h3>\n\n\n\n<p>En lugar de matrices de transici\u00f3n, utilizamos <b>generadores infinitesimales<\/b> que describen las tasas de transici\u00f3n instant\u00e1neas. Si q_{ij} representa la tasa de transici\u00f3n del estado i hacia el estado j, entonces la probabilidad de transici\u00f3n durante un peque\u00f1o intervalo dt es aproximadamente q_{ij} \u00d7 dt.<\/p>\n\n\n<h3 class=\"wp-block-heading\" id=\"ejemplo-concreto-centro-de-llamadas\">Ejemplo concreto: centro de llamadas<\/h3>\n\n\n\n<p>Consideremos un centro de llamadas donde las llamadas llegan seg\u00fan un proceso de Poisson con una tasa \u03bb = 5 llamadas\/hora, y cada llamada se procesa en promedio en 10 minutos (tasa de servicio \u03bc = 6 llamadas\/hora).<\/p>\n\n\n\n<p>Los estados representan el n\u00famero de llamadas en curso. Las transiciones son:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Estado n \u2192 Estado n+1 con tasa \u03bb (llegada de una llamada)<\/li>\n\n\n\n<li>Estado n \u2192 Estado n-1 con tasa n\u03bc (fin de procesamiento de una llamada)<\/li>\n<\/ul>\n\n\n<h3 class=\"wp-block-heading\" id=\"ecuaciones-de-chapman-kolmogorov-continuas\">Ecuaciones de Chapman-Kolmogorov continuas<\/h3>\n\n\n\n<p>La din\u00e1mica del sistema est\u00e1 gobernada por la ecuaci\u00f3n diferencial: dP(t)\/dt = P(t) \u00d7 Q<\/p>\n\n\n\n<p>donde Q es la matriz generadora y P(t) da las probabilidades de transici\u00f3n en el tiempo t.<\/p>\n\n\n<h3 class=\"wp-block-heading\" id=\"distribucion-estacionaria-en-tiempo-continuo\">Distribuci&oacute;n estacionaria en tiempo continuo<\/h3>\n\n\n\n<p>En el equilibrio, la condici\u00f3n se vuelve: \u03c0 \u00d7 Q = 0, donde \u03c0 es la distribuci\u00f3n estacionaria. Esta ecuaci\u00f3n expresa el equilibrio de flujo: para cada estado, la tasa de entrada es igual a la tasa de salida.<\/p>\n\n\n<h3 class=\"wp-block-heading\" id=\"aplicaciones-practicas\">Aplicaciones pr&aacute;cticas<\/h3>\n\n\n\n<ul class=\"wp-block-list\">\n<li><b>Fiabilidad de sistemas<\/b> Un equipo puede fallar en cualquier momento (tasa \u03bb) y ser reparado (tasa \u03bc). El proceso continuo modela naturalmente estos eventos imprevisibles.<\/li>\n\n\n\n<li><b>Epidemiolog\u00eda<\/b> Los modelos SIR (Susceptible-Infectado-Restaurado) usan tasas de contaminaci\u00f3n y curaci\u00f3n continuas para predecir la evoluci\u00f3n de epidemias.<\/li>\n\n\n\n<li><b>Finanzas cuantitativas<\/b> Los cambios de precios de activos financieros siguen procesos continuos, modelados por difusiones (extensiones estoc\u00e1sticas de los procesos de Markov).<\/li>\n<\/ul>\n\n\n<h3 class=\"wp-block-heading\" id=\"ventajas-del-tiempo-continuo\">Ventajas del tiempo continuo<\/h3>\n\n\n\n<p>Este enfoque refleja con mayor fidelidad la realidad de muchos fen\u00f3menos naturales y permite c\u00e1lculos anal\u00edticos a menudo m\u00e1s elegantes. Adem\u00e1s, sirve como puente hacia modelos m\u00e1s sofisticados como los procesos de difusi\u00f3n y las ecuaciones diferenciales estoc\u00e1sticas.<\/p>\n\n\n<h2 class=\"wp-block-heading\" id=\"metodos-de-monte-carlo-por-cadenas-de-markov-mcmc\">M&eacute;todos de Monte Carlo por cadenas de Markov (MCMC)<\/h2>\n\n\n\n<figure class=\"wp-block-image size-large\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/9\/2025\/08\/output1-82.png\" alt=\"\" \/><\/figure>\n\n\n\n<p>Las cadenas de Markov encuentran una aplicaci\u00f3n revolucionaria en los m\u00e9todos de muestreo estad\u00edstico, especialmente cuando las distribuciones son demasiado complejas para ser muestreadas directamente.<\/p>\n\n\n<h3 class=\"wp-block-heading\" id=\"principio-fundamental-del-mcmc\">Principio fundamental del MCMC<\/h3>\n\n\n\n<p>La idea brillante consiste en construir una cadena de Markov cuya distribuci\u00f3n estacionaria sea precisamente la distribuci\u00f3n objetivo que queremos muestrear. Al dejar evolucionar la cadena el tiempo suficiente, las muestras obtenidas siguen aproximadamente la distribuci\u00f3n deseada.<\/p>\n\n\n<h3 class=\"wp-block-heading\" id=\"el-algoritmo-de-metropolis-hastings\">El algoritmo de Metropolis-Hastings<\/h3>\n\n\n\n<p>Este algoritmo universal permite muestrear cualquier distribuci\u00f3n \u03c0(x), incluso si solo se conoce hasta una constante de normalizaci\u00f3n.<\/p>\n\n\n<h4 class=\"wp-block-heading\" id=\"funcionamiento\">Funcionamiento:<\/h4>\n\n\n\n<ol class=\"wp-block-list\">\n<li>A partir del estado actual x\u209c, se propone un nuevo estado y seg\u00fan una distribuci\u00f3n de propuesta q(y\u202f|\u202fx\u209c)<\/li>\n\n\n\n<li>Se calcula el ratio de aceptaci\u00f3n:<br><b>\u03b1 = min(1, [\u03c0(y)\u202fq(x\u209c\u202f|\u202fy)] \/ [\u03c0(x\u209c)\u202fq(y\u202f|\u202fx\u209c)])<\/b><b><br><\/b><\/li>\n\n\n\n<li>Se acepta y con probabilidad \u03b1, si no, se permanece en x\u209c<\/li>\n<\/ol>\n\n\n\n<p>Este procedimiento garantiza que la distribuci\u00f3n estacionaria de la cadena generada sea exactamente \u03c0(x).<\/p>\n\n\n<h3 class=\"wp-block-heading\" id=\"aplicaciones-en-estadistica-bayesiana\">Aplicaciones en estad&iacute;stica bayesiana<\/h3>\n\n\n\n<p>En la inferencia bayesiana, a menudo queremos muestrear la distribuci\u00f3n posterior de los par\u00e1metros. Si tenemos datos D y par\u00e1metros \u03b8 con una prior \u03c0(\u03b8), la distribuci\u00f3n posterior es:<\/p>\n\n\n\n<p>\u03c0(\u03b8\u202f|\u202fD) \u221d \u03c0(D\u202f|\u202f\u03b8) \u00d7 \u03c0(\u03b8)<\/p>\n\n\n\n<p>El MCMC permite muestrear esta distribuci\u00f3n incluso cuando no tiene una forma anal\u00edtica simple, revolucionando as\u00ed el an\u00e1lisis estad\u00edstico moderno.<\/p>\n\n\n<h3 class=\"wp-block-heading\" id=\"muestreo-de-gibbs\">Muestreo de Gibbs<\/h3>\n\n\n\n<p>Caso particular del algoritmo Metropolis-Hastings para distribuciones multivariadas. En lugar de actualizar todos los par\u00e1metros simult\u00e1neamente, se actualiza uno por uno, condicionando sobre los dem\u00e1s.<\/p>\n\n\n\n<p>Este m\u00e9todo es especialmente eficaz para modelos gr\u00e1ficos como las redes bayesianas, donde las distribuciones condicionales suelen tener formas simples.<\/p>\n\n\n<h3 class=\"wp-block-heading\" id=\"diagnostico-de-convergencia\">Diagn&oacute;stico de convergencia<\/h3>\n\n\n\n<p>Uno de los principales retos del MCMC es determinar cu\u00e1ndo la cadena ha \u201colvidado\u201d su estado inicial y comienza a muestrear realmente la distribuci\u00f3n estacionaria. Algunos diagn\u00f3sticos habituales:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Visualizaci\u00f3n de las trazas temporales<\/li>\n\n\n\n<li>Criterio de Gelman-Rubin (comparaci\u00f3n entre m\u00faltiples cadenas)<\/li>\n\n\n\n<li>Pruebas de autocorrelaci\u00f3n<\/li>\n<\/ul>\n\n\n<h3 class=\"wp-block-heading\" id=\"aplicaciones-contemporaneas\">Aplicaciones contempor&aacute;neas<\/h3>\n\n\n\n<ul class=\"wp-block-list\">\n<li><b>Inteligencia artificial<\/b>: las redes neuronales bayesianas usan MCMC para cuantificar la incertidumbre en las predicciones, algo crucial en entornos cr\u00edticos.<br><\/li>\n\n\n\n<li><b>Epidemiolog\u00eda computacional<\/b>: modelos de propagaci\u00f3n de epidemias con par\u00e1metros inciertos se calibran por MCMC con base en datos reales.<br><\/li>\n\n\n\n<li><b>Finanzas cuantitativas<\/b>: la estimaci\u00f3n de modelos de volatilidad estoc\u00e1stica y la valoraci\u00f3n de opciones complejas dependen ampliamente del MCMC.<\/li>\n<\/ul>\n\n\n\n<p>El MCMC es un ejemplo perfecto de c\u00f3mo un concepto matem\u00e1tico fundamental \u2014las cadenas de Markov\u2014 se convierte en una herramienta computacional revolucionaria para la ciencia de datos moderna.<\/p>\n\n\n\n<div class=\"wp-block-buttons is-content-justification-center is-layout-flex wp-container-core-buttons-is-layout-a89b3969 wp-block-buttons-is-layout-flex\">\n<div class=\"wp-block-button\"><a class=\"wp-block-button__link wp-element-button\" href=\"https:\/\/liora.io\/es\/nuestros-cursos-de-data\">Aprender a hacer predicciones<\/a><\/div>\n<\/div>\n\n\n<h2 class=\"wp-block-heading\" id=\"cadenas-de-markov-en-el-ecosistema-moderno-de-la-ciencia-de-datos\">Cadenas de Markov en el ecosistema moderno de la ciencia de datos<\/h2>\n\n\n\n<figure class=\"wp-block-image\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/7\/2025\/08\/output1-88.png\" alt=\"\" \/><\/figure>\n\n\n\n<p>En la era del big data y la inteligencia artificial, las cadenas de Markov han encontrado nuevos campos de aplicaci\u00f3n que van mucho m\u00e1s all\u00e1 de su marco te\u00f3rico original.<\/p>\n\n\n<h3 class=\"wp-block-heading\" id=\"procesamiento-automatico-del-lenguaje-natural-nlp\">Procesamiento autom&aacute;tico del lenguaje natural (NLP)<\/h3>\n\n\n\n<p>Los modelos de lenguaje basados en cadenas de Markov fueron los precursores de arquitecturas modernas como GPT. Modelan la probabilidad de aparici\u00f3n de una palabra seg\u00fan las anteriores, permitiendo:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><b>Generaci\u00f3n autom\u00e1tica de texto<\/b>: encadenando las probabilidades de transici\u00f3n, se generan frases coherentes<\/li>\n\n\n\n<li><b>Correcci\u00f3n ortogr\u00e1fica<\/b>: detectan secuencias improbables de caracteres<br><\/li>\n\n\n\n<li><b>Clasificaci\u00f3n de textos<\/b>: cada clase (spam\/no spam) tiene su propio modelo markoviano<\/li>\n<\/ul>\n\n\n<h3 class=\"wp-block-heading\" id=\"sistemas-de-recomendacion\">Sistemas de recomendaci&oacute;n<\/h3>\n\n\n\n<p>Plataformas como Netflix o Spotify utilizan cadenas de Markov para modelar el comportamiento de los usuarios:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><b>Estados<\/b>: contenidos visualizados o escuchados<br><\/li>\n\n\n\n<li><b>Transiciones<\/b>: probabilidad de pasar de un contenido a otro<br><\/li>\n\n\n\n<li><b>Objetivo<\/b>: predecir qu\u00e9 contenido interesa m\u00e1s al usuario a continuaci\u00f3n<\/li>\n<\/ul>\n\n\n<h3 class=\"wp-block-heading\" id=\"analisis-de-secuencias-temporales-en-iot\">An&aacute;lisis de secuencias temporales en IoT<\/h3>\n\n\n\n<p>En el <a href=\"https:\/\/liora.io\/es\/todo-sobre-el-internet-de-las-cosas\">Internet de las Cosas<\/a>, los sensores generan flujos secuenciales de datos. Las cadenas de Markov permiten:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><b>Detecci\u00f3n de anomal\u00edas<\/b>: identificar secuencias inusuales de medidas<br><\/li>\n\n\n\n<li><b>Mantenimiento predictivo<\/b>: anticipar fallos en equipos industriales<br><\/li>\n\n\n\n<li><b>Optimizaci\u00f3n energ\u00e9tica<\/b>: modelar patrones de consumo<\/li>\n<\/ul>\n\n\n<h3 class=\"wp-block-heading\" id=\"ciberseguridad-y-deteccion-de-fraudes\">Ciberseguridad y detecci&oacute;n de fraudes<\/h3>\n\n\n\n<p>Los analistas de seguridad aplican cadenas de Markov para:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><b>Detecci\u00f3n de intrusiones<\/b>: modelar comportamientos normales de usuarios y detectar desviaciones<br><\/li>\n\n\n\n<li><b>An\u00e1lisis de malware<\/b>: las secuencias de llamadas al sistema revelan firmas maliciosas<br><\/li>\n\n\n\n<li><b>Autenticaci\u00f3n por comportamiento<\/b>: identificar usuarios a partir de sus patrones de navegaci\u00f3n<\/li>\n<\/ul>\n\n\n<h3 class=\"wp-block-heading\" id=\"marketing-digital-y-analitica-web\">Marketing digital y anal&iacute;tica web<\/h3>\n\n\n\n<p>Las cadenas de Markov optimizan la experiencia en sitios web:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><b>An\u00e1lisis de recorrido del cliente<\/b>: entender los caminos hacia la conversi\u00f3n en e-commerce<\/li>\n\n\n\n<li><b>A\/B testing secuencial<\/b>: evaluar el impacto de cambios en el comportamiento de navegaci\u00f3n<br><\/li>\n\n\n\n<li><b>Atribuci\u00f3n de marketing<\/b>: medir la eficacia de los canales de adquisici\u00f3n<\/li>\n<\/ul>\n\n\n<h3 class=\"wp-block-heading\" id=\"bioinformatica-computacional\">Bioinform&aacute;tica computacional<\/h3>\n\n\n\n<p>M\u00e1s all\u00e1 del an\u00e1lisis cl\u00e1sico del ADN, sus usos actuales incluyen:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><b>An\u00e1lisis de expresi\u00f3n g\u00e9nica<\/b>: modelar la evoluci\u00f3n temporal de la actividad de los genes<br><\/li>\n\n\n\n<li><b>Epidemiolog\u00eda gen\u00f3mica<\/b>: rastrear la propagaci\u00f3n de variantes v\u00edricas mediante secuencias<br><\/li>\n\n\n\n<li><b>Medicina personalizada<\/b>: predecir la evoluci\u00f3n de enfermedades a partir de biomarcadores<\/li>\n<\/ul>\n\n\n<h3 class=\"wp-block-heading\" id=\"integracion-con-el-aprendizaje-automatico\">Integraci&oacute;n con el aprendizaje autom&aacute;tico<\/h3>\n\n\n\n<p>Las cadenas de Markov se combinan con t\u00e9cnicas modernas de IA:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><b>Feature engineering<\/b>: crear variables explicativas a partir de secuencias<br><\/li>\n\n\n\n<li><b>Reinforcement learning<\/b>: los procesos de decisi\u00f3n markovianos son su fundamento te\u00f3rico<br><\/li>\n\n\n\n<li><b>Redes neuronales recurrentes<\/b>: LSTM y GRU generalizan las cadenas de Markov con memoria adaptativa<\/li>\n<\/ul>\n\n\n\n<p>Estas aplicaciones demuestran que las cadenas de Markov, lejos de ser un concepto puramente acad\u00e9mico, son hoy un pilar metodol\u00f3gico clave para extraer valor de los datos secuenciales en la econom\u00eda digital moderna.<\/p>\n\n\n<h2 class=\"wp-block-heading\" id=\"modelo-oculto-de-markov\">Modelo oculto de Markov<\/h2>\n\n\n\n<figure class=\"wp-block-image size-large\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/9\/2025\/08\/output1-96.png\" alt=\"\" \/><\/figure>\n\n\n\n<p>Mantenemos las mismas hip\u00f3tesis que en la parte anterior.<\/p>\n\n\n\n<p>Imagina que un psic\u00f3pata del clima te encierra en una habitaci\u00f3n sin ventanas, con solo una computadora y una l\u00e1mpara. Cada d\u00eda, la l\u00e1mpara se enciende de un color distinto seg\u00fan el clima. Tu captor te da la siguiente matriz de observaci\u00f3n:<\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/7\/2025\/08\/image5_markdown.png\" alt=\"\" \/><\/figure>\n\n\n\n<p>Por ejemplo, si llueve, hay un 70\u202f% de probabilidad de que la l\u00e1mpara se encienda en verde y un 30\u202f% de que sea azul.<\/p>\n\n\n\n<p>Puedes volver a casa si logras determinar el tiempo que har\u00e1 durante los pr\u00f3ximos cinco d\u00edas, \u00fanicamente observando el color de la l\u00e1mpara. Decides entonces construir un <b>modelo oculto de Markov<\/b>.<\/p>\n\n\n\n<p>Permaneces encerrado cinco d\u00edas y anotas la siguiente secuencia de colores:<\/p>\n\n\n\n<p><b>azul, azul, rojo, verde, rojo<\/b><\/p>\n\n\n\n<p>Recuerdas que <b>el d\u00eda anterior al encierro estaba lloviendo<\/b>.<\/p>\n\n\n\n<p>Puedes entonces escribir un c\u00f3digo en Python que calcule la secuencia de estados meteorol\u00f3gicos m\u00e1s probable:<\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/7\/2025\/08\/image6_markdown.png\" alt=\"\" \/><\/figure>\n\n\n\n<p><i>Nota:<\/i> Tambi\u00e9n se podr\u00eda haber implementado el <b>algoritmo de Viterbi<\/b>, que habr\u00eda devuelto la secuencia m\u00e1s probable:<br><b>[\u2018Nublado\u2019, \u2018Nublado\u2019, \u2018Soleado\u2019, \u2018Lluvia\u2019, \u2018Soleado\u2019]<\/b><\/p>\n\n\n\n<p>Este tipo de predicci\u00f3n es interesante, aunque bastante b\u00e1sica. Si quieres aprender a hacer predicciones mucho m\u00e1s potentes \u2014por ejemplo, con algoritmos de <i>machine learning<\/i>\u2014 descubre nuestros cursos en data science.<\/p>\n\n\n\n<div class=\"wp-block-buttons is-content-justification-center is-layout-flex wp-container-core-buttons-is-layout-a89b3969 wp-block-buttons-is-layout-flex\">\n<div class=\"wp-block-button\"><a class=\"wp-block-button__link wp-element-button\" href=\"https:\/\/liora.io\/es\/nuestros-cursos-de-data\">Saber m\u00e1s sobre las cadenas de Markov<\/a><\/div>\n<\/div>\n\n\n<h2 class=\"wp-block-heading\" id=\"profundizacion-en-los-modelos-ocultos-de-markov-hmm\">Profundizaci&oacute;n en los Modelos Ocultos de Markov (HMM)<\/h2>\n\n\n\n<figure class=\"wp-block-image size-large\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/9\/2025\/08\/output1-95.png\" alt=\"\" \/><\/figure>\n\n\n\n<p>El ejemplo del \u201cpsic\u00f3pata meteorol\u00f3gico\u201d introduce los HMM de forma l\u00fadica, pero estos modelos merecen una exposici\u00f3n m\u00e1s t\u00e9cnica: son una de las herramientas m\u00e1s potentes del aprendizaje estad\u00edstico moderno.<\/p>\n\n\n<h3 class=\"wp-block-heading\" id=\"estructura-matematica-de-un-hmm\">Estructura matem&aacute;tica de un HMM<\/h3>\n\n\n\n<p>Un modelo oculto de Markov se compone de tres elementos fundamentales:<\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><b>Estados ocultos<\/b>: la secuencia de estados no observables (por ejemplo, el clima real)<br><\/li>\n\n\n\n<li><b>Observaciones<\/b>: lo que podemos medir (por ejemplo, el color de la l\u00e1mpara<br><\/li>\n\n\n\n<li><b>Dos matrices de probabilidad<\/b>:\n<ul class=\"wp-block-list\">\n<li>La matriz de transici\u00f3n entre estados ocultos A<\/li>\n\n\n\n<li>La matriz de emisi\u00f3n\/observaci\u00f3n B<\/li>\n<\/ul>\n<\/li>\n<\/ol>\n\n\n<h3 class=\"wp-block-heading\" id=\"los-tres-problemas-fundamentales-de-los-hmm\">Los tres problemas fundamentales de los HMM<\/h3>\n\n\n\n<p>La teor\u00eda de los HMM gira en torno a tres preguntas clave:<\/p>\n\n\n<h4 class=\"wp-block-heading\" id=\"problema-1-evaluacion\">Problema 1: Evaluaci&oacute;n<\/h4>\n\n\n\n<p><b>\u00bfCu\u00e1l es la probabilidad de observar una secuencia dada?<\/b><b><br><\/b> El algoritmo <b>Forward<\/b> permite calcular esta probabilidad eficientemente, evitando la explosi\u00f3n combinatoria.<\/p>\n\n\n<h4 class=\"wp-block-heading\" id=\"problema-2-decodificacion\">Problema 2: Decodificaci&oacute;n<\/h4>\n\n\n\n<p><b>\u00bfCu\u00e1l es la secuencia de estados ocultos m\u00e1s probable?<\/b><b><br><\/b> El algoritmo de <b>Viterbi<\/b> lo resuelve mediante programaci\u00f3n din\u00e1mica. En nuestro ejemplo meteorol\u00f3gico, determina la secuencia de climas m\u00e1s veros\u00edmil dada la secuencia de colores observados.<\/p>\n\n\n<h4 class=\"wp-block-heading\" id=\"problema-3-aprendizaje\">Problema 3: Aprendizaje<\/h4>\n\n\n\n<p><b>\u00bfC\u00f3mo estimar los par\u00e1metros del modelo a partir de observaciones?<\/b><b><br><\/b> El algoritmo de <b>Baum-Welch<\/b> (una variante del algoritmo EM) optimiza iterativamente las matrices A y B para ajustar el modelo a los datos.<\/p>\n\n\n<h3 class=\"wp-block-heading\" id=\"aplicaciones-avanzadas-de-los-hmm\">Aplicaciones avanzadas de los HMM<\/h3>\n\n\n\n<ul class=\"wp-block-list\">\n<li><b>Reconocimiento autom\u00e1tico del habla: <\/b>Los fonemas son los estados ocultos; los espectrogramas de audio, las observaciones. Los HMM modelan c\u00f3mo cada fonema genera caracter\u00edsticas ac\u00fasticas.<br><\/li>\n\n\n\n<li><b>An\u00e1lisis de secuencias biol\u00f3gicas: <\/b>En bioinform\u00e1tica, los HMM detectan genes en secuencias de ADN: las regiones codificantes\/no codificantes son los estados ocultos; los nucle\u00f3tidos (A, T, G, C), las observaciones.<br><\/li>\n\n\n\n<li><b>Finanzas cuantitativas: <\/b>Los reg\u00edmenes de mercado (alcista\/bajista) son estados ocultos; los rendimientos financieros, observaciones. Los HMM ayudan a detectar cambios de r\u00e9gimen y ajustar las estrategias de inversi\u00f3n.<\/li>\n<\/ul>\n\n\n<h3 class=\"wp-block-heading\" id=\"limites-y-extensiones\">L&iacute;mites y extensiones<\/h3>\n\n\n\n<p>Los HMM cl\u00e1sicos suponen que las observaciones son independientes dado el estado oculto.<br>Extensiones como los <b>HMM jer\u00e1rquicos<\/b> o las <a href=\"https:\/\/liora.io\/es\/recurrent-neural-network-rnn-de-que-se-trata\">redes neuronales recurrentes (RNN)<\/a> superan esta limitaci\u00f3n, permitiendo modelos m\u00e1s expresivos y contextuales.<\/p>\n\n\n<h2 class=\"wp-block-heading\" id=\"aplicaciones-practicas-de-las-cadenas-de-markov\">Aplicaciones pr&aacute;cticas de las cadenas de Markov<\/h2>\n\n\n\n<figure class=\"wp-block-image size-large\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/9\/2025\/08\/output1-89.png\" alt=\"\" \/><\/figure>\n\n\n\n<p>M\u00e1s all\u00e1 de la predicci\u00f3n meteorol\u00f3gica, las cadenas de Markov tienen aplicaciones en numerosos campos concretos:<\/p>\n\n\n<h3 class=\"wp-block-heading\" id=\"pagerank-y-motores-de-busqueda\">PageRank y motores de b&uacute;squeda<\/h3>\n\n\n\n<p>El algoritmo <b>PageRank<\/b> de Google usa una cadena de Markov para clasificar p\u00e1ginas web.<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Cada p\u00e1gina es un estado<\/li>\n\n\n\n<li>Los enlaces son transiciones<\/li>\n\n\n\n<li>La importancia de una p\u00e1gina se define por su probabilidad en la distribuci\u00f3n estacionaria de la cadena<\/li>\n<\/ul>\n\n\n<h3 class=\"wp-block-heading\" id=\"finanzas-y-seguros\">Finanzas y seguros<\/h3>\n\n\n\n<p>Las aseguradoras de autom\u00f3viles utilizan cadenas de Markov en sus sistemas de <b>bonus-malus<\/b>:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>El estado representa la clase de bonificaci\u00f3n del conductor<\/li>\n\n\n\n<li>Las transiciones dependen del n\u00famero de siniestros<\/li>\n\n\n\n<li>Esto permite calcular las primas de forma actuarial y din\u00e1mica<\/li>\n<\/ul>\n\n\n<h3 class=\"wp-block-heading\" id=\"bioinformatica-y-genetica\">Bioinform&aacute;tica y gen&eacute;tica<\/h3>\n\n\n\n<p>Las cadenas de Markov modelan la relaci\u00f3n entre nucle\u00f3tidos sucesivos en secuencias de ADN. Los <b>HMM<\/b> son claves para:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Identificar genes<\/li>\n\n\n\n<li>Predecir estructuras de prote\u00ednas<\/li>\n\n\n\n<li>Detectar regiones codificantes en el genoma<\/li>\n<\/ul>\n\n\n<h3 class=\"wp-block-heading\" id=\"fiabilidad-industrial\">Fiabilidad industrial<\/h3>\n\n\n\n<p>En la industria, las cadenas de Markov modelan el ciclo de vida de sistemas t\u00e9cnicos:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>Estados como \u00abfuncional\u00bb, \u00aben mantenimiento\u00bb, \u00abaveriado\u00bb<\/li>\n\n\n\n<li>Sirven para calcular la disponibilidad de equipos, planificar el mantenimiento preventivo y optimizar los costes<\/li>\n<\/ul>\n\n\n<h3 class=\"wp-block-heading\" id=\"inteligencia-artificial-moderna\">Inteligencia artificial moderna<\/h3>\n\n\n\n<p>Los <a href=\"https:\/\/liora.io\/es\/chatbot-todo-sobre\">chatbots<\/a> y generadores de texto usan cadenas de Markov para predecir la siguiente palabra en una frase. Incluso los teclados predictivos de los smartphones aplican este principio para sugerir palabras seg\u00fan el contexto de escritura.<\/p>\n\n\n<h3 class=\"wp-block-heading\" id=\"teoria-de-colas\">Teor&iacute;a de colas<\/h3>\n\n\n\n<p>Los centros de atenci\u00f3n telef\u00f3nica, bancos o servidores inform\u00e1ticos se modelan como cadenas de Markov, donde cada estado representa el n\u00famero de usuarios en espera. Este enfoque permite optimizar los recursos y reducir los tiempos de espera.<\/p>\n\n\n\n<div class=\"wp-block-buttons is-content-justification-center is-layout-flex wp-container-core-buttons-is-layout-a89b3969 wp-block-buttons-is-layout-flex\">\n<div class=\"wp-block-button\"><a class=\"wp-block-button__link wp-element-button\" href=\"https:\/\/liora.io\/es\/nuestros-cursos-de-data\">Aprender a programar un LLM<\/a><\/div>\n<\/div>\n\n\n<h2 class=\"wp-block-heading\" id=\"para-ir-mas-lejos-referencias-esenciales\">Para ir m&aacute;s lejos: referencias esenciales<\/h2>\n\n\n\n<figure class=\"wp-block-image size-large\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/9\/2025\/08\/output1-91.png\" alt=\"\" \/><\/figure>\n\n\n\n<p>La teor\u00eda de las cadenas de Markov es un campo matem\u00e1tico vasto, con una literatura acad\u00e9mica s\u00f3lida. Aqu\u00ed tienes una selecci\u00f3n de referencias imprescindibles para profundizar tus conocimientos.<\/p>\n\n\n<h3 class=\"wp-block-heading\" id=\"libros-de-referencia-fundamentales\">Libros de referencia fundamentales<\/h3>\n\n\n\n<ul class=\"wp-block-list\">\n<li><b>Norris, J.R. \u2013 <\/b><b><i>Markov Chains<\/i><\/b><b> (Cambridge University Press, 1997) <\/b>Considerada <i>la<\/i> referencia moderna sobre cadenas de Markov. Cobertura rigurosa y accesible. Esencial para una comprensi\u00f3n matem\u00e1tica s\u00f3lida.<br><\/li>\n\n\n\n<li><b>Sericola, Bruno \u2013 <\/b><b><i>Cha\u00eenes de Markov \u2013 Th\u00e9orie, algorithmes et applications<\/i><\/b><b> (Herm\u00e8s\/Lavoisier, 2013) <\/b>Obra francesa muy apreciada por su enfoque pr\u00e1ctico y sus algoritmos detallados.<br><\/li>\n\n\n\n<li><b>Baldi, Paolo et al. \u2013 <\/b><b><i>Martingales et cha\u00eenes de Markov. Th\u00e9orie \u00e9l\u00e9mentaire et exercices corrig\u00e9s<\/i><\/b><b> (Hermann, 2001) <\/b>Excelente para el autoaprendizaje, con ejercicios progresivos resueltos.<\/li>\n<\/ul>\n\n\n<h3 class=\"wp-block-heading\" id=\"especializacion-por-dominio-de-aplicacion\">Especializaci&oacute;n por dominio de aplicaci&oacute;n<\/h3>\n\n\n\n<ul class=\"wp-block-list\">\n<li><b>M\u00e9l\u00e9ard, Sylvie \u2013 <\/b><b><i>Mod\u00e8les al\u00e9atoires en \u00e9cologie et \u00e9volution<\/i><\/b><b> (Springer, 2016) <\/b>Aplicaciones en biolog\u00eda y ecolog\u00eda: modelos estoc\u00e1sticos de poblaciones con cadenas de Markov.<br><\/li>\n\n\n\n<li><b>Br\u00e9maud, Pierre \u2013 <\/b><b><i>Markov Chains, Gibbs Fields, Monte Carlo Simulation, and Queues<\/i><\/b><b> (Springer, 1998) <\/b>Referencia t\u00e9cnica clave para colas de espera y m\u00e9todos MCMC.<\/li>\n<\/ul>\n\n\n<h3 class=\"wp-block-heading\" id=\"articulos-fundacionales-historicos\">Art&iacute;culos fundacionales hist&oacute;ricos<\/h3>\n\n\n\n<ul class=\"wp-block-list\">\n<li><b>Markov, A.A. \u2013 <\/b><b><i>Extension of the law of large numbers to dependent quantities<\/i><\/b><b> (1906) <\/b>El art\u00edculo original donde se introduce el concepto. Disponible traducido en el <i>Journal \u00c9lectronique d\u2019Histoire des Probabilit\u00e9s et de la Statistique<\/i>.<\/li>\n<\/ul>\n\n\n<h3 class=\"wp-block-heading\" id=\"recursos-pedagogicos-complementarios\">Recursos pedag&oacute;gicos complementarios<\/h3>\n\n\n\n<ul class=\"wp-block-list\">\n<li><b>Grinstead, Charles M. &amp; Snell, J. Laurie \u2013 <\/b><b><i>Introduction to Probability<\/i><\/b><b> (AMS) <\/b>Excelente cap\u00edtulo dedicado a las cadenas de Markov, con enfoque pedag\u00f3gico y ejercicios interactivos en l\u00ednea.<br><\/li>\n\n\n\n<li><b>Ejercicios interactivos \u2013 Universidad de Niza Sophia Antipolis <\/b>Pr\u00e1ctica con correcciones autom\u00e1ticas v\u00eda la plataforma <b>WIMS<\/b>: ideal para entrenarse de forma progresiva.<\/li>\n<\/ul>\n\n\n<h3 class=\"wp-block-heading\" id=\"recursos-digitales-modernos\">Recursos digitales modernos<\/h3>\n\n\n\n<ul class=\"wp-block-list\">\n<li><b>Philippe Gay \u2013 <\/b><b><i>Markov y la Bella Durmiente<\/i><\/b><b> (Images des Maths, 2014)<\/b><b><br><\/b> Art\u00edculo de divulgaci\u00f3n brillante que presenta los desaf\u00edos contempor\u00e1neos de las cadenas de Markov de forma accesible.<\/li>\n<\/ul>\n\n\n\n<p>Estas referencias te permitir\u00e1n avanzar desde una introducci\u00f3n b\u00e1sica hasta los aspectos m\u00e1s t\u00e9cnicos y aplicados, en funci\u00f3n de tus objetivos y \u00e1reas de inter\u00e9s.<\/p>\n\n\n\n<div class=\"wp-block-buttons is-content-justification-center is-layout-flex wp-container-core-buttons-is-layout-a89b3969 wp-block-buttons-is-layout-flex\">\n<div class=\"wp-block-button\"><a class=\"wp-block-button__link wp-element-button\" href=\"https:\/\/liora.io\/es\/nuestros-cursos-de-data\">Descubre nuestros cursos<\/a><\/div>\n<\/div>\n\n\n\n<script type=\"application\/ld+json\">\n{\n  \"@context\": \"https:\/\/schema.org\",\n  \"@type\": \"FAQPage\",\n  \"mainEntity\": [\n    {\n      \"@type\": \"Question\",\n      \"name\": \"Definici\u00f3n matem\u00e1tica rigurosa\",\n      \"acceptedAnswer\": {\n        \"@type\": \"Answer\",\n        \"text\": \"Una secuencia de variables aleatorias (Xn) es una cadena de Markov si cumple la propiedad de Markov d\u00e9bil: la probabilidad de transici\u00f3n a un estado futuro depende solo del estado presente, no de la secuencia completa de estados pasados. Elementos clave: espacio de estados E (conjunto de todos los estados posibles), probabilidades de transici\u00f3n entre estados, homogeneidad temporal (probabilidades no dependen del tiempo).\"\n      }\n    },\n    {\n      \"@type\": \"Question\",\n      \"name\": \"Historia y fundamentos de las cadenas de Markov\",\n      \"acceptedAnswer\": {\n        \"@type\": \"Answer\",\n        \"text\": \"Las cadenas de Markov fueron introducidas en 1902 por el matem\u00e1tico ruso Andr\u00e9i Markov. Su innovaci\u00f3n conceptual fue modelar procesos donde el futuro depende del pasado solo a trav\u00e9s del presente (propiedad de Markov). Markov aplic\u00f3 sus cadenas al an\u00e1lisis de sucesiones de letras en 'Eugenio Oneguin' de Pushkin. Hoy son herramienta fundamental en f\u00edsica estad\u00edstica e inteligencia artificial.\"\n      }\n    },\n    {\n      \"@type\": \"Question\",\n      \"name\": \"Modelo de Markov observable\",\n      \"acceptedAnswer\": {\n        \"@type\": \"Answer\",\n        \"text\": \"Ejemplo meteorol\u00f3gico con estados sol\/nubes\/lluvia y matriz de transici\u00f3n basada en observaciones. Para calcular probabilidad de una secuencia (ej: sol, sol, lluvia, nubes, sol) se multiplican las probabilidades de transici\u00f3n. Se pueden evaluar todas las combinaciones posibles y seleccionar la de mayor probabilidad para predecir el clima futuro.\"\n      }\n    },\n    {\n      \"@type\": \"Question\",\n      \"name\": \"Propiedades fundamentales de la matriz de transici\u00f3n\",\n      \"acceptedAnswer\": {\n        \"@type\": \"Answer\",\n        \"text\": \"La matriz de transici\u00f3n P debe cumplir: elementos positivos o nulos, cada fila suma 1. Las potencias P^n dan probabilidades de transici\u00f3n en n pasos. Bajo ciertas condiciones, las potencias convergen hacia una matriz l\u00edmite con filas id\u00e9nticas \u2013 la distribuci\u00f3n estacionaria (probabilidades a largo plazo independientes del estado inicial).\"\n      }\n    },\n    {\n      \"@type\": \"Question\",\n      \"name\": \"Clasificaci\u00f3n de los estados en una cadena de Markov\",\n      \"acceptedAnswer\": {\n        \"@type\": \"Answer\",\n        \"text\": \"Estados: transitorios (probabilidad no nula de no volver), recurrentes (seguro volver), absorbentes (imposible salir). Cadena irreducible: todos los estados se comunican entre s\u00ed. Periodicidad: un estado tiene per\u00edodo d si solo se puede regresar en instantes m\u00faltiplos de d. Una cadena irreducible y aperi\u00f3dica siempre converge a su distribuci\u00f3n estacionaria.\"\n      }\n    },\n    {\n      \"@type\": \"Question\",\n      \"name\": \"Distribuci\u00f3n estacionaria y convergencia hacia el equilibrio\",\n      \"acceptedAnswer\": {\n        \"@type\": \"Answer\",\n        \"text\": \"Una distribuci\u00f3n estacionaria \u03c0 verifica \u03c0 = \u03c0P (permanece inalterada). Para cadenas irreducibles en espacio finito, existe una \u00fanica distribuci\u00f3n estacionaria. El teorema erg\u00f3dico establece que: las probabilidades convergen a la distribuci\u00f3n estacionaria independientemente del estado inicial, y la proporci\u00f3n de tiempo pasado en cada estado converge a su probabilidad estacionaria.\"\n      }\n    },\n    {\n      \"@type\": \"Question\",\n      \"name\": \"Ejercicios pr\u00e1cticos para dominar las cadenas de Markov\",\n      \"acceptedAnswer\": {\n        \"@type\": \"Answer\",\n        \"text\": \"Ejercicios: 1. Urna de Ehrenfest (distribuci\u00f3n estacionaria binomial), 2. Caminata aleatoria en grafo (irreducible, peri\u00f3dica, tiempo medio de regreso), 3. Modelo de duraci\u00f3n de vida (probabilidad de alcanzar estado senescente), 4. Tiempo de absorci\u00f3n (esperanza de vida mediante ecuaciones de tiempo de absorci\u00f3n).\"\n      }\n    },\n    {\n      \"@type\": \"Question\",\n      \"name\": \"Extensi\u00f3n a las cadenas de Markov en tiempo continuo\",\n      \"acceptedAnswer\": {\n        \"@type\": \"Answer\",\n        \"text\": \"En tiempo continuo, las transiciones pueden ocurrir en cualquier momento. Se usan generadores infinitesimales con tasas de transici\u00f3n instant\u00e1neas. Ejemplo: centro de llamadas con llegadas Poisson (tasa \u03bb) y servicio exponencial (tasa \u03bc). La din\u00e1mica sigue ecuaci\u00f3n diferencial dP(t)\/dt = P(t) \u00d7 Q, y en equilibrio la distribuci\u00f3n estacionaria cumple \u03c0 \u00d7 Q = 0.\"\n      }\n    }\n  ]\n}\n<\/script>\n","protected":false},"excerpt":{"rendered":"<p>Se dice que un modelo tiene la propiedad de Markov si su estado en un momento T depende \u00fanicamente de su estado en el momento T-1. Si podemos observar los estados en los que se encuentra el modelo en cada instante, hablamos de un modelo de Markov observable. De lo contrario, hablamos de un modelo [&hellip;]<\/p>\n","protected":false},"author":82,"featured_media":183746,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"editor_notices":[],"footnotes":""},"categories":[2440],"class_list":["post-181430","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-data-ia"],"acf":[],"_links":{"self":[{"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/posts\/181430","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/users\/82"}],"replies":[{"embeddable":true,"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/comments?post=181430"}],"version-history":[{"count":5,"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/posts\/181430\/revisions"}],"predecessor-version":[{"id":184109,"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/posts\/181430\/revisions\/184109"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/media\/183746"}],"wp:attachment":[{"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/media?parent=181430"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/categories?post=181430"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}