{"id":180526,"date":"2025-06-24T07:30:00","date_gmt":"2025-06-24T06:30:00","guid":{"rendered":"https:\/\/liora.io\/es\/?p=180526"},"modified":"2026-02-06T09:47:46","modified_gmt":"2026-02-06T08:47:46","slug":"como-funciona-el-modelo-gpt","status":"publish","type":"post","link":"https:\/\/liora.io\/es\/como-funciona-el-modelo-gpt","title":{"rendered":"\u00bfC\u00f3mo funciona el modelo GPT? Accesible para todos"},"content":{"rendered":"<p><b>Aqu\u00ed no hablamos de ChatGPT, pero de ah\u00ed proviene su nombre.<\/b><\/p>\n<p><b>Si nunca has o\u00eddo hablar de GPT, al menos ya has utilizado IA generativa de texto, o &#8216;LLM&#8217; (Large Language Model). GPT es un tipo de LLM, en el cual se basa la mayor\u00eda de las IA generativas de las que todo el mundo habla en este momento!<\/b><\/p>\n<p><i>Chat<\/i><b><i>GPT<\/i><\/b><i>, \u00bfentiendes por qu\u00e9 ahora?<\/i><\/p>\n<p>GPT significa \u2018<a href=\"https:\/\/liora.io\/es\/transformer-preentrenado-generado-gpt-que-es\">Transformador Generativo Preentrenado<\/a>\u2019 (para la variante francesa), \u00a1y es un nombre muy claro que resume perfectamente su funcionamiento!<\/p>\n<p><i>\u00bfC\u00f3mo es que no est\u00e1n convencidos?<\/i><\/p>\n<p>Imagina GPT como un s\u00faper-experto en predicci\u00f3n de palabras, su talento principal es adivinar qu\u00e9 palabra ser\u00eda la m\u00e1s probable para completar el inicio de una frase. Repitiendo esta predicci\u00f3n una y otra vez, palabra por palabra, \u00a1construye frases completas, p\u00e1rrafos e incluso art\u00edculos enteros!<\/p>\n<p><i>Ayud\u00f3 un poco a escribir esto, pero todav\u00eda hay un humano detr\u00e1s&#8230;<\/i><\/p>\n<p>Detallaremos juntos las diferentes etapas de funcionamiento para ver c\u00f3mo GPT aprende a comprender c\u00f3mo funciona el lenguaje humano.<\/p>\n<p><a href=\"https:\/\/liora.io\/es\/nuestros-cursos-de-data\"><br \/>\nProfundizar en la GPT<br \/>\n<\/a><\/p>\n<style>\n.elementor-heading-title{padding:0;margin:0;line-height:1}.elementor-widget-heading .elementor-heading-title[class*=elementor-size-]>a{color:inherit;font-size:inherit;line-height:inherit}.elementor-widget-heading .elementor-heading-title.elementor-size-small{font-size:15px}.elementor-widget-heading .elementor-heading-title.elementor-size-medium{font-size:19px}.elementor-widget-heading .elementor-heading-title.elementor-size-large{font-size:29px}.elementor-widget-heading .elementor-heading-title.elementor-size-xl{font-size:39px}.elementor-widget-heading .elementor-heading-title.elementor-size-xxl{font-size:59px}<\/style>\n<h2>Paso 1: Transformar las palabras en n\u00fameros<\/h2>\n<p>Los ordenadores no entienden las palabras como nosotros. Para ellos, \u00abgato\u00bb o \u00abcasa\u00bb son solo secuencias de letras, para que una m\u00e1quina pueda trabajar con palabras, es necesario <b>transformarlas en n\u00fameros<\/b>.<\/p>\n<p>Ese es el papel de los Embeddings. Imagina que cada palabra del idioma (o casi) recibe un c\u00f3digo secreto \u00fanico, que es una lista de n\u00fameros.<\/p>\n<p><i>Piensa en una biblioteca inmensa. Cada libro (cada palabra para GPT) recibe una etiqueta especial con un c\u00f3digo de barras \u00fanico (el <\/i><b><i>vector de embedding<\/i><\/b><i>). Este c\u00f3digo de barras no es solo un n\u00famero de identificaci\u00f3n, contiene informaci\u00f3n oculta sobre el libro.<\/i><\/p>\n<p><i>Por ejemplo, los c\u00f3digos de barras de los libros de ciencia ficci\u00f3n podr\u00edan parecerse, los de los libros de cocina tambi\u00e9n, y si se trata de libros de ciencia ficci\u00f3n que, adem\u00e1s hablan de robots, \u00a1su c\u00f3digo de barras ser\u00eda a\u00fan m\u00e1s cercano!<\/i><\/p>\n<p>Cuanto m\u00e1s se parezcan dos palabras en significado, m\u00e1s cercana ser\u00e1 su lista de n\u00fameros (su <b>vector de embedding<\/b>) en un espacio imaginario. Por ejemplo, los vectores para \u00abrey\u00bb y \u00abreina\u00bb estar\u00e1n muy cerca, y la diferencia entre el vector de \u00abrey\u00bb y \u00abhombre\u00bb ser\u00e1 similar a la diferencia entre \u00abreina\u00bb y \u00abmujer\u00bb! \u00a1Es genial, verdad?<\/p>\n<p>Lo primero que hace GPT cuando le proporcionas texto es mirar cada palabra y encontrar su lista de n\u00fameros (vector de embedding) correspondiente en su \u00abtabla de c\u00f3digos secretos\u00bb.<\/p>\n<style>\n.elementor-widget-image{text-align:center}.elementor-widget-image a{display:inline-block}.elementor-widget-image a img[src$=\".svg\"]{width:48px}.elementor-widget-image img{vertical-align:middle;display:inline-block}<\/style>\n<p>\t\t\t\t\t\t\t\t\t\t\t\t<img decoding=\"async\" width=\"1562\" height=\"702\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/7\/2025\/06\/KnowledgeGraphEmbedding.png\" alt=\"\" loading=\"lazy\" srcset=\"https:\/\/liora.io\/app\/uploads\/sites\/7\/2025\/06\/KnowledgeGraphEmbedding.png 1562w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2025\/06\/KnowledgeGraphEmbedding-300x135.png 300w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2025\/06\/KnowledgeGraphEmbedding-1024x460.png 1024w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2025\/06\/KnowledgeGraphEmbedding-768x345.png 768w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2025\/06\/KnowledgeGraphEmbedding-1536x690.png 1536w\" sizes=\"(max-width: 1562px) 100vw, 1562px\"><\/p>\n<h2>Paso 2: El orden de las palabras (Codificaci\u00f3n posicional)<\/h2>\n<p>Ahora tenemos una lista de n\u00fameros para cada palabra. Sin embargo, si mezclamos las palabras, la frase pierde su sentido: \u00abEl gato duerme\u00bb no tiene el mismo significado que \u00abDuerme el gato\u00bb. No les estoy ense\u00f1ando nada nuevo, \u00a1el orden de las palabras es crucial!<\/p>\n<p>El problema es que nuestro <b>modelo GPT<\/b> procesa las palabras en paralelo (por razones obvias de tiempo de ejecuci\u00f3n), sin preocuparse por su orden. Para resolver esto, agregamos informaci\u00f3n adicional a cada lista de n\u00fameros de las palabras: un <b>marcador de posici\u00f3n<\/b>.<\/p>\n<p>Estos marcadores de posici\u00f3n (<b>la Codificaci\u00f3n Posicional<\/b>) tambi\u00e9n son listas de n\u00fameros, calculadas con f\u00f3rmulas matem\u00e1ticas especiales.<\/p>\n<p><i>No entraremos en detalles aqu\u00ed, pero basta con recordar que \u00a1funciona s\u00faper bien!<\/i><\/p>\n<p>Simplemente los sumamos a los vectores de Embedding de las palabras (su c\u00f3digo de barras exclusivo).<\/p>\n<p>Ahora, el modelo tiene una lista de vectores de embedding de cada palabra, que contienen la informaci\u00f3n de toda nuestra frase; cada elemento de esta lista contiene tanto informaci\u00f3n sobre la palabra misma como sobre el lugar donde se encuentra en la frase.<\/p>\n<p><a href=\"https:\/\/liora.io\/es\/nuestros-cursos-de-data\"><br \/>\nM\u00e1s informaci\u00f3n sobre el modelo GPT<br \/>\n<\/a><\/p>\n<h2>Paso 3: El Transformer<\/h2>\n<p><i>Nada que ver con Optimus Prime, aunque&#8230;<\/i><\/p>\n<p>La parte m\u00e1s inteligente de GPT es la arquitectura Transformer. V\u00e9anlo como el cerebro que analizar\u00e1 la lista de n\u00fameros de la frase para entender el contexto y predecir la siguiente palabra.<\/p>\n<p>Los modelos GPT utilizan una versi\u00f3n simplificada del Transformer original, llamada el <b>Decodificador<\/b>. \u00bfPor qu\u00e9? Porque su trabajo es <b>generar<\/b> texto, \u00a1y ese es el papel del Decodificador!<\/p>\n<p>Este Transformer se construye apilando varios \u00abbloques\u00bb id\u00e9nticos unos sobre otros. Cuantos m\u00e1s bloques haya (cuanto m\u00e1s complejo sea), m\u00e1s poderoso es.<\/p>\n<p>Cada bloque tiene varios pasos para procesar los vectores de Embedding de nuestras palabras:<\/p>\n<h3>1. El principio de Atenci\u00f3n<\/h3>\n<p>Es la idea genial detr\u00e1s del Transformer. Cuando lees una frase, no das la misma importancia a todas las palabras para entender el sentido. Por ejemplo, en \u00abEl estudiante en Liora que hab\u00eda estudiado bien aprob\u00f3 su examen\u00bb, para entender \u00abaprob\u00f3\u00bb, te concentras en \u00abestudiante\u00bb y \u00abexamen\u00bb.<\/p>\n<p><img decoding=\"async\" width=\"850\" height=\"765\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/7\/2025\/06\/The-Transformer-model-architecture.png\" alt=\"\" loading=\"lazy\" srcset=\"https:\/\/liora.io\/app\/uploads\/sites\/7\/2025\/06\/The-Transformer-model-architecture.png 850w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2025\/06\/The-Transformer-model-architecture-300x270.png 300w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2025\/06\/The-Transformer-model-architecture-768x691.png 768w\" sizes=\"(max-width: 850px) 100vw, 850px\"><\/p>\n<p>El mecanismo de <b>Atenci\u00f3n<\/b> permite a nuestro modelo hacer lo mismo: para cada palabra de la frase, mira todas las palabras anteriores y decide cu\u00e1les son las m\u00e1s importantes para entender la palabra actual y predecir la siguiente.<\/p>\n<p>A menudo, el Transformer usa varias \u00ab<b>cabezas de atenci\u00f3n<\/b>\u00bb en paralelo. Es como si varias personas estuvieran leyendo la frase al mismo tiempo, cada una concentr\u00e1ndose en un tipo diferente de relaci\u00f3n (una en la gram\u00e1tica, otra en el significado&#8230;), para luego poner en com\u00fan sus an\u00e1lisis.<\/p>\n<h3>2. La Reflexi\u00f3n (O Feed-Forward)<\/h3>\n<p>Despu\u00e9s de que el mecanismo de Atenci\u00f3n haya permitido a cada palabra integrar el contexto de las palabras anteriores, cada vector de Embedding pasa independientemente a trav\u00e9s de varias capas de funciones matem\u00e1ticas que se basan en n\u00fameros, a los que llamamos <b>pesos<\/b>. Este conjunto se llama una <a href=\"https:\/\/liora.io\/es\/redes-neuronales-artificiales-que-es\">red neuronal<\/a>.<\/p>\n<p>Esta capa permite al modelo realizar transformaciones m\u00e1s complejas sobre la informaci\u00f3n que la <b>Atenci\u00f3n<\/b> ha extra\u00eddo.<\/p>\n<p><a href=\"https:\/\/liora.io\/es\/nuestros-cursos-de-data\"><br \/>\nFormaci\u00f3n en desarrollo de IA<br \/>\n<\/a><\/p>\n<h2>Paso 4: Volvemos a empezar con los mismos<\/h2>\n<p>El verdadero poder de GPT proviene del hecho de que no se trata de un solo bloque Transformer, sino de varios (\u00a1decenas o incluso cientos!) apilados unos sobre otros.<\/p>\n<p>Imagina una f\u00e1brica de varios pisos, en cada piso, nuestros vectores de Embedding son procesados por los <b>mecanismos de Atenci\u00f3n y Reflexi\u00f3n<\/b>. La informaci\u00f3n que sale de un piso se convierte en la entrada del siguiente.<\/p>\n<p>Las primeras capas aprenden a gestionar las relaciones simples entre las palabras.<\/p>\n<p>Las capas intermedias combinan esta informaci\u00f3n para entender relaciones m\u00e1s complejas, la estructura de las frases. Las \u00faltimas capas comprenden el significado global, el tono, el estilo. \u00a1La informaci\u00f3n se vuelve m\u00e1s rica a medida que desciende los pisos!<\/p>\n<p><i>Y cada vez m\u00e1s abstracta e incomprensible para nosotros, pobres humanos.<\/i><\/p>\n<p><img decoding=\"async\" width=\"2560\" height=\"1707\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/7\/2025\/06\/aerps-com-5e4Zlblkvks-unsplash-scaled-1.jpg\" alt=\"\" loading=\"lazy\" srcset=\"https:\/\/liora.io\/app\/uploads\/sites\/7\/2025\/06\/aerps-com-5e4Zlblkvks-unsplash-scaled-1.jpg 2560w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2025\/06\/aerps-com-5e4Zlblkvks-unsplash-scaled-1-300x200.jpg 300w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2025\/06\/aerps-com-5e4Zlblkvks-unsplash-scaled-1-1024x683.jpg 1024w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2025\/06\/aerps-com-5e4Zlblkvks-unsplash-scaled-1-768x512.jpg 768w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2025\/06\/aerps-com-5e4Zlblkvks-unsplash-scaled-1-1536x1024.jpg 1536w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2025\/06\/aerps-com-5e4Zlblkvks-unsplash-scaled-1-2048x1366.jpg 2048w\" sizes=\"(max-width: 2560px) 100vw, 2560px\"><\/p>\n<h2>Paso 5: El entrenamiento<\/h2>\n<p>Imagina que le das a la m\u00e1quina miles de millones de textos (libros, art\u00edculos, p\u00e1ginas web&#8230;). Le ocultas la palabra siguiente en cada frase y le dices: \u00ab\u00a1Adivina!\u00bb.<\/p>\n<p>Eso es <b>el entrenamiento<\/b>.<\/p>\n<p>El modelo intenta predecir la siguiente palabra bas\u00e1ndose en las palabras anteriores.<\/p>\n<p>Al principio, se equivoca mucho, pero en cada error le decimos: \u00abNo, la palabra real era esta\u00bb, el modelo ajusta entonces sus par\u00e1metros internos (<b>los pesos!<\/b>) para que la pr\u00f3xima vez que vea una situaci\u00f3n similar, \u00a1tenga m\u00e1s posibilidades de adivinar la palabra correcta!<\/p>\n<p>Este proceso de ajuste basado en los errores se llama el Descenso de Gradiente<b>.<\/b><\/p>\n<p>Al jugar a este juego de predicci\u00f3n miles de millones de veces con miles de millones de textos, el modelo aprende no solo qu\u00e9 palabras suelen ir juntas, sino tambi\u00e9n la gram\u00e1tica, la sintaxis, e incluso diferentes estilos de escritura.<\/p>\n<p><a href=\"https:\/\/liora.io\/es\/nuestros-cursos-de-data\"><br \/>\nDominar el entrenamiento de un modelo de IA<br \/>\n<\/a><\/p>\n<h2>Paso final: La Generaci\u00f3n de Texto<\/h2>\n<p>Una vez que el modelo est\u00e1 entrenado, est\u00e1 listo para generar texto, bas\u00e1ndose en una primera instrucci\u00f3n para poder predecir palabras asociadas, \u00a1<b>el prompt!<\/b><\/p>\n<ol>\n<li style=\"font-weight: 400;\" aria-level=\"1\">El modelo toma tu prompt, lo transforma en listas de n\u00fameros, y los hace pasar por todos sus bloques Transformer.<\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\">Da una lista de probabilidades para <b>cada palabra posible<\/b> del vocabulario. Por ejemplo, despu\u00e9s de \u2018<i>\u00c9rase una vez\u2026<\/i>\u2018, la palabra \u2018<i>un<\/i>\u2018 tiene un 80% de probabilidad, \u2018<i>una<\/i>\u2018 un 10%, \u2018<i>el<\/i>\u2018 un 5%, \u2018<i>en<\/i>\u2018 un 3%&#8230;<\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\">El modelo elige entonces una palabra entre esta lista de posibilidades. No siempre toma la m\u00e1s probable para que el texto no sea demasiado repetitivo. Esta palabra se a\u00f1ade a la secuencia: \u00ab<i>\u00c9rase una vez un<\/i>\u00bb.<\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\">El modelo toma esta nueva secuencia como entrada y repite el proceso: predice la siguiente palabra (\u00ab<i>caballero<\/i>\u00bb? \u00ab<i>gato<\/i>\u00bb? \u00ab<i>d\u00eda<\/i>\u00bb?), elige una palabra, la a\u00f1ade a la secuencia&#8230;<\/li>\n<\/ol>\n<p>Y contin\u00faa, palabra por palabra, hasta que genera una palabra especial que significa \u00abfin de frase\u00bb o \u00abfin de texto\u00bb, o que alcanza una longitud m\u00e1xima.<\/p>\n<p><img decoding=\"async\" width=\"2560\" height=\"1922\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/7\/2025\/06\/shantanu-kumar-xvdkNBaja90-unsplash-1-scaled-1.jpg\" alt=\"\" loading=\"lazy\" srcset=\"https:\/\/liora.io\/app\/uploads\/sites\/7\/2025\/06\/shantanu-kumar-xvdkNBaja90-unsplash-1-scaled-1.jpg 2560w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2025\/06\/shantanu-kumar-xvdkNBaja90-unsplash-1-scaled-1-300x225.jpg 300w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2025\/06\/shantanu-kumar-xvdkNBaja90-unsplash-1-scaled-1-1024x769.jpg 1024w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2025\/06\/shantanu-kumar-xvdkNBaja90-unsplash-1-scaled-1-768x577.jpg 768w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2025\/06\/shantanu-kumar-xvdkNBaja90-unsplash-1-scaled-1-1536x1153.jpg 1536w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2025\/06\/shantanu-kumar-xvdkNBaja90-unsplash-1-scaled-1-2048x1538.jpg 2048w\" sizes=\"(max-width: 2560px) 100vw, 2560px\"><\/p>\n<h2>Conclusi\u00f3n: \u00a1Esto funciona s\u00faper bien!<\/h2>\n<p>La potencia de GPT proviene de la combinaci\u00f3n de varios elementos:<\/p>\n<ul>\n<li style=\"font-weight: 400;\" aria-level=\"1\">La arquitectura <b>Transformer<\/b> y el mecanismo de <b>Atenci\u00f3n<\/b> que le permiten comprender el contexto en frases muy largas.<\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\">El <b>apilamiento de las capas<\/b> que le permite aprender representaciones cada vez m\u00e1s complejas del lenguaje.<\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\">El <b>entrenamiento masivo<\/b> en enormes cantidades de texto, d\u00e1ndole un conocimiento muy amplio del lenguaje y del mundo.<\/li>\n<li style=\"font-weight: 400;\" aria-level=\"1\">El proceso de <b>generaci\u00f3n palabra por palabra<\/b> basado en la predicci\u00f3n, que le permite crear texto fluido y variado.<\/li>\n<\/ul>\n<p>GPT no \u00abpiensa\u00bb: Es extremadamente bueno para identificar <b>motivos estad\u00edsticos complejos en el lenguaje<\/b> y los utiliza para predecir la continuaci\u00f3n m\u00e1s probable de una secuencia de palabras.<\/p>\n<p>\u00a1Pero el resultado de esta predicci\u00f3n, gracias a la escala del modelo y los datos de entrenamiento, es a menudo un texto que nos parece inteligente, pertinente y creativo!<\/p>\n<p><a href=\"https:\/\/liora.io\/es\/nuestros-cursos-de-data\"><br \/>\nDescubra nuestros cursos de formaci\u00f3n en IA<br \/>\n<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Aqu\u00ed no hablamos de ChatGPT, pero de ah\u00ed proviene su nombre. Si nunca has o\u00eddo hablar de GPT, al menos ya has utilizado IA generativa de texto, o &#8216;LLM&#8217; (Large Language Model). GPT es un tipo de LLM, en el cual se basa la mayor\u00eda de las IA generativas de las que todo el mundo [&hellip;]<\/p>\n","protected":false},"author":74,"featured_media":180528,"comment_status":"open","ping_status":"open","sticky":false,"template":"elementor_theme","format":"standard","meta":{"_acf_changed":false,"editor_notices":[],"footnotes":""},"categories":[2440],"class_list":["post-180526","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-data-ia"],"acf":[],"_links":{"self":[{"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/posts\/180526","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/users\/74"}],"replies":[{"embeddable":true,"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/comments?post=180526"}],"version-history":[{"count":5,"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/posts\/180526\/revisions"}],"predecessor-version":[{"id":183227,"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/posts\/180526\/revisions\/183227"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/media\/180528"}],"wp:attachment":[{"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/media?parent=180526"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/categories?post=180526"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}