{"id":167642,"date":"2026-01-28T13:11:25","date_gmt":"2026-01-28T12:11:25","guid":{"rendered":"https:\/\/liora.io\/es\/?p=167642"},"modified":"2026-02-06T09:32:15","modified_gmt":"2026-02-06T08:32:15","slug":"gpu-que-es","status":"publish","type":"post","link":"https:\/\/liora.io\/es\/gpu-que-es","title":{"rendered":"GPU: \u00bfqu\u00e9 es y por qu\u00e9 puedes usarla en Data Science?"},"content":{"rendered":"<style><br \/>\n.elementor-heading-title{padding:0;margin:0;line-height:1}.elementor-widget-heading .elementor-heading-title[class*=elementor-size-]>a{color:inherit;font-size:inherit;line-height:inherit}.elementor-widget-heading .elementor-heading-title.elementor-size-small{font-size:15px}.elementor-widget-heading .elementor-heading-title.elementor-size-medium{font-size:19px}.elementor-widget-heading .elementor-heading-title.elementor-size-large{font-size:29px}.elementor-widget-heading .elementor-heading-title.elementor-size-xl{font-size:39px}.elementor-widget-heading .elementor-heading-title.elementor-size-xxl{font-size:59px}<\/style>\n<h2 class=\"wp-block-heading\" id=\"h-anade-aqui-tu-texto-de-cabecera\">A\u00f1ade aqu\u00ed tu texto de cabecera<\/h2>\nHay dos tipos principales de GPU en los ordenadores modernos: integrada y dedicada. El primer tipo est\u00e1 integrado directamente en el procesador, mientras que el segundo es independiente.\n\nPor lo general, las <b>tarjetas gr\u00e1ficas para ordenadores<\/b> de sobremesa son componentes de gran tama\u00f1o con ventiladores para su refrigeraci\u00f3n. Estas tarjetas contienen <b>el chip de procesamiento gr\u00e1fico<\/b> y memoria RAM dedicada para las cargas de trabajo gr\u00e1ficas m\u00e1s pesadas, como los videojuegos.\n\nEs muy f\u00e1cil sustituir una tarjeta gr\u00e1fica en un ordenador de sobremesa. Basta con introducirla en una ranura <b>PCIe x16<\/b>, conectarla a la fuente de alimentaci\u00f3n e instalar los <b>controladores<\/b>. Incluso puedes instalar varias GPU en el mismo ordenador.\n\nLos port\u00e1tiles equipados con GPU dedicadas no tienen el mismo tipo de GPU. Suele tratarse de <b>un simple chip soldado a la placa base<\/b>. Este tipo de GPU es m\u00e1s complicado, por no decir imposible de sustituir. Es m\u00e1s, son dif\u00edciles de mantener a la temperatura adecuada en condiciones de carga intensiva (por ejemplo, <b>al entrenar un modelo de <\/b><a href=\"https:\/\/liora.io\/es\/deep-learning-definicion\"><b>Deep Learning<\/b><\/a>) debido a la escasa ventilaci\u00f3n del ordenador. Por este motivo, las <b>GPU de los port\u00e1tiles suelen tener una potencia limitada<\/b> para mantener la temperatura del ordenador bajo control. Por tanto, no se recomienda invertir en un port\u00e1til para entrenar modelos de Deep Learning.\n\nLas GPU integradas est\u00e1n incorporadas directamente en el procesador Sin embargo, AMD fabrica procesadores con tarjetas gr\u00e1ficas integradas denominadas <b>Accelerated Processing Unit (APUs).<\/b>\n\nAsimismo, los chips Intel Core con n\u00famero de modelo que termina en F no tienen GPU. Lo mismo ocurre con las CPU de la gama <b>Core X <\/b>con n\u00fameros de modelo que terminan en X. Estos procesadores se venden a un precio m\u00e1s bajo.\n\nLos procesadores modernos con <b>GPU integrada<\/b> pueden ser sorprendentemente potentes. Sin embargo, para un caso de uso tan intenso como la Data Science, es imprescindible contar con una <b>GPU dedicada<\/b>.\n\n<style><br \/>\n.elementor-widget-image{text-align:center}.elementor-widget-image a{display:inline-block}.elementor-widget-image a img[src$=\".svg\"]{width:48px}.elementor-widget-image img{vertical-align:middle;display:inline-block}<\/style>\t\t\t\t\t\t\t\t\t\t\t\t<img decoding=\"async\" width=\"800\" height=\"396\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/7\/2023\/08\/type-gpu-data-science-1024x507.jpg\" alt=\"type-gpu-data-science\" loading=\"lazy\" srcset=\"https:\/\/liora.io\/app\/uploads\/sites\/7\/2023\/08\/type-gpu-data-science-1024x507.jpg 1024w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2023\/08\/type-gpu-data-science-300x148.jpg 300w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2023\/08\/type-gpu-data-science-768x380.jpg 768w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2023\/08\/type-gpu-data-science.jpg 1520w\" sizes=\"(max-width: 800px) 100vw, 800px\">\n<h2 class=\"wp-block-heading\" id=\"h-para-que-sirve-una-gpu\">\u00bfPara qu\u00e9 sirve una GPU?<\/h2>\nEl t\u00e9rmino GPU fue popularizado por Nvidia en la d\u00e9cada de 1990. Su gama de tarjetas gr\u00e1ficas GeForce fue la primera en popularizarse y permiti\u00f3 la evoluci\u00f3n de tecnolog\u00edas como <b>la aceleraci\u00f3n por hardware<\/b>, <b>el shading programable<\/b> o <b>el procesamiento en stream<\/b>.\n\nPara un uso b\u00e1sico del ordenador, como navegar por Internet o utilizar programas ofim\u00e1ticos, la funci\u00f3n de una GPU es simplemente mostrar im\u00e1genes en la pantalla.\n\nSin embargo, para otros usos, como <b>el gaming o la <\/b><a href=\"https:\/\/liora.io\/es\/data-science-definicion-problematica-y-casos-de-uso\"><b>Data Science<\/b><\/a>, una GPU ofrece un sinf\u00edn de posibilidades. Por ejemplo, puede utilizarse para la codificaci\u00f3n de v\u00eddeo o el <b>renderizado 3D<\/b>, e incluso se emplea para entrenar tanto modelos de Deep Learning, como modelos de ensamblaje como <b>LightGBM<\/b>.\n\nLos gr\u00e1ficos generados por ordenador, como los utilizados en videojuegos u otros medios animados, requieren una gran cantidad de energ\u00eda para dibujar cada imagen individualmente a una frecuencia de actualizaci\u00f3n que puede ir mucho m\u00e1s all\u00e1 de los 100 fotogramas por segundo.\n\nDel mismo modo, la edici\u00f3n de v\u00eddeo requiere la edici\u00f3n de grandes vol\u00famenes de archivos de alta definici\u00f3n. Una <b>GPU potente<\/b> es imprescindible para transcodificar los archivos a una velocidad aceptable.\n\nLas GPU se dise\u00f1aron originalmente para acelerar el renderizado de gr\u00e1ficos 3D. Con el tiempo, se han hecho <b>m\u00e1s flexibles y programables<\/b>. Su capacidad se ha ampliado.\n\nEsto ha permitido a los dise\u00f1adores crear efectos visuales m\u00e1s realistas, utilizando t\u00e9cnicas de luces y sombras. Adem\u00e1s, los desarrolladores han empezado a sacar partido a la potencia de las GPU para <b>acelerar cargas de trabajo<\/b> en los campos del Deep Learning y la <b>Computaci\u00f3n de Alto Rendimiento<\/b> (simulaciones f\u00edsicas, compresi\u00f3n de archivos, etc.). Estos son los principales casos de uso de las GPU.\n\n<a href=\"https:\/\/liora.io\/es\/nuestros-cursos-de-data\">\nEmpezar un curso de Data Science\n<\/a>\n<h5>1. Videojuegos<\/h5>\nEn el caso de los videojuegos, la GPU se utiliza para <b>mostrar im\u00e1genes de personajes, paisajes u objetos 3D modelados<\/b> con todo lujo de detalles. Los videojuegos requieren la realizaci\u00f3n de un gran n\u00famero de c\u00e1lculos matem\u00e1ticos en paralelo a la visualizaci\u00f3n de las im\u00e1genes en la pantalla.\n\nLa GPU est\u00e1 dise\u00f1ada espec\u00edficamente para <b>procesar informaci\u00f3n gr\u00e1fica<\/b> como la geometr\u00eda, el color, el tono o las texturas de una imagen. La <b>RAM<\/b> tambi\u00e9n permite manejar el gran volumen de informaci\u00f3n que se transmite a la GPU y los <b>datos de v\u00eddeo<\/b> que se dirigen a la pantalla.\n\nTodas las instrucciones se transmiten de la CPU a la GPU, que las ejecuta para mostrar las im\u00e1genes en la pantalla. Este proceso se denomina renderizado o canal de gr\u00e1ficos.\n\nLa unidad b\u00e1sica de los gr\u00e1ficos 3D es el <b>pol\u00edgono<\/b>. Todas las im\u00e1genes que ves en un videojuego se basan en un gran conjunto de pol\u00edgonos.\n\nEstas formas b\u00e1sicas se denominan \u00ab<b>primitivas<\/b>\u00ab, del mismo modo que otras l\u00edneas y puntos. Se unen para formar objetos concretos y reconocibles, como una mesa, un \u00e1rbol o un mago. Cuantos m\u00e1s pol\u00edgonos haya, m\u00e1s detalladas ser\u00e1n las im\u00e1genes finales.\n\nCada objeto tiene su propio <b>conjunto de coordenadas<\/b> para que la GPU sepa d\u00f3nde situarlo en una escena. Esta es la raz\u00f3n por la que a veces los objetos se colocan en cualquier lugar de los juegos, como en el caso de un bug.\n\nA continuaci\u00f3n, la GPU realiza c\u00e1lculos para determinar la posici\u00f3n de la <b>\u201cc\u00e1mara\u201d<\/b>. Por \u00faltimo, las im\u00e1genes reciben las texturas, sombras y colores que las hacen tan realistas.\n\nEste procesamiento gr\u00e1fico se realiza a la velocidad del rayo. Esto requiere <b>c\u00e1lculos pesados<\/b>, por lo que es esencial una GPU dedicada de alto rendimiento.\n\nT\u00e9cnicamente, es posible utilizar una CPU para los gr\u00e1ficos, pero ser\u00e1 menos eficiente y el resultado final no ser\u00e1 tan visualmente impresionante. Este componente ya est\u00e1 ocupado ejecutando el sistema operativo, otros programas y procesos en segundo plano.\n\n<img decoding=\"async\" width=\"800\" height=\"428\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/7\/2023\/08\/gpu-gaming-1024x548.jpg\" alt=\"gpu-gaming\" loading=\"lazy\" srcset=\"https:\/\/liora.io\/app\/uploads\/sites\/7\/2023\/08\/gpu-gaming-1024x548.jpg 1024w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2023\/08\/gpu-gaming-300x160.jpg 300w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2023\/08\/gpu-gaming-768x411.jpg 768w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2023\/08\/gpu-gaming.jpg 1520w\" sizes=\"(max-width: 800px) 100vw, 800px\">\n<h5>2. Edici\u00f3n de v\u00eddeo<\/h5>\nDurante muchos a\u00f1os, los <b>editores de v\u00eddeo<\/b>, <b>dise\u00f1adores gr\u00e1ficos<\/b> y otros profesionales creativos se vieron limitados por la lentitud del renderizado.\n\nHoy, el procesamiento paralelo que ofrecen las GPU facilita y acelera enormemente el <b>renderizado de v\u00eddeo<\/b> en formatos de alta definici\u00f3n. Esto acorta <b>los tiempos de producci\u00f3n e iteraci\u00f3n de v\u00eddeo<\/b>.\n<h5>3. Criptomoneda<\/h5>\nUna GPU est\u00e1 dise\u00f1ada espec\u00edficamente para el procesamiento de gr\u00e1ficos. Esta tarea requiere que se efect\u00faen gran cantidad de <b>c\u00e1lculos matem\u00e1ticos<\/b> de forma paralela.\n\nEste enfoque en c\u00e1lculos y operaciones paralelas hace que las GPU sean especialmente adecuadas para <b>el minado de Ethereum y otras criptomonedas<\/b> derivadas de Ethereum. Los mineros de criptomonedas han recurrido r\u00e1pidamente a estos componentes, abandonando las CPU que son demasiado generalistas y menos eficientes para estos casos.\n<h2 class=\"wp-block-heading\" id=\"h-gpu-y-data-science\">GPU y Data Science<\/h2>\nLa Data Science hace referencia a todos los m\u00e9todos y t\u00e9cnicas utilizados para <b>extraer informaci\u00f3n a partir de datos en bruto<\/b>. Esta informaci\u00f3n la pueden utilizar <a href=\"https:\/\/liora.io\/es\/que-es-un-algoritmo\"><b>algoritmos<\/b><\/a> de<b> Machine Learning<\/b> para producir sistemas de inteligencia artificial.\n\nEsta disciplina requiere una gran capacidad de c\u00e1lculo y las GPU son especialmente adecuadas para ella porque muchas de las <b>operaciones matem\u00e1ticas<\/b> utilizadas en Machine Learning se pueden paralelizar con facilidad.\n\nUno de los usos m\u00e1s recientes e importantes de las GPU es la <b>creaci\u00f3n de <\/b>\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\"><div class=\"wp-block-button \"><a class=\"wp-block-button__link wp-element-button \" href=\"https:\/\/liora.io\/es\/convolutional-neural-network-es\">redes neuronales<\/a><\/div><\/div>\n<b> de inteligencia artificial<\/b>. Este tambi\u00e9n es uno de los usos m\u00e1s exigentes de la Data Science.\n\nLa inteligencia artificial moderna depende en gran medida de la capacidad de <b>procesar grandes cantidades de datos<\/b> de forma paralela utilizando hardware especializado. Las GPU han desempe\u00f1ado un papel fundamental en el desarrollo de estas nuevas tecnolog\u00edas. Sin las GPU, no tendr\u00edamos el hardware necesario para <b>entrenar redes neuronales de alto rendimiento<\/b>.\n\nPor lo general, una CPU realiza las tareas de forma secuencial. Puede dividirse en unos pocos n\u00facleos (normalmente 8 o 16 n\u00facleos) y cada n\u00facleo puede realizar una tarea diferente, mientras que <b>una GPU tiene cientos o miles de n\u00facleos dedicados simult\u00e1neamente a una sola tarea<\/b>. La paralelizaci\u00f3n del procesamiento es fundamental para el dise\u00f1o de algoritmos en la GPU, por lo que la programaci\u00f3n de instrucciones en una GPU es completamente diferente a la programaci\u00f3n tradicional en la CPU.\n\nLas bibliotecas de Deep Learning como TensorFlow y PyTorch se encargan de la programaci\u00f3n en la GPU en segundo plano, lo que simplifica enormemente el desarrollo de modelos de Deep Learning en la GPU.\n\nEl uso de GPU con estas bibliotecas requiere la instalaci\u00f3n de controladores dedicados a la <b>computaci\u00f3n de alto rendimiento<\/b>. Las instrucciones para instalar estos controladores se encuentran en la documentaci\u00f3n de estas bibliotecas.\n\n<img decoding=\"async\" width=\"800\" height=\"352\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/7\/2023\/08\/gpu-machine-learning-1-1024x451.jpg\" alt=\"gpu-machine-learning-1\" loading=\"lazy\" srcset=\"https:\/\/liora.io\/app\/uploads\/sites\/7\/2023\/08\/gpu-machine-learning-1-1024x451.jpg 1024w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2023\/08\/gpu-machine-learning-1-300x132.jpg 300w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2023\/08\/gpu-machine-learning-1-768x339.jpg 768w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2023\/08\/gpu-machine-learning-1.jpg 1520w\" sizes=\"(max-width: 800px) 100vw, 800px\">\n<h2 class=\"wp-block-heading\" id=\"h-como-elegir-la-gpu-mas-adecuada\">\u00bfC\u00f3mo elegir la GPU m\u00e1s adecuada?<\/h2>\nLa mejor forma de evaluar objetivamente el rendimiento de una GPU es utilizar <b>benchmarks o pruebas comparativas<\/b>: pruebas dise\u00f1adas para poner a prueba los l\u00edmites de las GPU y asignarles una puntuaci\u00f3n. Estas puntuaciones permiten comparar todas las GPU del mercado y as\u00ed elegir la que mejor se adapte a nuestras expectativas. Dependiendo del campo de aplicaci\u00f3n, la prueba ser\u00e1 diferente.\n\nEn el caso de los videojuegos, las pruebas comparativas son muy populares. Por ejemplo, una GPU capaz de generar 70 <b>fotogramas por segundo<\/b> (o <b><i>frames per second<\/i><\/b> en ingl\u00e9s) en Tomb Raider ser\u00e1 mejor que una GPU capaz de generar 55.\n\nEn el caso de la edici\u00f3n de v\u00eddeo, existen muchas pruebas para comparar el rendimiento de renderizado de una GPU en programas como <b>Adobe Photoshop<\/b>, <b>Adobe Premiere Pro<\/b>, <b>Sony Vegas<\/b>, etc. En este caso, se compara el tiempo que se tarda en terminar de renderizar un v\u00eddeo, y cuanto menor es el tiempo, mejor es la GPU.\n\nEn el caso del Deep Learning, existen pruebas que comparan el tiempo de entrenamiento necesario para <b>entrenar modelos<\/b> tan conocidos como VGG-16, <b>Inception<\/b>, <b>EfficientNet<\/b> en bases de datos tan conocidas como <b>ImageNet<\/b>, <b>CIFAR-10<\/b>, <b>MNIST<\/b>, etc.\n\nLas GPU m\u00e1s compatibles con <b>las bibliotecas de Deep Learning<\/b> son las GPU de NVidia. No es recomendable utilizar una GPU AMD para Deep Learning porque las bibliotecas <b>TensorFlow<\/b> y<a href=\"https:\/\/liora.io\/es\/pytorch-saber-todo-sobre-el-marco-de-trabajo-de-deep-learning-de-facebook\"> <b>PyTorch<\/b><\/a> no ofrecen <b>soporte nativo<\/b> para GPU de esta marca.\n<h2 class=\"wp-block-heading\" id=\"h-como-seguir-un-curso-de-data-science-y-machine-learning\">\u00bfC\u00f3mo seguir un curso de Data Science y Machine Learning?<\/h2>\nPara aprender a sacar partido de las capacidades de las GPU para el procesamiento de datos, puedes <b>optar por Liora<\/b>. Nuestros cursos de Data Analyst, Data Scientist y Data Engineer incluyen m\u00f3dulos espec\u00edficos de Machine Learning y Data Science.\n\nAdem\u00e1s, contamos con otros m\u00f3dulos que tratan sobre <b>Big Data<\/b>, <b>bases de datos<\/b>, <b>programaci\u00f3n en Python<\/b>, <b>Dataviz<\/b> y Business Intelligence. Al final de estos cursos, tendr\u00e1s todas las competencias que necesitas para trabajar en una de las profesiones de Data Science.\n\nNuestro innovador enfoque<a href=\"https:\/\/liora.io\/es\/blended-learning-el-nuevo-metodo-de-formacion-de-exito\"> <b>Blended Learning<\/b><\/a> combina el aprendizaje en una plataforma en l\u00ednea con Master classes grupales. Todos nuestros cursos se imparten \u00edntegramente a distancia.\n\nDependiendo de tu situaci\u00f3n, puedes elegir entre la <b>formaci\u00f3n continua<\/b> o la modalidad <b>BootCamp intensivo<\/b>. El 80 % de nuestros antiguos alumnos ha encontrado trabajo inmediatamente despu\u00e9s de terminar el curso.\n\nEn cuanto a la financiaci\u00f3n, nuestros cursos son bonificables con FUNDAE. \u00a1No esperes m\u00e1s y descubre <b>los programas de Liora<\/b>!\n\nAhora ya sabes todo lo que hay que saber sobre las GPU. Para m\u00e1s informaci\u00f3n sobre el tema, consulta<a href=\"https:\/\/liora.io\/es\/machine-learning-definicion-funcionamiento-usos\"> <b>nuestro dosier sobre Machine Learning<\/b><\/a>.\n\n<a href=\"https:\/\/liora.io\/es\/nuestros-cursos-de-data\">\nDescubre los cursos de Data Science\n<\/a>","protected":false},"excerpt":{"rendered":"<p>Hay dos tipos principales de GPU en los ordenadores modernos: integrada y dedicada. El primer tipo est\u00e1 integrado directamente en el procesador, mientras que el segundo es independiente.<\/p>\n","protected":false},"author":85,"featured_media":167643,"comment_status":"open","ping_status":"open","sticky":false,"template":"elementor_theme","format":"standard","meta":{"_acf_changed":false,"editor_notices":[],"footnotes":""},"categories":[2440],"class_list":["post-167642","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-data-ia"],"acf":[],"_links":{"self":[{"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/posts\/167642","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/users\/85"}],"replies":[{"embeddable":true,"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/comments?post=167642"}],"version-history":[{"count":4,"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/posts\/167642\/revisions"}],"predecessor-version":[{"id":183028,"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/posts\/167642\/revisions\/183028"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/media\/167643"}],"wp:attachment":[{"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/media?parent=167642"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/categories?post=167642"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}