{"id":185043,"date":"2026-03-24T19:09:06","date_gmt":"2026-03-24T18:09:06","guid":{"rendered":"https:\/\/liora.io\/es\/pytorch-2-11-impulsa-rendimiento-ia"},"modified":"2026-03-24T19:09:06","modified_gmt":"2026-03-24T18:09:06","slug":"pytorch-2-11-impulsa-rendimiento-ia","status":"publish","type":"post","link":"https:\/\/liora.io\/es\/pytorch-2-11-impulsa-rendimiento-ia","title":{"rendered":"PyTorch 2.11 impulsa el rendimiento de IA"},"content":{"rendered":"<p><strong>\nPyTorch lanz\u00f3 hoy la versi\u00f3n 2.11, que ofrece mejoras de rendimiento de hasta 600x para operaciones de IA espec\u00edficas y a\u00f1ade compatibilidad con GPUs NVIDIA e Intel de pr\u00f3xima generaci\u00f3n. La actualizaci\u00f3n, construida a partir de 2,723 contribuciones de 432 desarrolladores, introduce colectivas diferenciables para entrenamiento distribuido, backend FlashAttention-4 y una compatibilidad ampliada con Apple Silicon, lo que marca un avance significativo para investigadores y desarrolladores de aprendizaje autom\u00e1tico en todo el mundo.\n<\/strong><\/p>\n<p>Las nuevas capacidades sit\u00faan a <a href=\"https:\/\/liora.io\/es\/pytorch-saber-todo-sobre-el-marco-de-trabajo-de-deep-learning-de-facebook\"><b>PyTorch<\/b><\/a> a la vanguardia de la competencia entre frameworks de IA, mientras las organizaciones se apresuran a optimizar el entrenamiento y la inferencia para modelos cada vez m\u00e1s complejos. La funci\u00f3n de colectivas diferenciables cambia de forma fundamental c\u00f3mo los investigadores pueden abordar algoritmos de entrenamiento distribuido al permitir que los gradientes se calculen directamente a trav\u00e9s de operaciones de comunicaci\u00f3n colectiva, eliminando la necesidad de implementaciones personalizadas.<\/p><br><p>Las ganancias de rendimiento en esta versi\u00f3n son especialmente notables para operaciones de \u00e1lgebra lineal. La funci\u00f3n <b>torch.linalg.lstsq<\/b> alcanza aceleraciones de <b>1.7x a 620x<\/b>, mientras que <b>torch.linalg.svd<\/b> ofrece mejoras de <b>2x a 400x<\/b>. Estas mejoras provienen de sustituir el backend heredado MAGMA por implementaciones optimizadas de cuSOLVER y cuBLAS.<\/p><br><p><a href=\"https:\/\/liora.io\/es\/el-flexattention-de-pytorch-con-flashattention-4-es-un-cambio-radical\"><b>FlexAttention<\/b><\/a>, ahora impulsado por el backend FlashAttention-4, proporciona <b>aceleraciones de 1.2x a 3.2x<\/b> para cargas de trabajo de atenci\u00f3n limitadas por c\u00f3mputo en <b>GPUs Hopper y Blackwell de NVIDIA<\/b>. Esta optimizaci\u00f3n utiliza compilaci\u00f3n just-in-time para generar kernels espec\u00edficamente adaptados a estas arquitecturas de pr\u00f3xima generaci\u00f3n.<\/p>\n\n<h2 style=\"margin-top:2rem;margin-bottom:1rem;\">Cambios en la compatibilidad de hardware<\/h2><figure class=\"wp-block-image size-large\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"572\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/7\/2026\/03\/infraestructura-de-servidores-de-centro-de-datos-1024x572.jpg\" alt=\"Vista interior de un centro de datos mostrando filas de servidores y unidades de almacenamiento.\" class=\"wp-image-185035\" srcset=\"https:\/\/liora.io\/app\/uploads\/sites\/7\/2026\/03\/infraestructura-de-servidores-de-centro-de-datos-56x56.jpg 56w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2026\/03\/infraestructura-de-servidores-de-centro-de-datos-115x64.jpg 115w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2026\/03\/infraestructura-de-servidores-de-centro-de-datos-150x150.jpg 150w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2026\/03\/infraestructura-de-servidores-de-centro-de-datos-210x117.jpg 210w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2026\/03\/infraestructura-de-servidores-de-centro-de-datos-300x167.jpg 300w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2026\/03\/infraestructura-de-servidores-de-centro-de-datos-410x270.jpg 410w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2026\/03\/infraestructura-de-servidores-de-centro-de-datos-440x246.jpg 440w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2026\/03\/infraestructura-de-servidores-de-centro-de-datos-448x448.jpg 448w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2026\/03\/infraestructura-de-servidores-de-centro-de-datos-587x510.jpg 587w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2026\/03\/infraestructura-de-servidores-de-centro-de-datos-768x429.jpg 768w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2026\/03\/infraestructura-de-servidores-de-centro-de-datos-785x438.jpg 785w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2026\/03\/infraestructura-de-servidores-de-centro-de-datos-1024x572.jpg 1024w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2026\/03\/infraestructura-de-servidores-de-centro-de-datos-1250x590.jpg 1250w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2026\/03\/infraestructura-de-servidores-de-centro-de-datos-1440x680.jpg 1440w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2026\/03\/infraestructura-de-servidores-de-centro-de-datos-1536x857.jpg 1536w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2026\/03\/infraestructura-de-servidores-de-centro-de-datos-2048x1143.jpg 2048w, https:\/\/liora.io\/app\/uploads\/sites\/7\/2026\/03\/infraestructura-de-servidores-de-centro-de-datos-scaled.jpg 2560w\" sizes=\"(max-width: 1024px) 100vw, 1024px\"><\/figure>\n\n<p>Un cambio significativo acompa\u00f1a las mejoras de rendimiento: la instalaci\u00f3n predeterminada de PyTorch 2.11 ahora se distribuye con <b>CUDA 13.0<\/b>, dejando de soportar arquitecturas de GPU m\u00e1s antiguas. <b>Las GPUs Volta, Pascal y Maxwell<\/b> ya no son compatibles con la compilaci\u00f3n predeterminada, aunque los usuarios a\u00fan pueden acceder a compilaciones con CUDA 12.6 para compatibilidad con hardware heredado.<\/p><br><p>La actualizaci\u00f3n ampl\u00eda el soporte multiplataforma con capacidades mejoradas para <b>Apple Silicon<\/b>, a\u00f1adiendo nuevas funciones de distribuci\u00f3n y un mejor reporte de errores para operaciones MPS. Los usuarios con <b>GPUs Intel<\/b> obtienen soporte para XPUGraph, una funcionalidad similar a CUDA Graphs que reduce la sobrecarga de CPU capturando y reproduciendo secuencias de operaciones.<\/p><br><p>La versi\u00f3n tambi\u00e9n marca avances en las capacidades de despliegue en producci\u00f3n de PyTorch. La API torch.export ahora admite la exportaci\u00f3n de <b>m\u00f3dulos RNN, incluidos LSTM y GRU<\/b>, para ejecuci\u00f3n en GPU, ampliando el conjunto de modelos listos para inferencia en producci\u00f3n. Este avance est\u00e1 alineado con el abandono progresivo de TorchScript por parte de PyTorch en favor del ecosistema de export.<\/p>\n\n<h2 style=\"margin-top:2rem;margin-bottom:1rem;\">Consideraciones de seguridad y migraci\u00f3n<\/h2>\n\n<p>Las mejoras de seguridad incluyen el refuerzo de <b>torch.hub.load<\/b>, que ahora solicita confirmaci\u00f3n a los usuarios antes de ejecutar c\u00f3digo de repositorios no confiables. Las organizaciones que actualicen desde PyTorch 2.10 deber\u00e1n abordar varios cambios disruptivos, en particular relacionados con la compatibilidad de CUDA y modificaciones de API en los mecanismos de atenci\u00f3n.<\/p><br><p>La naturaleza colaborativa de la versi\u00f3n, construida a partir de <b>2,723 contribuciones de 432 desarrolladores<\/b>, subraya la posici\u00f3n de PyTorch como un proyecto impulsado por la comunidad que compite con alternativas propietarias de grandes empresas tecnol\u00f3gicas.<\/p>\n<div style=\"margin-top:3rem;padding-top:1.5rem;border-top:1px solid #e2e4ea;\">\n  <h3 style=\"margin:0 0 0.75rem;font-size:1.1rem;letter-spacing:0.08em;text-transform:uppercase;\">\n    Sources\n  <\/h3>\n  <ul style=\"margin:0;padding-left:1.2rem;list-style:disc;\">\n    <li>pytorch.org\/blog<\/li>\n  <\/ul>\n<\/div>","protected":false},"excerpt":{"rendered":"<p>PyTorch lanz\u00f3 hoy la versi\u00f3n 2.11, ofreciendo mejoras de rendimiento de hasta 600x para operaciones de IA espec\u00edficas y a\u00f1adiendo soporte para GPUs de pr\u00f3xima generaci\u00f3n de NVIDIA e Intel. La actualizaci\u00f3n, resultado de 2,723 contribuciones de 432 desarrolladores, introduce colectivos diferenciables para entrenamiento distribuido, un backend FlashAttention-4 y una compatibilidad ampliada con Apple Silicon, lo que marca un avance significativo para investigadores y desarrolladores de aprendizaje autom\u00e1tico en todo el mundo.<\/p>\n","protected":false},"author":87,"featured_media":185036,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"editor_notices":[],"footnotes":""},"categories":[2428],"class_list":["post-185043","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-noticias"],"acf":[],"_links":{"self":[{"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/posts\/185043","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/users\/87"}],"replies":[{"embeddable":true,"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/comments?post=185043"}],"version-history":[{"count":0,"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/posts\/185043\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/media\/185036"}],"wp:attachment":[{"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/media?parent=185043"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/liora.io\/es\/wp-json\/wp\/v2\/categories?post=185043"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}