{"id":220210,"date":"2026-03-24T18:59:06","date_gmt":"2026-03-24T17:59:06","guid":{"rendered":"https:\/\/liora.io\/de\/pytorch-2-11-release-ki-leistungssteigerungen"},"modified":"2026-03-24T18:59:06","modified_gmt":"2026-03-24T17:59:06","slug":"pytorch-2-11-release-ki-leistungssteigerungen","status":"publish","type":"post","link":"https:\/\/liora.io\/de\/pytorch-2-11-release-ki-leistungssteigerungen","title":{"rendered":"PyTorch 2.11 Release bringt massive KI-Leistungssteigerungen"},"content":{"rendered":"<p><strong>\nPyTorch hat heute Version 2.11 ver\u00f6ffentlicht und liefert Leistungssteigerungen von bis zu 600x f\u00fcr bestimmte KI-Operationen, w\u00e4hrend gleichzeitig die Unterst\u00fctzung f\u00fcr GPUs der n\u00e4chsten Generation von NVIDIA und Intel hinzugef\u00fcgt wird. Das Update, entstanden aus 2.723 Beitr\u00e4gen von 432 Entwicklerinnen und Entwicklern, f\u00fchrt Differentiable Collectives f\u00fcr Distributed Training, ein FlashAttention-4 Backend sowie eine erweiterte Apple-Silicon-Kompatibilit\u00e4t ein und markiert einen bedeutenden Fortschritt f\u00fcr Machine-Learning-Forschende sowie Entwicklerinnen und Entwickler weltweit.\n<\/strong><\/p>\n<p>Die neuen F\u00e4higkeiten positionieren <b>PyTorch<\/b> an der Spitze des Wettbewerbs der KI-Frameworks, da Organisationen darum ringen, Training und Inferenz f\u00fcr zunehmend komplexe Modelle zu optimieren. Das Feature Differentiable Collectives ver\u00e4ndert grundlegend, wie Forschende <a href=\"https:\/\/liora.io\/de\/pytorch-lightning-tutorial-das-framework-fuer-skalierbares-deep-learning\">Distributed Training Algorithmen<\/a> angehen k\u00f6nnen, indem es erlaubt, Gradienten direkt \u00fcber Collective Communication Operations zu berechnen, wodurch die Notwendigkeit f\u00fcr benutzerdefinierte Implementierungen entf\u00e4llt.<\/p><br><p>Die Leistungsgewinne in diesem Release sind besonders ausgepr\u00e4gt bei linearen Algebra-Operationen. Die Funktion <b>torch.linalg.lstsq<\/b> erreicht Beschleunigungen von <b>1,7x bis 620x<\/b>, w\u00e4hrend <b>torch.linalg.svd<\/b> Verbesserungen von <b>2x bis 400x<\/b> liefert. Diese Verbesserungen resultieren aus dem Ersatz des Legacy-MAGMA-Backends durch optimierte cuSOLVER- und cuBLAS-Implementierungen.<\/p><br><p><b>FlexAttention<\/b>, nun mit dem <a href=\"https:\/\/liora.io\/de\/pytorchs-flexattention-mit-flashattention-4-ist-ein-game-changer\">FlashAttention-4 Backend<\/a>, bietet <b>1,2x bis 3,2x<\/b> Beschleunigungen f\u00fcr rechenintensive Attention-Workloads auf <b>NVIDIAs Hopper- und Blackwell-GPUs<\/b>. Diese Optimierung nutzt Just-in-Time Kompilierung, um Kernels zu generieren, die speziell auf Architekturen der n\u00e4chsten Generation zugeschnitten sind.<\/p>\n\n<h2 style=\"margin-top:2rem;margin-bottom:1rem;\">\u00c4nderungen bei der Hardware-Kompatibilit\u00e4t<\/h2><figure class=\"wp-block-image size-large\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"572\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/03\/rechenzentrum-server-infrastruktur-1024x572.jpg\" alt=\"Innenansicht eines Data Centers mit Reihen von Servern und Speichereinheiten.\" class=\"wp-image-220202\" srcset=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/03\/rechenzentrum-server-infrastruktur-56x56.jpg 56w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/03\/rechenzentrum-server-infrastruktur-115x64.jpg 115w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/03\/rechenzentrum-server-infrastruktur-150x150.jpg 150w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/03\/rechenzentrum-server-infrastruktur-210x117.jpg 210w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/03\/rechenzentrum-server-infrastruktur-300x167.jpg 300w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/03\/rechenzentrum-server-infrastruktur-410x270.jpg 410w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/03\/rechenzentrum-server-infrastruktur-440x246.jpg 440w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/03\/rechenzentrum-server-infrastruktur-448x448.jpg 448w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/03\/rechenzentrum-server-infrastruktur-587x510.jpg 587w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/03\/rechenzentrum-server-infrastruktur-768x429.jpg 768w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/03\/rechenzentrum-server-infrastruktur-785x438.jpg 785w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/03\/rechenzentrum-server-infrastruktur-1024x572.jpg 1024w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/03\/rechenzentrum-server-infrastruktur-1250x590.jpg 1250w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/03\/rechenzentrum-server-infrastruktur-1440x680.jpg 1440w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/03\/rechenzentrum-server-infrastruktur-1536x857.jpg 1536w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/03\/rechenzentrum-server-infrastruktur-2048x1143.jpg 2048w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2026\/03\/rechenzentrum-server-infrastruktur-scaled.jpg 2560w\" sizes=\"(max-width: 1024px) 100vw, 1024px\"><\/figure>\n\n<p>Eine bedeutende \u00c4nderung begleitet die Leistungsverbesserungen: Die Standardinstallation von PyTorch 2.11 wird nun mit <b>CUDA 13.0<\/b> ausgeliefert, wodurch die Unterst\u00fctzung f\u00fcr \u00e4ltere GPU-Architekturen entf\u00e4llt. <b>Volta-, Pascal- und Maxwell-GPUs<\/b> werden im Standard-Build nicht mehr unterst\u00fctzt, allerdings k\u00f6nnen Nutzende weiterhin auf CUDA-12.6-Builds f\u00fcr Legacy-Hardware-Kompatibilit\u00e4t zugreifen.<\/p><br><p>Das Update erweitert die plattform\u00fcbergreifende Unterst\u00fctzung mit verbesserten <b>Apple Silicon<\/b>-F\u00e4higkeiten, erg\u00e4nzt neue statistische Verteilungsfunktionen und eine verbesserte Fehlerberichterstattung f\u00fcr MPS Operationen. <b>Intel GPU<\/b>-Nutzende erhalten XPUGraph-Support, eine Funktion \u00e4hnlich wie CUDA Graphs, die den CPU-Overhead reduziert, indem sie Sequenzen von Operationen aufzeichnet und wiedergibt.<\/p><br><p>Das Release markiert au\u00dferdem Fortschritte bei PyTorchs F\u00e4higkeiten f\u00fcr produktive Deployments. Die torch.export API unterst\u00fctzt nun das Exportieren von <a href=\"https:\/\/liora.io\/de\/recurrent-neural-network\"><b>RNN<\/b><\/a>-Modulen einschlie\u00dflich LSTM und GRU f\u00fcr die Ausf\u00fchrung auf der GPU und erweitert damit die Bandbreite der Modelle, die f\u00fcr produktive Inferenz bereit sind. Dieser Fortschritt steht im Einklang mit der fortgesetzten Abk\u00fcndigung von TorchScript zugunsten des Export-\u00d6kosystems.<\/p>\n\n<h2 style=\"margin-top:2rem;margin-bottom:1rem;\">Sicherheits- und Migrationsaspekte<\/h2>\n\n<p>Zu den Sicherheitsverbesserungen geh\u00f6rt die H\u00e4rtung von <b>torch.hub.load<\/b>, das Nutzende nun um Best\u00e4tigung bittet, bevor Code aus nicht vertrauensw\u00fcrdigen Repositories ausgef\u00fchrt wird. Organisationen, die von PyTorch 2.10 aktualisieren, m\u00fcssen mehrere Breaking Changes ber\u00fccksichtigen, insbesondere bei der CUDA-Kompatibilit\u00e4t und API-\u00c4nderungen an Attention-Mechanismen.<\/p><br><p>Die kollaborative Natur des Releases, aufgebaut aus <b>2.723 Beitr\u00e4gen von 432 Entwicklerinnen und Entwicklern<\/b>, unterstreicht PyTorchs Position als Community-getriebenes Projekt, das mit propriet\u00e4ren Alternativen gro\u00dfer Tech-Unternehmen konkurriert.<\/p>\n<div style=\"margin-top:3rem;padding-top:1.5rem;border-top:1px solid #e2e4ea;\">\n  <h3 style=\"margin:0 0 0.75rem;font-size:1.1rem;letter-spacing:0.08em;text-transform:uppercase;\">\n    Sources\n  <\/h3>\n  <ul style=\"margin:0;padding-left:1.2rem;list-style:disc;\">\n    <li>pytorch.org\/blog<\/li>\n  <\/ul>\n<\/div>","protected":false},"excerpt":{"rendered":"<p>PyTorch hat heute Version 2.11 ver\u00f6ffentlicht, die Leistungssteigerungen von bis zu 600x f\u00fcr bestimmte KI-Operationen bietet und gleichzeitig Unterst\u00fctzung f\u00fcr NVIDIA- und Intel-GPUs der n\u00e4chsten Generation integriert. Das Update, das auf 2.723 Beitr\u00e4gen von 432 Entwicklerinnen und Entwicklern basiert, f\u00fchrt differenzierbare Collectives f\u00fcr Distributed Training, ein FlashAttention-4-Backend und eine erweiterte Kompatibilit\u00e4t mit Apple Silicon ein und markiert einen bedeutenden Fortschritt f\u00fcr Forschende und Entwicklerinnen und Entwickler im Bereich Machine Learning weltweit.<\/p>\n","protected":false},"author":87,"featured_media":220203,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"editor_notices":[],"footnotes":""},"categories":[2475],"class_list":["post-220210","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-nachrichten"],"acf":[],"_links":{"self":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/220210","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/users\/87"}],"replies":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/comments?post=220210"}],"version-history":[{"count":0,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/220210\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media\/220203"}],"wp:attachment":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media?parent=220210"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/categories?post=220210"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}