{"id":206541,"date":"2026-01-28T16:17:16","date_gmt":"2026-01-28T15:17:16","guid":{"rendered":"https:\/\/liora.io\/de\/?p=206541"},"modified":"2026-02-06T04:25:06","modified_gmt":"2026-02-06T03:25:06","slug":"onnx-was-ist-das","status":"publish","type":"post","link":"https:\/\/liora.io\/de\/onnx-was-ist-das","title":{"rendered":"ONNX: Der offene Standard f\u00fcr portable KI-Modelle"},"content":{"rendered":"<p data-start=\"165\" data-end=\"629\"><strong data-start=\"165\" data-end=\"323\">Mit wachsender Komplexit\u00e4t der KI-Projekte gewinnt die F\u00e4higkeit an Bedeutung, Modelle flexibel zu \u00fcbertragen und in verschiedenen Umgebungen auszuf\u00fchren.<\/strong><br data-start=\"323\" data-end=\"326\"><b> Das heutige \u00d6kosystem umfasst zahlreiche Entwicklungsframeworks \u2013 jedes mit eigenen Besonderheiten und propriet\u00e4ren Formaten. ONNX (Open Neural Network Exchange) schafft hier Abhilfe: Als quelloffener Standard erleichtert es die Interoperabilit\u00e4t und verbindet die unterschiedlichen Systeme reibungslos.<\/b><\/p>\t\t\n\t\t\t<style>\n.elementor-heading-title{padding:0;margin:0;line-height:1}.elementor-widget-heading .elementor-heading-title[class*=elementor-size-]>a{color:inherit;font-size:inherit;line-height:inherit}.elementor-widget-heading .elementor-heading-title.elementor-size-small{font-size:15px}.elementor-widget-heading .elementor-heading-title.elementor-size-medium{font-size:19px}.elementor-widget-heading .elementor-heading-title.elementor-size-large{font-size:29px}.elementor-widget-heading .elementor-heading-title.elementor-size-xl{font-size:39px}.elementor-widget-heading .elementor-heading-title.elementor-size-xxl{font-size:59px}<\/style><h2 class=\"wp-block-heading\" id=\"h-was-ist-onnx\"><font size=\"6\">Was ist ONNX?<\/font><\/h2>\t\t\n\t\t<p data-start=\"747\" data-end=\"1140\">ONNX ist ein offenes Austauschformat, das speziell daf\u00fcr entwickelt wurde,&nbsp;<a href=\"https:\/\/liora.io\/de\/deep-learning-vs-machine-learning\" target=\"_blank\" rel=\"noopener\">Machine-Learning- und Deep-Learning-Modelle<\/a>&nbsp;frameworkunabh\u00e4ngig zu speichern und weiterzugeben. So kannst Du ein trainiertes Modell beispielsweise in&nbsp;<a style=\"background-color: #ffffff;\" href=\"https:\/\/liora.io\/de\/pytorch-lightning-tutorial-das-framework-fuer-skalierbares-deep-learning\" target=\"_blank\" rel=\"noopener\">PyTorch<\/a>&nbsp; oder&nbsp;<a style=\"background-color: #ffffff;\" href=\"https:\/\/liora.io\/de\/tensorflow-extended-tfx-was-ist-das\" target=\"_blank\" rel=\"noopener\">TensorFlow<\/a>&nbsp;entwickeln, es anschlie\u00dfend im ONNX-Format exportieren und dann mit einem anderen Tool \u2013 etwa ONNX Runtime, TensorRT oder OpenVINO \u2013 f\u00fcr die Inferenz verwenden.<\/p><p data-start=\"1142\" data-end=\"1386\">Facebook und Microsoft entwickelten ONNX im Jahr 2017. Heute unterst\u00fctzen viele Unternehmen (darunter IBM, Intel, AMD, Qualcomm) sowie die Forschungsgemeinschaft dieses Open-Source-Projekt. Es erleichtert die Wiederverwendung von Modellen, beschleunigt den Schritt in die Produktion und erh\u00f6ht die Flexibilit\u00e4t von KI-Systemen.<\/p><p>&nbsp;<\/p><p data-start=\"1388\" data-end=\"1633\">Durch diese breite Unterst\u00fctzung und die Offenheit des Standards erm\u00f6glicht ONNX eine <b>bessere Wiederverwendbarkeit von Modellen, verk\u00fcrzt die Zeit bis zur Produktionsreife und steigert insgesamt die Portabilit\u00e4t und Flexibilit\u00e4t<\/b> von KI-Systemen.<\/p>\t\t\n\t\t\t<style>\n.elementor-widget-image{text-align:center}.elementor-widget-image a{display:inline-block}.elementor-widget-image a img[src$=\".svg\"]{width:48px}.elementor-widget-image img{vertical-align:middle;display:inline-block}<\/style>\t\t\t\t\t\t\t\t\t\t\t\t<img decoding=\"async\" width=\"1536\" height=\"1024\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/output1-3.png\" alt=\"\" loading=\"lazy\" srcset=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/output1-3.png 1536w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/output1-3-300x200.png 300w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/output1-3-1024x683.png 1024w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/output1-3-768x512.png 768w\" sizes=\"(max-width: 1536px) 100vw, 1536px\">\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\n\t\t\t\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\"><div class=\"wp-block-button \"><a class=\"wp-block-button__link wp-element-button \" href=\"\/\">ONNX entdecken<\/a><\/div><\/div>\n\n\t\t\t<h2 class=\"wp-block-heading\" id=\"h-architektur-und-technische-komponenten\"><font size=\"6\">Architektur und technische Komponenten<\/font><\/h2>\t\t\n\t\t<p data-start=\"245\" data-end=\"389\">Die Architektur von ONNX basiert auf drei zentralen technischen S\u00e4ulen, die zusammen eine reibungslose Portabilit\u00e4t von KI-Modellen erm\u00f6glichen.<\/p><p data-start=\"391\" data-end=\"787\"><strong data-start=\"391\" data-end=\"428\">1. Erweiterbarer Berechnungsgraph<\/strong><br data-start=\"428\" data-end=\"431\">Es bildet jedes Modell als <b>gerichteten azyklischen Graphen (DAG)<\/b> ab. Dabei stehen die Knoten f\u00fcr Operationen, die Kanten f\u00fcr Datenfl\u00fcsse. So strukturiert ONNX die mathematischen Transformationen nachvollziehbar.<\/p><p data-start=\"789\" data-end=\"1152\"><strong data-start=\"789\" data-end=\"822\">2. Standardisierte Operatoren<\/strong><br data-start=\"822\" data-end=\"825\">ONNX definiert einheitliche Operatoren wie Konvolution, Aktivierung oder Normalisierung. Diese sorgen daf\u00fcr, dass Modelle unabh\u00e4ngig vom urspr\u00fcnglichen Framework korrekt funktionieren \u2013 ohne erneutes Training.<\/p><p data-start=\"1154\" data-end=\"1486\"><strong data-start=\"1154\" data-end=\"1185\">3. Normalisierte Datentypen<\/strong><br data-start=\"1185\" data-end=\"1188\">Au\u00dferdem unterst\u00fctzt ONNX eine Vielzahl standardisierter Datentypen \u2013 von einfachen Ganzzahlen und Flie\u00dfkommazahlen bis hin zu mehrdimensionalen Tensors. Das garantiert eine <b>hohe Kompatibilit\u00e4t<\/b> mit diversen Inferenz-Engines und erleichtert die Integration in unterschiedliche technische Umgebungen.<\/p><p data-start=\"2111\" data-end=\"2280\">ONNX konzentriert sich auf die Inferenzphase, also die Ausf\u00fchrung bereits trainierter Modelle. Dabei erzielt es hohe Leistung, ohne die Trainingsumgebung einzuschr\u00e4nken.<\/p>\t\t\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<img decoding=\"async\" width=\"1536\" height=\"1024\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/output1-1-2.png\" alt=\"\" loading=\"lazy\" srcset=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/output1-1-2.png 1536w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/output1-1-2-300x200.png 300w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/output1-1-2-1024x683.png 1024w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/output1-1-2-768x512.png 768w\" sizes=\"(max-width: 1536px) 100vw, 1536px\">\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\n\t\t\t\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\"><div class=\"wp-block-button \"><a class=\"wp-block-button__link wp-element-button \" href=\"https:\/\/liora.io\/de\/quantum-machine-learning-an-der-schnittstelle-zwischen-neuen-technologien\">Auch interessant: Quantum Machine Learning<\/a><\/div><\/div>\n\n\t\t\t<h2 class=\"wp-block-heading\" id=\"h-der-workflow-im-uberblick\"><font size=\"6\">Der Workflow im \u00dcberblick<\/font><\/h2>\t\t\n\t\t<p>Das folgende gedankliche Schema beschreibt die Rolle von ONNX als Bindeglied zwischen Modelltraining und plattform\u00fcbergreifender Ausf\u00fchrung.<\/p>\t\t\n\t\t\t<h3 class=\"wp-block-heading\" id=\"h-1-training-im-ursprungsframework\">1. Training im Ursprungsframework<\/h3>\t\t\n\t\t<p data-start=\"2029\" data-end=\"2157\">Im ersten Schritt wird das Modell in einem der g\u00e4ngigen Frameworks f\u00fcr maschinelles oder tiefes Lernen entwickelt und trainiert:<\/p><ul data-start=\"2159\" data-end=\"2601\"><li data-start=\"2159\" data-end=\"2288\"><p data-start=\"2161\" data-end=\"2288\"><a style=\"background-color: #ffffff;\" href=\"https:\/\/liora.io\/de\/pytorch\">PyTorch<\/a>&nbsp;eignet sich besonders f\u00fcr Forschung und schnelles Prototyping dank seiner dynamischen Ausf\u00fchrung und einfachen API.<\/p><\/li><li data-start=\"2289\" data-end=\"2443\"><p data-start=\"2291\" data-end=\"2443\"><a style=\"background-color: #ffffff;\" href=\"https:\/\/liora.io\/de\/tensorflow\">TensorFlow<\/a>&nbsp;punktet in der Industrie mit stabiler Skalierbarkeit, verteilter Verarbeitung und Hardware-Optimierung \u2013 insbesondere f\u00fcr GPUs oder TPUs.<\/p><\/li><li data-start=\"2444\" data-end=\"2601\"><p data-start=\"2446\" data-end=\"2601\"><strong data-start=\"2446\" data-end=\"2462\">scikit-learn<\/strong> ist weit verbreitet im klassischen Machine Learning und kommt oft in Vorverarbeitungsschritten oder in analytischen Pipelines zum Einsatz.<\/p><\/li><\/ul><p>All diese Frameworks decken in Kombination eine gro\u00dfe Bandbreite an realen Anwendungsf\u00e4llen ab \u2013 und ONNX dient dabei als Br\u00fccke zwischen ihnen.<\/p>\t\t\n\t\t\t<h3 class=\"wp-block-heading\" id=\"h-2-ein-standardformat\">2. Ein Standardformat<\/h3>\t\t\n\t\t<p>Nach dem Training wird das Modell ins ONNX-Format exportiert. Dieses Format agiert als neutrale Zwischenschicht, die das Modell unabh\u00e4ngig von seinem Ursprung pr\u00e4sentiert. Es kombiniert drei zentrale Eigenschaften: einen strukturierten DAG f\u00fcr eine effiziente Ausf\u00fchrung, standardisierte Operatoren f\u00fcr semantische Konsistenz und formalisierte Datentypen f\u00fcr maximale Kompatibilit\u00e4t mit unterschiedlichen Hardware-Setups.<\/p>\t\t\n\t\t\t<h3 class=\"wp-block-heading\" id=\"h-3-ausfuhrung-auf-beliebiger-plattform\">3. Ausf\u00fchrung auf beliebiger Plattform<\/h3>\t\t\n\t\t<p data-start=\"3258\" data-end=\"3720\">Sobald das Modell im ONNX-Format vorliegt, kann es flexibel bereitgestellt werden \u2013 sei es lokal, in der Cloud, am Edge oder auf mobilen Endger\u00e4ten. Mit Inferenz-Engines wie <strong data-start=\"3432\" data-end=\"3448\">ONNX Runtime<\/strong>, <strong data-start=\"3450\" data-end=\"3462\">TensorRT<\/strong> oder <strong data-start=\"3468\" data-end=\"3480\">OpenVINO<\/strong> l\u00e4sst sich das Modell hochperformant ausf\u00fchren. Zudem ist die Integration in bestehende Softwareprojekte problemlos m\u00f6glich, da ONNX-Modelle mit verschiedenen Programmiersprachen wie&nbsp;<a style=\"background-color: #ffffff;\" href=\"https:\/\/liora.io\/de\/kurs-ueber-python-lernen-die-grundlagen\" target=\"_blank\" rel=\"noopener\">Python<\/a>,&nbsp;<a style=\"background-color: #ffffff;\" href=\"https:\/\/liora.io\/de\/c-was-die-meisten-nicht-wissen\" target=\"_blank\" rel=\"noopener\">C++<\/a>,&nbsp;<a style=\"background-color: #ffffff;\" href=\"https:\/\/liora.io\/de\/java-grundlagen-wir-erklaerens-dir-jdk-jre-und-jvm\" target=\"_blank\" rel=\"noopener\">Java<\/a>&nbsp;oder&nbsp;<a style=\"background-color: #ffffff;\" href=\"https:\/\/liora.io\/de\/javascript-meistern-die-komplette-roadmap-zur-webentwicklung\" target=\"_blank\" rel=\"noopener\">JavaScript<\/a>&nbsp;genutzt werden k\u00f6nnen.<\/p>\n<p><\/p>\n<p data-start=\"3722\" data-end=\"3896\">Insgesamt entkoppelt ONNX damit das Training vom Deployment und sorgt f\u00fcr maximale Flexibilit\u00e4t \u2013 bei gleichzeitig hoher Effizienz und plattform\u00fcbergreifender Kompatibilit\u00e4t.<\/p>\t\t\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<img decoding=\"async\" width=\"1536\" height=\"1024\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/output1-4.png\" alt=\"\" loading=\"lazy\" srcset=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/output1-4.png 1536w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/output1-4-300x200.png 300w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/output1-4-1024x683.png 1024w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/output1-4-768x512.png 768w\" sizes=\"(max-width: 1536px) 100vw, 1536px\">\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\n\t\t\t\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\"><div class=\"wp-block-button \"><a class=\"wp-block-button__link wp-element-button \" href=\"https:\/\/liora.io\/de\/data-augmentation-optimierung-der-leistung-von-deep-learning\">Data Augmentation und Deep Learning<\/a><\/div><\/div>\n\n\t\t\t<h2 class=\"wp-block-heading\" id=\"h-onnx-runtime-der-optimierte-ausfuhrungsmotor\"><font size=\"6\">ONNX Runtime: Der optimierte Ausf\u00fchrungsmotor<\/font><\/h2>\t\t\n\t\t<p data-start=\"194\" data-end=\"659\">ONNX Runtime f\u00fchrt ONNX-Modelle besonders schnell und effizient aus. Es nutzt gezielte <b>Optimierungen f\u00fcr verschiedene Hardwarearchitekturen \u2013 ob CPU,&nbsp;<a style=\"background-color: #ffffff;\" href=\"https:\/\/liora.io\/de\/gpu-data-science\">GPU<\/a>&nbsp;oder NPU.<\/b> Dank seiner Plattformunabh\u00e4ngigkeit funktioniert es reibungslos unter Windows, Linux, macOS, Android, iOS und im Web. Entwickler greifen \u00fcber Sprachen wie Python, C++, C# oder Java darauf zu. Durch den geringen Speicherverbrauch eignet sich ONNX Runtime ideal f\u00fcr den produktiven Einsatz und f\u00fcr eingebettete Systeme.<\/p>\t\t\n\t\t\t<h2 class=\"wp-block-heading\" id=\"h-industrielle-anwendungsfalle\"><font size=\"6\">Industrielle Anwendungsf\u00e4lle<\/font><\/h2>\t\t\n\t\t<p data-start=\"671\" data-end=\"931\">ONNX bringt Teams aus Forschung und Entwicklung n\u00e4her zusammen. W\u00e4hrend Data Scientists ein Modell beispielsweise in PyTorch entwickeln, kann das Engineering-Team es problemlos in produktionsreife Infrastrukturen integrieren.<\/p><p data-start=\"933\" data-end=\"1186\">Auch die Bereitstellung auf mehreren Plattformen gelingt ohne Mehraufwand \u2013 sei es auf&nbsp;<a style=\"background-color: #ffffff;\" href=\"https:\/\/liora.io\/de\/cloud-microsoft-azure-die-basics\">Azure<\/a>,&nbsp;<a style=\"background-color: #ffffff;\" href=\"https:\/\/liora.io\/de\/amazon-web-services\">AWS<\/a>, mobilen Ger\u00e4ten oder direkt im vernetzten Fahrzeug. ONNX erlaubt eine flexible und effiziente Nutzung derselben Modelle in unterschiedlichsten Umgebungen.<\/p><p data-start=\"1103\" data-end=\"1551\">&nbsp;<\/p><p data-start=\"1188\" data-end=\"1379\">Zudem l\u00e4sst sich die Qualit\u00e4t eines Modells auf mehreren Inferenz-Engines vergleichen. So k\u00f6nnen Unternehmen die Stabilit\u00e4t, Genauigkeit und Robustheit ihrer KI-Anwendungen objektiv bewerten.<\/p>\t\t\n\t\t\t<h2 class=\"wp-block-heading\" id=\"h-schlussfolgerung\"><font size=\"6\">Schlussfolgerung<\/font><\/h2>\t\t\n\t\t<p data-start=\"1386\" data-end=\"1693\">ONNX treibt die Interoperabilit\u00e4t in der KI-Welt entscheidend voran. Es verbindet verschiedene Frameworks durch ein standardisiertes Format, vereinfacht die \u00dcbertragung von Modellen aus der Forschung in die Produktion und senkt gleichzeitig die Abh\u00e4ngigkeit von propriet\u00e4ren L\u00f6sungen.<\/p><p data-start=\"2254\" data-end=\"2595\">&nbsp;<\/p><p data-start=\"1695\" data-end=\"1959\">Wer KI-Projekte zuverl\u00e4ssig skalieren will, findet hier ein leistungsstarkes Werkzeug. Es hilft dabei, Entwicklungsprozesse zu beschleunigen, Modelle wiederzuverwenden und neue KI-Anwendungen schneller bereitzustellen \u2013 plattform\u00fcbergreifend und zukunftssicher.<\/p>\t\t\n\t\t\t\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\"><div class=\"wp-block-button \"><a class=\"wp-block-button__link wp-element-button \" href=\"https:\/\/liora.io\/de\/unsere-aus-und-weiterbildungen\">Entdecke die Weiterbildungen von Liora<\/a><\/div><\/div>\n","protected":false},"excerpt":{"rendered":"<p>Mit wachsender Komplexit\u00e4t der KI-Projekte gewinnt die F\u00e4higkeit an Bedeutung, Modelle flexibel zu \u00fcbertragen und in verschiedenen Umgebungen auszuf\u00fchren. Das heutige \u00d6kosystem umfasst zahlreiche Entwicklungsframeworks \u2013 jedes mit eigenen Besonderheiten und propriet\u00e4ren Formaten. ONNX (Open Neural Network Exchange) schafft hier Abhilfe: Als quelloffener Standard erleichtert es die Interoperabilit\u00e4t und verbindet die unterschiedlichen Systeme reibungslos.<\/p>\n","protected":false},"author":85,"featured_media":206543,"comment_status":"open","ping_status":"open","sticky":false,"template":"elementor_theme","format":"standard","meta":{"_acf_changed":false,"editor_notices":[],"footnotes":""},"categories":[2472],"class_list":["post-206541","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-data-ki"],"acf":[],"_links":{"self":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/206541","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/users\/85"}],"replies":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/comments?post=206541"}],"version-history":[{"count":5,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/206541\/revisions"}],"predecessor-version":[{"id":216383,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/206541\/revisions\/216383"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media\/206543"}],"wp:attachment":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media?parent=206541"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/categories?post=206541"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}