{"id":205297,"date":"2026-01-28T11:25:29","date_gmt":"2026-01-28T10:25:29","guid":{"rendered":"https:\/\/liora.io\/de\/?p=205297"},"modified":"2026-02-19T15:58:47","modified_gmt":"2026-02-19T14:58:47","slug":"transformer-modelle-was-ist-das","status":"publish","type":"post","link":"https:\/\/liora.io\/de\/transformer-modelle-was-ist-das","title":{"rendered":"Transformer-Modelle in der KI: Was sie sind und warum sie so wichtig sind"},"content":{"rendered":"\n<p><b>Seit ihrer Einf\u00fchrung im Jahr 2017 haben Transformer-Modelle die Landschaft der KI radikal ver\u00e4ndert, insbesondere im Bereich der nat\u00fcrlichen Sprachverarbeitung (NLP).<\/b><\/p>\n\n\n\n<p>Entwickelt, um die Grenzen der <a href=\"https:\/\/liora.io\/de\/recurrent-neural-network\">rekurrenten neuronalen Netze (RNN)<\/a> zu \u00fcberwinden, basieren Transformer-Modelle auf Selbstaufmerksamkeitsmechanismen, die eine parallele Datenverarbeitung erm\u00f6glichen. Eingesetzt von ikonischen Systemen wie <a href=\"https:\/\/liora.io\/de\/chatgpt-wie-funktioniert-dfer-nlp-algorithmus\">ChatGPT<\/a>, <a href=\"https:\/\/liora.io\/de\/bert\">BERT<\/a> oder <a href=\"http:\/\/docs.google.com\/vision-transformers-tout-savoir\">ViT<\/a>, haben sie den Weg f\u00fcr Anwendungen geebnet, die von der <b>Echtzeit\u00fcbersetzung<\/b> bis zur <b>genomischen Analyse<\/b> reichen. Dieser Artikel untersucht ihre Funktionsweise, ihren Einfluss und ihre Herausforderungen.&lt;<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-was-gab-es-vor-den-transformern\">Was gab es vor den Transformern?<\/h2>\n\n\n\n<p>Vor 2017 waren die dominierenden Modelle f\u00fcr die Verarbeitung von Sequenzen (Text, Sprache) die <a href=\"https:\/\/liora.io\/de\/recurrent-neural-network\">rekurrenten neuronalen Netze (RNN)<\/a> und ihre Ableitungen wie die LSTM (Long Short-Term Memory). Diese Architekturen verarbeiteten Daten sequentiell und hielten einen \u201eGed\u00e4chtniszustand\u201c aufrecht, der bei jedem Schritt aktualisiert wurde. Sie litten jedoch unter zwei Hauptproblemen:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Problem des verschwindenden Gradienten<\/strong>: Bei langen Sequenzen ging die Information der ersten Tokens (W\u00f6rter) verloren.<\/li>\n\n\n\n<li><strong>Lange Trainingszeit<\/strong>: Die sequentielle Verarbeitung begrenzte die Parallelisierung, wodurch das Lernen langsamer bei gro\u00dfen Datenmengen wurde.<\/li>\n<\/ul>\n\n\n\n<p>Um diese M\u00e4ngel zu \u00fcberwinden, f\u00fchrten Forscher <strong>Aufmerksamkeitsschichten<\/strong> ein, die es den Modellen erm\u00f6glichten, sich auf relevante Teile des Inputs zu konzentrieren. Bei einer englisch-franz\u00f6sischen \u00dcbersetzungsaufgabe konnte das Modell beispielsweise direkt auf die Schl\u00fcsselw\u00f6rter im Quelltext zugreifen, um eine pr\u00e4zise Ausgabe zu erzeugen. Dennoch blieben diese Mechanismen mit RNNs gekoppelt&#8230; bis zur <strong>Transformers-Revolution<\/strong>.<\/p>\n\n\n\n<div class=\"wp-block-buttons is-content-justification-center is-layout-flex wp-container-core-buttons-is-layout-a89b3969 wp-block-buttons-is-layout-flex\">\n<div class=\"wp-block-button\"><a class=\"wp-block-button__link wp-element-button\" href=\"https:\/\/liora.io\/de\/ki-agenten-alles-ueber\">KI verstehen<\/a><\/div>\n<\/div>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-wie-wurden-die-transformer-entwickelt\">Wie wurden die Transformer entwickelt?<\/h2>\n\n\n\n<p>Beschrieben im bahnbrechenden Artikel <a href=\"https:\/\/arxiv.org\/abs\/1706.03762\"><i>\u201eAttention Is All You Need\u201c<\/i><\/a> (Vaswani et al., 2017), verzichtet diese Architektur auf RNNs zugunsten von purer Aufmerksamkeit, kombiniert mit innovativen Techniken.<\/p>\n\n\n\n<p>Sie besitzt diese <b>Schl\u00fcsselkomponenten:<\/b><\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-1-positionsembeddings\">1. Positionsembeddings<\/h3>\n\n\n\n<p>Im Gegensatz zu RNNs behandeln Transformer <b>Tokens nicht in Reihenfolge<\/b>. Um die sequentielle Information zu bewahren, erh\u00e4lt jedes Wort einen Positionsvektor (sinusoidal oder lernend), der seinen Platz im Satz angibt.&lt;br&gt;.elementor-widget-image{text-align:center}.elementor-widget-image a{display:inline-block}.elementor-widget-image a img[src$=&#8220;.svg&#8220;]{width:48px}.elementor-widget-image img{vertical-align:middle;display:inline-block}<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/05\/transformers-model-datascientest-1.webp\" alt=\"\" \/><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-2-selbstaufmerksamkeit\">2. Selbstaufmerksamkeit<\/h3>\n\n\n\n<p>Das Herzst\u00fcck des Transformers ist in den Selbstaufmerksamkeitsschichten, wo jedes Token mit allen anderen \u00fcber drei gelernte Matrizen interagiert:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><b>Anfrage (Query)<\/b>: Repr\u00e4sentiert, wonach das Token sucht.<\/li>\n\n\n\n<li><b>Schl\u00fcssel (Key)<\/b>: Bestimmt, was das Token anbieten kann.<\/li>\n\n\n\n<li><b>Wert (Value)<\/b>: Beinhaltet die zu \u00fcbertragende Information.<\/li>\n<\/ul>\n\n\n\n<p>Die Aufmerksamkeitsgewichte werden durch Skalarprodukt zwischen Anfragen und Schl\u00fcsseln berechnet und anschlie\u00dfend durch eine <i>Softmax<\/i>-Funktion normalisiert.<\/p>\n\n\n\n<p>Dieser Mechanismus erm\u00f6glicht es jedem Token, auf den gesamten Kontext des Satzes zur\u00fcckzugreifen, unabh\u00e4ngig von seiner Position, was eine bessere Verst\u00e4ndnis der sprachlichen Beziehungen f\u00f6rdert.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-3-mehrkopf-aufmerksamkeit\">3. Mehrkopf-Aufmerksamkeit<\/h3>\n\n\n\n<p>Um verschiedene Arten von Beziehungen (syntaktische, semantische) einzufangen, verwendet jede Schicht mehrere Aufmerksamkeitsk\u00f6pfe parallel. Jeder Aufmerksamkeitskopf lernt eine andere Darstellung, sodass das Modell gleichzeitig mehrere Bedeutungsebenen extrahieren kann, wie grammatikalische Abh\u00e4ngigkeiten und Bedeutungsbeziehungen.<\/p>\n\n\n\n<p>Die Ergebnisse werden verkettet und durch ein Feed-Forward-Neuronales Netz transformiert.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-4-encoder-decoder\">4. Encoder-Decoder<\/h3>\n\n\n\n<ul class=\"wp-block-list\">\n<li><b>Encoder<\/b>: Verarbeitet den Input, um eine kontextuelle Repr\u00e4sentation zu erzeugen.<\/li>\n\n\n\n<li><b>Decoder<\/b>: Nutzt diese Repr\u00e4sentation und die vorhergehenden Tokens, um die Ausgabe Schritt f\u00fcr Schritt zu generieren (z.B.: \u00dcbersetzung).<\/li>\n<\/ul>\n\n\n\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\">\n<div class=\"wp-block-button\"><a class=\"wp-block-button__link wp-element-button\" href=\"https:\/\/liora.io\/de\/generierter-vorab-trainierter-transformer-gpt-was-ist-das\">Was ist GPT und wie funktioniert es?<\/a><\/div>\n<\/div>\n\n\n<h2 class=\"wp-block-heading\" id=\"wie-werden-die-transformer-modelle-genutzt\"><span style=\"font-size: xx-large\">Wie werden die Transformer-Modelle genutzt?<\/span><\/h2>\n\n\n\n<p>Zuallererst <b>ChatGPT und die LLMs<\/b>. Die generativen Transformer (Generative Pretrained Transformer &#8211; <a href=\"https:\/\/liora.io\/de\/generierter-vorab-trainierter-transformer-gpt-was-ist-das\">GPT<\/a>, PaLM) erzeugen koh\u00e4renten Text, indem sie das n\u00e4chste Token vorhersagen. ChatGPT, das durch Verst\u00e4rkungstraining trainiert wurde, brilliert im Dialog und bei der Inhaltserstellung.<\/p>\n\n\n\n<p>Dann die <b>Kontextuelle Verst\u00e4ndnis mit BERT<\/b>. Im Gegensatz zu GPT verwendet BERT einen bidirektionalen Encoder, um den globalen Kontext zu erfassen. 2019 verbesserte es 70 % der Google-Suchanfragen.<\/p>\n\n\n\n<p>Dar\u00fcber hinaus gibt es die <b>Vision Transformer (ViT)<\/b>: Indem sie ein Bild in 16&#215;16-Patches zerlegen, konkurriert ViT mit CNNs bei der Klassifizierung, Objekterkennung usw., dank seiner F\u00e4higkeit, Langstreckenbeziehungen zu modellieren.<\/p>\n\n\n\n<p>Die folgende Abbildung skizziert die Architektur der Transformer sowie die von GPT und BERT im Vergleich, die einen Teil der Transformer-Architektur nutzen:<\/p>\n\n\n\n<figure class=\"wp-block-image\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/05\/transformers-model.webp\" alt=\"\" \/><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-was-sind-die-vorteile-der-transformer-modelle\">Was sind die Vorteile der Transformer-Modelle?<\/h2>\n\n\n\n<p>Durch <b>Parallelisierung<\/b> der Schritte werden sie <b>effizienter<\/b>: Vermeidung der sequentiellen Verarbeitung erm\u00f6glicht es den Transformern, <a href=\"https:\/\/liora.io\/de\/gpu-data-science\">GPUs<\/a>\/TPUs voll auszusch\u00f6pfen, wodurch die Trainingszeiten im Vergleich zu RNNs um 50 bis 80 % reduziert werden.<\/p>\n\n\n\n<p>Ihre Architektur erm\u00f6glicht ein <b>massives Vortraining auf unmarkierten Korpora<\/b> wie Wikipedia oder Buchinhalten. Modelle wie BERT oder GPT-3 erreichen beispiellose Leistungen mit Hunderten von Milliarden Parametern.<\/p>\n\n\n\n<p>Urspr\u00fcnglich f\u00fcr NLP entwickelt, sind die Transformer heute <b>vielseitig<\/b> und erstrecken sich nun auf:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><a href=\"https:\/\/liora.io\/de\/computer-vision\"><b>Computer Vision<\/b><\/a>: ViT (Vision Transformer) zerlegt Bilder in Patches und behandelt sie als Sequenzen.<\/li>\n\n\n\n<li><b>Biologie<\/b>: Analyse von DNA- oder Proteinsequenzen.<\/li>\n\n\n\n<li><b>Multimodalit\u00e4t<\/b>: Modelle, die Text, Bild und Ton kombinieren, wie <a href=\"https:\/\/liora.io\/de\/dall-e-eine-inspirationsquelle-fuer-kreative-berufe\">DALL-E<\/a>.<\/li>\n<\/ul>\n\n\n\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\">\n<div class=\"wp-block-button\"><a class=\"wp-block-button__link wp-element-button\" href=\"https:\/\/liora.io\/de\/prompt-engineering-was-ist-das\">Prompt Engineering verstehen<\/a><\/div>\n<\/div>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-was-sind-die-grenzen-der-transformer-modelle\">Was sind die Grenzen der Transformer-Modelle?<\/h2>\n\n\n\n<p>Zuallererst ist der <b>rechnerische und Umweltkosten<\/b>: Das Training von Modellen wie GPT-3 verbraucht mehrere Megawattstunden und wirft ethische und \u00f6kologische Fragen auf.<\/p>\n\n\n\n<p>Dazu reproduzieren die Transformer <b>Verzerrungen<\/b>, die in ihren Trainingsdaten vorhanden sind. Dies stellt ein erhebliches Risiko dar, wenn sie f\u00fcr kritische Entscheidungen verwendet werden, wie z.B. die Rekrutierung durch CV-Screening oder gar die medizinische Entscheidungsunterst\u00fctzung, da implizite Verzerrungen beibehalten und sogar verst\u00e4rkt werden k\u00f6nnen. Dar\u00fcber hinaus k\u00f6nnen sie falsche, aber plausible Aussagen generieren, wie z.B. die Erfindung nicht existierender akademischer Referenzen oder die Behauptung, dass ein fiktives Ereignis tats\u00e4chlich stattgefunden hat. Diese Aussagen sind <b>Halluzinationen<\/b>.<\/p>\n\n\n\n<p>Eine weitere unvermeidliche Einschr\u00e4nkung ist die <b>Komplexit\u00e4t der Interpretation<\/b>. Tats\u00e4chlich bleiben die Aufmerksamkeitsmechanismen, obwohl m\u00e4chtig, \u201eBlack Boxes\u201c, was die Identifizierung von systemischen Fehlern erschwert.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-zukunftige-perspektiven-der-transformer-modelle\">Zuk\u00fcnftige Perspektiven der Transformer-Modelle<\/h2>\n\n\n\n<p>Die schnelle Entwicklung der Transformer hat viele Bereiche grundlegend ver\u00e4ndert, wodurch eine Forschung zur Optimierung und Reduzierung ihres Energieverbrauchs unerl\u00e4sslich geworden ist. Heute bieten sich vielversprechende Perspektiven f\u00fcr die Nutzung der Transformer an:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><b>Eco-Effiziente Modelle<\/b>: Forschung nach sparsamen Architekturen, bei denen der Fokus auf der Optimierung des Ressourcenverbrauchs (Energie, Speicher, Rechenleistung, Datenvolumen usw.) liegt, wie <i>Sparse Transformers<\/i>, oder der Einsatz von Techniken wie LoRA (Low-Rank Adaptation), die es erm\u00f6glichen, Modelle zu verfeinern, ohne ein vollst\u00e4ndiges Retraining zu ben\u00f6tigen.<\/li>\n\n\n\n<li><a href=\"https:\/\/liora.io\/de\/multimodal-learning-die-technik-die-die-kuenstliche-intelligenz-revolutioniert\">Multimodale KI<\/a> : Nahtlose Integration von Text-Bild-Video wie GPT-4 oder Gemini, die mehrere Modalit\u00e4ten in einem einzigen Modell verarbeiten.<\/li>\n\n\n\n<li><b>Ethische Personalisierung<\/b>: Anpassung der LLMs an spezifische Bed\u00fcrfnisse ohne Verzerrungen.<\/li>\n<\/ul>\n\n\n\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/05\/transformers-model-datascientest-2.webp\" alt=\"\" \/><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-fazit\">Fazit<\/h2>\n\n\n\n<p>Die Transformer haben die <b>Grenzen der KI neu definiert<\/b>, indem sie Effizienz, Vielseitigkeit und Leistung kombinieren. Trotz technischer und ethischer Herausforderungen bleiben sie das R\u00fcckgrat der aktuellen Fortschritte, von virtuellen Assistenten bis hin zur medizinischen Forschung, insbesondere durch Diagnoseunterst\u00fctzungswerkzeuge. Ihre Entwicklung hin zu verantwortungsvolleren und energieeffizienteren Systemen wird wahrscheinlich <a href=\"https:\/\/liora.io\/de\/anthropic-alles-wissen\">das n\u00e4chste Jahrzehnt der k\u00fcnstlichen Intelligenz<\/a> pr\u00e4gen.<\/p>\n\n\n\n<div class=\"wp-block-buttons is-content-justification-center is-layout-flex wp-container-core-buttons-is-layout-a89b3969 wp-block-buttons-is-layout-flex\">\n<div class=\"wp-block-button\"><a class=\"wp-block-button__link wp-element-button\" href=\"https:\/\/liora.io\/de\/weiterbildung\">Bilde Dich mit uns weiter<\/a><\/div>\n<\/div>\n\n\n\n<script type=\"application\/ld+json\">\n{\n  \"@context\": \"https:\/\/schema.org\",\n  \"@type\": \"FAQPage\",\n  \"mainEntity\": [\n    {\n      \"@type\": \"Question\",\n      \"name\": \"Was gab es vor den Transformern?\",\n      \"acceptedAnswer\": {\n        \"@type\": \"Answer\",\n        \"text\": \"Vor 2017 dominierten rekurrente neuronale Netze (RNN) und LSTM die Sequenzverarbeitung. Sie verarbeiteten Daten sequentiell mit einem Ged\u00e4chtniszustand, litten aber unter zwei Hauptproblemen: dem verschwindenden Gradienten (Informationsverlust bei langen Sequenzen) und langen Trainingszeiten durch fehlende Parallelisierung. Aufmerksamkeitsschichten wurden eingef\u00fchrt, um diese M\u00e4ngel zu mildern, blieben aber zun\u00e4chst mit RNNs gekoppelt.\"\n      }\n    },\n    {\n      \"@type\": \"Question\",\n      \"name\": \"Wie wurden die Transformer entwickelt?\",\n      \"acceptedAnswer\": {\n        \"@type\": \"Answer\",\n        \"text\": \"Die Transformer-Architektur wurde 2017 im Artikel 'Attention Is All You Need' vorgestellt und verzichtet komplett auf RNNs. Kernkomponenten sind: 1. Positionsembeddings (geben die Wortposition im Satz an), 2. Selbstaufmerksamkeit (jedes Token interagiert mit allen anderen \u00fcber Query-, Key- und Value-Matrizen), 3. Mehrkopf-Aufmerksamkeit (parallele Aufmerksamkeitsk\u00f6pfe f\u00fcr verschiedene Beziehungsebenen) und 4. Encoder-Decoder-Struktur (Encoder verarbeitet Input, Decoder generiert Output).\"\n      }\n    },\n    {\n      \"@type\": \"Question\",\n      \"name\": \"Wie werden die Transformer-Modelle genutzt?\",\n      \"acceptedAnswer\": {\n        \"@type\": \"Answer\",\n        \"text\": \"Transformer haben drei Hauptanwendungsbereiche: Generative Modelle wie GPT (ChatGPT) sagen das n\u00e4chste Token voraus und erzeugen koh\u00e4renten Text. Bidirektionale Modelle wie BERT erfassen den globalen Kontext und verbesserten 2019 70% der Google-Suchanfragen. Vision Transformer (ViT) zerlegen Bilder in Patches und behandeln sie als Sequenzen, wodurch sie mit CNNs konkurrieren.\"\n      }\n    },\n    {\n      \"@type\": \"Question\",\n      \"name\": \"Was sind die Vorteile der Transformer-Modelle?\",\n      \"acceptedAnswer\": {\n        \"@type\": \"Answer\",\n        \"text\": \"Transformer bieten drei Hauptvorteile: Durch Parallelisierung sind sie 50-80% effizienter als RNNs. Ihr massives Vortraining auf unmarkierten Korpora erm\u00f6glicht beispiellose Leistungen mit Milliarden Parametern. Sie sind vielseitig und erstrecken sich von NLP \u00fcber Computer Vision (ViT) bis zur Biologie (DNA-Analyse) und Multimodalit\u00e4t (DALL-E).\"\n      }\n    },\n    {\n      \"@type\": \"Question\",\n      \"name\": \"Was sind die Grenzen der Transformer-Modelle?\",\n      \"acceptedAnswer\": {\n        \"@type\": \"Answer\",\n        \"text\": \"Transformer haben mehrere Einschr\u00e4nkungen: Hohe Rechen- und Umweltkosten (GPT-3 verbraucht Megawattstunden), Reproduktion von Verzerrungen aus Trainingsdaten (Risiko bei Rekrutierung oder medizinischen Entscheidungen), Erzeugung von Halluzinationen (falsche, aber plausible Aussagen) und mangelnde Interpretierbarkeit als 'Black Boxes', was die Fehleridentifikation erschwert.\"\n      }\n    },\n    {\n      \"@type\": \"Question\",\n      \"name\": \"Zuk\u00fcnftige Perspektiven der Transformer-Modelle\",\n      \"acceptedAnswer\": {\n        \"@type\": \"Answer\",\n        \"text\": \"Die Forschung konzentriert sich auf drei Bereiche: \u00d6ko-effiziente Modelle (Sparse Transformers, LoRA-Techniken), multimodale KI (Integration von Text, Bild und Video wie GPT-4) und ethische Personalisierung (Anpassung ohne Verzerrungen). Ziel ist die Entwicklung verantwortungsvollerer und energieeffizienterer Systeme.\"\n      }\n    },\n    {\n      \"@type\": \"Question\",\n      \"name\": \"Fazit\",\n      \"acceptedAnswer\": {\n        \"@type\": \"Answer\",\n        \"text\": \"Transformer haben die Grenzen der KI durch Effizienz, Vielseitigkeit und Leistung neu definiert. Trotz technischer und ethischer Herausforderungen bleiben sie das R\u00fcckgrat aktueller Fortschritte \u2013 von virtuellen Assistenten bis zur medizinischen Forschung. Ihre Entwicklung hin zu verantwortungsvolleren und energieeffizienteren Systemen wird das n\u00e4chste KI-Jahrzehnt pr\u00e4gen.\"\n      }\n    }\n  ]\n}\n<\/script>\n","protected":false},"excerpt":{"rendered":"<p>Seit ihrer Einf\u00fchrung im Jahr 2017 haben Transformer-Modelle die Landschaft der KI radikal ver\u00e4ndert, insbesondere im Bereich der nat\u00fcrlichen Sprachverarbeitung (NLP).<\/p>\n","protected":false},"author":50,"featured_media":205299,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"editor_notices":[],"footnotes":""},"categories":[2472],"class_list":["post-205297","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-data-ki"],"acf":[],"_links":{"self":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/205297","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/users\/50"}],"replies":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/comments?post=205297"}],"version-history":[{"count":4,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/205297\/revisions"}],"predecessor-version":[{"id":218800,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/205297\/revisions\/218800"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media\/205299"}],"wp:attachment":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media?parent=205297"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/categories?post=205297"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}