{"id":165131,"date":"2026-02-19T14:42:01","date_gmt":"2026-02-19T13:42:01","guid":{"rendered":"https:\/\/liora.io\/de\/?p=165131"},"modified":"2026-02-23T17:10:31","modified_gmt":"2026-02-23T16:10:31","slug":"word2vec","status":"publish","type":"post","link":"https:\/\/liora.io\/de\/word2vec","title":{"rendered":"Word2vec : NLP &amp; Word Embedding"},"content":{"rendered":"\n<p><strong><b>Word Embedding bezeichnet eine Reihe von Lernmethoden, die darauf abzielen, W\u00f6rter in einem Text durch Vektoren reeller Zahlen darzustellen.&nbsp; Heute pr\u00e4sentieren wir dir den dritten Teil unseres NLP-Dossiers.<\/b><\/strong><\/p>\n\n\n\n<p><b>Hast du die ersten Episoden verpasst? Keine Sorge, hier sind sie:<\/b><\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li>\u00a0 <a href=\"https:\/\/liora.io\/de\/nlp-natural-language-processing-eine-einfuhrung\">Einf\u00fchrung in NLP<\/a><\/li>\n\n\n\n<li><a href=\"\/#1\">Word embedding<b> &#8211;<\/b> Word2vec<\/a>\n<ol class=\"wp-block-list\">\n<li>\u00a0 <a href=\"\/#2\">Definition von word embedding<\/a><\/li>\n\n\n\n<li>\u00a0 <a href=\"\/#3\">Embedding mit Word2vec<\/a><\/li>\n\n\n\n<li>\u00a0 <a href=\"\/#4\">Metrisch in diesem Raum<\/a><\/li>\n<\/ol>\n<\/li>\n\n\n\n<li>\u00a0 <a href=\"https:\/\/liora.io\/de\/nlp-word-translation\">NLP &#8211; Wort\u00fcbersetzung<\/a><\/li>\n\n\n\n<li>\u00a0 <a href=\"https:\/\/liora.io\/de\/nlp-twitter-stimmungsanalyse\">NLP Twitter &#8211; Gef\u00fchlsanalyse<\/a><\/li>\n<\/ol>\n\n\n\n<p>Dieser Abschnitt soll die Funktionsweise erkl\u00e4ren und den ber\u00fchmten <b>Word2vec-Algorithmus in Python <\/b>implementieren.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-word-embedding\">Word Embedding<\/h2>\n\n\n\n<p>Zur Erinnerung: Word Embedding ist in der Lage, <b>den Kontext, die semantische und syntaktische \u00c4hnlichkeit (Genus, Synonyme, &#8230;) eines Wortes zu erfassen, indem es die Dimensionen verringert<\/b>.<\/p>\n\n\n\n<p>Man k\u00f6nnte z. B. erwarten, dass die W\u00f6rter &#8222;bemerkenswert&#8220; und &#8222;bewundernswert&#8220; durch Vektoren dargestellt werden, die in dem Vektorraum, in dem diese Vektoren definiert sind, relativ wenig voneinander entfernt sind.<\/p>\n\n\n\n<p>Die allgemein verwendete Einbettungsmethode, um die Gr\u00f6\u00dfe eines <b>Vektors zu reduzieren, besteht darin, das <\/b>Ergebnis zu verwenden, das eine dichte Schicht zur\u00fcckgibt, d. h. eine Einbettungsmatrix W mit der &#8222;one hot&#8220;-Darstellung des Wortes zu multiplizieren.<\/p>\n\n\n\n<p>In Vektorform :<\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter size-large\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/7\/2020\/09\/Capture-de\u0301cran-2020-09-18-a\u0300-09.23.58.png\" alt=\"\" \/><\/figure>\n\n\n\n<figure class=\"wp-block-image aligncenter size-large is-resized\"><a href=\"https:\/\/medium.com\/datadriveninvestor\/deep-learning-autoencoders-db265359943e\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/2020\/09\/Sche\u0301ma-1.png\" alt=\"\" style=\"width:auto;height:600px\" \/><\/a><figcaption class=\"wp-element-caption\">Auto-Encoder<\/figcaption><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-embedding-mit-word2vec\">Embedding mit Word2vec<\/h2>\n\n\n\n<p>Um die Einschr\u00e4nkungen der ersten Methode zu vermeiden, ist es jedoch m\u00f6glich, die W-Matrix mithilfe des bekannten <b>Word2Vec-Algorithmus un\u00fcberwacht mit einfachem Text zu <\/b>trainieren.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-wie-funktioniert-word2vec\">Wie funktioniert Word2vec?<\/h3>\n\n\n\n<p>Es gibt zwei Varianten des Word2vec, beide verwenden ein neuronales Netz mit drei Schichten (1 Eingabeschicht, 1 verborgene Schicht, 1 Ausgabeschicht): Common Bag Of Words (CBOW) und Skip-gram.<\/p>\n\n\n\n<p>In der folgenden Abbildung wird das <b>Wort im blauen Feld als Zielwort bezeichnet <\/b>und <b>die W\u00f6rter in den wei\u00dfen Feldern werden als Kontextw\u00f6rter <\/b>in <b>einem Fenster der Gr\u00f6\u00dfe 5 bezeichnet<\/b>.<\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter is-resized\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2022\/11\/image3.png\" alt=\"\" style=\"width:auto;height:250px\" \/><\/figure>\n\n\n\n<p><b>CBOW: Das Modell wird mit dem Kontext gef\u00fcttert <\/b>und sagt das Zielwort voraus. Das Ergebnis der verborgenen Schicht ist die neue Repr\u00e4sentation des Wortes (\u210e1, &#8230;, \u210e?).<\/p>\n\n\n\n<p><b>Skip Gram: Das Modell wird mit dem Zielwort gef\u00fcttert <\/b>und sagt die W\u00f6rter im Kontext voraus. Das Ergebnis der verborgenen Schicht ist die neue Darstellung des Wortes (\u210e1, &#8230;, \u210e?).<\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter is-resized\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2022\/11\/image2.png\" alt=\"\" style=\"width:auto;height:350px\" \/><\/figure>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-formatierung-der-daten\">Formatierung der Daten:<\/h4>\n\n\n\n<p>Hier werden wir <b>das CBOW-Modell vorstellen, <\/b>d. h. der <b>Kontext ist der Input <\/b>unseres Modells und das <b>Zielwort (blaues Wort) ist der Output<\/b>. Wir definieren ein Fenster mit der L\u00e4nge 5 f\u00fcr den Kontext (Eingabe).<\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter is-resized\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2022\/11\/image9.png\" alt=\"\" style=\"width:auto;height:250px\" \/><\/figure>\n\n\n\n<figure class=\"wp-block-image aligncenter\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2022\/11\/image1.png\" alt=\"\" \/><\/figure>\n\n\n\n<h4 class=\"wp-block-heading\" id=\"h-modell\">Modell:<\/h4>\n\n\n\n<p>Das CBOW-Modell hat \u00c4hnlichkeiten mit dem Klassifikationsmodell, das wir gerade im vorherigen Abschnitt implementiert haben. Unser Modell wird aus den folgenden Schichten bestehen:<\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter size-large is-resized\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/2020\/09\/Sche\u0301ma-3.png\" alt=\"\" style=\"width:auto;height:600px\" \/><figcaption class=\"wp-element-caption\">CBOW-Architektur<\/figcaption><\/figure>\n\n\n\n<ol class=\"wp-block-list\">\n<li>Die Embedding-Schicht wird <b>jedes Wort im Kontext in einen Embedding-Vektor umwandeln<\/b>. Die W-Matrix des Embeddings wird im Laufe des Workouts des Modells erlernt. Die resultierenden Dimensionen sind: (lot, context_size, embedding).<\/li>\n\n\n\n<li>Anschlie\u00dfend k\u00f6nnen mit der GlobalAveragePooling1D-Schicht <b>die verschiedenen Einbettungen summiert werden, <\/b>um eine Ausgabegr\u00f6\u00dfe zu erhalten (batch_size, embedding).<\/li>\n\n\n\n<li>Schlie\u00dflich kann der Dense-Layer mit der Gr\u00f6\u00dfe &#8222;voc_size&#8220; <b>das Zielwort vorhersagen<\/b>.<\/li>\n<\/ol>\n\n\n\n<pre class=\"wp-block-code has-xsmall-font-size\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><code>from tensorflow.keras import Sequential\nfrom tensorflow.keras.layers import Embedding, Dense, GlobalAveragePooling1D\n\nembedding_dim = 300\n\nmodel = Sequential()\nmodel.add(Embedding(vocab_size, embedding_dim))\nmodel.add(GlobalAveragePooling1D())\nmodel.add(Dense(vocab_size, activation='softmax'))<\/code><\/pre>\n\n\n\n<p>Die Cross-Entropy-Loss-Funktion wird in der Regel zum Workout des Modells :<\/p>\n\n\n\n<pre class=\"wp-block-code has-xsmall-font-size\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><code>model.compile(optimizer='adam',\n              loss='sparse_categorical_crossentropy',\n              metrics=&#091;'accuracy'])\n\nhistory = model.fit(X, y,\n    batch_size = 256,\n    epochs=10)<\/code><\/pre>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-metrisch-in-diesem-raum\">Metrisch in diesem Raum:<\/h3>\n\n\n\n<p>Da das Modell nun trainiert ist, kann es interessant sein, den Abstand zwischen den W\u00f6rtern zu vergleichen.<\/p>\n\n\n\n<p><b>Die &#8222;Cosine similarity&#8220; wird im Allgemeinen als <\/b>Metrik zur Messung der Entfernung verwendet, wenn die <b>Norm der Vektoren keine Rolle spielt.<\/b> Diese Metrik erfasst die \u00c4hnlichkeit zwischen zwei W\u00f6rtern.<\/p>\n\n\n\n<p>Je n\u00e4her die &#8222;cosine similarity&#8220; an 1 liegt, desto mehr <b>sind die beiden W\u00f6rter miteinander verwandt.<\/b><\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter is-resized\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2022\/11\/image4.png\" alt=\"\" style=\"width:auto;height:250px\" \/><\/figure>\n\n\n\n<p>Mit dieser Metrik und in diesem Untervektorraum sind die 5 W\u00f6rter, die <b>am n\u00e4chsten an &#8222;body&#8220; liegen, :<\/b><\/p>\n\n\n\n<pre class=\"wp-block-preformatted\">intestines - 0.30548161268234253\nbodies - 0.2691531181335449\narm - 0.24878980219364166\nchest - 0.2261650413274765\nleg - 0.2193179428577423<\/pre>\n\n\n\n<div style=\"height:1px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p>Die obigen Zahlen stellen die Cos-similar-Distanzen zwischen dem Wort &#8222;body&#8220; und den n\u00e4chstliegenden W\u00f6rtern dar.<\/p>\n\n\n\n<p>Zum Wort &#8222;<b>Zombie<\/b>&#8222;:<\/p>\n\n\n\n<pre class=\"wp-block-preformatted\">Slasher - 0.3172745406627655\ncannibal - 0.28496912121772766\nzombies - 0.2767203450202942\nhorror - 0.2607246935367584\nzombi - 0.25878411531448364<\/pre>\n\n\n\n<div style=\"height:1px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p>Zum Wort &#8222;<b>amazing<\/b>&#8222;:<\/p>\n\n\n\n<pre class=\"wp-block-preformatted\">gl\u00e4nzend - 0.3372475802898407\nextraordinary - 0.319326251745224\ngreat - 0.29579296708106995\nbreathtaking - 0.2907085716724396\nfantastic - 0.2871546149253845<\/pre>\n\n\n\n<div style=\"height:1px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p>Zum Wort &#8222;<b>god<\/b>&#8222;:<\/p>\n\n\n\n<pre class=\"wp-block-preformatted\">heavens - 0.268303781747818\njesus - 0.26807624101638794\ngoodness - 0.2618488669395447\ngods - 0.24795521795749664\ndoom - 0.22242328524589539<\/pre>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-arithmetische-eigenschaften\">Arithmetische Eigenschaften:<\/h3>\n\n\n\n<p>Wir k\u00f6nnen uns nun die Frage stellen, ob unser Untervektorraum der W\u00f6rter arithmetische Eigenschaften hat. Nehmen wir das folgende ber\u00fchmte Beispiel:<\/p>\n\n\n\n<p class=\"has-text-align-center\"><span style=\"font-weight: 400\">\ud835\udc3e\ud835\udc56\ud835\udc5b\ud835\udc54\u00a0\u2212\u00a0\ud835\udc40\ud835\udc4e\ud835\udc5b\u00a0+\u00a0\ud835\udc4a\ud835\udc5c\ud835\udc5a\ud835\udc4e\ud835\udc5b\u00a0=\u00a0<\/span><span style=\"font-size: 16px;font-weight: 400\">\ud835\udc44\ud835\udc62\ud835\udc52\ud835\udc52\ud835\udc5b<\/span><\/p>\n\n\n\n<p>In diesem Beispiel <b>ist <\/b>die <b>arithmetische Eigenschaft das K\u00f6nigtum<\/b>. Wir m\u00f6chten \u00fcberpr\u00fcfen, ob sich diese Eigenschaft auf &#8222;woman&#8220; ausbreiten wird. Das hei\u00dft, wir werden nach den W\u00f6rtern suchen, die dem folgenden Vektor am n\u00e4chsten liegen:<\/p>\n\n\n\n<p class=\"has-text-align-center\">arithmetic_vector = word2vec[index_word1] &#8211; word2vec[index_word2] + word2vec [index_word3].<\/p>\n\n\n\n<p>Hier ist das Wort &#8222;queen&#8220; in unserem Datensatz nicht sehr stark vertreten, was eine schlechte Darstellung erkl\u00e4rt. Aus diesem Grund werden wir uns stattdessen mit <b>der Zahleneigenschaft <\/b>:<\/p>\n\n\n\n<p class=\"has-text-align-center\"><i><span style=\"font-weight: 400\">Men<\/span><\/i><span style=\"font-weight: 400\">\u00a0\u2212\u00a0\ud835\udc40\ud835\udc4e\ud835\udc5b\u00a0+\u00a0\ud835\udc4a\ud835\udc5c\ud835\udc5a\ud835\udc4e\ud835\udc5b\u00a0=\u00a0Women<\/span><\/p>\n\n\n\n<p>Unter Verwendung der oben definierten Operation und einer Metrik f\u00fcr die Kos\u00e4hnlichkeit sind die <b>f\u00fcnf \u00e4hnlichsten W\u00f6rter :<\/b><\/p>\n\n\n\n<pre class=\"wp-block-preformatted\">women - 0.2889893054962158\nweiblich - 0.272260844707489\nstrangers - 0.24558939039707184\nteens - 0.2443128377199173\ndaughters - 0.24117740988731384<\/pre>\n\n\n\n<div style=\"height:1px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p>Das Ergebnis f\u00fcr Zombies &#8211; Zombie + ????? :<\/p>\n\n\n\n<pre class=\"wp-block-preformatted\">women - 0.2547883093357086\nweiblich - 0.23258551955223083\nladies - 0.22764989733695984\nstripper - 0.22274985909461975\ndevelops - 0.2202150821685791<\/pre>\n\n\n\n<div style=\"height:1px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p>Das Ergebnis f\u00fcr Men &#8211; Man + Soldier :<\/p>\n\n\n\n<pre class=\"wp-block-preformatted\">soldiers - 0.3547001779079437\ndaughters - 0.21896378695964813\nletters - 0.21452251076698303\nbackyard - 0.21437858045101166\nveterans - 0.21067838370800018<\/pre>\n\n\n\n<div style=\"height:1px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p>Das Ergebnis f\u00fcr Zombies &#8211; Zombie + Monster :<\/p>\n\n\n\n<pre class=\"wp-block-preformatted\">werewolves - 0.2724993824958801\nmonsters - 0.25695472955703735\ncreature - 0.24453674256801605\nDrachen - 0.22363890707492828\nbloke - 0.21858260035514832<\/pre>\n\n\n\n<div style=\"height:1px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p>Hier scheinen die W\u00f6rter &#8222;monsters&#8220; und &#8222;werewolves&#8220; im Zusammenhang mit unserem Datensatz sehr \u00e4hnlich zu sein.<\/p>\n\n\n\n<p>Mithilfe einer PCA k\u00f6nnen wir die Dimension der <b>Zahleneigenschaft :<\/b><\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter is-resized is-style-not-rounded\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2022\/11\/image_word2vec.webp\" alt=\"\" style=\"width:auto;height:600px\" \/><\/figure>\n\n\n\n<p>Mit der gleichen Argumentation wird das <b>Geschlecht erfasst:<\/b><\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter is-resized is-style-not-rounded\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2022\/11\/word2vec_3.webp\" alt=\"\" style=\"width:auto;height:600px\" \/><\/figure>\n\n\n\n<p>Mit der gleichen Argumentation zwischen Verben im <b>Infinitiv und Verben, die auf -ed enden:<\/b><\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter is-resized is-style-not-rounded\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2022\/11\/word2vec_2.webp\" alt=\"\" style=\"width:auto;height:600px\" \/><\/figure>\n\n\n\n<p>Das <b>&#8222;word2vec embedding&#8220; erfasst effektiv die semantischen und arithmetischen Eigenschaften eines Wortes<\/b>. Es <b>reduziert <\/b>au\u00dferdem <b>die Dimension des Problems und damit die Lernaufgabe<\/b>.<\/p>\n\n\n\n<p>Wir k\u00f6nnen uns vorstellen, den word2vec-Algorithmus zu verwenden, um die <b>Einbettungsmatrix des Klassifikationsmodells vorab zu trainieren.<\/b> Infolgedessen wird unser Klassifikationsmodell w\u00e4hrend der Lernphase der Gef\u00fchle eine viel bessere Darstellung der W\u00f6rter haben.<\/p>\n\n\n\n<p><b>Hast du Lust, eine <\/b>ausf\u00fchrlichere <b>Schulung <\/b>zu den verschiedenen Aspekten, die in diesem Artikel behandelt werden, zu <b>beginnen?<\/b><\/p>\n\n\n\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\">\n<div class=\"wp-block-button\"><a class=\"wp-block-button__link wp-element-button\" href=\"https:\/\/liora.io\/de\/weiterbildung\/data-ki\">Entdecke alle unsere Module!<\/a><\/div>\n<\/div>\n\n\n\n<script type=\"application\/ld+json\">\n{\n  \"@context\": \"https:\/\/schema.org\",\n  \"@type\": \"FAQPage\",\n  \"mainEntity\": [\n    {\n      \"@type\": \"Question\",\n      \"name\": \"Word Embedding\",\n      \"acceptedAnswer\": {\n        \"@type\": \"Answer\",\n        \"text\": \"Word Embedding erfasst Kontext, semantische und syntaktische \u00c4hnlichkeit (Genus, Synonyme) durch Dimensionsreduktion. \u00c4hnliche W\u00f6rter wie 'bemerkenswert' und 'bewundernswert' werden durch nahe beieinander liegende Vektoren dargestellt. Die \u00fcbliche Methode ist die Multiplikation einer Embedding-Matrix W mit der One-Hot-Darstellung des Wortes.\"\n      }\n    },\n    {\n      \"@type\": \"Question\",\n      \"name\": \"Embedding mit Word2vec\",\n      \"acceptedAnswer\": {\n        \"@type\": \"Answer\",\n        \"text\": \"Word2vec trainiert die W-Matrix un\u00fcberwacht mit einfachem Text. Es gibt zwei Varianten mit einem 3-Schicht-Neuronalen-Netz: CBOW (Kontext als Input, sagt Zielwort voraus) und Skip-gram (Zielwort als Input, sagt Kontextw\u00f6rter voraus). Die versteckte Schicht liefert die neue Wortrepr\u00e4sentation.\"\n      }\n    }\n  ]\n}\n<\/script>\n","protected":false},"excerpt":{"rendered":"<p>Word Embedding bezeichnet eine Reihe von Lernmethoden, die darauf abzielen, W\u00f6rter in einem Text durch Vektoren reeller Zahlen darzustellen. Heute pr\u00e4sentieren wir dir den dritten Teil unseres NLP-Dossiers. Hast du die ersten Episoden verpasst? Keine Sorge, hier sind sie: Einf\u00fchrung in NLP Word embedding &#8211; Word2vec Definition von word embedding Embedding [&hellip;]<\/p>\n","protected":false},"author":47,"featured_media":218699,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"editor_notices":[],"footnotes":""},"categories":[2472],"class_list":["post-165131","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-data-ki"],"acf":[],"_links":{"self":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/165131","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/users\/47"}],"replies":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/comments?post=165131"}],"version-history":[{"count":4,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/165131\/revisions"}],"predecessor-version":[{"id":219533,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/165131\/revisions\/219533"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media\/218699"}],"wp:attachment":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media?parent=165131"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/categories?post=165131"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}