{"id":198663,"date":"2026-01-28T16:47:38","date_gmt":"2026-01-28T15:47:38","guid":{"rendered":"https:\/\/liora.io\/de\/?p=198663"},"modified":"2026-02-24T10:23:00","modified_gmt":"2026-02-24T09:23:00","slug":"naive-bayes-klassifizierer","status":"publish","type":"post","link":"https:\/\/liora.io\/de\/naive-bayes-klassifizierer","title":{"rendered":"Naive Bayes Klassifizierer: Theorie und Anwendung"},"content":{"rendered":"\n<p><strong>Der Naive-Bayes-Klassifikator ist eine Klassifikationsmethode, die auf dem Bayes-Theorem basiert und davon ausgeht, dass die Pr\u00e4diktoren voneinander unabh\u00e4ngig sind. Trotz seiner Einfachheit hat der Naive-Bayes-Klassifikator seine Effektivit\u00e4t in verschiedenen Anwendungsbereichen bewiesen, darunter Spam-Filterung, Sentiment-Analyse und Dokumentklassifikation.<\/strong><\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-theorie-des-naive-bayes-klassifikators\">Theorie des Naive-Bayes-Klassifikators<\/h2>\n\n\n\n<p>Der Naive-Bayes-Klassifikator basiert auf der Anwendung des Bayes-Theorems, das die Wahrscheinlichkeit eines Ereignisses beschreibt, basierend auf a priori bekannten Bedingungen, die mit dem Ereignis in Zusammenhang stehen. Die Formel des Bayes-Theorems lautet wie folgt:<\/p>\n\n\n\n<p><strong><b>P(A|B) = P(B|A) * P(A) \/ P(B)<\/b><\/strong><\/p>\n\n\n\n<p>wo:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>P(A|B) die Wahrscheinlichkeit des Ereignisses A ist, gegeben, dass das Ereignis B wahr ist.<\/li>\n\n\n\n<li>P(B|A) die Wahrscheinlichkeit des Ereignisses B ist, gegeben, dass das Ereignis A wahr ist.<\/li>\n\n\n\n<li>P(A) und P(B) die a priori Wahrscheinlichkeiten der Ereignisse A und B sind.<\/li>\n<\/ul>\n\n\n\n<p>Im <a href=\"https:\/\/liora.io\/de\/klassifikationsalgorithmen-definition-und-hauptmodelle\">Kontext der Klassifikation<\/a> repr\u00e4sentiert A eine spezifische Klasse und B eine Menge von Merkmalen (oder Attributen). Der Naive-Bayes-Klassifikator berechnet die Wahrscheinlichkeit, dass ein Beispiel einer gegebenen Klasse angeh\u00f6rt, wobei angenommen wird, dass alle Merkmale voneinander unabh\u00e4ngig sind.<\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2024\/08\/Naive-Bayes-Classifier1.jpg\" alt=\"\" \/><\/figure>\n\n\n\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\">\n<div class=\"wp-block-button\"><a class=\"wp-block-button__link wp-element-button\" href=\"https:\/\/liora.io\/de\/weiterbildung-data-scientist\">Alles \u00fcber den Naive-Bayes-Klassifizierer<\/a><\/div>\n<\/div>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-typen-von-naive-bayes-klassifikatoren\">Typen von Naive-Bayes-Klassifikatoren<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-gaussian-naive-bayes\">Gaussian Naive Bayes<\/h3>\n\n\n\n<p>Der Gaussian Naive Bayes-Klassifikator wird verwendet, wenn die Attribute kontinuierlich sind und einer Normalverteilung folgen. Dieser Klassifikator ist besonders n\u00fctzlich in Kontexten, in denen kontinuierliche Variablen vorliegen und durch eine Gau\u00dfsche Verteilung modelliert werden k\u00f6nnen. Die zugrunde liegende Annahme ist, dass die Daten jeder Klasse gem\u00e4\u00df einem Normalgesetz (oder Gau\u00dfgesetz) verteilt sind.<\/p>\n\n\n\n<p>Formal ist, wenn wir eine kontinuierliche Variable x und eine Klasse c haben, die bedingte Wahrscheinlichkeit P(x|c) durch die Wahrscheinlichkeitsdichtefunktion der Normalverteilung gegeben:<\/p>\n\n\n\n<p><b>P(x|c) = (1 \/ \u221a(2\u03c0\u03c3\u00b2_c)) * exp(- (x \u2013 \u03bc_c)\u00b2 \/ (2\u03c3\u00b2_c))<\/b><\/p>\n\n\n\n<p>wo <b>\u03bc_c<\/b> der Mittelwert der Werte f\u00fcr die Klasse c und <b>\u03c3\u00b2_c<\/b> die Varianz der Werte f\u00fcr die Klasse c ist. Der Gaussian Naive Bayes-Klassifikator wird oft in Anwendungen wie <a href=\"https:\/\/liora.io\/de\/gesichtserkennung-entschluesselung-ihrer-funktionsweise\">Formenerkennung<\/a> und <a href=\"https:\/\/liora.io\/de\/image-processing\">Bildklassifikation<\/a> eingesetzt.<\/p>\n\n\n\n<p><b>Beispiel<\/b><\/p>\n\n\n\n<p>Angenommen, wir haben zwei Klassen c1 und c2 mit den folgenden Parametern:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>F\u00fcr c1: \u03bc_c1 = 5 und \u03c3\u00b2_c1 = 1<\/li>\n\n\n\n<li>F\u00fcr c2: \u03bc_c2 = 10 und \u03c3\u00b2_c2 = 2<\/li>\n<\/ul>\n\n\n\n<p>Wenn wir eine neue Beobachtung x = 6 klassifizieren wollen, berechnen wir P(x|c1) und P(x|c2) und vergleichen diese Werte.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-multinomial-naive-bayes\">Multinomial Naive Bayes<\/h3>\n\n\n\n<p>Der Multinomial Naive Bayes-Klassifikator wird h\u00e4ufig zur Dokumentklassifikation verwendet, wenn die Daten Wortfrequenzen sind. Dieses Modell eignet sich gut f\u00fcr diskrete Daten wie Wortanzahl oder Ereignisse. Es nimmt an, dass die Merkmale einer multinomialen Verteilung folgen, was f\u00fcr Textklassifizierungsaufgaben geeignet ist, bei denen die Merkmale Vorkommen von W\u00f6rtern sind.<\/p>\n\n\n\n<p>Formal wird die bedingte Wahrscheinlichkeit P(x|c) f\u00fcr ein Merkmal x und eine Klasse c durch folgende Formel gegeben:<\/p>\n\n\n\n<p><b>P(x|c) = (n_x,c + \u03b1) \/ (N_c + \u03b1N)<\/b><\/p>\n\n\n\n<p>wo <b>n_x,c<\/b> die Anzahl der Vorkommen des Wortes x in den Dokumenten der Klasse c, <b>N_c<\/b> die Gesamtzahl der W\u00f6rter in den Dokumenten der Klasse c, <b>\u03b1<\/b> ein Gl\u00e4ttungsparameter von Laplace und <b>N<\/b> die Gesamtzahl der verschiedenen W\u00f6rter ist. Die Laplace-Gl\u00e4ttung wird verwendet, um das <b>Problem der null-Wahrscheinlichkeiten<\/b> f\u00fcr W\u00f6rter zu l\u00f6sen, die in den Trainingsdokumenten nicht vorkommen.<\/p>\n\n\n\n<p><b>Beispiel<\/b><\/p>\n\n\n\n<p>Angenommen, wir haben zwei Klassen, \u2018sport\u2019 und \u2018politik\u2019, und m\u00f6chten das Wort \u2018match\u2019 klassifizieren. Wir haben die folgenden Z\u00e4hlungen:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>\u2018match\u2019 erscheint 50 Mal in Dokumenten der Klasse \u2018sport\u2019 und 5 Mal in Dokumenten der Klasse \u2018politik\u2019.<\/li>\n\n\n\n<li>Die Gesamtanzahl der W\u00f6rter in der Klasse \u2018sport\u2019 betr\u00e4gt 1000 und in der Klasse \u2018politik\u2019 betr\u00e4gt 800.<\/li>\n<\/ul>\n\n\n\n<p>Mit einer Laplace-Gl\u00e4ttung von \u03b1 = 1 berechnen wir:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>P(\u2018match\u2019|\u2019sport\u2019) = (50 + 1) \/ (1000 + 1 * 1000)<\/li>\n\n\n\n<li>P(\u2018match\u2019|\u2019politik\u2019) = (5 + 1) \/ (800 + 1 * 1000)<\/li>\n<\/ul>\n\n\n\n<p>Wir verwenden diese Wahrscheinlichkeiten, um ein neues Dokument zu klassifizieren, das das Wort \u2018match\u2019 enth\u00e4lt.<\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2024\/08\/Naive-Bayes-Classifier2.jpg\" alt=\"\" \/><\/figure>\n\n\n\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\">\n<div class=\"wp-block-button\"><a class=\"wp-block-button__link wp-element-button\" href=\"https:\/\/liora.io\/de\/weiterbildung-data-scientist\">Alles \u00fcber den Naive-Bayes-Klassifikator lernen<\/a><\/div>\n<\/div>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-bernoulli-naive-bayes\">Bernoulli Naive Bayes<\/h3>\n\n\n\n<p>Der Bernoulli Naive Bayes-Klassifikator ist f\u00fcr bin\u00e4re Variablen (Vorhandensein oder Nichtvorhandensein eines Merkmals) geeignet. Dieses Modell wird haupts\u00e4chlich f\u00fcr Textklassifizierungsaufgaben verwendet, bei denen die Merkmale bin\u00e4re Indikatoren (0 oder 1) sind, die das Vorhandensein oder Nichtvorhandensein eines bestimmten Wortes darstellen.<\/p>\n\n\n\n<p>In diesem Modell wird die bedingte Wahrscheinlichkeit P(x|c) in Abh\u00e4ngigkeit vom Vorhandensein oder Nichtvorhandensein des Merkmals berechnet:<\/p>\n\n\n\n<p><b>P(x_i = 1 | c) = (n_i,c + \u03b1) \/ (N_c + 2\u03b1)<\/b><\/p>\n\n\n\n<p><b>P(x_i = 0 | c) = 1 \u2013 P(x_i = 1 | c)<\/b><\/p>\n\n\n\n<p>wo <b>n_i,c<\/b> die Anzahl der Dokumente der Klasse c ist, in denen das Merkmal <b>x_i<\/b> vorhanden ist, und <b>N_c<\/b> die Gesamtanzahl der Dokumente der Klasse c ist. Der Gl\u00e4ttungsparameter \u03b1 wird verwendet, um null-Wahrscheinlichkeiten zu vermeiden.<\/p>\n\n\n\n<p><b>Beispiel<\/b><\/p>\n\n\n\n<p>Angenommen, wir haben zwei Klassen, \u2018spam\u2019 und \u2018non-spam\u2019, und m\u00f6chten das Auftreten des Wortes \u2018gratis\u2019 klassifizieren.<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>\u2018gratis\u2019 erscheint in 70 der 100 Dokumente der Klasse \u2018spam\u2019 und in 20 der 100 Dokumente der Klasse \u2018non-spam\u2019.<\/li>\n<\/ul>\n\n\n\n<p>Mit einer Laplace-Gl\u00e4ttung von \u03b1 = 1 berechnen wir:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>P(\u2018gratis\u2019 = 1|\u2019spam\u2019) = (70 + 1) \/ (100 + 2 * 1)<\/li>\n\n\n\n<li>P(\u2018gratis\u2019 = 0|\u2019spam\u2019) = 1 \u2013 P(\u2018gratis\u2019 = 1|\u2019spam\u2019)<\/li>\n\n\n\n<li>P(\u2018gratis\u2019 = 1|\u2019non-spam\u2019) = (20 + 1) \/ (100 + 2 * 1)<\/li>\n\n\n\n<li>P(\u2018gratis\u2019 = 0|\u2019non-spam\u2019) = 1 \u2013 P(\u2018gratis\u2019 = 1|\u2019non-spam\u2019)<\/li>\n<\/ul>\n\n\n\n<p>Wir verwenden diese Wahrscheinlichkeiten, um ein neues Dokument basierend auf dem Vorhandensein oder Nichtvorhandensein des Wortes \u2018gratis\u2019 zu klassifizieren.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-praktische-anwendungen\">Praktische Anwendungen<\/h2>\n\n\n\n<p>Der Naive-Bayes-Klassifikator wird in vielen Bereichen verwendet, darunter:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><a href=\"https:\/\/liora.io\/de\/data-poisoning-eine-bedrohung-fuer-machine-learning-modelle\">Spam-Filterung:<\/a> Identifizierung von unerw\u00fcnschten E-Mails. Unter Verwendung der Merkmale der E-Mail, wie der H\u00e4ufigkeit bestimmter W\u00f6rter, kann der Naive-Bayes-Klassifikator die Wahrscheinlichkeit bestimmen, dass eine E-Mail ein Spam ist oder nicht.<\/li>\n\n\n\n<li><a href=\"https:\/\/liora.io\/de\/sentiment-analysis-und-machine-learning\">Sentiment-Analyse:<\/a> Bestimmung der in einem Text ausgedr\u00fcckten Meinung. Der Klassifikator kann verwendet werden, um zu bewerten, ob die in Produktrezensionen, sozialen Netzwerken oder anderen Texten ausgedr\u00fcckten Gef\u00fchle positiv, negativ oder neutral sind.<\/li>\n\n\n\n<li><a href=\"https:\/\/liora.io\/de\/klassifikationsalgorithmen-definition-und-hauptmodelle\">Dokumentklassifikation<b>:<\/b><\/a> Automatische Kategorisierung von Texten basierend auf ihrem Inhalt. Beispielsweise k\u00f6nnen Artikel in Content-Management-Systemen automatisch in Kategorien wie Sport, Politik, Technologie usw. eingeteilt werden.<\/li>\n<\/ul>\n\n\n\n<figure class=\"wp-block-image aligncenter\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2024\/08\/Naive-Bayes-Classifier3.jpg\" alt=\"\" \/><\/figure>\n\n\n\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\">\n<div class=\"wp-block-button\"><a class=\"wp-block-button__link wp-element-button\" href=\"https:\/\/liora.io\/de\/weiterbildung-data-scientist\">Den Naive-Bayes-Klassifizierer beherrschen<\/a><\/div>\n<\/div>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-vor-und-nachteile\">Vor- und Nachteile<\/h2>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-vorteile\">Vorteile<\/h3>\n\n\n\n<ul class=\"wp-block-list\">\n<li><b>Einfachheit:<\/b> Leicht zu verstehen und umzusetzen. Der Naive-Bayes-Klassifikator ist einfach zu kodieren und erfordert nicht viele Abstimmparameter.<\/li>\n\n\n\n<li><b>Schnelligkeit:<\/b> Berechnungseffizient, selbst bei gro\u00dfen Datens\u00e4tzen. Aufgrund seiner Einfachheit ist der Naive-Bayes-Klassifikator extrem schnell zu trainieren und vorherzusagen.<\/li>\n\n\n\n<li><b>Leistung:<\/b> Kann sehr leistungsf\u00e4hig sein, insbesondere bei Textdaten. Trotz seiner simplen Annahmen liefert er oft wettbewerbsf\u00e4hige Ergebnisse im Vergleich zu komplexeren Modellen, insbesondere bei Textklassifizierungsaufgaben.<\/li>\n<\/ul>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-nachteile\">Nachteile<\/h3>\n\n\n\n<ul class=\"wp-block-list\">\n<li><b>Unabh\u00e4ngigkeitsannahme:<\/b> Die Unabh\u00e4ngigkeitsannahme zwischen den Pr\u00e4diktoren ist oft unrealistisch. In vielen praktischen F\u00e4llen sind die Merkmale nicht wirklich unabh\u00e4ngig, was zu suboptimalen Vorhersagen f\u00fchren kann.<\/li>\n\n\n\n<li><b>Variable Leistung:<\/b> Kann von anderen, ausgefeilteren Klassifikationsmethoden \u00fcbertroffen werden, wenn die Daten die grundlegenden Annahmen nicht erf\u00fcllen. In Kontexten, in denen die Beziehungen zwischen den Merkmalen komplex sind, k\u00f6nnen fortgeschrittenere Modelle wie Support Vector Machines oder neuronale Netze bessere Leistungen erbringen.<\/li>\n<\/ul>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-fazit\">Fazit<\/h2>\n\n\n\n<p>Der Naive-Bayes-Klassifikator bleibt <a href=\"https:\/\/liora.io\/de\/google-colab-die-staerke-der-cloud-fuer-maschinelles-lernen\">ein wertvolles Werkzeug im maschinellen Lernen<\/a> aufgrund seiner Einfachheit und Effizienz. Obwohl er auf vereinfachten Annahmen beruht, bietet er <b>bemerkenswerte Leistungen<\/b> f\u00fcr ein <b>breites Anwendungsspektrum<\/b>. Ob f\u00fcr die Spam-Filterung, die Sentiment-Analyse oder die Dokumentklassifikation, der Naive-Bayes-Klassifikator ist oft eine effektive erste Herangehensweise, die f\u00fcr \u00fcberwachtes Lernen in Betracht gezogen werden sollte.<\/p>\n\n\n\n<div class=\"wp-block-buttons is-content-justification-center is-layout-flex wp-container-core-buttons-is-layout-a89b3969 wp-block-buttons-is-layout-flex\">\n<div class=\"wp-block-button\"><a class=\"wp-block-button__link wp-element-button\" href=\"https:\/\/liora.io\/de\/weiterbildung\/data-ki\/data-scientist\">Sich in Klassifikationsalgorithmen schulen lassen<\/a><\/div>\n<\/div>\n\n\n\n<script type=\"application\/ld+json\">\n{\n  \"@context\": \"https:\/\/schema.org\",\n  \"@type\": \"FAQPage\",\n  \"mainEntity\": [\n    {\n      \"@type\": \"Question\",\n      \"name\": \"Theorie des Naive-Bayes-Klassifikators\",\n      \"acceptedAnswer\": {\n        \"@type\": \"Answer\",\n        \"text\": \"Der Naive-Bayes-Klassifikator basiert auf dem Bayes-Theorem: P(A|B) = P(B|A) * P(A) \/ P(B). A repr\u00e4sentiert eine Klasse, B eine Menge von Merkmalen. Er berechnet die Wahrscheinlichkeit, dass ein Beispiel einer Klasse angeh\u00f6rt, unter der (naiven) Annahme, dass alle Merkmale voneinander unabh\u00e4ngig sind.\"\n      }\n    },\n    {\n      \"@type\": \"Question\",\n      \"name\": \"Typen von Naive-Bayes-Klassifikatoren\",\n      \"acceptedAnswer\": {\n        \"@type\": \"Answer\",\n        \"text\": \"Drei Haupttypen: Gaussian NB (f\u00fcr kontinuierliche, normalverteilte Attribute \u2013 Formenerkennung, Bildklassifikation), Multinomial NB (f\u00fcr diskrete Daten wie Wortfrequenzen \u2013 Dokumentklassifikation, Textanalyse), Bernoulli NB (f\u00fcr bin\u00e4re Merkmale \u2013 Vorhandensein\/Nichtvorhandensein von W\u00f6rtern, z.B. Spam-Filterung).\"\n      }\n    },\n    {\n      \"@type\": \"Question\",\n      \"name\": \"Praktische Anwendungen\",\n      \"acceptedAnswer\": {\n        \"@type\": \"Answer\",\n        \"text\": \"Hauptanwendungen: Spam-Filterung (Identifizierung unerw\u00fcnschter E-Mails basierend auf Worth\u00e4ufigkeiten), Sentiment-Analyse (Bestimmung positiver\/negativer\/neutraler Meinungen in Rezensionen\/sozialen Netzwerken), Dokumentklassifikation (automatische Kategorisierung von Artikeln in Themen wie Sport, Politik, Technologie).\"\n      }\n    },\n    {\n      \"@type\": \"Question\",\n      \"name\": \"Vor- und Nachteile\",\n      \"acceptedAnswer\": {\n        \"@type\": \"Answer\",\n        \"text\": \"Vorteile: Einfachheit (leicht zu verstehen\/implementieren, wenige Parameter), Schnelligkeit (effizient bei gro\u00dfen Datens\u00e4tzen), Leistung (oft wettbewerbsf\u00e4hig, besonders bei Textdaten). Nachteile: Unabh\u00e4ngigkeitsannahme zwischen Pr\u00e4diktoren oft unrealistisch (kann suboptimale Vorhersagen liefern), variable Leistung bei komplexen Merkmalsbeziehungen (dann fortgeschrittenere Modelle wie SVM oder neuronale Netze besser).\"\n      }\n    },\n    {\n      \"@type\": \"Question\",\n      \"name\": \"Fazit\",\n      \"acceptedAnswer\": {\n        \"@type\": \"Answer\",\n        \"text\": \"Naive Bayes bleibt ein wertvolles Werkzeug aufgrund seiner Einfachheit und Effizienz. Trotz vereinfachter Annahmen bietet er bemerkenswerte Leistungen f\u00fcr Spam-Filterung, Sentiment-Analyse und Dokumentklassifikation \u2013 oft eine effektive erste Herangehensweise f\u00fcr \u00fcberwachtes Lernen.\"\n      }\n    }\n  ]\n}\n<\/script>\n","protected":false},"excerpt":{"rendered":"<p>Der Naive-Bayes-Klassifikator ist eine Klassifikationsmethode, die auf dem Bayes-Theorem basiert und davon ausgeht, dass die Pr\u00e4diktoren voneinander unabh\u00e4ngig sind. Trotz seiner Einfachheit hat der Naive-Bayes-Klassifikator seine Effektivit\u00e4t in verschiedenen Anwendungsbereichen bewiesen, darunter Spam-Filterung, Sentiment-Analyse und Dokumentklassifikation.<\/p>\n","protected":false},"author":82,"featured_media":219582,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"editor_notices":[],"footnotes":""},"categories":[2472],"class_list":["post-198663","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-data-ki"],"acf":[],"_links":{"self":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/198663","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/users\/82"}],"replies":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/comments?post=198663"}],"version-history":[{"count":4,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/198663\/revisions"}],"predecessor-version":[{"id":219588,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/198663\/revisions\/219588"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media\/219582"}],"wp:attachment":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media?parent=198663"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/categories?post=198663"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}