{"id":206129,"date":"2025-06-26T06:30:00","date_gmt":"2025-06-26T05:30:00","guid":{"rendered":"https:\/\/liora.io\/de\/?p=206129"},"modified":"2026-02-06T05:42:45","modified_gmt":"2026-02-06T04:42:45","slug":"deep-learning-mit-tensorflow-playground","status":"publish","type":"post","link":"https:\/\/liora.io\/de\/deep-learning-mit-tensorflow-playground","title":{"rendered":"TensorFlow Playground: Deep Learning spielerisch verstehen"},"content":{"rendered":"<p data-start=\"168\" data-end=\"455\"><strong><b>Deep Learning fasziniert ebenso sehr, wie es einsch\u00fcchtern kann. Zwischen mathematischen Formeln, Grafikkarten und technischem Vokabular wirkt es oft wie ein Thema f\u00fcr Spezialisten. Dabei ist das Grundprinzip einfach: Maschinen lernen aus Beispielen.<\/b><\/strong><\/p>\n<p data-start=\"457\" data-end=\"765\">Und genau hier setzt der&nbsp;<a style=\"background-color: #ffffff\" href=\"\/\">TensorFlow Playground<\/a>&nbsp;an. Mit diesem interaktiven, kostenlosen Online-Tool kannst Du neuronale Netze im Browser live ausprobieren, Einstellungen ver\u00e4ndern und dabei beobachten, wie das Netzwerk \u201elernt\u201c. In wenigen Minuten wird aus einem abstrakten Konzept ein anschauliches Aha-Erlebnis.<\/p><h2><font size=\"6\">Deep Learning &#8211; kurz erkl\u00e4rt<\/font><\/h2>\n<p data-start=\"186\" data-end=\"491\"><a style=\"background-color: #ffffff\" href=\"https:\/\/liora.io\/de\/deep-learning-oder-tiefes-lernen-was-ist-das-denn\" target=\"_blank\" rel=\"noopener\">Deep Learning<\/a>&nbsp;ist heute das R\u00fcckgrat vieler KI-Anwendungen \u2013 von Bilderkennung \u00fcber maschinelle \u00dcbersetzung bis hin zur Textgenerierung. Doch die Grundidee ist \u00e4lter, als viele denken: Schon in den 1950er-Jahren begannen Forschende damit, die Funktionsweise biologischer Neuronen rechnerisch nachzubilden. Ein <b>k\u00fcnstliches Neuron<\/b> verarbeitet Zahlenwerte (Inputs), gewichtet sie, f\u00fcgt gegebenenfalls einen Bias hinzu und schickt das Ergebnis durch eine sogenannte Aktivierungsfunktion. Werden viele dieser Neuronen in mehreren <b>Schichten<\/b> hintereinandergeschaltet, entsteht ein neuronales Netzwerk, das Daten Schritt f\u00fcr Schritt transformiert \u2013 von Rohdaten bis hin zu n\u00fctzlichen Merkmalen f\u00fcr Klassifikation, Vorhersage oder Generierung.<\/p>\n<p data-start=\"927\" data-end=\"1397\">Und warum spricht man von \u201etiefem\u201c Lernen? Weil moderne Netzwerke oft aus Dutzenden oder sogar Hunderten solcher Schichten bestehen. Jede verarbeitet Informationen auf einer h\u00f6heren Abstraktionsebene: von Kanten zu Formen, von Formen zu Objekten und schlie\u00dflich zu ganzen Szenen. Gelernt wird das alles mithilfe von Optimierungsverfahren wie dem <strong data-start=\"1273\" data-end=\"1294\">Gradientenabstieg<\/strong>, der die Gewichte im Netzwerk so anpasst, dass der Fehler auf einem Trainingsdatensatz minimiert wird.<\/p>\n\t\t\t\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\"><div class=\"wp-block-button \"><a class=\"wp-block-button__link wp-element-button \" href=\"https:\/\/liora.io\/de\/deep-learning-oder-tiefes-lernen-was-ist-das-denn\">Mehr \u00fcber Deep Learning<\/a><\/div><\/div>\n\n<h2><font size=\"6\">TensorFlow Playground: Deep Learning spielerisch verstehen<\/font><\/h2>\n<p data-start=\"199\" data-end=\"391\">Ein Browser, ein Klick \u2013 und schon bist Du mitten im Geschehen: <strong data-start=\"263\" data-end=\"288\">TensorFlow Playground<\/strong> ist ein interaktives Tool, das Deep Learning visuell erlebbar macht, ganz ohne Installation oder Code.<\/p>\n<p data-start=\"393\" data-end=\"448\">Was Du siehst, ist ein minimales neuronales Netzwerk:<\/p>\n\n<ul data-start=\"449\" data-end=\"734\">\n \t<li data-start=\"449\" data-end=\"514\">\n<p data-start=\"451\" data-end=\"514\"><strong data-start=\"451\" data-end=\"460\">Links<\/strong>: <b>farbige Punkte<\/b>, die die Trainingsdaten darstellen.<\/p>\n<\/li>\n \t<li data-start=\"515\" data-end=\"590\">\n<p data-start=\"517\" data-end=\"590\"><strong data-start=\"517\" data-end=\"533\">In der Mitte<\/strong>: <b>Kreise<\/b> (Neuronen), verbunden durch <b>Pfeile<\/b> (Gewichte).<\/p>\n<\/li>\n \t<li data-start=\"591\" data-end=\"734\">\n<p data-start=\"593\" data-end=\"734\"><strong data-start=\"593\" data-end=\"603\">Rechts<\/strong>: Einstellbare <b>Hyperparameter<\/b> wie Lernrate, Aktivierungsfunktion, Regularisierung oder Batch-Gr\u00f6\u00dfe \u2013 alles per Mausklick anpassbar.<\/p>\n<\/li>\n<\/ul>\n<p data-start=\"736\" data-end=\"884\">Sobald Du auf <strong data-start=\"750\" data-end=\"761\">\u201eTrain\u201c<\/strong> klickst, startet das Training \u2013 und Du beobachtest live, wie sich die Entscheidungsgrenze bei jedem Schritt ver\u00e4ndert.<\/p><img decoding=\"async\" width=\"1999\" height=\"1156\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/image1.webp\" alt=\"\" loading=\"lazy\">\n<p data-start=\"886\" data-end=\"921\">Warum ist dieses Tool so hilfreich?<\/p>\n\n<ul style=\"font-size: 18px;background-color: #ffffff\" data-start=\"923\" data-end=\"1357\">\n \t<li style=\"font-size: 18px\" data-start=\"923\" data-end=\"1084\">\n<p data-start=\"925\" data-end=\"1084\">Sofortige Visualisierung: Du siehst direkt, wie das Netzwerk lernt. Der Prozess des Gradientenabstiegs wird greifbar \u2013 ganz ohne abstrakte Gleichungen.<\/p>\n<\/li>\n \t<li style=\"font-size: 18px\" data-start=\"1085\" data-end=\"1210\">\n<p data-start=\"1087\" data-end=\"1210\">Sicheres Experimentieren: Kein Risiko, eine GPU zu \u00fcberlasten oder Dateien zu besch\u00e4digen \u2013 alles l\u00e4uft im Browser.<\/p>\n<\/li>\n \t<li style=\"font-size: 18px\" data-start=\"1211\" data-end=\"1357\">\n<p data-start=\"1213\" data-end=\"1357\">Einfaches Teilen: Die Konfiguration wird in der URL gespeichert. Kopieren, teilen, fertig \u2013 ideal f\u00fcr Lehre, Teams oder Selbstlernende.<\/p>\n<\/li>\n<\/ul>\n<h2><font size=\"6\">Ein Blick ins Netzwerk: So funktioniert der TensorFlow Playground<\/font><\/h2>\n<img decoding=\"async\" width=\"1920\" height=\"1080\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/image2.webp\" alt=\"\" loading=\"lazy\">\n<h3>1. Die Datens\u00e4tze<\/h3>\n<p data-start=\"387\" data-end=\"474\">Der Playground stellt vier synthetische 2D-Datens\u00e4tze bereit:<\/p>\n\n<ul data-start=\"475\" data-end=\"607\">\n \t<li data-start=\"475\" data-end=\"512\">\n<p data-start=\"477\" data-end=\"512\">eine <b>linear trennbare<\/b> Punktwolke,<\/p>\n<\/li>\n \t<li data-start=\"513\" data-end=\"564\">\n<p data-start=\"515\" data-end=\"564\">zwei <b>nichtlineare<\/b> Varianten (Kreis und \u201eMonde\u201c)<\/p>\n<\/li>\n \t<li data-start=\"565\" data-end=\"607\">\n<p data-start=\"567\" data-end=\"607\">und die ber\u00fchmte <b>Spirale<\/b> (\u201eSchnecke\u201c).<\/p>\n<\/li>\n<\/ul>\n<p data-start=\"609\" data-end=\"735\">Sie sind einfach genug f\u00fcr die Darstellung, aber komplex genug, um die F\u00e4higkeiten eines neuronalen Netzwerks herauszufordern.<\/p>\n\n<h3>2. Die Eingabemerkmale (Features)<\/h3>\nStandardm\u00e4\u00dfig dienen die <b>x<\/b>&#8211; und <b>y<\/b>-Koordinaten als Input. Zus\u00e4tzlich kannst Du abgeleitete Merkmale aktivieren \u2013 z.\u202fB. <code data-start=\"900\" data-end=\"904\">x\u00b2<\/code>, <code data-start=\"906\" data-end=\"910\">y\u00b2<\/code>, <code data-start=\"912\" data-end=\"917\">x\u00b7y<\/code>, <code data-start=\"919\" data-end=\"927\">sin(x)<\/code> oder <code data-start=\"933\" data-end=\"941\">sin(y)<\/code>.<br data-start=\"942\" data-end=\"945\">Diese Features erlauben es dem Netzwerk, nichtlineare Muster leichter zu erkennen. Beispiel: Die Kreisform l\u00e4sst sich mit <code data-start=\"1067\" data-end=\"1076\">x\u00b2 + y\u00b2<\/code> wesentlich einfacher klassifizieren \u2013 selbst mit einem einfachen Netzwerk.\n<h3>3. Die Architektur des Netzwerks<\/h3>\n<p data-start=\"1158\" data-end=\"1376\">Unterhalb der Daten befindet sich ein Schieberegler, mit dem sich die Anzahl an Hidden Layers und die Anzahl an Neuronen pro Schicht festlegen l\u00e4sst.<br data-start=\"1571\" data-end=\"1574\">So kannst Du testen, welchen Einfluss ein flaches oder tiefes Netzwerk auf die Lernleistung hat. Du beobachtest direkt, wie zus\u00e4tzliche Schichten die Modellkapazit\u00e4t ver\u00e4ndern \u2013 von zu schwach bis hin zur \u00dcberanpassung.<\/p>\n\n<h3>4. Die Hyperparameter<\/h3>\n<ul>\n \t<li data-start=\"1828\" data-end=\"1996\">\n<p data-start=\"1830\" data-end=\"1996\"><strong data-start=\"1830\" data-end=\"1842\">Lernrate<\/strong>: Gibt an, wie stark die Gewichte bei jedem Schritt angepasst werden. Ist sie zu gro\u00df, oszilliert der Fehler; ist sie zu klein, lernt das Netzwerk kaum.<\/p>\n<\/li>\n \t<li data-start=\"1997\" data-end=\"2152\">\n<p data-start=\"1999\" data-end=\"2152\"><strong data-start=\"1999\" data-end=\"2025\">Aktivierungsfunktionen<\/strong>: tanh, sigmoid oder ReLU \u2013 jede hat ihre Eigenheiten. ReLU f\u00fchrt oft zu schnellerer Konvergenz, w\u00e4hrend tanh stabiler lernt.<\/p>\n<\/li>\n \t<li data-start=\"2153\" data-end=\"2249\">\n<p data-start=\"2155\" data-end=\"2249\"><strong data-start=\"2155\" data-end=\"2177\">L2-Regularisierung<\/strong>: F\u00fcgt eine Strafe f\u00fcr gro\u00dfe Gewichte hinzu, was Overfitting vorbeugt.<\/p>\n<\/li>\n<\/ul>\n<h3>5. Die Ergebnisse darstellen<\/h3>\n<p data-start=\"2375\" data-end=\"2482\">Sobald Du auf \u201eTrain\u201c klickst, zeigen zwei Elemente den Lernfortschritt:<\/p>\n\n<ul data-start=\"2483\" data-end=\"2715\">\n \t<li data-start=\"2483\" data-end=\"2602\">\n<p data-start=\"2485\" data-end=\"2602\"><strong data-start=\"2485\" data-end=\"2512\">Die Entscheidungsgrenze<\/strong> im Diagramm: Sie ver\u00e4ndert sich live und visualisiert, wie das Modell die Daten trennt.<\/p>\n<\/li>\n \t<li data-start=\"2603\" data-end=\"2715\">\n<p data-start=\"2605\" data-end=\"2715\"><strong data-start=\"2605\" data-end=\"2625\">Die Verlustkurve<\/strong> unten rechts: Ein sinkender Wert zeigt, dass das Modell dazulernt und der Fehler abnimmt.<\/p>\n<\/li>\n<\/ul>\n\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\"><div class=\"wp-block-button \"><a class=\"wp-block-button__link wp-element-button \" href=\"https:\/\/liora.io\/de\/deep-learning-vs-machine-learning\">Auch lesen: Deep Learning vs. Machine Learning<\/a><\/div><\/div>\n\n<h2><font size=\"6\">Zwei \u00dcbungen zum Ausprobieren<\/font><\/h2>\nAlle Parameter der folgenden \u00dcbungen sind bereits in den Links kodiert. Du musst nur klicken, um direkt in die beschriebene Konfiguration einzusteigen.\n<h3><u>\u00dcbung 1<\/u>: Erste Schritte<\/h3>\nLink:&nbsp;<a style=\"background-color: #ffffff\" href=\"\/#activation=tanh&amp;batchSize=10&amp;dataset=xor&amp;learningRate=0.03&amp;networkShape=2&amp;noise=0&amp;regularizationRate=0&amp;seed=0&amp;showTestData=false\" target=\"_blank\" rel=\"noopener\">Erste Schritte<\/a>\n<p data-start=\"422\" data-end=\"872\">Starte das Training: Schon nach wenigen Sekunden beginnt sich die Entscheidungsgrenze zu formen und trennt die Punkte in zwei klar erkennbare Zonen.<br data-start=\"570\" data-end=\"573\">Ver\u00e4ndere anschlie\u00dfend die Lernrate \u2013 Du wirst sehen, wie sich das Lerntempo verlangsamt. Probiere au\u00dferdem verschiedene Aktivierungsfunktionen aus, zum Beispiel einen Wechsel von <strong>tanh<\/strong> zu <strong>ReLU<\/strong>. Geschwindigkeit und Verlauf der Konvergenz ver\u00e4ndern sich sp\u00fcrbar, obwohl die Aufgabe einfach bleibt.<\/p>\n<p data-start=\"874\" data-end=\"1010\">Diese erste \u00dcbung ist ideal, um ein Gef\u00fchl f\u00fcr die Auswirkungen der Parameter zu bekommen \u2013 ohne in komplexe Architekturen einzutauchen.<\/p>\n\n<h3><u>\u00dcbung 2<\/u>: Spirale<\/h3>\nLink:&nbsp;<a style=\"background-color: #ffffff\" href=\"\/#activation=tanh&amp;batchSize=10&amp;dataset=spiral&amp;regDataset=reg-plane&amp;learningRate=0.03&amp;regularizationRate=0&amp;noise=20&amp;networkShape=4,2&amp;seed=0.17718&amp;showTestData=false&amp;x=true&amp;y=true\" target=\"_blank\" rel=\"noopener\">Spirale<\/a>\n<p data-start=\"1075\" data-end=\"1434\">In dieser zweiten Herausforderung geht es um einen besonders schwierigen Datensatz: eine Spirale, deren verschlungene Form neuronale Netzwerke schnell an ihre Grenzen bringt.<br data-start=\"1249\" data-end=\"1252\">Die Startkonfiguration ist bewusst einfach gehalten \u2013 nur <strong>x<\/strong> und <strong>y<\/strong> als Eingaben \u2013 was Dich zwingt, mit Architektur und Hyperparametern zu experimentieren, um das Problem zu l\u00f6sen.<\/p>\n<p data-start=\"1436\" data-end=\"1677\">Starte das Training: Anfangs ist die Entscheidungsgrenze chaotisch. Jetzt bist Du gefragt: Finde eine Kombination aus Schichten, Neuronen, Aktivierungsfunktion und \u2013 falls n\u00f6tig \u2013 Regularisierung, mit der das Netzwerk dem Muster folgen kann.<\/p>\n<p data-start=\"1679\" data-end=\"1828\"><strong data-start=\"1682\" data-end=\"1711\">Bonus-Schwierigkeitsgrad:<\/strong> Du darfst keine abgeleiteten Features aktivieren. Die L\u00f6sung muss allein durch die Netzwerkstruktur erreicht werden.<\/p>\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<img decoding=\"async\" width=\"1500\" height=\"850\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/image3.webp\" alt=\"\" loading=\"lazy\">\n\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\"><div class=\"wp-block-button \"><a class=\"wp-block-button__link wp-element-button \" href=\"https:\/\/liora.io\/de\/python-deep-learning-die-basics\">Lerne die Basics in Python Deep Learning kennen<\/a><\/div><\/div>\n\n<h2><font size=\"6\">Fazit: Was man vom Playground mitnimmt<\/font><\/h2>\n<p data-start=\"169\" data-end=\"292\">Schon wenige Minuten im TensorFlow Playground reichen aus, um drei zentrale Prinzipien des Deep Learning zu verinnerlichen:<\/p>\n\n<ol data-start=\"294\" data-end=\"1010\">\n \t<li data-start=\"294\" data-end=\"567\">\n<p data-start=\"297\" data-end=\"567\"><strong data-start=\"297\" data-end=\"330\">Lernen durch Fehlerkorrektur:&nbsp;<\/strong>Ein neuronales Netzwerk lernt, indem es seine <b>Gewichte schrittweise so anpasst<\/b>, dass der Fehler auf den Trainingsdaten kleiner wird. Der sogenannte Gradientenabstieg ist im Grunde ein automatisierter Prozess aus Versuch und Irrtum.<\/p>\n<\/li>\n \t<li data-start=\"569\" data-end=\"785\">\n<p data-start=\"572\" data-end=\"785\"><strong data-start=\"572\" data-end=\"610\">Nichtlinearit\u00e4t ist unverzichtbar:&nbsp;<\/strong>Ob \u00fcber Aktivierungsfunktionen oder zus\u00e4tzliche Merkmale \u2013 ohne Nichtlinearit\u00e4t kann das Netzwerk nur gerade Grenzen ziehen. Komplexe Muster erfordern mehr Flexibilit\u00e4t.<\/p>\n<\/li>\n \t<li data-start=\"787\" data-end=\"1010\">\n<p data-start=\"790\" data-end=\"1010\"><strong data-start=\"790\" data-end=\"849\">Hyperparameter entscheiden \u00fcber Erfolg oder Misserfolg:&nbsp;<\/strong>Eine zu hohe Lernrate, eine unausgewogene Architektur oder falsche Regularisierung k\u00f6nnen das Training zum Scheitern bringen \u2013 ganz ohne Programmierfehler.<\/p>\n<\/li>\n<\/ol>\n<p data-start=\"1012\" data-end=\"1156\">All das ist im Playground nicht blo\u00df Theorie \u2013 Du <em data-start=\"1062\" data-end=\"1070\">siehst<\/em> es. Die visuelle R\u00fcckmeldung macht deutlich, was Formeln oft nur abstrakt vermitteln.<\/p>\n<p data-start=\"1158\" data-end=\"1566\">Der TensorFlow Playground ist kein Werkzeug f\u00fcr industrielle Modelle \u2013 sondern ein Fenster ins <b>Herz des Deep Learning<\/b>. Er zeigt, wie Daten Schritt f\u00fcr Schritt durch das Netzwerk transformiert werden, und macht so die abstrakten Konzepte greifbar. Mit ein paar Klicks, farbigen Punkten und Schiebereglern wird das Unsichtbare sichtbar \u2013 und der Sprung zu <b>Keras<\/b> oder&nbsp;<a style=\"background-color: #ffffff\" href=\"https:\/\/liora.io\/de\/pytorch\" target=\"_blank\" rel=\"noopener\">PyTorch<\/a>&nbsp;nur noch eine Frage der Oberfl\u00e4che.<\/p>\n<p data-start=\"1568\" data-end=\"1684\"><strong data-start=\"1568\" data-end=\"1684\">Also: Seite \u00f6ffnen, ein paar Parameter \u00e4ndern, auf \u201eTrain\u201c klicken \u2013 und zusehen, wie die Theorie lebendig wird.&nbsp;<\/strong>Das&nbsp;<a style=\"background-color: #ffffff\" href=\"https:\/\/liora.io\/de\/was-ist-maschinelles-lernen\">maschinelle Lernen<\/a>, so komplex es auch sein mag, beginnt mit diesem ersten Klick auf &#8222;Train&#8220;.<\/p>\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<img decoding=\"async\" width=\"2560\" height=\"1707\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/middle-eastern-cybersecurity-professional-1-scaled-1.webp\" alt=\"\" loading=\"lazy\">\n\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\"><div class=\"wp-block-button \"><a class=\"wp-block-button__link wp-element-button \" href=\"https:\/\/liora.io\/de\/unsere-aus-und-weiterbildungen\">Entdecke unsere Weiterbildungen<\/a><\/div><\/div>\n","protected":false},"excerpt":{"rendered":"<p>Deep Learning fasziniert ebenso sehr, wie es einsch\u00fcchtern kann. Zwischen mathematischen Formeln, Grafikkarten und technischem Vokabular wirkt es oft wie ein Thema f\u00fcr Spezialisten. Dabei ist das Grundprinzip einfach: Maschinen lernen aus Beispielen. Und genau hier setzt der&nbsp;TensorFlow Playground&nbsp;an. Mit diesem interaktiven, kostenlosen Online-Tool kannst Du neuronale Netze im Browser live ausprobieren, Einstellungen ver\u00e4ndern und [&hellip;]<\/p>\n","protected":false},"author":74,"featured_media":206131,"comment_status":"open","ping_status":"open","sticky":false,"template":"elementor_theme","format":"standard","meta":{"_acf_changed":false,"editor_notices":[],"footnotes":""},"categories":[2472],"class_list":["post-206129","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-data-ki"],"acf":[],"_links":{"self":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/206129","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/users\/74"}],"replies":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/comments?post=206129"}],"version-history":[{"count":5,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/206129\/revisions"}],"predecessor-version":[{"id":216735,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/206129\/revisions\/216735"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media\/206131"}],"wp:attachment":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media?parent=206129"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/categories?post=206129"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}