{"id":206078,"date":"2025-06-23T06:30:00","date_gmt":"2025-06-23T05:30:00","guid":{"rendered":"https:\/\/liora.io\/de\/?p=206078"},"modified":"2026-02-06T05:42:54","modified_gmt":"2026-02-06T04:42:54","slug":"wie-funktioniert-das-gpt-modell","status":"publish","type":"post","link":"https:\/\/liora.io\/de\/wie-funktioniert-das-gpt-modell","title":{"rendered":"Das GPT-Modell: Wie generative KI wirklich funktioniert"},"content":{"rendered":"<p data-pm-slice=\"1 1 []\"><strong><b>Was genau ist eigentlich ein GPT-Modell? Es handelt sich um die Technologie, die vielen modernen KI-Anwendungen zugrunde liegt \u2013 einschlie\u00dflich ChatGPT.<\/b><\/strong><\/p>\n<p data-pm-slice=\"1 1 []\">Hier geht es nicht um ChatGPT direkt \u2013 aber genau von dort kommt der Name.<\/p>\nFalls Du noch nie von GPT geh\u00f6rt hast, bist Du vermutlich trotzdem schon in Ber\u00fchrung damit gekommen: in Form von textgenerativer KI oder &#8222;LLM&#8220; (Large Language Model). GPT ist ein Typ solcher Modelle \u2013 und die Grundlage f\u00fcr fast alle Systeme, \u00fcber die gerade gesprochen wird.\n<p data-pm-slice=\"1 1 []\">GPT steht f\u00fcr &#8222;<a style=\"background-color: #f8f7f3; color: #4628dd;\" href=\"https:\/\/liora.io\/de\/generierter-vorab-trainierter-transformer-gpt-was-ist-das\" target=\"_blank\" rel=\"noopener\">Generative Pre-trained Transformer<\/a>&#8220; \u2013 ein Name, der ziemlich genau beschreibt, wie das Ganze funktioniert.&nbsp;<\/p>\n<p data-pm-slice=\"1 1 []\">Klingt trocken? Keine Sorge, wir machen es anschaulich.<\/p>\nStell Dir GPT als einen Super-Experten f\u00fcr Wortvorhersagen vor. Sein Haupttalent besteht darin, zu erraten, welches Wort wohl am ehesten einen begonnenen Satz vervollst\u00e4ndigen w\u00fcrde. Indem er diese Vorhersage immer wieder macht, Wort f\u00fcr Wort, baut er ganze S\u00e4tze, Abs\u00e4tze und sogar ganze Artikel!\n\n<i>GPT hat ein wenig bei der Erschaffung dieses Artikels geholfen, aber es gibt immer noch einen Menschen dahinter \u2026<\/i>\n\nLass uns gemeinsam die verschiedenen Arbeitsphasen der GPT-Modelle detailliert betrachten, um ihren Lernprozess \u00fcber die menschliche Sprache zu verstehen.\n\n<a href=\"https:\/\/liora.io\/de\/was-sind-wichtigsten-wettbewerber-von-chatgpt\" target=\"_blank\" rel=\"noopener\">\nAuch interessant: ChatGPT und seine Konkurrenz\n<\/a>\n\n<style><br \/>\n.elementor-heading-title{padding:0;margin:0;line-height:1}.elementor-widget-heading .elementor-heading-title[class*=elementor-size-]>a{color:inherit;font-size:inherit;line-height:inherit}.elementor-widget-heading .elementor-heading-title.elementor-size-small{font-size:15px}.elementor-widget-heading .elementor-heading-title.elementor-size-medium{font-size:19px}.elementor-widget-heading .elementor-heading-title.elementor-size-large{font-size:29px}.elementor-widget-heading .elementor-heading-title.elementor-size-xl{font-size:39px}.elementor-widget-heading .elementor-heading-title.elementor-size-xxl{font-size:59px}<\/style>\n<h2><font size=\"6\">Schritt 1: W\u00f6rter in Zahlen umwandeln<\/font><\/h2>\n<p data-start=\"194\" data-end=\"507\">F\u00fcr uns Menschen haben W\u00f6rter Bedeutung \u2013 sie wecken Bilder, Gef\u00fchle oder Assoziationen. Ein Computer hingegen sieht in Begriffen wie \u201eKatze\u201c oder \u201eHaus\u201c lediglich eine Folge von Zeichen. Damit ein GPT-Modell Sprache verarbeiten kann, muss es W\u00f6rter in eine f\u00fcr Maschinen verst\u00e4ndliche Form <b>\u00fcbersetzen: in Zahlen<\/b>.<\/p>\n<p data-start=\"509\" data-end=\"822\">Genau das leisten sogenannte&nbsp;<a style=\"background-color: #f8f7f3; color: #4628dd;\" href=\"https:\/\/liora.io\/de\/word-embedding\" target=\"_blank\" rel=\"noopener\">Embeddings<\/a>.&nbsp;Sie geben jedem Wort (oder sogar jedem Wortteil) einen einzigartigen Zahlen-Code mit \u2013 einen sogenannten Vektor. Doch dieser Code ist mehr als nur eine Identifikationsnummer: Er speichert auch Informationen \u00fcber die Bedeutung und den Zusammenhang des Wortes mit anderen.<\/p>\n<i>Stell Dir eine riesige Bibliothek vor. Jedes Buch darin \u2013 also jedes Wort \u2013 bekommt ein spezielles Etikett mit einem Barcode (der Embedding-Vektor). B\u00fccher, die thematisch verwandt sind, haben \u00e4hnliche Barcodes.&nbsp;Zum Beispiel die Barcodes der Science-Fiction-B\u00fccher untereinander und auf der anderen Seite die der Kochb\u00fccher untereinander. Und, wenn es sich um Science-Fiction-B\u00fccher handelt, in denen au\u00dferdem Roboter mitspielen, w\u00e4ren ihre Barcodes noch \u00e4hnlicher!<\/i>\n\nJe \u00e4hnlicher die Bedeutung zweier W\u00f6rter ist, desto \u201en\u00e4her\u201c ist ihre Liste von Zahlen (ihr Embedding-Vektor) in einem imagin\u00e4ren Raum.&nbsp;Ein klassisches Beispiel: Die Embeddings von \u201eK\u00f6nig\u201c und \u201eK\u00f6nigin\u201c liegen nahe beieinander. Und der Unterschied zwischen \u201eK\u00f6nig\u201c und \u201eMann\u201c \u00e4hnelt dem zwischen \u201eK\u00f6nigin\u201c und \u201eFrau\u201c. Das zeigt, dass GPT nicht nur W\u00f6rter erkennt, sondern auch Beziehungen zwischen ihnen.\n\nWenn GPT einen Text verarbeitet, ist der erste Schritt, jedes Wort in seinen zugeh\u00f6rigen Embedding-Vektor zu \u00fcbersetzen. Nur so kann das Modell \u00fcberhaupt mit Sprache umgehen \u2013 indem es Bedeutung in Zahlen verwandelt.\n\n<style><br \/>\n.elementor-widget-image{text-align:center}.elementor-widget-image a{display:inline-block}.elementor-widget-image a img[src$=\".svg\"]{width:48px}.elementor-widget-image img{vertical-align:middle;display:inline-block}<\/style>\t\t\t\t\t\t\t\t\t\t\t\t<img decoding=\"async\" width=\"1562\" height=\"702\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/KnowledgeGraphEmbedding.png\" alt=\"\" loading=\"lazy\" srcset=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/KnowledgeGraphEmbedding.png 1562w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/KnowledgeGraphEmbedding-300x135.png 300w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/KnowledgeGraphEmbedding-1024x460.png 1024w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/KnowledgeGraphEmbedding-768x345.png 768w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/KnowledgeGraphEmbedding-1536x690.png 1536w\" sizes=\"(max-width: 1562px) 100vw, 1562px\">\n<h2><font size=\"6\">Schritt 2: Die Wortreihenfolge verstehen (Positionale Kodierung)<\/font><\/h2>\n<p data-start=\"217\" data-end=\"537\">Wir haben nun f\u00fcr jedes Wort eine Zahlenliste. Doch Sprache besteht nicht nur aus den W\u00f6rtern selbst, sondern auch aus ihrer Reihenfolge. \u201eDie Katze schl\u00e4ft\u201c ist etwas anderes als \u201eSchl\u00e4ft die Katze\u201c. Du erkennst sofort den Unterschied \u2013 f\u00fcr das GPT-Modell ist das jedoch nicht selbstverst\u00e4ndlich. Denn das Modell verarbeitet die W\u00f6rter parallel \u2013 also gleichzeitig \u2013, um schneller zu arbeiten. Dabei geht die Reihenfolge der W\u00f6rter verloren.<\/p>\n<p data-start=\"750\" data-end=\"1057\">Um dieses Problem zu l\u00f6sen, bekommt jedes Wort eine zus\u00e4tzliche Information mit: einenPositionsmarker. Auch dieser besteht aus einer Zahlenliste \u2013 man nennt sie<b>positionale Kodierung<\/b>. Sie wird mithilfe mathematischer Formeln berechnet und dr\u00fcckt aus, an welcher Stelle im Satz das jeweilige Wort steht.<\/p>\n<p data-start=\"1059\" data-end=\"1149\"><i>Wir gehen hier nicht ins Detail \u2013 nur so viel: Diese Technik funktioniert erstaunlich gut!<\/i><\/p>\n<p data-start=\"1151\" data-end=\"1429\">Die positionalen Kodierungen werden einfach zu den urspr\u00fcnglichen Embedding-Vektoren addiert \u2013 also zu den \u201eBarcodes\u201c, die die Wortbedeutung enthalten. So entsteht f\u00fcr jedes Wort ein kombinierter Vektor, der sowohl dessen Bedeutung als auch seine Position im Satz widerspiegelt.<\/p>\n<p data-start=\"1431\" data-end=\"1631\">Das Ergebnis ist eine Liste von Vektoren, die den ganzen Satz abbildet \u2013 mit vollst\u00e4ndiger Information \u00fcber <em data-start=\"1539\" data-end=\"1544\">was<\/em> gesagt wird und <em data-start=\"1561\" data-end=\"1565\">wo<\/em> es im Satz steht. Damit kann GPT den Satz korrekt interpretieren.<\/p>\n\t\t\t\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\"><div class=\"wp-block-button \"><a class=\"wp-block-button__link wp-element-button \" href=\"https:\/\/liora.io\/de\/gpt-mentions-personalisierte-gpts-definieren-die-codes-der-konversation-neu\">Auch interessant: Personalisierte GPTs<\/a><\/div><\/div>\n\n<h2><font size=\"6\">Schritt 3: Der Transformer<\/font><\/h2>\n<p data-start=\"212\" data-end=\"328\"><i>Keine Sorge \u2013 dieser Transformer hat nichts mit Optimus Prime zu tun.<\/i><\/p>\n<p data-start=\"330\" data-end=\"571\">Der kl\u00fcgste Teil von GPT ist seine&nbsp;<a style=\"background-color: #f8f7f3; color: #4628dd;\" href=\"https:\/\/liora.io\/de\/transformer-modelle-was-ist-das\" target=\"_blank\" rel=\"noopener\">Transformator-Architektur<\/a>. Du kannst sie Dir wie das Gehirn des Modells vorstellen: Sie analysiert die Zahlenlisten aus den vorherigen Schritten, um den Kontext zu erfassen und das n\u00e4chste Wort vorherzusagen.<\/p>\n<p data-start=\"573\" data-end=\"757\">GPT verwendet eine vereinfachte Version des urspr\u00fcnglichen Transformers \u2013 genauer gesagt nur den <b>Decoder<\/b>. Warum? Weil GPT <b>Texte generiert<\/b> \u2013 und genau daf\u00fcr ist der Decoder zust\u00e4ndig.<\/p>\n<p data-start=\"759\" data-end=\"912\">Dieser Transformer-Decoder besteht aus mehreren identischen \u201eBl\u00f6cken\u201c, die \u00fcbereinandergestapelt sind. Je mehr Bl\u00f6cke, desto leistungsf\u00e4higer das Modell.<\/p>\n<p data-start=\"914\" data-end=\"999\">Jeder dieser Bl\u00f6cke verarbeitet die Embedding-Vektoren der W\u00f6rter in mehreren Phasen:<\/p>\n\n<h3>1. Aufmerksamkeit &#8211; die geniale Idee hinter dem Transformer<\/h3>\nWenn Du einen Satz liest, achtest Du nicht auf jedes Wort gleich stark. Um den Sinn zu erfassen, legst Du den Fokus gezielt auf bestimmte W\u00f6rter. Zum Beispiel: In \u201eDer Student bei Liora, der gut gelernt hatte, hat seine Pr\u00fcfung bestanden\u201c konzentrierst Du Dich auf \u201eStudent\u201c und \u201ePr\u00fcfung\u201c, um das Wort \u201ebestand\u201c richtig einzuordnen.\n\n<img decoding=\"async\" width=\"850\" height=\"765\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/The-Transformer-model-architecture.png\" alt=\"\" loading=\"lazy\" srcset=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/The-Transformer-model-architecture.png 850w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/The-Transformer-model-architecture-300x270.png 300w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/The-Transformer-model-architecture-768x691.png 768w\" sizes=\"(max-width: 850px) 100vw, 850px\">\n<p data-start=\"1413\" data-end=\"1646\">Der<b>Self-Attention-Mechanismus <\/b>macht genau das: Das Modell schaut sich f\u00fcr jedes Wort alle vorherigen W\u00f6rter an und bewertet, welche besonders wichtig sind \u2013 um das aktuelle Wort zu verstehen und das n\u00e4chste sinnvoll vorherzusagen.<\/p>\n<p data-start=\"1648\" data-end=\"1939\">Meistens nutzt der Transformer mehrere <b>Aufmerksamkeitsschichten<\/b> gleichzeitig. Das ist, als w\u00fcrden mehrere Personen denselben Satz lesen, wobei jede sich auf etwas anderes konzentriert: eine auf Grammatik, eine auf Bedeutung, eine auf Satzstruktur. Am Ende flie\u00dfen alle Perspektiven zusammen.<\/p>\n\n<h3>2. Die Reflexion &#8211; oder: Feed-Forward-Schicht<\/h3>\n<p data-start=\"1993\" data-end=\"2143\">Nachdem das Modell durch Aufmerksamkeit erkannt hat, welche W\u00f6rter f\u00fcr den Kontext wichtig sind, verarbeitet es jedes Wort noch einmal einzeln weiter. Daf\u00fcr durchl\u00e4uft der Embedding-Vektor eines jeden Wortes mehrere Schichten mathematischer Funktionen. Diese bestehen aus Zahlenoperationen mit sogenannten <b>Gewichten<\/b> \u2013 das Ganze nennt man ein&nbsp;<a style=\"background-color: #f8f7f3; color: #4628dd;\" href=\"https:\/\/liora.io\/de\/neuronale-netze-einfach-erklaert\" target=\"_blank\" rel=\"noopener\">neuronales Netz<\/a>.<\/p>\n<p data-start=\"2356\" data-end=\"2513\">Diese Phase erm\u00f6glicht dem Modell, die durch Aufmerksamkeit gewonnenen Informationen noch tiefer zu analysieren und in abstraktere Bedeutungen zu \u00fcberf\u00fchren.<\/p>\n\t\t\t\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\"><div class=\"wp-block-button \"><a class=\"wp-block-button__link wp-element-button \" href=\"https:\/\/liora.io\/de\/chatgpt-jailbreak-was-ist-das\">Was ist ein ChatGPT Jailbreak?<\/a><\/div><\/div>\n\n<h2><font size=\"6\">Schritt 4: Viele Schichten &#8211; viel Verstehen<\/font><\/h2>\n<p data-start=\"216\" data-end=\"439\">Die eigentliche St\u00e4rke von GPT liegt nicht darin,was es tut \u2013 sondernwie oft. Denn GPT besteht nicht nur aus einem Transformer-Block, sondern aus vielen: Dutzende, manchmal sogar Hunderte werden \u00fcbereinandergestapelt.<\/p>\n<p data-start=\"441\" data-end=\"723\">Stell Dir das Modell wie eine mehrst\u00f6ckige Fabrik vor. Auf jeder Etage werden die Embedding-Vektoren durch <b>Aufmerksamkeit und Feed-Forward<\/b> weiterverarbeitet. Die Ergebnisse aus einer Schicht dienen dabei als Eingang f\u00fcr die n\u00e4chste \u2013 Etage f\u00fcr Etage wird die Information verfeinert.<\/p>\n<p data-start=\"725\" data-end=\"863\">Die unteren Schichten erkennen einfache Zusammenh\u00e4nge zwischen W\u00f6rtern \u2013 zum Beispiel, dass \u201eKatze\u201c oft mit \u201eschnurren\u201c zusammen vorkommt.<\/p>\n<p data-start=\"865\" data-end=\"1018\">Die mittleren Schichten kombinieren diese Informationen zu komplexeren Strukturen: Sie verstehen etwa, wie sich ein Nebensatz in einen Hauptsatz einf\u00fcgt.<\/p>\n<p data-start=\"1020\" data-end=\"1151\">Die oberen Schichten erkennen schlie\u00dflich den Gesamtsinn, den Tonfall, den Stil \u2013 oder ob ein Satz vielleicht ironisch gemeint ist.<\/p>\n<p data-start=\"177\" data-end=\"338\"><\/p>\n<p data-start=\"1153\" data-end=\"1315\">Je h\u00f6her wir hinaufsteigen, desto abstrakter wird das, was das Modell versteht \u2013 <i>und desto schwerer f\u00e4llt es uns Menschen, diese \u201eGedankeng\u00e4nge\u201c nachzuvollziehen.<\/i><\/p>\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<img decoding=\"async\" width=\"2560\" height=\"1707\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/aerps-com-5e4Zlblkvks-unsplash-scaled-1.jpg\" alt=\"\" loading=\"lazy\" srcset=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/aerps-com-5e4Zlblkvks-unsplash-scaled-1.jpg 2560w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/aerps-com-5e4Zlblkvks-unsplash-scaled-1-300x200.jpg 300w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/aerps-com-5e4Zlblkvks-unsplash-scaled-1-1024x683.jpg 1024w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/aerps-com-5e4Zlblkvks-unsplash-scaled-1-768x512.jpg 768w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/aerps-com-5e4Zlblkvks-unsplash-scaled-1-1536x1024.jpg 1536w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/aerps-com-5e4Zlblkvks-unsplash-scaled-1-2048x1366.jpg 2048w\" sizes=\"(max-width: 2560px) 100vw, 2560px\">\n<h2><font size=\"6\">Schritt 5: Das Training<\/font><\/h2>\n<p data-start=\"225\" data-end=\"387\">Stell Dir vor, wir geben dem Modell Milliarden von Texten: B\u00fccher, Artikel, Webseiten \u2026 Und in jedem Satz decken wir ein Wort ab und sagen: \u201eRate, welches fehlt!\u201c<\/p>\n<p data-start=\"389\" data-end=\"428\">Das ist das Grundprinzip des <b>Trainings<\/b>.<\/p>\n<p data-start=\"430\" data-end=\"688\">GPT versucht, das n\u00e4chste Wort auf Basis der bisherigen W\u00f6rter vorherzusagen. Am Anfang liegt es oft daneben \u2013 aber jedes Mal sagen wir: \u201eNein, das richtige Wort war <em data-start=\"596\" data-end=\"604\">dieses<\/em>.\u201c Dann passt das Modell seine internen Einstellungen (die sogenannten <b>Gewichte<\/b>) an.<\/p>\n<p data-start=\"690\" data-end=\"800\">Diesen Lernprozess nennt man&nbsp;<a style=\"background-color: #f8f7f3; color: #4628dd;\" href=\"https:\/\/liora.io\/de\/algorithmus-fuer-den-gradientenabstieg\" target=\"_blank\" rel=\"noopener\">Gradientenabstieg<\/a>: Bei jedem Fehler wird das Modell ein kleines St\u00fcck kl\u00fcger.<\/p>\n<p data-start=\"802\" data-end=\"1014\">Indem GPT dieses Vorhersagespiel Milliardenfach wiederholt, lernt es nicht nur, welche W\u00f6rter h\u00e4ufig zusammengeh\u00f6ren \u2013 es entwickelt ein Gesp\u00fcr f\u00fcr Grammatik, Satzbau, Sprachstile und sogar f\u00fcr komplexe Konzepte. So wird aus reinem Raten nach und nach beeindruckende Sprachkompetenz.<\/p>\n\t\t\t\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\"><div class=\"wp-block-button \"><a class=\"wp-block-button__link wp-element-button \" href=\"https:\/\/liora.io\/de\/unsere-aus-und-weiterbildungen\">Weiterbildung um KI zu beherrschen<\/a><\/div><\/div>\n\n<h2><font size=\"6\">Letzter Schritt: Die Textgenerierung<\/font><\/h2>\nSobald das GPT-Modell trainiert ist, kann es Texte generieren \u2013 und zwar basierend auf einer Eingabe, dem sogenannten <b>Prompt<\/b>.\n<ol>\n \t<li data-start=\"276\" data-end=\"625\">Das Modell nimmt Deinen Prompt, wandelt die W\u00f6rter in Zahlen (Embeddings) um und schickt sie durch alle seine Transformer-Bl\u00f6cke.&nbsp;<\/li>\n \t<li data-start=\"276\" data-end=\"625\">Es gibt eine Liste von Wahrscheinlichkeiten f\u00fcr <b>jedes m\u00f6gliche n\u00e4chste Wort <\/b>aus. Zum Beispiel: Nach \u201eEs war einmal\u2026\u201c k\u00f6nnte \u201eein\u201c mit 80\u202f% Wahrscheinlichkeit folgen, \u201eeine\u201c mit 10\u202f%, \u201eder\u201c mit 5\u202f% und so weiter.<\/li>\n \t<li data-start=\"627\" data-end=\"839\">GPT w\u00e4hlt nun ein Wort aus dieser Liste. Dabei nimmt es nicht immer das wahrscheinlichste \u2013 sonst w\u00fcrden die Texte schnell eint\u00f6nig wirken. Stattdessen w\u00e4hlt es zuf\u00e4llig aus den wahrscheinlichsten Kandidaten aus.<\/li>\n \t<li data-start=\"841\" data-end=\"1008\">Das gew\u00e4hlte Wort wird an den Text angeh\u00e4ngt, z.\u202fB.: \u201eEs war einmal ein\u201c. Diese neue Sequenz wird erneut durch das Modell geschickt, um das n\u00e4chste Wort vorherzusagen.<\/li>\n<\/ol>\n<p data-start=\"1010\" data-end=\"1134\">Und so geht es weiter \u2013 Wort f\u00fcr Wort \u2013, bis ein spezielles Endsignal erzeugt wird oder die maximale Textl\u00e4nge erreicht ist.<\/p>\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<img decoding=\"async\" width=\"2560\" height=\"1922\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/shantanu-kumar-xvdkNBaja90-unsplash-1-scaled-1.jpg\" alt=\"\" loading=\"lazy\" srcset=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/shantanu-kumar-xvdkNBaja90-unsplash-1-scaled-1.jpg 2560w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/shantanu-kumar-xvdkNBaja90-unsplash-1-scaled-1-300x225.jpg 300w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/shantanu-kumar-xvdkNBaja90-unsplash-1-scaled-1-1024x769.jpg 1024w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/shantanu-kumar-xvdkNBaja90-unsplash-1-scaled-1-768x577.jpg 768w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/shantanu-kumar-xvdkNBaja90-unsplash-1-scaled-1-1536x1153.jpg 1536w, https:\/\/liora.io\/app\/uploads\/sites\/8\/2025\/06\/shantanu-kumar-xvdkNBaja90-unsplash-1-scaled-1-2048x1538.jpg 2048w\" sizes=\"(max-width: 2560px) 100vw, 2560px\">\n<h2><font size=\"6\">Fazit: Kein Denken, aber beeindruckende Vorhersagekraft<\/font><\/h2>\n<p data-start=\"208\" data-end=\"279\">Die St\u00e4rke von GPT liegt in der Kombination mehrerer Schl\u00fcsselelemente:<\/p>\n\n<ul data-start=\"281\" data-end=\"804\">\n \t<li data-start=\"281\" data-end=\"428\">\n<p data-start=\"283\" data-end=\"428\">Der<strong data-start=\"283\" data-end=\"314\"> Transformer-Architektur<\/strong> mit ihrem <b>Aufmerksamkeitsmechanismus<\/b>, die es dem Modell erlaubt, auch in langen Texten den Kontext zu erfassen.<\/p>\n<\/li>\n \t<li data-start=\"429\" data-end=\"564\">\n<p data-start=\"431\" data-end=\"564\">Der <strong data-start=\"431\" data-end=\"468\">gestapelten Schichtenstruktur<\/strong>, die zunehmend komplexere Sprachmuster erlernt \u2013 von Wortbeziehungen bis hin zu Stil und Ton.<\/p>\n<\/li>\n \t<li data-start=\"565\" data-end=\"692\">\n<p data-start=\"567\" data-end=\"692\">Dem<strong data-start=\"567\" data-end=\"597\"> umfangreichen Training<\/strong> auf riesigen Textmengen, das GPT ein breites Sprachverst\u00e4ndnis und viel Weltwissen verleiht.<\/p>\n<\/li>\n \t<li data-start=\"693\" data-end=\"804\">\n<p data-start=\"695\" data-end=\"804\">Dem<strong data-start=\"695\" data-end=\"734\"> Wort-f\u00fcr-Wort-Vorhersageprinzip<\/strong>, das nat\u00fcrliche, fl\u00fcssige und \u00fcberraschend kreative Texte erm\u00f6glicht.<\/p>\n<\/li>\n<\/ul>\n<p data-start=\"806\" data-end=\"990\">GPT \u201edenkt\u201c nicht wie ein Mensch. Aber es ist extrem gut darin, <b>komplexe statistische Muster in der Sprache zu erkennen<\/b> \u2013 und so sehr \u00fcberzeugend vorherzusagen, was als N\u00e4chstes kommt.<\/p>\n<p data-start=\"992\" data-end=\"1083\">Das Ergebnis? Texte, die f\u00fcr uns intelligent, relevant und manchmal sogar originell wirken.<\/p>\n\n<ul><\/ul>\nWenn Dich das Thema fasziniert: <strong data-start=\"1122\" data-end=\"1139\">Liora<\/strong> bietet praxisnahe Weiterbildungen an, die ideal sind, um noch tiefer in die Funktionsweise von Modellen wie GPT einzusteigen.\n\n<a href=\"https:\/\/liora.io\/de\/unsere-aus-und-weiterbildungen\" target=\"_blank\" rel=\"noopener\">\nZu unseren Weiterbildungen\n<\/a>","protected":false},"excerpt":{"rendered":"<p>Was genau ist eigentlich ein GPT-Modell? Es handelt sich um die Technologie, die vielen modernen KI-Anwendungen zugrunde liegt \u2013 einschlie\u00dflich ChatGPT. Hier geht es nicht um ChatGPT direkt \u2013 aber genau von dort kommt der Name. Falls Du noch nie von GPT geh\u00f6rt hast, bist Du vermutlich trotzdem schon in Ber\u00fchrung damit gekommen: in Form [&hellip;]<\/p>\n","protected":false},"author":74,"featured_media":206080,"comment_status":"open","ping_status":"open","sticky":false,"template":"elementor_theme","format":"standard","meta":{"_acf_changed":false,"editor_notices":[],"footnotes":""},"categories":[2472],"class_list":["post-206078","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-data-ki"],"acf":[],"_links":{"self":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/206078","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/users\/74"}],"replies":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/comments?post=206078"}],"version-history":[{"count":5,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/206078\/revisions"}],"predecessor-version":[{"id":216737,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/206078\/revisions\/216737"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media\/206080"}],"wp:attachment":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media?parent=206078"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/categories?post=206078"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}