{"id":178070,"date":"2026-01-28T12:21:45","date_gmt":"2026-01-28T11:21:45","guid":{"rendered":"https:\/\/liora.io\/de\/?p=178070"},"modified":"2026-02-24T11:22:04","modified_gmt":"2026-02-24T10:22:04","slug":"hugging-face-transformers-was-ist-das","status":"publish","type":"post","link":"https:\/\/liora.io\/de\/hugging-face-transformers-was-ist-das","title":{"rendered":"Hugging Face Transformers: Was ist das ?"},"content":{"rendered":"\n<p><strong>Hugging Face Transformers: Seit Jahren weckt die KI mit den durch maschinelles Lernen und insbesondere durch Deep Learning erzielten Leistungen ein wachsendes Interesse.<\/strong><\/p>\n\n\n\n<p>Diese Technologien haben eine entscheidende Rolle bei der Entwicklung der Verarbeitung nat\u00fcrlicher Sprache (NLP) gespielt. Sie haben dazu beigetragen, die g\u00e4ngigsten <a href=\"https:\/\/liora.io\/de\/nlp-natural-language-processing-eine-einfuhrung\">NLP-Aufgaben<\/a> zu automatisieren, wie z. B. die Klassifizierung von W\u00f6rtern und S\u00e4tzen, die Texterzeugung, <strong>die Extraktion von Antworten und die Sprach- und Visionserkennung<\/strong>.<\/p>\n\n\n\n<p>Heutzutage gibt es mehrere <a href=\"https:\/\/liora.io\/de\/open-source-definition\">Open-Source-Bibliotheken<\/a> mit vorab trainierten Modellen, die es Datenwissenschaftlern und Unternehmen erm\u00f6glichen, vorhandene Modelle zu verwenden, um Rechenkosten und Zeit zu sparen. Hugging Face ist eine dieser Bibliotheken.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-uber-hugging-face-transformers\">\u00dcber Hugging Face Transformers<\/h2>\n\n\n\n<p><strong>Hugging Face<\/strong> transformers ist eine Plattform, die die KI voranbringen soll, indem sie Modellsammlungen und Datens\u00e4tze teilt, die es den Nutzern erm\u00f6glichen, ihre KI-Modelle zu verwalten, zu teilen und weiterzuentwickeln.<\/p>\n\n\n\n<p>Es handelt sich um eine <strong>Open Source Deep-Learning-Bibliothek<\/strong>, die auf Python basiert und eine gro\u00dfe Vielfalt an vortrainierten Modellen f\u00fcr verschiedene Arten von NLP-Aufgaben erweitert. Sie bietet eine API zur Verwendung in zahlreichen vorab trainierten Transformatorarchitekturen wie <a href=\"https:\/\/liora.io\/de\/bert\">BERT<\/a>, <a href=\"https:\/\/liora.io\/de\/wie-funktioniert-das-gpt-modell\">GPT-2<\/a>, <strong>DistilBERT<\/strong>, <strong>BART <\/strong>oder <strong>GPT-3<\/strong>, die sehr gute Ergebnisse bei einer Vielzahl von NLP-Aufgaben wie Textklassifikation, Erkennung von benannten Entit\u00e4ten, Textgenerierung usw. erzielen.<\/p>\n\n\n\n<p>Die vortrainierten Transformatoren von Hugging Face k\u00f6nnen in drei Kategorien eingeteilt werden:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Autoregressive Transformatoren (GPT-\u00e4hnliche Architektur)<\/strong>: Konzentrieren sich auf die Vorhersage des n\u00e4chsten Wortes im Satz und eignen sich f\u00fcr generative Aufgaben wie die Texterzeugung.<\/li>\n\n\n\n<li><strong>Selbstkodierende Transformatoren (BERT-\u00e4hnliche Architektur)<\/strong>: besser geeignet f\u00fcr Aufgaben, die ein vollst\u00e4ndiges Verst\u00e4ndnis der Eingabe erfordern. Zum Beispiel die Klassifizierung von S\u00e4tzen, die Erkennung von benannten Entit\u00e4ten und ganz allgemein die Klassifizierung von W\u00f6rtern.<\/li>\n\n\n\n<li><strong>Sequenz-zu-Sequenz-Transformatoren (BART\/T5-Architektur)<\/strong>: Am besten geeignet f\u00fcr Aufgaben, bei denen es um die Generierung neuer S\u00e4tze auf der Grundlage einer gegebenen Eingabe geht, z. B. Textzusammenfassungen, \u00dcbersetzungen oder die Generierung von Fragen und Antworten.<\/li>\n<\/ul>\n\n\n\n<p>Zus\u00e4tzlich zu den offiziellen vortrainierten Vorlagen gibt es auf dem Hugging Face Hub Hunderte von Vorlagen f\u00fcr Satzumwandler (sentence-transformer).<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-was-ist-der-sinn-dieser-hugging-face-transformers\">Was ist der Sinn dieser Hugging Face Transformers?<\/h2>\n\n\n\n<p>Das Ziel eines <strong>Hugging Face Transformers<\/strong> ist es, die Entwicklung von Projekten zum maschinellen Lernen zu erleichtern, indem <a href=\"https:\/\/liora.io\/de\/open-ai-api-alles-was-du-wissen-musst\">APIs<\/a> und Werkzeuge zum Herunterladen und Trainieren von vortrainierten Modellen bereitgestellt werden. Die Verwendung dieser Modelle kann die Rechenkosten senken und die Zeit und Ressourcen einsparen, die n\u00f6tig sind, um ein Modell von Grund auf zu trainieren. Sie sind schnell zur vorherrschenden Architektur geworden, um bei einer Vielzahl von <a href=\"https:\/\/liora.io\/de\/nlp-natural-language-processing-eine-einfuhrung\">NLP-Aufgaben<\/a> zuverl\u00e4ssige Ergebnisse zu erzielen.<\/p>\n\n\n\n<p>Diese Modelle unterst\u00fctzen g\u00e4ngige Aufgaben in verschiedenen Modalit\u00e4ten:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Text:<\/strong> F\u00fcr alles, was mit Klassifizierung, Informationsgewinnung, Beantwortung von Fragen, Generierung, Erstellung und \u00dcbersetzung von Text in \u00fcber 100 verschiedenen Sprachen zu tun hat.<\/li>\n\n\n\n<li><strong>Sprache:<\/strong> F\u00fcr Aufgaben wie die Audioklassifizierung von Objekten und die Spracherkennung.<\/li>\n\n\n\n<li><strong>Vision:<\/strong> F\u00fcr die Erkennung von Objekten, die Klassifizierung von Bildern und die Segmentierung.Tabellarische Daten: F\u00fcr Regressions- und Klassifikationsprobleme.<\/li>\n<\/ul>\n\n\n\n<p>Andererseits unterst\u00fctzen die Transformers die Framework-Interoperabilit\u00e4t zwischen <a href=\"https:\/\/liora.io\/de\/pytorch\">PyTorch,<\/a> <a href=\"https:\/\/liora.io\/de\/tensorflow\">TensorFlow<\/a> und JAX. Dies erm\u00f6glicht es, in jeder Phase des Lebens eines Modells ein anderes <a href=\"https:\/\/liora.io\/de\/was-ist-ein-framework\">Framework<\/a> zu verwenden: ein Modell mit drei Zeilen Code in einem Framework zu formen und es f\u00fcr die Inferenz in einem anderen Framework zu laden.<\/p>\n\n\n\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\">\n<div class=\"wp-block-button\"><a class=\"wp-block-button__link wp-element-button\" href=\"https:\/\/liora.io\/de\/weiterbildung\/data-ki\/deep-learning\">Hugging Face Transformers lernen<\/a><\/div>\n<\/div>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-einrichten-der-transformers\">Einrichten der Transformers<\/h2>\n\n\n\n<p>In diesem Teil werden wir die Transformers in die Praxis umsetzen, indem wir das Pipeline-Tool kennen lernen. Anschlie\u00dfend zeigen wir, wie dieses Tool die Umsetzung von <a href=\"https:\/\/liora.io\/de\/spacy-open-source-blibliothek\">NLP<\/a>&#8211; und <a href=\"https:\/\/liora.io\/de\/computer-vision\">Computer Vision<\/a>-Aufgaben erleichtert.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-die-pipelines\">Die Pipelines<\/h3>\n\n\n\n<p><strong>Pipelines<\/strong> sind ein einfacher und effektiver Weg, um einen Gro\u00dfteil des komplexen Codes aus der <strong>Bibliothek<\/strong> zu extrahieren, die eine API bereitstellt, um R\u00fcckschl\u00fcsse auf eine Vielzahl von Aufgaben zu ziehen, darunter die Erkennung benannter Entit\u00e4ten, die Analyse von Gef\u00fchlen, die Beantwortung von Fragen usw.<\/p>\n\n\n\n<p>Sie werden verwendet, um den Gesamtprozess jeder <strong>NLP-Aufgabe<\/strong> wie Textreinigung, Tokenisierung, Einbettung usw. zu kapseln. <\/p>\n\n\n\n<p>Es ist eine einfach zu verwendende Funktion: Die <strong>Instanziierung einer Pipeline<\/strong> erfolgt \u00fcber die Methode pipeline(). Du musst nur die Aufgabe angeben, die gestartet werden soll.<\/p>\n\n\n\n<p>Nachfolgend eine nicht ersch\u00f6pfende Liste der verf\u00fcgbaren Pipelines aus der Hugging Face Transformers-Bibliothek:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>feature-extraction (um die Vektordarstellung eines Textes zu erhalten).<\/li>\n\n\n\n<li>fill-mask (um maskierte W\u00f6rter vorherzusagen)<\/li>\n\n\n\n<li>ner (Erkennung von benannten Entit\u00e4ten)<\/li>\n\n\n\n<li>question-answering (um Fragen zu beantworten)<\/li>\n\n\n\n<li>sentiment-analysis (Analyse von Gef\u00fchlen)<\/li>\n\n\n\n<li>summarization (um einen Text zusammenzufassen)<\/li>\n\n\n\n<li>text-generation (einen neuen Text erstellen)<\/li>\n\n\n\n<li>translation (einen Text \u00fcbersetzen)<\/li>\n\n\n\n<li>zero-shot-classification (um neue Beispiele aus neuen Klassen zu klassifizieren)<\/li>\n<\/ul>\n\n\n\n<p>?Auch interessant:<\/p>\n\n\n\n<figure class=\"wp-block-table\"><table class=\"has-fixed-layout\"><tbody><tr><td><a href=\"https:\/\/liora.io\/de\/deep-learning-oder-tiefes-lernen-was-ist-das-denn\" target=\"_blank\" rel=\"noopener\">Deep Learning &#8211; was ist das eigentlich ?<\/a><\/td><\/tr><tr><td><a href=\"https:\/\/liora.io\/de\/deep-fake-gefahren-massnahmen-und-rechtslage\" target=\"_blank\" rel=\"noopener\">Deep Fake Gefahren<\/a><\/td><\/tr><tr><td><a href=\"https:\/\/liora.io\/de\/python-deep-learning-die-basics\" target=\"_blank\" rel=\"noopener\">Python Deep Learning Basics<\/a><\/td><\/tr><tr><td><a href=\"https:\/\/liora.io\/de\/style-transfer-deep-learning\" target=\"_blank\" rel=\"noopener\">Style Transfer Deep Learning<\/a><\/td><\/tr><tr><td><a href=\"https:\/\/liora.io\/de\/alphacode-deepminds-neues-ki-tool-zum-schreiben-von-computercode\" target=\"_blank\" rel=\"noopener\">Alphacode Deepminds<\/a><\/td><\/tr><\/tbody><\/table><\/figure>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-textgenerierung\">Textgenerierung<\/h3>\n\n\n\n<p>Heutzutage ist die Textgenerierung mit der Ver\u00f6ffentlichung und Weiterentwicklung von <a href=\"https:\/\/liora.io\/de\/chatgpt-wie-funktioniert-dfer-nlp-algorithmus\">ChatGPT<\/a> zu einem Trend geworden. In diesem Zusammenhang erm\u00f6glicht uns die <strong>Pipeline<\/strong>, fortgeschrittene Modelle zur <strong>Textgenerierung <\/strong>in einer einzigen Codezeile zu verwenden.<\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter is-resized\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/06\/image2-6.png\" alt=\"\" style=\"width:auto;height:65px\" \/><\/figure>\n\n\n\n<p>In der obigen Zeile geben wir den gew\u00fcnschten <strong>Anwendungsfall (Texterzeugung)<\/strong> an, und es wird automatisch die Standardvorlage (in diesem Fall GPT-2) herunterladen. Wir k\u00f6nnen auch andere Versionen verwenden, indem wir den Parameter &#8218;model&#8216; angeben.<\/p>\n\n\n\n<p>Nun beginnen wir mit der Texterzeugung, indem wir einen Satz als Parameter \u00fcbergeben.<\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter is-resized\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/06\/image4-5.png\" alt=\"\" style=\"width:auto;height:40px\" \/><\/figure>\n\n\n\n<p>In diesem Beispiel haben wir der Vorlage eine Frage gestellt: &#8222;Why artificial intelligence? &#8222;.<\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/06\/image3-4.png\" alt=\"\" \/><\/figure>\n\n\n\n<p>Das Modell hat eine Antwort im Schl\u00fcssel &#8218;generated_text&#8216; erzeugt, und wir k\u00f6nnen eine weitere Antwort erzeugen, indem wir den Code ein weiteres Mal ausf\u00fchren. Dieses Beispiel zeigt, dass Transformers uns dabei helfen, einen Chatbot in kurzer Zeit zu implementieren.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-bildklassifizierung\">Bildklassifizierung<\/h3>\n\n\n\n<p>Die Klassifizierung von Bildern ist ein Problem im Zusammenhang mit maschinellem Lernen (Machine Learning). Mit der Transformers API ist es einfach, das Modell f\u00fcr dieses Problem zu erwerben.<\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter is-resized\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/06\/image6-4.png\" alt=\"\" style=\"width:auto;height:60px\" \/><\/figure>\n\n\n\n<p>In einer Zeile haben wir die Vorlage Image Classifier erworben. Wir k\u00f6nnten ganz einfach eine Bilddatei aus einer beliebigen Quelle \u00fcbergeben, um das Bild mit dieser Vorlage zu identifizieren.<\/p>\n\n\n\n<p>Zum Beispiel \u00fcbergeben wir den Link des Bildes darunter und lassen es von der Vorlage klassifizieren.<\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/06\/image5-3.png\" alt=\"\" \/><\/figure>\n\n\n\n<p>Die Pipeline hilft uns dabei, dies in einer einzigen Zeile Code zu tun. Das Modell bietet f\u00fcnf Klassifizierungen, die jeweils mit einer Wahrscheinlichkeit verbunden sind. Die erste hat die h\u00f6chste Punktzahl, also k\u00f6nnen wir &#8222;Sportwagen&#8220; als Hauptvorhersage nehmen und das ist in der Tat richtig.<\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter\" style=\"margin-top:var(--wp--preset--spacing--columns);margin-bottom:var(--wp--preset--spacing--columns)\"><img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/sites\/8\/2023\/06\/image1-4.png\" alt=\"\" \/><\/figure>\n\n\n\n<p>Dieses Beispiel zeigt, dass wir ein ausgekl\u00fcgeltes Modell in kurzer Zeit und ohne gro\u00dfe <strong>KI-Kenntnisse <\/strong>umsetzen k\u00f6nnen.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"h-angabe-des-modells-in-einer-pipeline\">Angabe des Modells in einer Pipeline<\/h3>\n\n\n\n<p>In den vorherigen Beispielen haben wir die Standardvorlage f\u00fcr die jeweilige Aufgabe verwendet, aber es ist auch m\u00f6glich, eine bestimmte Vorlage aus dem Hub auszuw\u00e4hlen und sie in einer Pipeline f\u00fcr eine bestimmte Aufgabe zu verwenden.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"h-fazit\">Fazit<\/h2>\n\n\n\n<p>Heute ist Hugging Face Transformers die am weitesten verbreitete Softwarebibliothek, die sowohl von Anf\u00e4ngern als auch von Profis f\u00fcr Modelle des maschinellen Lernens zur Bearbeitung von NLP-Aufgaben angenommen wird. Sie stellt dem Nutzer ein vortrainiertes Modell zur Verf\u00fcgung, das zuvor aufgrund der technischen Anforderungen nicht zug\u00e4nglich war.<\/p>\n\n\n\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\">\n<div class=\"wp-block-button\"><a class=\"wp-block-button__link wp-element-button\" href=\"https:\/\/liora.io\/de\/weiterbildung\/data-ki\/deep-learning\">Deep Learning Weiterbildung<\/a><\/div>\n<\/div>\n\n\n\n<script type=\"application\/ld+json\">\n{\n  \"@context\": \"https:\/\/schema.org\",\n  \"@type\": \"FAQPage\",\n  \"mainEntity\": [\n    {\n      \"@type\": \"Question\",\n      \"name\": \"\u00dcber Hugging Face Transformers\",\n      \"acceptedAnswer\": {\n        \"@type\": \"Answer\",\n        \"text\": \"Hugging Face Transformers ist eine Open-Source-Python-Bibliothek mit vortrainierten Modellen f\u00fcr NLP-Aufgaben. Sie bietet APIs f\u00fcr Transformer-Architekturen (BERT, GPT-2, DistilBERT, BART, GPT-3). Drei Modellkategorien: Autoregressive (GPT-\u00e4hnlich \u2013 Texterzeugung), Selbstkodierende (BERT-\u00e4hnlich \u2013 Satzklassifikation, Named-Entity-Recognition), Sequenz-zu-Sequenz (BART\/T5 \u2013 Textzusammenfassung, \u00dcbersetzung).\"\n      }\n    },\n    {\n      \"@type\": \"Question\",\n      \"name\": \"Was ist der Sinn dieser Hugging Face Transformers?\",\n      \"acceptedAnswer\": {\n        \"@type\": \"Answer\",\n        \"text\": \"Ziel: Entwicklung von ML-Projekten durch vortrainierte Modelle vereinfachen, Rechenkosten und Trainingszeit sparen. Unterst\u00fctzte Modalit\u00e4ten: Text (Klassifikation, QA, Generierung, \u00dcbersetzung in 100+ Sprachen), Sprache (Audioklassifikation, Spracherkennung), Vision (Objekterkennung, Bildklassifikation, Segmentierung), tabellarische Daten (Regression, Klassifikation). Framework-Interoperabilit\u00e4t zwischen PyTorch, TensorFlow und JAX.\"\n      }\n    },\n    {\n      \"@type\": \"Question\",\n      \"name\": \"Einrichten der Transformers\",\n      \"acceptedAnswer\": {\n        \"@type\": \"Answer\",\n        \"text\": \"Praktische Umsetzung mit dem Pipeline-Tool: Einfache Instanziierung \u00fcber pipeline()-Methode durch Angabe der Aufgabe. Verf\u00fcgbare Pipelines u.a.: feature-extraction, fill-mask, ner, question-answering, sentiment-analysis, summarization, text-generation, translation, zero-shot-classification. Beispiele: Textgenerierung (Standard GPT-2), Bildklassifizierung (Image Classifier), spezifische Modellauswahl aus dem Hub.\"\n      }\n    },\n    {\n      \"@type\": \"Question\",\n      \"name\": \"Fazit\",\n      \"acceptedAnswer\": {\n        \"@type\": \"Answer\",\n        \"text\": \"Hugging Face Transformers ist die am weitesten verbreitete Bibliothek f\u00fcr ML-Modelle in NLP-Aufgaben \u2013 f\u00fcr Anf\u00e4nger und Profis. Sie macht vortrainierte Modelle zug\u00e4nglich, die zuvor technisch anspruchsvoll waren.\"\n      }\n    }\n  ]\n}\n<\/script>\n","protected":false},"excerpt":{"rendered":"<p>Hugging Face Transformers: Seit Jahren weckt die KI mit den durch maschinelles Lernen und insbesondere durch Deep Learning erzielten Leistungen ein wachsendes Interesse. Diese Technologien haben eine entscheidende Rolle bei der Entwicklung der Verarbeitung nat\u00fcrlicher Sprache (NLP) gespielt. Sie haben dazu beigetragen, die g\u00e4ngigsten NLP-Aufgaben zu automatisieren, wie z. B. die Klassifizierung von W\u00f6rtern und [\u2026]<\/p>\n","protected":false},"author":78,"featured_media":178071,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"editor_notices":[],"footnotes":""},"categories":[2472],"class_list":["post-178070","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-data-ki"],"acf":[],"_links":{"self":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/178070","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/users\/78"}],"replies":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/comments?post=178070"}],"version-history":[{"count":5,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/178070\/revisions"}],"predecessor-version":[{"id":219614,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/178070\/revisions\/219614"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media\/178071"}],"wp:attachment":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media?parent=178070"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/categories?post=178070"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}