{"id":191206,"date":"2024-01-14T21:01:57","date_gmt":"2024-01-14T20:01:57","guid":{"rendered":"https:\/\/liora.io\/de\/?p=191206"},"modified":"2026-02-06T06:05:14","modified_gmt":"2026-02-06T05:05:14","slug":"automated-prompt-engineering-alles-ueber-die-automatisierte-erstellung-von-prompts-fuer-die-ki","status":"publish","type":"post","link":"https:\/\/liora.io\/de\/automated-prompt-engineering-alles-ueber-die-automatisierte-erstellung-von-prompts-fuer-die-ki","title":{"rendered":"Automated Prompt Engineering: Alles \u00fcber die automatisierte Erstellung von Prompts f\u00fcr die KI"},"content":{"rendered":"<p><strong>Automated Prompt Engineering ist ein neuer Ansatz, bei dem das Engineering und Schreiben von Prompts f\u00fcr Larger Language Models (LLM) wie GPT und andere generative KIs automatisiert wird. Erfahre alles, was du wissen musst!<\/strong><\/p>\t\t\n\t\t<p>Mit dem <a href=\"https:\/\/liora.io\/de\/chatgpt-code-umwandeln-so-gehts-in-sekundenschnelle\">Aufkommen von Tools wie ChatGPT<\/a> und <a href=\"https:\/\/liora.io\/de\/midjourney-alles-ueber-die-ki-die-deine-ideen-in-bilder-umwandelt\">MidJourney<\/a> l\u00f6st die generative KI eine Revolution in einer Vielzahl von Branchen aus. Wir sind in ein neues Zeitalter eingetreten.<\/p><p>Jetzt ist es m\u00f6glich, Text, Bilder oder sogar Audio und Video in nur wenigen Sekunden zu generieren. Das ist ein Umbruch mit massiven Auswirkungen auf eine Vielzahl von Berufen.<\/p><p><a href=\"https:\/\/liora.io\/de\/ki-ingenieur-alles-ueber-diesen-beruf\">K\u00fcnstliche Intelligenz<\/a> kann sich nun damit besch\u00e4ftigen, <strong>Software und Webseiten zu erstellen<\/strong>, neue Produkte oder Architekturpl\u00e4ne zu zeichnen, Daten zu analysieren oder <strong>Kinderb\u00fccher zu illustrieren.<\/strong><\/p><p>Um mit diesen m\u00e4chtigen Werkzeugen die gew\u00fcnschten Ergebnisse zu erzielen, muss man jedoch wissen, wie man seine Anfrage pr\u00e4zise formuliert: das sogenannte <strong>Prompt Engineering.<\/strong><\/p><p>Dieser Prozess kann sich als langwierig und m\u00fchsam erweisen. Nachdem du einen ersten <a href=\"https:\/\/liora.io\/de\/prompt-engineering-alles-ueber-den-neuen-ki-beruf\">Prompt verfasst<\/a> hast, musst du ihn oft mehrmals \u00e4ndern, um ihn zu perfektionieren, bis die <strong>KI genau das erzeugt, was du von ihr erwartest.<\/strong><\/p><p>Um noch mehr Zeit zu sparen und die Effizienz zu maximieren, haben Forscher und andere KI-Experten damit begonnen, verschiedene Techniken f\u00fcr das <strong>Automated Prompt Engineering (APE)<\/strong> zu entwickeln.<\/p><p>Wie du gleich sehen wirst, hat dieser Ansatz viele Vorteile und kann den Unterschied zwischen einem Amateur und einem echten Profi ausmachen. Bevor wir uns mit den bestehenden Methoden und ihren Vorteilen besch\u00e4ftigen, wollen wir zun\u00e4chst zu den Grundlagen zur\u00fcckkehren.<\/p>\t\t\n\t\t\t\t\t\t\t\t\t\t\t\t<figure>\n\t\t\t\t\t\t\t\t\t\t<img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/2023\/12\/Automated_Prompt_Engineering-1.jpg\" title=\"\" alt=\"\" loading=\"lazy\">\t\t\t\t\t\t\t\t\t\t\t<figcaption><\/figcaption>\n\t\t\t\t\t\t\t\t\t\t<\/figure>\n\t\t\t<h3>Was ist Prompt Engineering?<\/h3>\t\t\n\t\t<p><strong>Large Language Models<\/strong> sind in der Lage, Text wie ein Mensch zu erstellen, indem sie auf den Befehlen basieren, die sie erhalten: Prompts.<\/p><p>Der Begriff Prompt Engineering bezieht sich auf die Erstellung pr\u00e4ziser, effizienter Prompts, die darauf abzielen, die besten Ergebnisse mit generativen KI-Werkzeugen zu erzielen, die auf <a href=\"https:\/\/liora.io\/de\/langchain-stellt-langsmith-vor-eine-all-in-one-plattform-fuer-llms\">Large Language Models (LLM) basieren.<\/a><\/p><p>Diese Disziplin erfordert <a href=\"https:\/\/liora.io\/de\/nlp-natural-language-processing-eine-einfuhrung\">Fachwissen in nat\u00fcrlicher Sprachverarbeitung (NLP)<\/a> und LLM. Prompt Engineers m\u00fcssen in der Lage sein, klare und kontextspezifische Fragen und S\u00e4tze zu formulieren, um pr\u00e4zise und relevante Antworten von der KI zu erhalten.<\/p><p>Egal, ob es darum geht, detaillierte Marketingberichte zu erstellen, <a href=\"https:\/\/liora.io\/de\/codesquire-alles-ueber-ki-die-beim-programmieren-hilft\">ansprechende Inhalte f\u00fcr eine Website<\/a> zu kreieren <a href=\"https:\/\/liora.io\/de\/alphacode-deepminds-neues-ki-tool-zum-schreiben-von-computercode\">oder Computercode zu schreiben:<\/a> Prompt Engineering ist eine sehr n\u00fctzliche F\u00e4higkeit, um Zeit zu sparen.<\/p><p>Und entgegen der landl\u00e4ufigen Meinung musst du nicht unbedingt mit einer Programmiersprache umgehen k\u00f6nnen oder Kenntnisse in der Softwareentwicklung haben, um dich in diesem Bereich auszuzeichnen.<\/p><p>Das Wichtigste, um diese <strong>Rolle als Ingenieur<\/strong> auszu\u00fcben, ist, die Sprache zu beherrschen und einen analytischen Verstand zu haben. Ein qualitativ hochwertiger Prompt sollte Kontext enthalten, damit <strong>die KI die Situation verstehen<\/strong> kann, und Anweisungen, um ihr genau zu erkl\u00e4ren, was man will.<\/p><p>Dadurch werden Mehrdeutigkeiten und das <strong>Risiko, irrelevante Ergebnisse zu erhalten, reduziert,<\/strong> die generative KI kann besser kontrolliert werden und es wird Zeit gespart.<\/p><p><strong>Du kannst es dir sicher vorstellen:<\/strong> Die perfekte Eingabeaufforderung zu formulieren, kann viel Geduld und mehrere Versuche erfordern. Aus diesem Grund kann es sehr interessant sein, diesen Prozess zu automatisieren.<\/p>\t\t\n\t\t\t\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\"><div class=\"wp-block-button \"><a class=\"wp-block-button__link wp-element-button \" href=\"https:\/\/liora.io\/de\/unsere-aus-und-weiterbildungen\">Alles \u00fcber Automatic Prompt Engineering lernen<\/a><\/div><\/div>\n\n\t\t\t<h3>Warum sollte man das Prompt-Engineering automatisieren? Welche Vorteile hat Automated Prompt Engineering?<\/h3>\t\t\n\t\t<p>Techniken zur automatischen Erstellung von Prompts sind nicht nur ein einfacher Weg, um mithilfe von <strong>KI qualitativ hochwertige Inhalte zu erzeugen.<\/strong><\/p><p>Sie sind auch eine Alternative zum Training von <strong>LLMs<\/strong> mit aggregierten Daten aus dem Web oder aus B\u00fcchern, das bisher als Standard galt.<\/p><p>Anstatt gro\u00dfe Datens\u00e4tze zusammenzustellen und manuell Etiketten zu erstellen, k\u00f6nnen synthetische Daten automatisch erzeugt werden.<\/p><p>Das Trainieren von KI-Modellen auf gro\u00dfen Datenbest\u00e4nden wird dadurch viel einfacher und schneller. Die Methoden des automatisierten Engineerings haben daher ein revolution\u00e4res Potenzial f\u00fcr die KI-Industrie.<\/p><p>Dieser Ansatz kann auch die Leistung von LLMs steigern, indem Prompts auf die jeweilige Aufgabe zugeschnitten werden. Im weiteren Sinne kann dies auch dazu f\u00fchren, dass KIs vielseitiger werden.<\/p><p>Es gibt verschiedene Techniken f\u00fcr das automatisierte Prompt-Engineering. Zu den am h\u00e4ufigsten verwendeten geh\u00f6ren die gradientenbasierte Optimierung,<strong> regelbasierte Systeme und Machine Learning.<\/strong><\/p><p>Nun wollen wir uns zwei besonders \u00fcberzeugende Methoden genauer ansehen: das Framework Automatic Prompt Engineer (APE) und das OPRO-Programm!<\/p>\t\t\n\t\t\t<h4>1. Automatic Prompt Engineer (APE): Ein Framework zum automatischen Erstellen von Prompts.<\/h4>\t\t\n\t\t<p>Die Forscher Yongchao Zhou, Andrei Ioan Muresanu, Ziwen Han und ihre Kollegen von der Universit\u00e4t Toronto, dem Vector Institute und der Universit\u00e4t Waterloo haben ein Verfahren zur Erzeugung von Prompttext f\u00fcr breite Sprachmuster entwickelt: <strong>Automatic Prompt Engineer (APE).<\/strong><\/p>\t\t\n\t\t\t\t\t\t\t\t\t\t\t\t<figure>\n\t\t\t\t\t\t\t\t\t\t<img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/2023\/12\/Automated_Prompt_Engineering-2.jpg\" title=\"\" alt=\"\" loading=\"lazy\">\t\t\t\t\t\t\t\t\t\t\t<figcaption><\/figcaption>\n\t\t\t\t\t\t\t\t\t\t<\/figure>\n\t\t<p>Ihre Methode, die urspr\u00fcnglich im November 2022 ver\u00f6ffentlicht und im M\u00e4rz 2023 aktualisiert wurde, besteht darin, Input-Output-Paare an eine<strong> LLM<\/strong> zu \u00fcbergeben, damit diese einen Prompt generiert.<\/p><p>Bei \u00e4hnlichen Inputs wie denjenigen, die im Vorfeld gegeben wurden, wird der Prompt die LLM in die Lage versetzen, \u00e4hnliche Ergebnisse wie die Outputs zu erzeugen. Sie wird auch in der Lage sein, Variationen zu erzeugen.<\/p><p>Dieser Ansatz erfordert also zwei <strong>LLMs:<\/strong> einen <strong>Prompt-Generator und einen Inhaltsgenerator.<\/strong> Um die Prompts zu erzeugen, verwendeten die Forscher GPT-3 und InstructGPT, unterst\u00fctzt von T5, GLM und InsertGPT, um die L\u00fccken zu f\u00fcllen.<\/p><p><strong>InstructGPT<\/strong> wurde verwendet, um den Inhalt zu generieren. Um die KI dazu zu bringen, Prompts zu erzeugen, gaben sie ihr einen Satz wie &#8222;Ich habe einem Freund eine Anweisung und f\u00fcnf Inputs gegeben. Der Freund hat die Anweisung gelesen und f\u00fcr jeden der Inputs einen Output geschrieben. Hier sind die Input-Output-Paare&#8220;.<\/p><p>Diese Anweisung wurde von einer kleinen Gruppe von Beispielen aus dem <strong>Dataset Instruction Induction<\/strong> begleitet, wie z. B. die Namen von zwei Tieren und welches Tier breiter ist.<\/p><p>Der <a href=\"https:\/\/liora.io\/de\/weights-biases-stellt-neues-toolset-fuer-prompts-engineer-vor\">Prompt-Generator<\/a> antwortete darauf mit einem Prompt wie &#8222;W\u00e4hle das Tier, das gr\u00f6\u00dfer ist&#8220;. Dieser Prompt wurde zusammen mit 50 Beispiel-Inputs verwendet, um den Inhaltsgenerator zu f\u00fcttern, der die Ergebnisse produzieren konnte.<\/p><p>Um die Effektivit\u00e4t ihrer Technik zu beurteilen, bewerteten die Forscher die Qualit\u00e4t des Prompts anhand der Anzahl der F\u00e4lle, in denen der Inhaltsgenerator Ergebnisse lieferte, die genau den Erwartungen entsprachen.<\/p><p>Dadurch konnten sie die Leistung steigern, indem sie den Generator anwiesen, einen Prompt zu produzieren, der demjenigen \u00e4hnelte, der die h\u00f6chste Punktzahl erhalten hatte. Dieser Schritt wurde dreimal wiederholt, bis der<strong> ultimative Prompt<\/strong> gefunden war.<\/p><p>Bei jeder der 24 Aufgaben, die in Instruction Induction untersucht wurden, \u00fcbertrafen die von InstructGPT mithilfe von APE erzeugten Prompts die von Menschen erzeugten Prompts.<\/p><p>Diese Methode kann also Prompts erzeugen, die den Inhaltsgenerator dazu bringen, Ergebnisse von h\u00f6chster Qualit\u00e4t zu liefern. APE k\u00f6nnte also die Leistung aller LLMs maximieren!<\/p>\t\t\n\t\t\t\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\"><div class=\"wp-block-button \"><a class=\"wp-block-button__link wp-element-button \" href=\"https:\/\/liora.io\/de\/unsere-aus-und-weiterbildungen\">Automatic Prompt Engineering beherrschen<\/a><\/div><\/div>\n\n\t\t\t<h4>2. OPRO: Ein Programm, um die KI die beste Prompt ausw\u00e4hlen zu lassen<\/h4>\t\t\n\t\t<p>Im September 2023 hat ein <a href=\"https:\/\/liora.io\/de\/alphacode-deepminds-neues-ki-tool-zum-schreiben-von-computercode\">Forscherteam von Google DeepMind<\/a> unter der Leitung von Chrengrun Yang ein Programm namens OPRO entwickelt, mit dem LLMs verschiedene Prompts ausprobieren k\u00f6nnen, bis sie den besten Prompt f\u00fcr eine Aufgabe gefunden haben.<\/p><p>Anstatt zu versuchen, einen Prompt immer wieder manuell zu \u00e4ndern, um ihn zu verbessern, kann dieser iterative Prozess automatisiert werden.<\/p><p>Die Forscher entschieden sich auch daf\u00fcr, nat\u00fcrliche Sprache zu verwenden, um das Optimierungsproblem zu beschreiben, anstatt sich auf die<strong> Programmierung<\/strong> zu verlassen. Dies erm\u00f6glicht es der KI, sich an die sich st\u00e4ndig \u00e4ndernden Anfragen f\u00fcr die Optimierung \u00fcber verschiedene Aufgaben hinweg anzupassen.<\/p><p>Anschlie\u00dfend weisen sie den LLM an, iterativ neue L\u00f6sungen zu generieren, die auf der Problembeschreibung und den zuvor gefundenen L\u00f6sungen basieren.<\/p><p>Das Herzst\u00fcck des OPRO-Programms ist ein Algorithmus, der &#8222;Meta-Prompt&#8220; genannt wird. Er \u00fcberpr\u00fcft fr\u00fchere Prompts und misst ihren Erfolg bei der L\u00f6sung eines bestimmten Problems.<\/p><p>Anschlie\u00dfend generiert der Algorithmus mehrere Prompts und probiert sie aus, um den besten zu finden. Man k\u00f6nnte <strong>Meta-Prompt<\/strong> also mit einer Person vergleichen, die auf ihrer Tastatur mehrere Varianten von Prompts eingibt, bis sie den erfolgreichsten gefunden hat.<\/p><p>Es kann mit verschiedenen LLMs verbunden werden, um Prompts und Antworten zu erzeugen, wie z. B. GPT-3 oder GPT-4 und Google PaLM 2.<\/p>\t\t\n\t\t\t\t\t\t\t\t\t\t\t\t<figure>\n\t\t\t\t\t\t\t\t\t\t<img decoding=\"async\" src=\"https:\/\/liora.io\/app\/uploads\/2023\/12\/Automated_Prompt_Engineering-3.jpg\" title=\"\" alt=\"\" loading=\"lazy\">\t\t\t\t\t\t\t\t\t\t\t<figcaption><\/figcaption>\n\t\t\t\t\t\t\t\t\t\t<\/figure>\n\t\t<p>Die <strong>Autoren der Studie testeten OPRO<\/strong> zun\u00e4chst an einfachen Problemen wie der linearen Regression, bei der das Programm die Anweisung hatte, &#8222;eine Funktion zu minimieren&#8220;, indem es ein Zahlenpaar findet, das den vergangenen Beispielen \u00e4hnelt und gleichzeitig einen kleineren Zahlenwert erzeugt.<\/p><p>Das Sprachmodell ist also in der Lage, L\u00f6sungen f\u00fcr ein mathematisches Problem nur anhand eines Prompts zu finden, ohne ein speziell daf\u00fcr <strong>entwickeltes Solver-Programm zu verwenden.<\/strong><\/p><p>Anschlie\u00dfend wollten die Forscher \u00fcberpr\u00fcfen, ob Meta-Prompt Prompts optimieren kann, indem sie es auf Benchmarks wie GSM8K, das 2021 von OpenAI eingef\u00fchrt wird, oder BIG-bench, das 2022 von Google erstellt wird, testeten.<\/p><p>Im Allgemeinen \u00fcbertrafen die von Meta-Prompt optimierten Prompts die von Menschen erstellten Prompts in beiden Benchmarks um mehr als 50 %.<\/p>\t\t\n\t\t\t<h3>Fazit: Automated Prompt Engineering, der Schl\u00fcssel zur Entfesselung des gesamten KI-Potenzials<\/h3>\t\t\n\t\t<p><strong>Automated Prompt Engineering<\/strong> erm\u00f6glicht die Automatisierung des gesamten Prompt-Engineering-Prozesses und stellt damit einen Meilenstein in der Nutzung generativer KI dar. Mit dieser Methode ist es m\u00f6glich, die Produktivit\u00e4t um das Zehnfache zu steigern.<\/p><p>Um ein Experte in diesem Bereich zu werden, kannst du dich an Liora wenden! In unserem Kurs <strong>Prompt Engineering &amp; Generative AI<\/strong> lernst du in nur zwei Tagen, wie du perfekte Prompts schreibst.<\/p><p>Zun\u00e4chst lernst du die Grundlagen von Machine Learning, Deep Learning und generativer KI kennen, bevor du die Tools ChatGPT f\u00fcr Text, DALL-E und Canvas f\u00fcr Bilder oder ElevenLabs f\u00fcr Audio genauer kennenlernst.<\/p><p>Am Ende des Kurses wirst du in der Lage sein, qualitativ hochwertige Prompts zu verfassen und die verschiedenen KIs zu nutzen, um Inhalte zu erstellen, eine<strong> Web-App<\/strong> zu entwickeln oder Daten zu analysieren.<\/p><p>Dieser Kurs wird vollst\u00e4ndig als Fernkurs durchgef\u00fchrt, und unsere Organisation ist f\u00fcr die Finanzierung durch den Bildungsgutschein genehmigt. Wenn du im <strong>Bereich der KI<\/strong> noch weiter gehen m\u00f6chtest, kannst du auch unsere Kurse Data Scientist, Machine Learning Engineer, Deep Learning oder MLOps w\u00e4hlen. Warte nicht l\u00e4nger und entdecke Liora!<\/p>\t\t\n\t\t\t\n<div class=\"wp-block-buttons is-layout-flex wp-block-buttons-is-layout-flex is-content-justification-center\"><div class=\"wp-block-button \"><a class=\"wp-block-button__link wp-element-button \" href=\"https:\/\/liora.io\/de\/unsere-aus-und-weiterbildungen\">Bilde dich weiter<\/a><\/div><\/div>\n","protected":false},"excerpt":{"rendered":"<p>Automated Prompt Engineering ist ein neuer Ansatz, bei dem das Engineering und Schreiben von Prompts f\u00fcr Larger Language Models (LLM) wie GPT und andere generative KIs automatisiert wird. Erfahre alles, was du wissen musst! Mit dem Aufkommen von Tools wie ChatGPT und MidJourney l\u00f6st die generative KI eine Revolution in einer Vielzahl von Branchen aus. [&hellip;]<\/p>\n","protected":false},"author":76,"featured_media":191218,"comment_status":"open","ping_status":"open","sticky":false,"template":"elementor_theme","format":"standard","meta":{"_acf_changed":false,"editor_notices":[],"footnotes":""},"categories":[2472],"class_list":["post-191206","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-data-ki"],"acf":[],"_links":{"self":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/191206","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/users\/76"}],"replies":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/comments?post=191206"}],"version-history":[{"count":1,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/191206\/revisions"}],"predecessor-version":[{"id":217022,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/posts\/191206\/revisions\/217022"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media\/191218"}],"wp:attachment":[{"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/media?parent=191206"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/liora.io\/de\/wp-json\/wp\/v2\/categories?post=191206"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}