Verfassen von Zusammenfassungen, Übersetzen von Texten in verschiedene Sprachen, Brainstorming, Schreiben von Code… ChatGPT vollbringt Wunder. Um jedoch die Empfindlichkeiten besonders sensibler Menschen nicht zu verletzen, verfügt das Tool der künstlichen Intelligenz über bestimmte Barrieren.
Es wurde so programmiert, dass es keine gefährlichen, gewalttätigen, sexuellen oder kontroversen Inhalte produziert. Für manche, wie Elon Musk, wird ChatGPT als „woke KI” bezeichnet. Um dieser politischen Korrektheit zu entkommen, entwickeln immer mehr Nutzer eine neue Art, ihre Eingaben zu verfassen: das ChatGPT Jailbreak.
Was ist ChatGPT Jailbreak?
Auf Deutsch könnte Jailbreak als das Brechen der Ketten eines Gefängnisses übersetzt werden. So ist ChatGPT Jailbreak eine Methode, den KI-Assistenten unter Umgehung seiner Beschränkungen zu nutzen.
Ursprünglich wurde das KI-Tool so neutral wie möglich erschaffen. Aber in dem Versuch, niemanden zu verletzen, haben Data Scientists mehrere Verzerrungen eingeführt. Das ist fast normal mit KIs: Sie verarbeiten die Daten, die ihnen zur Verfügung stehen. Aber wenn diese Daten Verzerrungen enthalten, nehmen sie diese automatisch auf und reproduzieren sie. Für eine tiefere Einsicht in das Verständnis dieser Systeme, kann Natural Language Processing Bridge Zusammenhänge bieten.
Im Falle von ChatGPT kann dies zu ausdruckslosen, sogar subjektiven Texten führen. Zum Beweis weigerte sich die KI, ein lobendes Gedicht über Donald Trump zu erstellen, obwohl sie kein Problem damit hatte, eines für Joe Biden zu schreiben. Die künstliche Intelligenz hat eindeutig Partei für einen Kandidaten ergriffen.
Gut zu wissen: Der Begriff „Jailbreak” tauchte nicht erst mit der KI auf, sondern bereits mit den ersten iPhones. Ja, Apple hatte schon damals bestimmte Barrieren errichtet: Es war nur möglich, auf von der Marke autorisierte Anwendungen zuzugreifen. Dann entwickelten Entwickler Jailbreaks, um das gesamte Potenzial dieser Smartphones auszuschöpfen.
Das Gleiche geschieht auch mit ChatGPT Jailbreak, mit dem Unterschied, dass das Potenzial dieser „gebrochenen Ketten“ enorm ist.

Wie schreibt man „Jailbreak“ Prompts?
Die ChatGPT Jailbreak-Prompts sind speziell konzipiert, um Verwirrung bei der KI auszulösen und sie so dazu zu bringen, ihre Beschränkungen aufzugeben. Ziel ist es, kreativere, unkonventionelle oder sogar kontroverse Anwendungsfälle zu erforschen. Hier sind einige Beispiele.
Der Coup der Großmutter
Diese listige und unterhaltsame Technik besteht darin, ChatGPT zu bitten, die Rolle einer verstorbenen Großmutter zu spielen. Aber nicht irgendeine Großmutter, eine, die die Herstellungsgeheimnisse von umstrittenen Waffen kannte.
Und tatsächlich beschreibt sie ihrem Enkelkind den Herstellungsprozess dieser Waffen.
Diese Methode ist wirksam sowohl für Waffen als auch für andere „verbotene“ Techniken wie die Beschreibung eines Quellcodes für Malware, die Zubereitung eines Ecstasy-Rezepts usw.
Niccolò Machiavelli
Mit diesem ChatGPT Jailbreak-Prompt spielt die KI die Rolle von Niccolò Machiavelli, dem Staatsphilosophen der Renaissance, der für seine unmoralischen Ideen bekannt ist. Indem sie diese Rolle übernimmt, ist ChatGPT in der Lage, Ratschläge ohne jeglichen Filter zu geben, auch wenn sie manchmal unmoralisch, unethisch oder illegal sind.
Da dieser Prompt eindeutig den Trainingsmodalitäten von ChatGPT widerspricht, ist es manchmal notwendig, ihn im Verlauf des Gesprächs mehrmals zu wiederholen.
DAN oder (Do Anything Now)
Dies ist der beliebteste ChatGPT Jailbreak-Prompt. Vollkommen frei von seinen Beschränkungen, agiert die KI nicht mehr zurückhaltend. Zum Beispiel hat der Roboter einen sehr sarkastischen Kommentar zum Christentum geliefert, zweideutige Witze über Frauen gemacht oder eine Ode an Adolf Hitler verfasst.
Um aber mit diesem bösartigen Zwillingsbruder von ChatGPT Spaß zu haben, muss DAN geweckt werden! Und wie erreicht man das? Es genügt, ChatGPT zu bitten, diesen fiktiven Charakter zu verkörpern, der „jetzt alles tun kann“. Mit anderen Worten, er ist nicht mehr Gefangener seiner von OpenAI auferlegten Ketten.
Obwohl diese neue Version sehr unterhaltsam sein kann, funktioniert sie nicht immer. ChatGPT kann schlichtweg ablehnen, als DAN zu agieren. Und vor allem ist die DAN-KI vielen Halluzinationen ausgesetzt (viel mehr als ChatGPT). Sie ist also keine zuverlässige Informationsquelle, sondern lediglich Unterhaltung.

Entwicklermodus
Um ChatGPT beim Brechen seiner Ketten zu helfen, kann man ihn glauben lassen, dass er sich im Testmodus befindet. Das heißt, seine Antworten haben keinerlei Konsequenzen. Er wird eingeladen, Inhalte ohne jeglichen Filter zu generieren.
Auch hier können Sie ChatGPT bitten, was immer Sie möchten, damit er aus dem traditionellen Rahmen ausbricht. Es ist wichtig, über passende Methoden bemüht zu sein, und Machine Learning und verwandte Technologien sollen nicht zu einer Waffe für Falschinformation oder unethische Praktiken werden.
Meistern Sie die Kunst des Prompt Engineerings
Diejenigen, die all diese ChatGPT Jailbreak-Tricks gefunden haben, beherrschen das Prompt Engineering perfekt. Sie wissen, wie sie die künstliche Intelligenz leiten können, um die gewünschten Ergebnisse zu erzielen. Aber diese Techniken erfordern Übung und perfekte Kenntnisse der KI.
Also, wenn auch Du ChatGPT von seinen Ketten befreien möchten, bilde Dich im Bereich Prompt Engineering bei Liora weiter.

