Was ist Prompt Engineering?


AI Prompt Engineering ist die Kunst und Wissenschaft, Anweisungen für kraftvolle Sprachmodelle zu entwerfen, um die bestmöglichen Ergebnisse zu erzielen. Stellen Sie es sich so vor, als ob Sie Ihre Worte sorgfältig auswählen, um einen unglaublich schlauen, aber manchmal buchstäblich gesinnten Freund zu führen.

Prompt-Ingenieure nutzen ihr Wissen über KI-Modelle und ihre kreativen Problemlösungsfähigkeiten, um Prompts zu entwickeln, die diesen Modellen helfen, kreativen Text zu generieren, Sprachen zu übersetzen, verschiedene Arten von Text zu schreiben und informative Antworten auf Ihre Fragen zu liefern.

ai_endpoints

Grundlegendes zu generativer KI

Generative KI bezeichnet Systeme künstlicher Intelligenz, die neue Inhalte wie Text, Bilder, Audio oder andere Daten auf Grundlage von Deep Learning über die aus ihrem Training gewonnenen Muster und Strukturen erstellen können.

Die Schlüsselaspekte generativer KI-Lösungen sind, dass sie neue Ergebnisse liefern können, statt nur Vorhersagen oder Klassifizierungen bestehender Informationen vorzunehmen. Dies steht im Gegensatz zu herkömmlichen Modellen für Machine Learning.

Generative KI-Modelle lernen in ihrem Training die zugrunde liegenden Muster und Beziehungen kennen und nutzen dieses Wissen, um neue Inhalte zu generieren, die den ursprünglichen Informationen ähneln. Gängige Typen generativer KI sind Sprachmodelle wie ChatGPT, die menschenähnlichen Text erzeugen können, und Bilderzeugungsmodelle wie DALL-E und Stable Diffusion, die neue Bilder aus Textbeschreibungen erzeugen können.

AI

Generative KI hat ein breites Spektrum an Anwendungsmöglichkeiten, von der Kreation und kreativen Arbeit bis hin zur Datenvergrößerung und synthetischen Datengenerierung. Allerdings wirft sie auch Bedenken in Bezug auf Vorurteile, Plagiate und mögliche Missbräuche auf.

Die Kerntechnologie hinter generativer KI umfasst Techniken wie variable Autoencoder, generative gegnerische Netzwerke und große Sprachmodelle, die auf Transformatorarchitekturen basieren. Diese Modelle lernen effiziente Darstellungen der Trainingsdaten und verwenden diese für die Erstellung neuer Texte.

Verschiedene Arten von GenAI

Es gibt verschiedene Haupttypen von generativen KI-Modellen. Large Language Models (LLMs) sind eine spezielle Art der generativen KI, die auf Verarbeitung natürlicher Sprache und Texterzeugung spezialisiert ist. Sie wird anhand umfangreicher Datensätze trainiert, um die Muster und Struktur der Sprache zu erlernen. Beispiele hierfür sind GPT-4, ChatGPT und Microsoft Copilot.

Bildgenerierungsmodelle verwenden Techniken wie generative Adversarial Networks (GANs) und Diffusionsmodelle, um neue Bilder zu erstellen, die auf großen Bilddatensätzen trainiert wurden, um visuelle Muster und Merkmale zu verstehen. Man denke an DALL-E, stabile Diffusion und Midtravel.

Ähnlich werden Audio- und Musikgenerierungsmodelle auf Datensätzen von Audio und Musik trainiert, um Klangmuster und -strukturen zu erfassen. Generative KI lässt sich auch für die Codegenerierung einsetzen, indem man von Code-Repositories lernt und so neuen, funktionierenden Code generiert, sowie Synthesen erstellt und synthetische Daten erstellt, die realistische Informationen nachahmen.

Die Kerntechnologie hinter generativer KI sind Techniken wie variable Autoencoder, GANs und große Sprachmodelle auf Basis von Transformatorarchitekturen, die effiziente Repräsentationen von Training erlernen und sie zur Erstellung neuen Textes nutzen. Generative KI hat ein breites Spektrum an möglichen Anwendungen, von der Erstellung von Inhalten und kreativer Arbeit bis hin zu Informationsvermehrung und synthetischer Generierung. Allerdings wirft sie auch Bedenken zu Themen wie Voreingenommenheit, Plagiat und potenziellem Missbrauch auf.

AI Notebook

Was ist eine Eingabeaufforderung?

Eine Eingabeaufforderung ist eine Anweisung oder Anforderung an ein generatives KI-System, eine gewünschte Ausgabe zu erzeugen. Aufforderungen können mehrere Schlüsselkomponenten umfassen:

Aufgabenanweisung/Frage

Dies ist der Kern der Aufforderung, in dem die Aktion oder Information angegeben wird, die die KI bereitstellen sollte, wie zum Beispiel „Schreibe eine Anleitung, wie man einen Käse röstet“.

Zusammenfassung

Zusätzliche Details über den Job oder das Szenario, um die Reaktion der KI zu steuern, wie „Der Leser hat grundlegende Kochwerkzeuge und -zutaten.“

Rolle

Die Perspektive oder Persönlichkeit, die die KI bei der Generierung der Ergebnisse einnehmen sollte, z. B. „als kulinarischer Experte praktische Ratschläge mit freundlichem Ton geben“.

Formatierung

Anleitungen, wie die KI das Ergebnis strukturieren soll, wie zum Beispiel „Präsentieren Sie Ihren Guide mit nummerierten Schritten“.

Beispiele

Bereitstellung von Beispielausgaben oder Ausgangspunkten, um der KI das gewünschte Format und den gewünschten Stil verständlich zu machen.

Die Kombination dieser Elemente in einer Eingabeaufforderung hilft dem generativen KI-System, eine relevante, qualitativ hochwertige und maßgeschneiderte Ausgabe zu erzeugen, die die spezifischen Bedürfnisse und Präferenzen des Benutzers erfüllt. Effektive Prompts sind eine Schlüsselkompetenz, um das Beste aus generativen KI-Technologien herauszuholen.

Wie werden Eingabeaufforderungen auf LLMs angewendet?

Prompts sind eine entscheidende Komponente bei der effektiven Verwendung großer Sprachmodelle wie ChatGPT. Eingabeaufforderungen dienen dem LLM als Eingabe für die Reaktion. Die Eingabeaufforderung kann verschiedene Elemente wie die Arbeitsanweisung/Frage, Rolle und Formatierung enthalten.

Die Praxis, effektive Prompts zu erstellen, wird als „prompt engineering“ bezeichnet. Hierbei werden verschiedene Prompt-Strukturen und Komponenten getestet, um die Ergebnisse des LLM zu optimieren. Prompt ist eine wichtige Fähigkeit, um das Beste aus Modellen wie ChatGPT herauszuholen.

Die Popularität von ChatGPT in letzter Zeit hat die Wichtigkeit von Aufforderungen weiter unterstrichen. Da immer mehr Menschen mit diesem leistungsstarken LLM interagieren, wächst das Interesse daran, wie man effektive Aufforderungen gestaltet, um sein volles Potenzial zu erschließen.

ai-deploy-card

Mithilfe von Eingabeaufforderungen können Benutzer die Antworten von ChatGPT an ihre Anforderungen anpassen, ob es sich dabei nun um das Erstellen von Inhalten, das Lösen von Problemen oder das Erforschen von Perspektiven handelt. Als Ergebnis hat sich prompt engineering zu einer gefragten Fähigkeit entwickelt, mit Menschen, die versuchen, die Kunst des Prompts zu beherrschen, um ihre Produktivität und Kreativität mit ChatGPT und anderen zu maximieren.

Zusammenfassend lässt sich sagen, dass für die effektive Nutzung von Modellen wie ChatGPT Aufforderungen erforderlich sind. Durch das Verständnis der Komponenten eines Prompt-Engineering und das Üben eines Prompt-Engineering können Benutzer diese Modelle steuern, um hochrelevante und nützliche Ergebnisse zu erzeugen, die auf ihre Bedürfnisse zugeschnitten sind.

Warum ist die richtige Eingabeaufforderung wichtig?

Spezifität führt zu Relevanz:

Weit gefasste, generische Aufforderungen führen zu generischen, nicht fokussierten Ergebnissen. Die Erstellung spezifischer Eingabeaufforderungen, die klare Details über den Job, die Formatierung und den gewünschten Ton/die gewünschte Perspektive liefern, hilft sicherzustellen, dass die Ausgabe der KI hochrelevant und auf die Bedürfnisse des Benutzers zugeschnitten ist.

Kontext ermöglicht ein differenziertes Verständnis:

Wenn dem KI-Modell zusätzliche Informationen zur Eingabeaufforderung zur Verfügung gestellt werden, wie etwa die Zielgruppe oder der Zweck, hilft es ihm, die Nuancen der Anfrage zu verstehen und eine angemessenere Antwort zu generieren.

Iteration ermöglicht bessere Ausgaben:

Prompt Engineering ist ein iterativer Prozess. Wenn die erste Eingabeaufforderung nicht die gewünschte Ausgabe liefert, sollten Benutzer versuchen, die Formulierung zu ändern oder weitere Details hinzuzufügen. Dieser iterative Ansatz ermöglicht es ihnen, die KI auf die optimale Leistung auszurichten.

Das volle Potenzial von AI:

Effektives Prompten ist essenziell, um das Beste aus generativen KI-Tools herauszuholen. Indem sie Prompts erstellen und verfeinern, können Benutzer die Funktionen dieser leistungsstarken Modelle voll ausschöpfen und hochwertige, relevante Ausgaben erhalten, die auf ihre Bedürfnisse zugeschnitten sind.

Zusammenfassend betonen die Suchergebnisse, dass es entscheidend ist, die richtige Eingabeaufforderung zu erhalten, da sie die Qualität, Relevanz und Nützlichkeit der KI-Reaktion direkt bestimmt. Prompt Engineering ermöglicht es den Nutzern, das volle Potenzial generativer KI-Systeme auszuschöpfen, indem es sie zu Outputs bringt, die genau ihren Anforderungen entsprechen.

Vorteile von Prompt Engineering

Prompt Engineering ermöglicht es Benutzern, hochspezifische Eingabeaufforderungen zu erstellen, die große Sprachmodelle leiten, um Antworten zu erzeugen, die genau auf die Absicht des Benutzers zugeschnitten sind. Durch die Bereitstellung detaillierter Anweisungen können Aufforderungen das Modell davon abhalten, generische oder irrelevante Ausgaben zu erzeugen, und stattdessen Antworten hervorrufen, die genau auf die Anforderungen des Benutzers abgestimmt sind. Dieses Maß an Spezifität ist entscheidend für Anwendungen, bei denen Genauigkeit und Relevanz von entscheidender Bedeutung sind, wie Kundendienst, technischer Support oder die Erstellung von Inhalten.

Weniger Missverständnisse

Schlecht konzipierte Eingabeaufforderungen können dazu führen, dass Modelle die Absicht des Benutzers falsch interpretieren, was zu Antworten führen kann, die das Ziel verfehlen oder sogar schädliche Vorurteile oder Ungenauigkeiten enthalten. Prompt Engineering trägt dazu bei, dieses Risiko zu mindern, indem sichergestellt wird, dass die Prompts klar und eindeutig sind und dem Modell ausreichende Informationen liefern, um den vorliegenden Auftrag zu verstehen. Durch die Reduzierung möglicher Missverständnisse erhöht Prompt Engineering die Zuverlässigkeit und Vertrauenswürdigkeit von LLM-basierten Anwendungen.

Aufgabenanpassung

LLMs sind äußerst vielseitig und können für eine Vielzahl von Aufgaben eingesetzt werden, von der schriftlichen Textgenerierung bis hin zur Datenanalyse. Prompt Engineering ermöglicht es den Nutzern, das Verhalten des Modells auf bestimmte Domänen oder Anwendungsfälle abzustimmen, um sicherzustellen, dass die Reaktionen des Modells für die jeweilige Aufgabe optimiert sind. Diese Anpassung kann die Anpassung des Tons, des Stils, der Detailebene oder sogar der zugrunde liegenden Wissensdatenbank beinhalten, auf die das Modell zurückgreift. Dies führt zu relevanteren, nützlicheren Ausgaben, die auf die Anforderungen des Benutzers abgestimmt sind.

iam_hero_600x400
sys textmedia 2

Neue Ideen freisetzen

Prompt Engineering kann das kreative Potenzial von Modellen freisetzen und sie in die Lage versetzen, neuartige Ideen, Konzepte und Lösungen zu entwickeln, die über ihre Ausbildung hinausgehen. Indem sie Aufforderungen erstellen, die das Modell ermutigen, unerforschte Gebiete zu erforschen, können die Nutzer die Vorstellungskraft des Modells anregen und unerwartete Einsichten entdecken. Dies kann besonders in Bereichen wie Forschung, Produktentwicklung oder kreativem Schreiben nützlich sein, in denen innovatives Denken besonders geschätzt wird.

Erkundung unbekannter Gebiete

LLMs werden auf enormen Informationsmengen geschult, ihre Kenntnisse werden jedoch letztlich durch die Informationen eingeschränkt, denen sie während des Trainings ausgesetzt waren. Prompt Engineering ermöglicht es Benutzern, das Modell über das Training hinaus zu steuern, indem es aufgefordert wird, Verbindungen zu zeichnen und Rückschlüsse zu ziehen, die möglicherweise nicht explizit abgedeckt wurden. Dies kann dazu führen, dass neue Anwendungen entdeckt, bisher übersehene Muster identifiziert oder einzigartige Lösungen für komplexe Probleme entwickelt werden.

Optimiertes Experimentieren

Prompt Engineering erleichtert schnelles Experimentieren und Iterieren, sodass Benutzer Ansätze schnell testen und ihre Prompts verfeinern können, um die gewünschte Reaktion zu erzielen. Dieser iterative Prozess ermöglicht die effiziente Erforschung verschiedener Prompt-Variationen, sodass Benutzer die effektivsten Prompts für ihre Bedürfnisse identifizieren können. Dieser optimierte Experimentieransatz kann die Entwicklung und Optimierung von LLM-basierten Anwendungen erheblich beschleunigen.

Schnellere Ergebnisse

Durch die Erstellung präziser und gut durchdachter Eingabeaufforderungen können Benutzer häufig die gewünschte Reaktion aus einem LLM erzielen, ohne umfangreiche Iterationen oder Verbesserungen vornehmen zu müssen. Dies kann zu erheblichen Zeitersparnissen führen, da das Modell in der Lage ist, schneller genaue und relevante Ausgaben zu erzeugen. Diese Effizienz ist besonders wertvoll bei zeitbezogenen Anwendungen oder Szenarien, in denen schnelle Reaktionszeiten entscheidend sind, wie z. B. beim Kundenservice oder bei der Entscheidungsfindung in Echtzeit.

sys textmedia 1
AI_project

Reduzierung des Feinabstimmungsbedarfs

In einigen Fällen kann ein effektives Prompt Engineering die kostspielige und zeitaufwendige Feinabstimmung des Modells selbst überflüssig machen oder sogar reduzieren. Durch die Nutzung der vorhandenen Fähigkeiten des Modells und die Anleitung durch gut ausgearbeitete Prompts können Benutzer häufig die gewünschte Reaktion erzielen, ohne erhebliche Ressourcen in modellspezifische Anpassungen investieren zu müssen. Dadurch können erhebliche Kosteneinsparungen erzielt und LLM-basierte Lösungen für ein breiteres Spektrum an Unternehmen leichter zugänglich gemacht werden.

Ressourcenoptimierung

Mit dem Sofort-Engineering können Unternehmen ihre vorhandenen Modellressourcen optimal nutzen. Durch die Erstellung von Prompts, die das maximale Potenzial des Modells extrahieren, können Benutzer die Nutzung ihrer Modellinvestitionen optimieren, unabhängig davon, ob es sich um interne Modelle oder die von Drittanbietern bereitgestellten Modelle handelt. Dieser Ansatz kann zu einer höheren Investitionsrendite und einer höheren Gesamteffizienz bei der Bereitstellung und Verwaltung von LLM-basierten Anwendungen führen.

Wie funktioniert prompt engineering?

Verstehen der Grundlagen von NLP und Sprachmodellen: Verschaffen Sie sich ein solides Verständnis für natürliche Sprachverarbeitungstechniken und die zugrunde liegenden Architekturen großer Sprachmodelle (LLMs).

Handwerksspezifische, detaillierte Prompts:

Klare Definition der Auftragsanweisung oder Frage, Bereitstellung relevanter Informationen über das Szenario, die Zielgruppe oder den gewünschten Ton sowie Formatierungsanweisungen zur Strukturierung der Ausgabe. Geben Sie optional Beispielausgaben oder Startpunkte für das Modell an.

Prompts testen und iterieren:

Probieren Sie die Eingabeaufforderung für verschiedene Sprachmodelle aus, um zu sehen, wie sie reagieren, analysieren Sie die Ausgaben und identifizieren Sie verbesserungswürdige Bereiche, und verfeinern Sie die Eingabeaufforderung, indem Sie sie umformulieren, weitere Details hinzufügen oder die Struktur ändern. Wiederholen Sie den Test- und Verfeinerungsprozess, bis die gewünschte Leistung erreicht ist.

Skalieren und Automatisieren der Eingabeaufforderungen:

Erfahren Sie, wie Sie erfolgreiche Prompts für umfassendere Anwendungen generalisieren können, und untersuchen Sie Optionen wie Prompt-Verkettung oder Prompt-Programmierung, um die Prompt-Generierung zu automatisieren.

Während des prompt Engineering-Prozesses sollte der prompt Engineer Relevanz, Klarheit, Voreingenommenheit und Ethik, Iterationen und Experimente, technische Fähigkeiten und Soft Skills berücksichtigen. Wenn Sie diese Schritte befolgen und diese Überlegungen im Hinterkopf behalten, können unsere Engineers das gesamte Potenzial von Sprachmodellen ausschöpfen und relevante, maßgeschneiderte Outputs für die Anforderungen des Benutzers erstellen.

Welche verschiedenen Arten von Prompt Engineering gibt es?

Angesichts der verschiedenen Arten von AI-Modellen unterscheiden sich die Optionen für prompt Engineering:

Zero-Shot-Prompt:

Dies ist die einfachste Form, in der Sie das Modell nur mit einer Aufgabenbeschreibung und ohne Beispiele vorstellen.  Denkt daran, als sagt man: „Übersetzt diesen Satz ins Spanische: Der Hund lief über die Straße.“

 

Wenige Aufforderungsschüsse (kontextbezogenes Lernen):

Sie ergänzen die Aufgabenbeschreibung durch einige Beispiele, um das Modell beim Identifizieren von Mustern zu unterstützen.  Zum Beispiel: „Auf Spanisch übersetzen: Die Katze ist schwarz. -> El gato es negro. Mein Haus ist rot. -> Mi casas es roja.  Der Hund lief über die Straße. -> ?“

Anleitung zum Nachdenken (Chain of Thought, COT):

In diesem Fall ermutigen Sie das Modell, komplexe Probleme in kleinere Schritte aufzugliedern und seine Argumentation explizit darzulegen. Beispiel „John hat 5 Äpfel. Maria gibt ihm noch drei. Wie viele Äpfel hat John jetzt?  Lassen Sie uns Schritt für Schritt denken: John fängt mit 5 Äpfeln an, Mary gibt ihm 3 mehr, also fügen wir 3 hinzu...usw.“

Meta-Prompt:

Dazu gehört das Erstellen anpassbarer Eingabeaufforderungen, die ihre Anweisungen im Laufe der Zeit verbessern und das Modell bei der Selbstverbesserung besser machen.

Negative Eingabeaufforderung:

Sie teilen dem Modell mit, was nicht in seiner Antwort enthalten sein soll. Dies ist hilfreich, um unerwünschte Ausgaben herauszufiltern. Beispiel „Schreibe ein Gedicht, aber gib keine Hinweise auf Blumen.“

Die beste Technik des Prompt Engineering hängt vom Typ des KI-Modells ab. Bedenken Sie, prompt engineering ist sowohl Kunst als auch Wissenschaft. Der jeweils aktuelle Job und das KI-Modell selbst werden den besten Ansatz beeinflussen. Die Datenqualität ist wichtig, besonders für das kurze Lernen, und die präzise Sprache in den Eingabeaufforderungen hilft dabei, die Ergebnisse zu steuern.

Beispiel für Prompt Engineering

Bei der Erstellung eines umfassenden Unterrichtsplans ist es von entscheidender Bedeutung, dem Sprachmodell eine klare und klar definierte Struktur zu geben, die befolgt werden kann. Anstatt es sich selbst zu überlassen und zu versuchen, das ideale Format zu göttlichen, bietet die Eingabeaufforderung ein Gerüst aus Abschnittsüberschriften und Richtlinien.

Stellen Sie sich vor, Sie würden einen 45-minütigen Algebra-Unterrichtsplan mit den folgenden abgegrenzten Komponenten anfordern: Unterrichtsziele, benötigte Materialien, eine schnelle 10-minütige Aufwärmaktivität, 15 Minuten fesselnder direkter Unterricht, 15 Minuten unabhängiger Übungen für die Schüler, um ihre neu gefundenen Fähigkeiten zu testen, und schließlich ein prägnantes Abfahrtticket zur Bewertung des Lernens. Dieser methodische Ansatz stellt sicher, dass das Modell eine polierte, pädagogisch fundierte Blaupause liefert, die nichts unversucht lässt.

Schritt für Schritt

Manchmal kann eine einzige, monolithische Eingabeaufforderung selbst das anspruchsvollste Sprachmodell überfordern. In solchen Fällen weiß ein guter Prompt-Ingenieur, wie er die Aufgabe in eine Reihe leichter zu bewältigender Schritte aufteilt, die die KI einzeln bewältigen kann.

Stellen Sie sich zum Beispiel vor, dass Sie zunächst einen kurzen Überblick über die Hauptkonzepte benötigen, die die Schüler beim Lösen linearer Gleichungen verstehen sollten. Wenn dieses Grundwissen gesichert ist, könnte das Modell bei der nächsten Aufforderung aufgefordert werden, ein eindrucksvolles 15-minütiges direktes Anweisungssegment zu entwerfen, um diese kritischen Ideen zu vermitteln. Der letzte wichtige Schritt schließlich ist die Aufforderung, eine 15-minütige unabhängige Übungsaktivität zu entwerfen, die es den Schülern ermöglicht, ihr neu gewonnenes Verständnis anzuwenden.

Indem Sie das Modell durch diese sorgfältig choreografierte Sequenz führen, stellen Sie sicher, dass jedes Puzzleteil nahtlos zusammenpasst, was zu einem umfassenden, gut strukturierten Unterrichtsplan führt.

usecase_saas.png
usecase_hebergement-site.png

Überlegen Sie sich, ob Sie Rollenspiele verwenden

Manchmal kann ein kleines Rollenspiel Wunder bewirken, wenn man eine wirklich maßgeschneiderte Antwort vom Sprachmodell erhält. Stellen Sie sich, wenn Sie so wollen, einen Unterrichtsplan zum Gravieren linearer Gleichungen, aber mit einer Wendung, vor - Sie bitten das Modell, aus der Perspektive eines erfahrenen Mathematiklehrers der 8. Klasse zu antworten.

Vielleicht erkennen Sie, dass die Sprache des Modells mit der hart erarbeiteten Weisheit eines erfahrenen Pädagogen gefüllt wird. Ihre Vorschläge sind geprägt von einem Verständnis der Jugendpsychologie und der pädagogischen Technik, die dieses Publikum am meisten fesseln dürfte. Vorbei sind die allgemeinen Plattitüden, abgelöst von einer differenzierten Wertschätzung dessen, was diese jungen mathematischen Köpfe wirklich fesselt und erleuchtet.

Beispiele in Eingabeaufforderungen einfügen

Und vergessen wir nicht die Kraft, das Sprachmodell mit leuchtenden Beispielen auszustatten, von denen wir uns inspirieren lassen können. Stellen Sie sich vor, Sie hätten einen Lektionsplan zum Zeichnen linearer Funktionen erstellen sollen, aber Sie zeichnen ein Leerzeichen. Warum sollte man dem Modell nicht einen hervorragend ausgearbeiteten Plan zur Lösung quadratischer Gleichungen als Vorlage anbieten?

Nun kann das Modell Struktur, Inhalt und Ton dieses Beispiels zerlegen und es als Sprungbrett verwenden, um eine ebenso elegante wie effektive Lektion zu Ihrem gewünschten Thema zu erstellen. Es ist ähnlich wie wenn man einem jungen Künstler ein Meisterwerk gibt und sagt: „Geh hin und erschaffe etwas genauso Atemberaubendes!“ Die Ergebnisse werden sicher blenden.

Indem Sie sich diese verschiedenen Optionen für Prompt Engineering zu eigen machen - von strukturierten Outputs über iteratives Prompten, Rollenspiele bis hin zu exemplarischer Inspiration - erschließen Sie das wahre Potenzial von Sprachmodellen und gewinnen Antworten, die nicht nur kompetent, sondern sogar positiv fesselnd sind.

usecase_bdd.png