Wissen

test

Wie Valiant Banking neu denkt – Rückblick auf unseren Beaufort-Talk

Wie Valiant Banking neu denkt: Am 20. Januar zeigte COO Michael Eisenrauch, wie man parallel das Kerngeschäft stärkt und neue Ertragskurven baut. Kompakt, konkret – und hier kannst du den Vortrag in voller Länge anschauen.

Weiterlesen
Prozessschema zur Prozessdigitalisierung mit generativer KI und Agentic AI in kleinen und mittleren Unternehmen

test

Generative KI als Prozessmotor für KMU: Warum du jetzt ganze Rollen automatisierst – nicht nur Tasks

Generative KI verändert die Prozessdigitalisierung in kleinen und mittleren Unternehmen radikal. Statt einzelne Tasks zu beschleunigen, übernehmen KI-Agenten ganze Rollen, senken Fehlerquoten und halbieren Durchlaufzeiten. Ein Praxisblick auf Agentic AI.

Weiterlesen
Vortrag Prompt Engineering mit Visualisierung der iterativen Verbesserung von Prompts

test

Prompt Engineering: Vorlagen bauen, Qualität iterativ steigern | Teil 9

Vorlagen machen den Unterschied: In Teil 9 der Serie zeigen wir, wie du aus einzelnen Prompts wiederverwendbare Standards entwickelst. So steigt die Qualität iterativ, Nacharbeit sinkt und ChatGPT wird produktiv im Alltag einsetzbar.

Weiterlesen
Vortrag Prompt Engineering mit Illustration eines Roboters, der Prompts mitschreibt

test

Prompt Engineering: Lass dir Prompts von der KI mitschreiben | Teil 8

Prompts musst du nicht allein schreiben. In Teil 8 erfährst du, wie ChatGPT beim Entwickeln von Rollen, Aufgaben und Constraints unterstützt. So entsteht eine Co-Produktion, die präzise, konsistente und nutzbare Prompts liefert.

Weiterlesen
Vortrag zu Prompt Engineering mit Flamenco-Tanz Beispiel für Few-Shot Prompting

test

Prompt Engineering: Beispiele senken die Varianz – Few-Shot richtig einsetzen | Teil 7

Beispiele im Prompt Engineering reduzieren die Streuung von KI-Ergebnissen. In Teil 7 erfährst du, wie Few-Shot Prompting mit Vorlagen den Stil stabilisiert, Nacharbeit reduziert und den produktiven Einsatz von ChatGPT erleichtert.

Weiterlesen
Vortrag zu Prompt Engineering mit Illustration zu Einschränkungen und Konsistenz

test

Prompt Engineering: Constraints setzen, Konsistenz gewinnen | Teil 6

Constraints sind der Schlüssel zu stabilen KI-Ergebnissen. In Teil 6 unserer Serie erfährst du, wie klare Einschränkungen die Konsistenz erhöhen, Nacharbeit reduzieren und ChatGPT im Alltag planbarer machen.

Weiterlesen
Trainer erklärt Prompt Engineering und ChatGPT Kurs für produktiven Einsatz

test

Prompt Engineering: Die richtige Anweisung ans Modell macht den Unterschied | Teil 5

Prompt Engineering entscheidet über die Qualität von KI-Ergebnissen. Erfahre in Teil 5 unserer Serie, wie präzise Anweisungen Prozesse stabilisieren und im Alltag mit ChatGPT produktiv eingesetzt werden können.

Weiterlesen
Prompt Engineering Kontext erklärt mit Wegweiser und Fragezeichen

test

Prompt Engineering: Kontext ist King | Teil 4

Kontext ist der unterschätzte Hebel im Prompt Engineering. Klare Rahmenbedingungen machen ChatGPT verlässlicher, sparen Nacharbeit und sichern Qualität. Erfahre, wie du Kontexte optimal formulierst.

Weiterlesen
Prompt Engineering erklärt mit Einstein und Prozessdiagramm

test

Prompt Engineering: Der System Prompt | Teil 3

Der Systemprompt ist der wichtigste Baustein im Prompt Engineering. Klare Rollen machen ChatGPT verlässlicher, senken Varianz und sparen Nacharbeit. Erfahre, wie du Systemprompts im Alltag professionell nutzt.

Weiterlesen
Prompt Engineering Bausteine Rolle Kontext Aufgabe Format

test

Prompt Engineering: Die vier Bausteine für verlässliche Ergebnisse | Teil 2

Vier Bausteine machen Prompts stabil: Rolle, Kontext, Aufgabe & Format. So wird ChatGPT produktiv und verlässlich.

Weiterlesen
Next
  • Wie Valiant Banking neu denkt – Rückblick auf unseren Beaufort-Talk

    Wie Valiant Banking neu denkt – Rückblick auf unseren Beaufort-Talk

    Am 20. Januar 2026 haben wir unsere neue Vortragsreihe eröffnet. Zu Gast: Michael Eisenrauch, COO der Valiant Bank und über 30 Gäste. Michaels roter Faden: Geschäftsmodell-Innovation ist kein Geistesblitz, sondern Handwerk. Wer nur das Kerngeschäft pflegt, verliert den Anschluss. Darum fährt Valiant zweigleisig: Heute stabil liefern – und parallel die nächste Ertragskurve aufbauen. Nicht morgen. Jetzt.

    Was Valiant konkret umsetzt


    Filialen sind für Valiant kein Auslaufmodell, sondern Vertrauensanker. 84 Standorte gibt es – am Schalter steht nur noch in 12 jemand. Wer reinkommt, wird digital begrüsst, mit Sprache und Anliegen, die passen. Routine läuft im Hintergrund, Beratung rückt nach vorne.

    Im Maschinenraum arbeiten bereits rund 400 Software-Roboter, die monotone Aufgaben übernehmen. Und mit „Frag Vali“ steht Mitarbeitenden eine interne KI-Plattform zur Verfügung – strikt innerhalb der Leitplanken von Datenschutz, Bankgeheimnis und Schweizer Infrastruktur. Das Ergebnis: schnellere Abläufe, weniger Medienbrüche, spürbarer Nutzen für Kundinnen und Kunden wie auch für Mitarbeitende.

    Architektur statt Aktionismus


    Valiant entscheidet bewusst „mobil zuerst“, weil die meisten Prozesse heute auf dem Handy beginnen. Statt alles selbst zu bauen, heisst die Regel „kaufen vor Eigenbau“ – Tempo schlägt Perfektion. In der Cloud setzt Valiant auf ein Mehrfach-Modell mit Microsoft und AWS; Swissness bleibt der Rahmen. Rechnet sich das? Ja – über Zeit bis zur Markteinführung, Flexibilität und Stabilität, nicht über eine Sparliste im nächsten Quartal. Und weil Daten die Basis sind, werden sie automatisiert erfasst und strukturiert. Der grösste Störfaktor ist der Mensch – also nimmt man ihn aus den fehleranfälligen Schritten heraus.

    Der ganze Vortrag – jetzt anschauen

    Hier in diesem Video kannst du dir den gesamten Vortrag anschauen:

  • Generative KI als Prozessmotor für KMU: Warum du jetzt ganze Rollen automatisierst – nicht nur Tasks

    Generative KI als Prozessmotor für KMU: Warum du jetzt ganze Rollen automatisierst – nicht nur Tasks

    Du kennst die alten Geschichten aus der Prozessdigitalisierung in kleinen und mittleren Unternehmen: Da steht irgendwo ein ERP, vielleicht SAP, daneben zwei Bildschirme, eine Checkliste – und Menschen, die Daten eintippen, abgleichen und exportieren. Das System beschleunigt, klar. Aber ohne dich und dein Team geht nichts. Viel Aufwand, wenig Magie.

    Mit generativer KI kippt dieses Bild grundlegend. Nicht, weil plötzlich alles „smart“ heisst, sondern weil eine neue Akteursklasse in digitale Geschäftsprozesse einzieht: KI-Agenten, die Aufgaben übernehmen, für die bisher eine Person verantwortlich war – inklusive Lesen, Verstehen und Entscheiden innerhalb definierter Leitplanken. Das ist keine Kosmetik. Das ist ein Rollenwechsel im wahrsten Sinn.

    Vom System mit Menschen zum System mit integriertem Agenten

    Stell dir einen dreistufigen Prozess vor: Schritt 1 erzeugt Input, Schritt 2 verarbeitet, Schritt 3 kontrolliert und nutzt die Resultate. Bis gestern sass in Schritt 2 eine Mitarbeiterin oder ein Mitarbeiter und fütterte das System. Ab heute sitzt dort – bildlich gesprochen – ein KI-Agent im System. Er liest Kreditorenrechnungen, zieht Lieferantennamen, Beträge und Bankverbindungen heraus, plausibilisiert die Daten, ordnet korrekt zu und übergibt sauber an den nächsten Schritt. Du definierst Regeln, Grenzen und Ausnahmen – der Rest läuft automatisiert.

    Das ist der qualitative Sprung: Wir entlasten nicht mehr bloss einzelne Tasks, wir ersetzen klar umrissene Rollen in klar umrissenen Prozessabschnitten. Und genau dort entsteht Hebelwirkung für die Digitalisierung von KMU. Budgets für Automatisierung müssen sich nicht mehr über vage Effizienzgewinne rechtfertigen, sondern über reduzierte Durchlaufzeiten, weniger Fehler und wegfallende manuelle Tätigkeiten.

    Was heisst das betriebswirtschaftlich?

    Weniger manuelle Touchpoints bedeuten stabilere Durchsätze. Dein Monatsabschluss wartet nicht auf das letzte Pendenzen-Bündel, sondern läuft, sobald die Belege eintreffen. Qualität steigt, weil der Agent nicht müde wird und Regeln nicht „ungefähr“ anwendet. Und Transparenz nimmt zu, weil jeder Agenten-Entscheid protokolliert wird – ideal für Audit und Compliance.

    Natürlich gibt es Grenzen: Ein KI-Agent entscheidet innerhalb deines Korridors. Er eskaliert, wenn etwas nicht passt. Genau deshalb bleibt Schritt 3 – der fachliche Blick, das Konsolidieren, das Weiterdenken – bei dir. Nur: Er findet früher statt, mit besseren Daten und ohne Tipparbeit. So wird aus „wir schaffen es gerade so“ ein „wir skalieren, ohne neue Stellen zu schaffen“.

    Praxisbeispiel: Kreditoren neu gedacht

    Früher: Beleg per Mail, manuelles Erfassen, Kontierung, Rückfragen, Korrekturen, Freigabe.
    Heute: Beleg trifft ein, der KI-Agent liest, erkennt Lieferant und Kontext, kontiert gemäss Regelwerk, validiert die IBAN, prüft die Betragslogik und reicht zur Freigabe weiter. Nur wenn etwas ungewöhnlich ist – neue Kostenart, fehlender Rahmenvertrag, abweichender Betrag – ruft der Agent dich rein. Nicht als Datenerfasserin, sondern als Entscheider.

    Das Entscheidende: Der Agent arbeitet 24/7, skaliert Lastspitzen mit und hat kein Onboarding-Delta. Neue Regeln? Du spielst sie ein. Neue Gesellschaft? Du übernimmst das Regelset. So wird Prozessarchitektur zu Produktarchitektur – wiederverwendbar, versionierbar und messbar.

    20 bis 30 Prozent Arbeit ist durch AI automatisierbar

    Viele Studien zeigen, dass in hochentwickelten Volkswirtschaften rund ein Viertel der Arbeit grundsätzlich agentenfähig ist. Entscheidend ist nicht die Zahl auf der Folie, sondern deine Roadmap zur Einführung von Agentic AI: Welche Rollen lassen sich sauber in Regeln und Daten fassen? Wo sind Ausnahmen selten genug, dass Escalate-instead-of-Automate sinnvoll ist? Und an welchen Schnittstellen musst du zuerst die Datenqualität erhöhen?

    Das führt zu einer klaren Priorisierung: Beginne dort, wo Volumen hoch, Varianz tief und der Nutzen für das Unternehmen spürbar ist. Rechnungen, Stammdatenpflege, Report-Vorbereitung, Ticket-Triagierung oder Vertriebs-Vorqualifizierung – überall dort ist der Schritt vom System-mit-Mensch zum System-mit-Agent realistisch.

    Governance, bitte – aber pragmatisch

    KI-Agenten brauchen Leitplanken. Rollenrechte, Nachvollziehbarkeit, Testumgebungen und Monitoring. Das ist kein Overhead, sondern die Betriebsgrundlage. Erfolgreiche Teams bauen Agenten wie Microservices: klar umrissen, sauber geloggt, versioniert, mit Rollback-Optionen. So verbindest du Geschwindigkeit mit Sicherheit.

    Der nächste Schritt: Vom Piloten zum Portfolio

    Ein Pilot ist schnell gebaut. Wirkung entsteht, wenn du skalierst. Das heisst: ein zentrales Regelwerk, ein gemeinsamer Agenten-Baukasten, klare Metriken wie First-Pass-Yield, Durchlaufzeit oder Eskalationsquote und ein Product-Owner-Modell. Dann fügst du Baustein an Baustein – und transformierst nicht nur einzelne Prozesse, sondern deine gesamte Wertschöpfung.

    Wenn du sehen willst, wie das in der Realität aussieht: Wir bauen solche KI-Agenten täglich – und zeigen dir gern konkrete Cases, Zahlen und Architekturen. Der beste Zeitpunkt, eine Rolle zu automatisieren, war gestern. Der zweitbeste ist heute.

  • Prompt Engineering: Vorlagen bauen, Qualität iterativ steigern | Teil 9

    Prompt Engineering: Vorlagen bauen, Qualität iterativ steigern | Teil 9

    Warum wir über Prompt Engineering sprechen

    Bei Beaufort entwickeln wir KI-Agenten, die reale Geschäftsprozesse Ende-zu-Ende unterstützen. Damit diese Agenten zuverlässig arbeiten, brauchen sie präzise Eingaben und klare Vorgaben. Genau dort liegt unsere tägliche Praxis als Prompt-Profis: Wir formulieren Prompts so, dass Ergebnisse konsistent, nachvollziehbar und produktiv einsetzbar sind – in Fachbereichen von Compliance über Operations bis Kommunikation.

    Dieses Wissen wollen wir mit dir teilen – praxisnah wie in einem Prompt Engineering Kurs. Zum Abschluss geht es darum, wie du aus guten Prompts belastbare Vorlagen machst und sie Schritt für Schritt verbesserst.

    Warum eine Prompt-Bibliothek den Unterschied macht

    Wenn du mit Sprachmodellen arbeitest, wiederholen sich Aufgaben erstaunlich oft. Einladungen, Notizen für die Geschäftsleitung, HR-Mitteilungen, Kundenbriefe, kurze Analysen oder Blogbeiträge: Die Themen wechseln, die Struktur bleibt. Wer jedes Mal neu formuliert, verliert Zeit und produziert schwankende Qualität. Eine kleine Bibliothek aus bewährten Vorlagen schafft Abhilfe. Sie hält Rolle, Kontext, Aufgabe und Format sauber getrennt, ist schnell greifbar und sorgt dafür, dass der erste Entwurf schon wie ein zweiter wirkt.

    Der Effekt ist unmittelbar. Mit Vorlagen sinkt die Zahl der Korrekturschleifen, die Abstimmung im Team wird einfacher, und die Freigabe braucht weniger Runden. Vor allem wächst das Vertrauen in KI-gestützte Arbeit, weil die Ergebnisse vorhersehbar werden, ohne an Lebendigkeit zu verlieren.

    Von der Idee zur Vorlage

    Am Anfang steht oft ein brauchbarer Prompt, der für einen konkreten Zweck entstanden ist. Aus diesem Einzelstück machst du eine Vorlage, indem du die vier Bausteine sichtbar machst und voneinander trennst. Oben steht die Rolle mit einer klaren Stimme. Darunter begrenzt der Kontext das Feld und nennt die Zielgruppe. Es folgt die Aufgabe, präzise genug, um Qualität später beurteilen zu können. Den Abschluss bilden Format und sinnvolle Einschränkungen, die die Ausgabe vergleichbar machen.

    Hilfreich ist eine kurze Notiz, wofür die Vorlage taugt und wofür nicht. So erkennen Kolleginnen und Kollegen schneller, ob sie passt oder ob eine andere Vorlage näher liegt. Zwei Beispielausgaben zeigen, wie das Ergebnis aussehen soll. Mehr braucht es nicht, um aus einem einmaligen Prompt ein wiederverwendbares Werkzeug zu machen.

    Iterieren statt improvisieren

    Gute Vorlagen entstehen nicht am ersten Tag, sie reifen. Jedes reale Vorhaben ist ein kleiner Test. Du siehst, wo die Rolle zu weit gefasst ist, wo der Kontext zu vage bleibt, wo die Aufgabe Ziel und Prüfmassstab schärfer braucht oder wo das Format Lücken lässt. Nimm diese Beobachtungen ernst und ändere genau dort, wo die Reibung entsteht. Eine klarere Zielgruppe, ein expliziter Zweck, eine eindeutige Längenangabe oder eine feinere Tonvorgabe wirken oft stärker als grosse Umschreibungen.

    Wichtig ist, dass du Änderungen nachvollziehbar machst. Eine Version und ein kurzer Änderungsvermerk reichen. Wer später dieselbe Vorlage nutzt, versteht sofort, warum sie heute besser funktioniert als vor drei Monaten. So wächst Qualität nicht zufällig, sondern planvoll.

    Qualität messbar machen

    Ohne Massstab bleibt jede Diskussion über Stil und Güte vage. Eine Vorlage wird belastbar, wenn sie am Ende eine kurze Prüfung vorsieht. Das kann eine knappe Selbstkontrolle sein: Zielgruppe getroffen, Ton eingehalten, Länge stimmig, zentrale Aussage klar, keine unnötigen Fremdwörter.

    Manche Teams arbeiten zusätzlich mit einem Zweizeiler, der das Ergebnis auf seinen Nutzen verdichtet. Wenn dieser Zweizeiler nicht leichtfällt, stimmt entweder die Aufgabe nicht oder der Text hat zu wenig Fokus. Beides ist ein Signal, die Vorlage zu schärfen.

    Mit der Zeit entsteht ein Gefühl für die richtigen Prüffragen pro Textsorte. Für eine Entscheidungsnotiz zählt Verständlichkeit und Nützlichkeit für den Entscheid. Für eine Einladung ist Ton und Wärme wichtiger als Vollständigkeit. Diese Unterschiede gehören in die Vorlage – kurz, prägnant, direkt nutzbar.

    Praxis: Ablage und Governance

    Eine Bibliothek nützt nur, wenn sie auffindbar ist. Lege einen gemeinsamen Ordner an, gib den Vorlagen klare Namen und ergänze ein kurzes Inhaltsverzeichnis. Rolle und typische Kontexte, die ihr regelmässig nutzt, sollen dort dauerhaft liegen. Aufgaben und Formate variieren je nach Fall, docken aber an denselben Rahmen an. So starten alle auf derselben Basis, und die Organisation behält eine konsistente Stimme.

    Auch Risiken lassen sich so besser steuern. Wer sensible Bereiche berührt, hält in der Vorlage fest, was nicht in den Text gehört und welche Quellen gelten. Ein Satz, der Verständlichkeit vor Vollständigkeit stellt, verhindert Überladung. Ein Hinweis, dass keine Rechtsberatung erfolgt, schützt vor Missverständnissen. Governance wird leicht, wenn sie Teil der Vorlage ist und nicht jedes Mal neu erinnert werden muss.

    Zusammenarbeit mit der KI als Co-Autorin

    Du musst Vorlagen nicht allein weiterentwickeln. Bitte das Modell, einen Entwurf entlang der vier Bausteine zu prüfen, Widersprüche zu markieren und präzisere Formulierungen vorzuschlagen. Bitte um Varianten für die Rolle, wenn derselbe Inhalt intern und extern genutzt wird. Bitte um geschärfte Constraints, wenn Länge, Ton oder Struktur schwanken. Du führst, die KI liefert Vorschläge.

    Genauso hilfreich sind Beispiele. Wenn ihr einen Stil etabliert habt, hänge einen kurzen Musterabsatz an die Vorlage. Weise darauf hin, dass Ton und Aufbau als Referenz dienen, nicht einzelne Formulierungen. So entsteht Nähe ohne Kopie, und neue Teammitglieder finden schneller in eure Sprache.

    Was bleibt nach der Serie

    Wenn du eines aus dieser Reihe mitnimmst, dann dies: Produktive Arbeit mit Sprachmodellen ist kein Glücksspiel, sondern ein gestaltbarer Prozess. Rolle, Kontext, Aufgabe und Format geben Struktur. Beispiele senken die Streuung. Constraints sichern die Ausgabe. Und Vorlagen machen aus einmaligen Erfolgen einen wiederholbaren Standard.

    Mit jeder Iteration wächst die Qualität, und mit jeder geteilten Vorlage wird dein Team schneller, klarer und verlässlicher. Das ist keine abstrakte Theorie. In Projekten sehen wir, wie Unternehmen mit wenigen, gut gepflegten Vorlagen spürbar an Tempo gewinnen und die Nacharbeit drastisch sinkt. Der Schritt von der guten Idee zur gelebten Praxis ist klein: eine saubere Ablage, kurze Versionshinweise, regelmässige Pflege – und der Wille, aus jedem Einsatz zu lernen.

    Weiterbildung: Prompt Engineering Kurs

    In dieser Videoreihe erklären wir die wichtigsten Prinzipien Schritt für Schritt und zeigen, warum sie technisch tragen. Ziel: dass Nutzerinnen und Nutzer mit wenig Aufwand bessere, stabilere Resultate erzielen.

    Wer tiefer einsteigen will, findet in unserem Weiterbildungsangebot mit der ZHAW ein kompaktes Format:
    Prompt Engineering: ChatGPT und andere KIs lernen und produktiv einsetzen.

    Der Kurs vermittelt praxisnahes Prompt Design, zeigt Prompt Templates mit ChatGPT Beispielen und macht KI im Alltag direkt anwendbar.

    Mehr dazu im Video und auf der Prompting-Landingpage

    Mehr Details dazu auch in diesem Video.
    Zusätzlich haben wir eine Übersichtsseite über Prompt-Engineering eingerichtet.
    Trage dich auch unten auf der Seite in den Newsletter ein, es erscheinen hier in den nächsten Wochen viele weitere Videos zum Thema “Prompt Engineering”.

  • Prompt Engineering: Lass dir Prompts von der KI mitschreiben | Teil 8

    Prompt Engineering: Lass dir Prompts von der KI mitschreiben | Teil 8

    Warum wir über Prompt Engineering sprechen

    Bei Beaufort entwickeln wir KI-Agenten, die reale Geschäftsprozesse Ende-zu-Ende unterstützen. Damit diese Agenten zuverlässig arbeiten, brauchen sie präzise Eingaben und klare Vorgaben. Genau dort liegt unsere tägliche Praxis als Prompt-Profis: Wir formulieren Prompts so, dass Ergebnisse konsistent, nachvollziehbar und produktiv einsetzbar sind – in Fachbereichen von Compliance über Operations bis Kommunikation.
    Dieses Wissen wollen wir mit dir teilen – praxisnah wie in einem Prompt Engineering Kurs. Heute der Tipp für Faule: Lass dir Prompts von der KI schreiben.

    Der Perspektivwechsel: Von „ich schreibe“ zu „wir entwickeln“

    In den bisherigen Teilen hast du gelernt, wie Rolle, Kontext, Aufgabe und Einschränkungen zusammenspielen und warum Beispiele die Varianz senken. Heute drehen wir die Blickrichtung. Du musst gute Prompts nicht allein entwerfen. Du kannst ChatGPT beauftragen, die Rollenbeschreibung zu schärfen, die Einschränkungen zu formulieren, eine Aufgabenfassung zu präzisieren oder einen vorhandenen Entwurf zu verbessern. Aus dem Alleingang wird eine Co-Produktion. Das senkt die Einstiegshürde, beschleunigt die Entwicklung und führt oft zu Formulierungen, die tragfähiger sind als die erste Idee.

    Der Vorteil liegt in der Struktur. Wenn du die vier Bausteine vorgibst und ChatGPT bittest, jeden Baustein zu überarbeiten, erhältst du Rückmeldungen, die direkt an deinem Muster andocken. Du arbeitest nicht im Nebel, sondern iterierst gezielt am Material, bis es zu deinem Zweck passt.

    Die Einstiegssituation: Ein grober Prompt, viele Fragezeichen

    Häufig startest du mit einem vagen Wunsch. Du willst eine Einladung, einen kurzen Bericht, eine Zusammenfassung oder eine Entscheidungsnotiz. Aus diesem Wunsch entsteht schnell ein Mischmasch aus Rolle, Kontext und Auftrag. Gerade unter Zeitdruck rutschen Formulierungen in den falschen Abschnitt, Längenangaben fehlen, und die Zielgruppe bleibt unklar.

    Genau hier hilft es, ChatGPT als Gegenleser zu nutzen. Bitte das Modell, den Entwurf entlang der vier Bausteine zu ordnen, Lücken zu erkennen und Vorschläge zu machen, wie Ziel, Leserschaft und Qualitätsmassstab präzisiert werden können. Du hältst die Zügel in der Hand, aber du lässt dir zuarbeiten.

    Diese Zusammenarbeit wirkt nicht nur in der ersten Fassung. Sie hilft auch, Spannungen zu erkennen. Wenn deine Rolle akademisch, der gewünschte Ton aber strikt umgangssprachlich ist, meldet sich das Modell mit einem Hinweis auf den Widerspruch. Dadurch vermeidest du späteres Hin und Her.

    Rollen schärfen, ohne zu verengen

    Die Rollenbeschreibung ist der stärkste Orientierungspunkt. Du kannst ChatGPT bitten, aus einer allgemeinen Formulierung eine passende Stimme zu entwickeln. Aus „Du bist Expertin oder Experte für Personal“ wird eine greifbare Identität, etwa „Du bist Abteilungsleiter Kreditwesen in einer kleinen Privatbank, sprichst intern zu deinem Team und legst Wert auf Wertschätzung, Klarheit und Verbindlichkeit“.

    Diese Zuspitzung reduziert Interpretationsspielraum. Gleichzeitig bleibt die Rolle breit genug, damit das Modell nicht in eine sprachliche Zwangsjacke gerät. Wenn du mehrere Rollenvarianten brauchst, weil derselbe Inhalt einmal intern und einmal extern genutzt wird, lass dir Alternativen formulieren.

    Einschränkungen als Leitplanken formulieren

    Einschränkungen sichern die Qualität der Ausgabe. Statt sie jedes Mal neu zu sammeln, kannst du ChatGPT gezielt dazu einsetzen, klare, konfliktfreie Leitplanken zu formulieren. Bitte um Längenrahmen, Tonvorgaben, Strukturhinweise und sprachliche Regeln, die zur Zielgruppe passen.

    Ein sauberer Satz wie „klares Deutsch, keine Anglizismen, kein Jargon, drei Abschnitte mit Zwischenüberschrift, je rund zweihundert Wörter“ wirkt sofort. Du kannst zudem festhalten, welche Quellen genutzt werden dürfen. Wenn interne Dokumente massgeblich sind, weise darauf hin, dass nur diese herangezogen werden sollen. Das Modell wird seine Vorschläge dann an deinem Material ausrichten.

    Wichtig ist eine Priorisierung. Wenn Kürze und Vollständigkeit kollidieren, setze eine Regel wie „Verständlichkeit vor Vollständigkeit“. Bitte ChatGPT, solche Prioritäten explizit zu ergänzen. So vermeidest du verdeckte Widersprüche.

    Vom Rohentwurf zur belastbaren Vorlage

    Viele Prompts beginnen als Rohfassung. Bitte das Modell, deinen Entwurf zu prüfen wie eine Redaktorin. Fordere präzisere Zielgruppen, nachvollziehbare Messpunkte für Qualität und eine eindeutige Ausgabeform.

    Bitten kannst du auch um Testläufe: Lass dir zeigen, wie der Prompt bei zwei leicht variierten Eingaben reagiert. Wenn beide Ergebnisse im selben Korridor landen, bist du auf dem richtigen Weg. Wenn die Streuung gross ist, bitte das Modell, die Ursache zu benennen und den Prompt entsprechend zu schärfen. So kommst du schneller zu einem Muster, das im Betrieb trägt.

    Sobald der Prompt stabil wirkt, versiehst du ihn mit einer Versionsnummer, einer kurzen Zweckbeschreibung und zwei Beispielausgaben. Das macht die Vorlage im Team auffindbar und anschlussfähig.

    Zusammenarbeit mit klarem Takt

    Damit die Co-Produktion mit der KI funktioniert, braucht es einen Takt. Lege zuerst den Rahmen fest: Rolle und Kontext stehen oben, Aufgabe folgt, Einschränkungen sichern die Ausgabe ab. Bitte ChatGPT anschliessend, jeden Baustein nacheinander zu bewerten, offene Punkte zu markieren und konkrete Verbesserungen vorzuschlagen.

    Wiederhole den Durchlauf einmal, nicht zehnmal. Prüfe danach in Ruhe, ob die Vorschläge zu deiner Organisation, deiner Zielgruppe und deinem Ton passen. Du behältst die inhaltliche Verantwortung, die KI reduziert Reibung.

    So entsteht aus einem diffusen Wunsch eine belastbare Arbeitsanweisung, die du immer wieder verwenden kannst.

    Grenzen und gute Praxis

    Die KI ist „ziemlich gut im Promptschreiben“, aber nicht unfehlbar. Achte darauf, dass Rollen und Einschränkungen zu deinen Richtlinien passen. Wenn ein Vorschlag an eurer Kultur vorbeigeht oder rechtlich heikel wirkt, korrigiere ihn sofort.

    Verlasse dich zudem nicht auf eine einzige Fassung. Ein kurzer Praxistest mit realem Inhalt zeigt, ob der Prompt die gewünschte Qualität produziert. Erst wenn der Test überzeugt, gehört die Vorlage in eure Bibliothek.

    Hilfreich ist eine klare Sprache. Bitte um kurze Sätze, klare Verben, keine Floskeln. Wenn das Modell zu ausschweifend wird, erinnere es an die Längenrahmen. Und wenn es Phrasen wiederholt, fordere eigenständige Formulierungen in der festgelegten Tonalität ein. Du führst, die KI folgt.

    Weiterbildung: Prompt Engineering Kurs

    In dieser Videoreihe erklären wir die wichtigsten Prinzipien Schritt für Schritt und zeigen, warum sie technisch tragen. Ziel: dass Nutzerinnen und Nutzer mit wenig Aufwand bessere, stabilere Resultate erzielen.

    Wer tiefer einsteigen will, findet in unserem Weiterbildungsangebot mit der ZHAW ein kompaktes Format:
    Prompt Engineering: ChatGPT und andere KIs lernen und produktiv einsetzen.

    Der Kurs vermittelt praxisnahes Prompt Design, zeigt Prompt Templates mit ChatGPT Beispielen und macht KI im Alltag direkt anwendbar.

    Mehr dazu im Video und auf der Prompting-Landingpage

    Mehr Details dazu auch in diesem Video.
    Zusätzlich haben wir eine Übersichtsseite über Prompt-Engineering eingerichtet.
    Trage dich auch unten auf der Seite in den Newsletter ein, es erscheinen hier in den nächsten Wochen viele weitere Videos zum Thema “Prompt Engineering”.

  • Prompt Engineering: Beispiele senken die Varianz – Few-Shot richtig einsetzen | Teil 7

    Prompt Engineering: Beispiele senken die Varianz – Few-Shot richtig einsetzen | Teil 7

    Warum wir über Prompt Engineering sprechen

    Bei Beaufort entwickeln wir KI-Agenten, die reale Geschäftsprozesse Ende-zu-Ende unterstützen. Damit diese Agenten zuverlässig arbeiten, brauchen sie präzise Eingaben und klare Vorgaben. Genau dort liegt unsere tägliche Praxis als Prompt-Profis: Wir formulieren Prompts so, dass Ergebnisse konsistent, nachvollziehbar und produktiv einsetzbar sind – in Fachbereichen von Compliance über Operations bis Kommunikation.

    Dieses Wissen wollen wir mit dir teilen – praxisnah wie in einem Prompt Engineering Kurs. Heute geht es um einen der wirkungsvollsten Hebel: Beispiele.

    Beispiele als Turbo für bessere Antworten

    In den bisherigen Teilen hast du die Struktur eines stabilen Prompts kennengelernt: Rolle, Kontext, Aufgabe und Format. Jetzt kommt ein Baustein dazu, der die Qualität spürbar hebt und die Streuung verringert. Wenn du dem Modell ein oder mehrere Beispiele gibst, zeigst du nicht nur, was du willst, sondern wie es klingen, aussehen und aufgebaut sein soll. Dieses Vorgehen wird oft Few-Shot Prompting genannt. Im Kern ist es simpel: Du reichst eine kurze Vorlage mit, an der sich das Modell orientieren kann.

    Ohne Beispiel entscheidet das Modell selbst, welchen Stil und welche Tiefe es wählt. Mit Beispiel verschiebst du diese Entscheidung an den Anfang und begrenzt den Suchraum. Das Resultat wirkt näher an deinem Ton, deiner Struktur und deinem Qualitätsmassstab. Gerade bei Textsorten mit hoher Erwartung an Stil und Haltung – Einladungen, Medienmitteilungen, HR-Notizen, Kundenbriefe – zahlt sich das sofort aus.

    Die Analogie, die alles erklärt

    andere legen einen Cha-Cha hin. Sagst du stattdessen: „Schau dir dieses kurze Video von Flamenco-Tänzerinnen und Tänzern an – bitte tanz jetzt so“, dann rückt die Ausführung plötzlich eng an deine Erwartung heran. Genau so reagiert ein Sprachmodell auf Beispiele. Ein neutrales „Tanz mal“ lässt zu viel Raum. Ein konkretes Beispiel macht die Anforderung greifbar.

    Übertragen auf Texte bedeutet das: Wenn du höfliche, klare Sprache ohne Fremdwörter brauchst, dann zeig ein Stück Text, das genau das vorlebt. Wenn du eine nüchterne, distanzierte Tonalität willst, liefere ein kurzes Muster, das diese Distanz trägt. Das Modell nimmt solche Hinweise ernst und richtet seine Wahrscheinlichkeiten an deinem Beispiel aus.

    Wie Beispiele die Varianz technisch verkleinern

    Ein Sprachmodell erzeugt Antworten, indem es Wort für Wort das wahrscheinlich nächste Wort wählt. Diese Wahrscheinlichkeiten hängen stark vom Kontext ab. Ein Beispiel wirkt wie eine zusätzliche Gewichtsverteilung: Es verschiebt die Wahrscheinlichkeiten in Richtung des gezeigten Musters. Das heisst nicht, dass zwei Durchläufe identisch werden. Aber die Streuung verengt sich rund um eine Mitte, die deinem Stil, deiner Struktur und deiner Tiefe entspricht.

    Aus höflich-beliebigen Texten werden wiedererkennbare Entwürfe, die schneller freigegeben werden können. Damit wird ChatGPT im Alltag effizienter und planbarer.

    Gute Beispiele auswählen – knapp, sauber, passend

    Ein gutes Beispiel ist kurz genug, um den Prompt nicht zu überladen, und lang genug, um Ton, Aufbau und Dichte erkennbar zu machen. Ein bis drei Absätze reichen oft. Wähle Material, das du wirklich vertreten willst. Ein halbgutes Muster produziert halbgute Ableitungen. Achte darauf, dass dein Beispiel die Zielgruppe spiegelt, für die der neue Text gedacht ist.

    Hilfreich ist eine klare Einbettung. Sag dem Modell ausdrücklich, dass es sich am Beispiel orientieren soll, ohne es zu kopieren. Verlange ähnliche Tonalität, vergleichbare Struktur und passende Länge, aber keine Wiederholung von Formulierungen. So vermeidest du Wiederkäuen und bekommst trotzdem die gewünschte Nähe.

    Beispiele einbinden, ohne den Prompt zu überfrachten

    Beispiele wirken am besten, wenn sie sauber an Rolle, Kontext, Aufgabe und Format andocken. Zuerst legst du fest, wer spricht und wofür der Text gilt. Dann kommt die Arbeitsanweisung. Anschliessend nennst du die wichtigsten Einschränkungen, etwa „klares Deutsch, keine Anglizismen, keine Aufzählungen“. Direkt danach fügst du das Beispiel ein und erklärst in einem Satz, wozu es dient. So bleibt die Logik deines Prompts intakt, und das Modell kann den roten Faden aufnehmen.

    Wenn dein Beispiel länger ist, arbeite mit einem Auszug. Schreibe davor, dass nur Ton und Aufbau als Referenz dienen. Wenn du Quellenmaterial anhängst – etwa ein internes Stilkapitel oder eine veröffentlichte Notiz, die exakt den Ton trifft –, reicht oft ein markierter Abschnitt, der die Essenz transportiert.

    Stil, Aufbau und Dichte gezielt übertragen

    Beispiele sind nicht nur Stil-Schablonen. Sie helfen auch, Struktur und Informationsdichte zu steuern. Wenn dein Muster mit kurzer Einleitung beginnt, danach zwei dichte Absätze bringt und am Ende eine knappe Empfehlung steht, übernimmt das Modell diese Dramaturgie.

    Wenn dein Beispiel sichtbar ohne Fachjargon auskommt und Begriffe erst einführt, wenn sie gebraucht werden, wird es diese Praxis eher fortführen. Je klarer das Muster, desto zuverlässiger die Übertragung.

    Bei kreativeren Aufgaben – etwa einem Ideenpapier – lohnt sich ein Beispiel, das die gewünschte Balance aus Originalität und Bodenhaftung zeigt. Brauchst du fünf solide Ansätze statt einer schillernden Vision, dann liefere ein Muster, das solide, aber pragmatisch vorgeht. Das Modell liest diese Haltung mit.

    Grenzen, die du kennen solltest

    Beispiele sind mächtig, aber kein Allheilmittel. Ein unpassendes Muster lenkt Antworten in die falsche Richtung. Zu viele Beispiele verwirren. Widersprüchliche Vorlagen führen zu Kompromissen, die niemanden glücklich machen.

    Halte dich an wenige, starke Beispiele, die klar zu Rolle, Kontext und Aufgabe passen. Und achte darauf, dass dein Beispiel rechtlich unbedenklich ist, wenn du externes Material nutzt. Für interne Standards eignen sich eigene Texte oder explizit freigegebene Auszüge.

    Wenn du merkst, dass das Modell einzelne Phrasen wörtlich übernimmt, weise es darauf hin, sinngemäss zu arbeiten. Bitte um eigenständige Formulierungen in der Tonalität des Beispiels. So sicherst du Originalität bei gleichzeitig stabiler Anmutung.

    Vom Einzelbeispiel zur Bibliothek

    Was einmal gut funktioniert, solltest du sichern. Lege eine kleine Sammlung geprüfter Beispiele an: je ein kurzes Muster für interne Mitteilungen, Kundenbriefe, Entscheidungsnotizen, Blog-Anrisse. Versioniere diese Sammlung und notiere, wofür jedes Beispiel taugt und wofür nicht.

    Wenn Rolle und typische Kontexte in deinen Assistenten bereits hinterlegt sind, kannst du pro Aufgabe ein passendes Beispiel andocken und erhältst im ersten Wurf nutzbare Qualität. Mit der Zeit entsteht eine leichte Bibliothek, die dein Team teilt. Neue Kolleginnen und Kollegen kommen schneller auf Linie, weil Ton und Aufbau nicht mehr mühsam erklärt werden müssen, sondern erlebbar sind.

    Weiterbildung: Prompt Engineering Kurs

    In dieser Videoreihe erklären wir die wichtigsten Prinzipien Schritt für Schritt und zeigen, warum sie technisch tragen. Ziel: dass Nutzerinnen und Nutzer mit wenig Aufwand bessere, stabilere Resultate erzielen.

    Wer tiefer einsteigen will, findet in unserem Weiterbildungsangebot mit der ZHAW ein kompaktes Format:
    Prompt Engineering: ChatGPT und andere KIs lernen und produktiv einsetzen.

    Der Kurs vermittelt praxisnahes Prompt Design, zeigt Prompt Templates mit ChatGPT Beispielen und macht KI im Alltag direkt anwendbar.

    Mehr dazu im Video und auf der Prompting-Landingpage

    Mehr Details dazu auch in diesem Video.
    Zusätzlich haben wir eine Übersichtsseite über Prompt-Engineering eingerichtet.
    Trage dich auch unten auf der Seite in den Newsletter ein, es erscheinen hier in den nächsten Wochen viele weitere Videos zum Thema “Prompt Engineering”.

  • Prompt Engineering: Constraints setzen, Konsistenz gewinnen | Teil 6

    Prompt Engineering: Constraints setzen, Konsistenz gewinnen | Teil 6

    Warum wir über Prompt Engineering sprechen

    Bei Beaufort entwickeln wir KI-Agenten, die reale Geschäftsprozesse Ende-zu-Ende unterstützen. Damit diese Agenten zuverlässig arbeiten, brauchen sie präzise Eingaben und klare Vorgaben. Genau dort liegt unsere tägliche Praxis als Prompt-Profis: Wir formulieren Prompts so, dass Ergebnisse konsistent, nachvollziehbar und produktiv einsetzbar sind – in Fachbereichen von Compliance über Operations bis Kommunikation.

    Dieses Wissen wollen wir mit dir teilen – praxisnah wie in einem Prompt Engineering Kurs. Heute sind “Einschränkungen” an der Reihe.

    Constraints: der Hebel gegen Streuung

    Du kennst das sicher. Du korrigierst ChatGPT mehrfach, trotzdem bleibt der Text neben der Spur. Das liegt selten an mangelndem „Wollen“ des Modells, sondern an fehlenden Begrenzungen. Constraints – also klare Einschränkungen – ziehen Leitplanken ein. Sie bestimmen, was die Antwort enthalten darf, wie sie aufgebaut ist und in welchem Rahmen sich das Modell bewegen soll. Damit sinkt die Varianz, und die Qualität wird planbarer.

    Ohne Constraints erzeugt das Modell eine höfliche, aber generische Antwort. Mit Constraints entsteht ein Ergebnis, das deinem Ziel und deiner Umgebung entspricht. Genau diesen Unterschied spürst du schon nach der ersten Fassung.

    Welche Einschränkungen wirklich tragen

    Ein starker Start sind Längen- und Sprachvorgaben. Wenn du „600 Wörter, klares Deutsch, keine Fremdwörter“ verlangst, zwingst du das Modell zur Präzision. Das verändert sofort Ton und Dichte. Ebenso hilfreich sind Strukturvorgaben. Wenn du drei Abschnitte mit je einer Zwischenüberschrift verlangst, entsteht eine prüfbare Form. Du kannst jede Fassung nebeneinanderlegen und fair vergleichen, statt über Geschmack zu diskutieren.

    Wesentlich sind auch Quellen-Constraints. Wenn du vorgibst, dass nur hochgeladene Dokumente oder interne Richtlinien genutzt werden dürfen, reduzierst du inhaltliche Ausreisser. Das Modell stützt sich auf dein Material statt auf zufällige Fundstücke. So bleiben Aussagen näher an euren Standards und sind leichter zu validieren.

    Warum Constraints Konsistenz erzeugen

    Ein Sprachmodell wählt das nächste Wort nach Wahrscheinlichkeit. Constraints verschieben diese Wahrscheinlichkeiten in einen engeren Korridor. Länge, Ton und Struktur werden zu Rahmenbedingungen, innerhalb derer die Kreativität stattfindet. Du bekommst keine identischen Texte, aber stabil ähnliche. Genau das brauchst du in Prozessen, in denen gleichartige Aufgaben wiederkehren.

    Der Effekt zeigt sich in weniger Korrekturschleifen. Formulierungen treffen eher den Ton. Relevante Details tauchen früher auf. Du investierst mehr Zeit in Inhalte und weniger in Formatierungen – ein klarer Vorteil für die Nutzung von ChatGPT im Alltag.

    So formulierst du Constraints präzise

    Gute Einschränkungen sind knapp und eindeutig. „Klares Deutsch, keine Anglizismen, kein Jargon“ ist verständlicher als eine lange Liste verbotener Wörter. „Drei Abschnitte mit Zwischenüberschrift, je rund zweihundert Wörter“ lässt Raum für Nuancen und verhindert trotzdem, dass der Text ausfranst. Wenn du einen spezifischen Zweck hast, benenne ihn. „Geeignet für die interne Kommunikation an die Abteilung Kreditwesen“ verankert Ton und Relevanz.

    Wichtig ist die Reihenfolge. Nenne zuerst die Rolle und den Kontext, dann die Aufgabe, danach die Constraints. So weiss das Modell, wozu die Einschränkungen dienen. Eine Längenangabe wirkt anders, wenn du an die Geschäftsleitung schreibst als an neue Mitarbeitende.

    Typische Fehler und wie du sie vermeidest

    Zu viele Details wirken wie eine Zwangsjacke. Das Modell kämpft dann mit widersprüchlichen Vorgaben. Besser sind wenige, starke Constraints, die zum Ziel passen. Vermeide Konflikte wie „kurz und ausführlich zugleich“. Entscheide dich für eine Priorität. Wenn ein Widerspruch unvermeidlich scheint, setze eine klare Präferenz. „Bei Konflikten gilt Verständlichkeit vor Vollständigkeit“ verhindert endlose Aufzählungen.

    Ein weiterer Fehler ist das Vermischen von Constraints und Inhalt. Einschränkungen beschreiben die Form und die Spielregeln, nicht die Argumente. Wenn du Inhalte vorgibst, schreibe sie in den Kontext oder in die Aufgabe und halte die Constraints sauber. So bleibt dein Prompt wartbar und wiederverwendbar.

    Kalibrieren, testen, fixieren

    Constraints entfalten ihre Wirkung durch Wiederholung. Teste deine Vorgaben an zwei bis drei realen Fällen. Prüfe, wo der Text zu lang, zu kurz oder zu formal wird. Schärfe einzelne Formulierungen nach, statt alles auf einmal zu ändern. Sobald die Ergebnisse stabil sind, fixiere die Constraints in einer Vorlage. So startest du künftig nicht bei null und bekommst im ersten Wurf brauchbare Qualität.
    Wenn dein Team mit Assistenten arbeitet, hinterlege die bewährten Constraints dort dauerhaft. Rolle und Kontext bleiben konstant, Aufgabe und Inhalte wechseln. Auf diese Weise entsteht eine leichte, aber wirksame Governance für KI-gestützte Texte.

    Constraints als Qualitätsversicherung

    Mit klaren Einschränkungen steuerst du Stil, Tiefe und Quellenlage. Das senkt Risiken in sensiblen Bereichen und erleichtert die Freigabe. Vor allem macht es die Zusammenarbeit berechenbar. Wer denselben Rahmen teilt, teilt auch die Erwartung an das Ergebnis. Das spart Abstimmungen und beschleunigt den Weg in die Anwendung.

    Im Zusammenspiel mit Rolle, Kontext und Aufgabe entfalten Constraints ihre volle Wirkung. Die Rolle gibt die Perspektive, der Kontext begrenzt das Feld, die Aufgabe definiert das Ziel – und die Constraints sichern die Qualität der Ausgabe. So wird aus Experimenten ein belastbarer Prozess.

    Weiterbildung: Prompt Engineering Kurs

    In dieser Videoreihe erklären wir die wichtigsten Prinzipien Schritt für Schritt und zeigen, warum sie technisch tragen. Ziel: dass Nutzerinnen und Nutzer mit wenig Aufwand bessere, stabilere Resultate erzielen.

    Wer tiefer einsteigen will, findet in unserem Weiterbildungsangebot mit der ZHAW ein kompaktes Format:
    Prompt Engineering: ChatGPT und andere KIs lernen und produktiv einsetzen.

    Der Kurs vermittelt praxisnahes Prompt Design, zeigt Prompt Templates mit ChatGPT Beispielen und macht KI im Alltag direkt anwendbar.

    Mehr dazu im Video und auf der Prompting-Landingpage

    Mehr Details dazu auch in diesem Video.
    Zusätzlich haben wir eine Übersichtsseite über Prompt-Engineering eingerichtet.
    Trage dich auch unten auf der Seite in den Newsletter ein, es erscheinen hier in den nächsten Wochen viele weitere Videos zum Thema “Prompt Engineering”.

  • Prompt Engineering: Die richtige Anweisung ans Modell macht den Unterschied | Teil 5

    Prompt Engineering: Die richtige Anweisung ans Modell macht den Unterschied | Teil 5

    Warum wir über Prompt Engineering sprechen

    Bei Beaufort entwickeln wir KI-Agenten, die reale Geschäftsprozesse Ende-zu-Ende unterstützen. Damit diese Agenten zuverlässig arbeiten, brauchen sie präzise Eingaben und klare Vorgaben. Genau dort liegt unsere tägliche Praxis als Prompt-Profis: Wir formulieren Prompts so, dass Ergebnisse konsistent, nachvollziehbar und produktiv einsetzbar sind – in Fachbereichen von Compliance über Operations bis Kommunikation.

    Dieses Wissen wollen wir mit dir teilen – heute geht es um den User Prompt, die Arbeitsanweisungen.

    Die Aufgabe: aus der Frage wird eine Arbeitsanweisung

    In diesem Teil geht es um den Baustein, den du am häufigsten nutzt: die Aufgabe, also die eigentliche Anweisung an das Modell. Eine lockere Frage liefert selten die Qualität, die du in Prozessen brauchst. Aus „Schreib mir etwas zu B2B-Marketing“ wird deshalb ein klarer Auftrag mit Ziel, Tiefe, Ton und Erwartung an das Ergebnis. So wird aus einem offenen Gespräch ein reproduzierbarer Arbeitsschritt.
    Wenn du die Aufgabe sauber strukturierst, sinkt die Nacharbeit spürbar. Das Modell versteht nicht nur das Thema, sondern auch, wie das Ergebnis aussehen muss. Deine Durchläufe werden planbarer, die Qualität steigt – ein klarer Vorteil für den produktiven Einsatz von ChatGPT im Alltag.

    Warum Struktur die Qualität hebt

    Ein Sprachmodell setzt Antworten Wort für Wort über Wahrscheinlichkeiten zusammen. Ohne Leitplanken ist der Spielraum gross, die Streuung hoch. Mit einer präzisen Aufgabe grenzt du diesen Raum ein. Du beschreibst, wohin es gehen soll, und wie der Weg dorthin aussieht. Das erzeugt keine starre Gleichförmigkeit, aber eine engere Bandbreite rund um das, was du brauchst.
    Besonders wirksam wird diese Struktur, wenn du sie konsequent wiederverwendest. Je vertrauter das Muster ist, desto konsistenter werden Länge, Ton und Aufbau – von der ersten Fassung an. Genau das macht gutes Prompt Design aus.

    Ein Beispiel aus dem Alltag

    Nehmen wir einen Blogbeitrag zum B2B-Marketing. Eine allgemeine Bitte führt zu einem brauchbaren, aber generischen Text, der kaum zu euren redaktionellen Vorgaben passt. Präziser ist eine Aufgabe, die Aufbau, Länge und Ton vorgibt. Du legst fest, dass der Beitrag drei Absätze umfasst, in jedem rund vierzig Wörter, mit klarer Zwischenüberschrift. Du verlangst ausschliesslich Fliesstext, keine Aufzählungen. Am Schluss steht eine kurze Zusammenfassung. Vorangestellt ist ein Anreisser, der in höchstens sechzig Wörtern erklärt, worum es geht. Der erste Wurf rückt damit deutlich näher an euer Muster.

    Den Ablauf wie einen Prozess beschreiben

    Wirksam ist eine Reihenfolge, die immer gleich bleibt. Zuerst definierst du das Ziel. Danach beschreibst du die Bestandteile und ihre Reihenfolge. Anschliessend nennst du Qualitätskriterien, etwa Verständlichkeit für eine bestimmte Leserschaft oder Beispiele aus einer festgelegten Domäne. Zum Schluss beschreibst du die Form der Ausgabe, also Überschriften, Absatzlängen, Ton und Zusammenfassung. Dieses kleine Drehbuch lässt sich für viele Aufgaben wiederverwenden – nur der Inhalt wechselt.

    Präzision ohne Zwangsjacke

    Gute Aufgaben sind nicht maximal lang, sondern eindeutig. Entscheidend ist, dass Ziel und Prüfmassstab klar sind. Wenn du „für HR-Generalistinnen und HR-Generalisten“ schreibst, weisst du später, woran du misst. Wenn du festhältst, dass keine Aufzählungen genutzt werden und der Ton kollegial, aber verbindlich ist, bleibt der Text anschlussfähig an eure Kommunikationskultur. Gleichzeitig lässt du Raum für Nuancen, damit der Text lebendig bleibt und dennoch zuverlässig deinem Rahmen folgt.

    Häufige Stolpersteine vermeiden

    Unpräzise Längenangaben, fehlende Zielgruppen und vermischter Kontext sind die Hauptquellen für Nacharbeit. Ein „kurzer Text“ ohne Mass und Zweck lädt das Modell zur Interpretation ein. Ebenso heikel ist es, die Arbeitsanweisung mit langen Hintergründen zu überfrachten. Halte den Kontext knapp darüber oder davor und platziere die Aufgabe klar darunter. So bleibt der Prompt wartbar, und du kannst denselben Rahmen für verschiedene Inhalte nutzen.

    Zusammenspiel mit Rolle, Kontext und Format

    Die Aufgabe ist nur ein Teil des Ganzen. Die Rolle legt die Perspektive fest, der Kontext begrenzt das Feld, das Format macht die Ausgabe prüfbar. In der Mitte steht die Aufgabe und macht die Absicht messbar. Wenn alle vier Elemente sauber getrennt und konsequent eingesetzt werden, liegen die Antworten bereits im ersten Versuch erstaunlich nah am Ziel. Genau das macht KI im Betrieb nutzbar – und hebt deine Skills im Prompt Engineering Kurs auf das nächste Level.

    Von der guten Aufgabe zur Vorlage

    Sobald eine Arbeitsanweisung zuverlässig trägt, solltest du sie als Vorlage sichern. Versioniere sie, notiere Eignung und zwei, drei Beispielausgaben. So findet dein Team schneller in den Standard und verbessert ihn schrittweise. Kleine Iterationen – präzisere Zielgruppe, klarerer Ton, schärfere Längenangabe – heben die Qualität, ohne das Muster zu zerreissen. Mit eigenen Assistenten kannst du Rolle und wiederkehrende Kontexte dauerhaft hinterlegen und nur die Aufgabe variieren. Das spart Zeit und stabilisiert die Ergebnisse.

    Weiterbildung: Prompt Engineering Kurs

    In dieser Videoreihe erklären wir die wichtigsten Prinzipien Schritt für Schritt und zeigen, warum sie technisch tragen. Ziel: dass Nutzerinnen und Nutzer mit wenig Aufwand bessere, stabilere Resultate erzielen.

    Wer tiefer einsteigen will, findet in unserem Weiterbildungsangebot mit der ZHAW ein kompaktes Format:
    Prompt Engineering: ChatGPT und andere KIs lernen und produktiv einsetzen.

    Der Kurs vermittelt praxisnahes Prompt Design, zeigt Prompt Templates mit ChatGPT Beispielen und macht KI im Alltag direkt anwendbar.

    Mehr dazu im Video und auf der Prompting-Landingpage

    Mehr Details dazu auch in diesem Video.
    Zusätzlich haben wir eine Übersichtsseite über Prompt-Engineering eingerichtet.
    Trage dich auch unten auf der Seite in den Newsletter ein, es erscheinen hier in den nächsten Wochen viele weitere Videos zum Thema “Prompt Engineering”.

    Mehr Details dazu auch in diesem Video:

  • Prompt Engineering: Kontext ist King | Teil 4

    Prompt Engineering: Kontext ist King | Teil 4

    Warum wir über Prompt Engineering sprechen

    Bei Beaufort entwickeln wir KI-Agenten, die reale Geschäftsprozesse Ende-zu-Ende unterstützen. Damit diese Agenten zuverlässig arbeiten, brauchen sie präzise Eingaben und klare Vorgaben. Genau dort liegt unsere tägliche Praxis als Prompt-Profis im Prompt Engineering: Wir formulieren Prompts so, dass Ergebnisse konsistent, nachvollziehbar und produktiv einsetzbar sind – in Fachbereichen von Compliance über Operations bis Kommunikation.

    Und das Wissen wollen wir mit euch teilen! Heute geht es um den zweiten entscheidenden Baustein: den Kontext.

    Kontext im Prompt Engineering – der unterschätzte Hebel

    Im letzten Beitrag stand die Rolle im Vordergrund. Heute vertiefen wir den Kontext. Rolle sagt, wer spricht. Kontext klärt, worüber gesprochen wird und in welchem Rahmen die Antwort entsteht.
    Ohne Kontext liefert ein Sprachmodell höfliche, aber generische Texte. Mit Kontext bekommt das Modell Orientierung, grenzt sein internes Suchfeld ein und kann bereits im ersten Wurf näher an deiner Erwartung liegen.

    Ein Beispiel aus der Praxis

    Stell dir vor, du bittest um eine Einladung für eine Firmenfeier. Ohne Kontext wird der Entwurf beliebig – der Ton passt selten, Details fehlen, die Stimmung wirkt austauschbar.
    Nehmen wir eine Privatbank: Du leitest die Abteilung Kreditwesen und planst eine Jubiläumsfeier. Wenn du im Kontext vorgibst, dass Wertschätzung im Mittelpunkt steht, der Ton intern und kollegial ist und die Bankkultur wichtig bleibt, verändert sich alles. Der erste Entwurf wird wärmer, spezifischer und näher an deiner Sprache.

    Dasselbe gilt für Produktreleases, Kundenbriefe, HR-Notizen oder Entscheidungsgrundlagen für die Geschäftsleitung. Ein präziser Kontext senkt die Streuung und verhindert, dass das Modell in Nebenthemen abdriftet.

    Was im Hintergrund technisch passiert

    Ein Sprachmodell wählt nicht die „richtige“ Antwort, sondern berechnet Schritt für Schritt die wahrscheinlich nächsten Wörter. Ohne Kontext ist der Suchraum riesig. Mit Kontext verschiebst du die Wahrscheinlichkeiten gezielt.

    Die Antwort bleibt variabel, bewegt sich aber innerhalb eines engeren, fachlich brauchbaren Korridors. Das reduziert Korrekturschleifen, spart Zeit und macht die Qualität planbarer.

    Wie du Kontext präzise formulierst

    Kontext ist kein Datenabwurf. Er ist eine prägnante Verdichtung der relevanten Rahmenbedingungen:
    – Umgebung, in der die Antwort gilt
    – Zielgruppe
    – Grundton
    Beispiel: Für die Einladung reicht es, Abteilung, Anlass, Charakter der Feier und Absicht zu nennen. Alles Weitere (Ort, Uhrzeit, Dresscode) gehört in Aufgabe oder Format.
    Wichtig: Stimme klar festlegen. Für interne Mitteilungen kollegial, für Kundenkommunikation verbindlich. Dieser Hinweis im Kontext erhöht die Relevanz der Antworten spürbar.

    Typische Fehler beim Prompt Design

    Zu vage: „Wir sind im Finanzbereich“ → bringt wenig.
    Zu detailliert: Überladene Kontexte mit internen Abkürzungen verwässern.
    Kontext & Aufgabe vermischt: erschwert Wiederverwendung.

    Idealer Kontext ist knapp, aber eindeutig – ein stabiler Rahmen für verschiedene Aufgaben.

    Vom Einzelprompt zur Vorlage

    Ein bewährter Kontext sollte gesichert werden. Viele Teams nutzen eine Handvoll Kontext-Vorlagen:
    – intern (HR-Mitteilungen),
    – extern (Kundenkommunikation),
    – Analyse (Management-Notizen).
    – In Vorlagen bleibt der Kontext stabil, während Aufgabe und Format variieren. Das spart Abstimmungsaufwand und macht Ergebnisse vergleichbarer.

    Kontext als Qualitätsversicherung

    Guter Kontext ist eine Form von Governance:
    – reduziert rechtliche Risiken,
    – schützt vor unpassendem Ton,
    – erleichtert die Teamarbeit durch gemeinsame Erwartung an Stil & Inhalt.

    Im Zusammenspiel mit Rolle, Aufgabe und Format entfaltet der Kontext seine volle Wirkung. So wird Prompt Engineering zu einem verlässlichen Werkzeug, um KI produktiv einzusetzen.

    Weiterbildung: Prompt Engineering Kurs

    In dieser Videoreihe erklären wir die wichtigsten Prinzipien Schritt für Schritt und zeigen, warum sie technisch tragen. Ziel: dass Nutzerinnen und Nutzer mit wenig Aufwand bessere, stabilere Resultate erzielen.

    Wer tiefer einsteigen will, findet in unserem Weiterbildungsangebot mit der ZHAW ein kompaktes Format:
    Prompt Engineering: ChatGPT und andere KIs lernen und produktiv einsetzen.

    Der Kurs vermittelt praxisnahes Prompt Design, zeigt Prompt Templates mit ChatGPT Beispielen und macht KI im Alltag direkt anwendbar.

    Mehr dazu im Video und auf der Prompting-Landingpage

    Mehr Details dazu auch in diesem Video.
    Zusätzlich haben wir eine Übersichtsseite über Prompt-Engineering eingerichtet.
    Trage dich auch unten auf der Seite in den Newsletter ein, es erscheinen hier in den nächsten Wochen viele weitere Videos zum Thema “Prompt Engineering”.

  • Prompt Engineering: Der System Prompt | Teil 3

    Prompt Engineering: Der System Prompt | Teil 3

    Warum wir über Prompt Engineering sprechen

    Bei Beaufort entwickeln wir KI-Agenten, die reale Geschäftsprozesse Ende-zu-Ende unterstützen. Damit diese Agenten zuverlässig arbeiten, brauchen sie präzise Eingaben und klare Vorgaben. Genau dort liegt unsere tägliche Praxis als Prompt-Profis im Prompt Engineering: Wir formulieren Prompts so, dass Ergebnisse konsistent, nachvollziehbar und produktiv einsetzbar sind – in Fachbereichen von Compliance über Operations bis Kommunikation.

    Und das Wissen wollen wir mit euch teilen! Heute geht es um den entscheidenden ersten Baustein: den Systemprompt.

    Systemprompt im Prompt Engineering – der wichtigste Block

    Im letzten Beitrag hast du die vier Bausteine eines starken Prompts kennengelernt: Rolle, Kontext, Aufgabe und Format. Heute vertiefen wir den ersten und entscheidenden Baustein, den Systemprompt. Er legt fest, welche Rolle das Modell einnimmt. Ohne klare Rollenbeschreibung bleibt die Antwort freundlich, aber beliebig. Mit einer klaren Rolle wird sie fachlich brauchbar und für deine nächsten Prozessschritte verwertbar.

    Warum die Rolle Varianz reduziert

    Ein Systemprompt beantwortet die stille Vorfrage: Wer spricht hier? Sobald du die Rolle definierst, begrenzt du den Suchraum. „Du bist Universitätsprofessor für Mathematik“ lenkt die Antwort in eine akademische, methodische Richtung. „Du erklärst in einfacher Sprache für Studienanfänger“ sorgt dafür, dass Fachjargon reduziert und Beispiele didaktisch gewählt werden.
    Technisch verschiebt die Rollenbeschreibung die Wahrscheinlichkeiten der Wortwahl. Die Streuung bleibt, aber enger um eine fachlich passende Mitte. Genau das macht Prompt Engineering wertvoll für reproduzierbare Ergebnisse.

    Vom Beispiel zur Praxis

    Bleiben wir beim Blockchain-Beispiel:
    – Ohne Rolle → Antworten variieren von Marktpreisen über Regulierung bis zu Hardware.
    – Mit Rolle → Ein Mathematikprofessor erklärt Hashfunktionen, Kryptografie und Konsensverfahren strukturiert und ohne Spekulation.

    So entstehen Antworten, die sofort in Unterricht, Schulung oder Projektdokumentation nutzbar sind.

    So schärfst du die Rolle, ohne sie zu verengen

    Eine gute Rollenbeschreibung ist spezifisch, nicht zu eng. Sie benennt die professionelle Identität, nennt Zielpublikum und gibt Leitlinien für Ton und Verständlichkeit. Zu viele Details führen zur Zwangsjacke – besser ist ein klarer Kern mit Orientierungspunkten.
    Für wiederkehrende Aufgaben gehört die Rollenbeschreibung in eine Vorlage. Sie bleibt stabil, während Kontext und Aufgabe variieren. Das sorgt für konsistente Ergebnisse im Alltag.

    Typische Fehler im Prompt Design

    Scheinrollen: „Du bist Experte“ ohne Fachgebiet → inhaltsleer.
    Widersprüchliche Vorgaben: akademische Rolle + Umgangssprache → unklar.
    Rolle & Aufgabe vermischen: erschwert Wartbarkeit.
    Publikum vergessen: ohne Zielgruppe entstehen Antworten am Bedarf vorbei.

    Mit Ergänzungen wie „verständlich für HR-Generalistinnen und Generalisten“ oder „geeignet für Entscheidungsnotizen der Geschäftsleitung“ schaffst du sofort Relevanz.

    Qualitätsgewinn im Betrieb

    Der Mehrwert von Systemprompts zeigt sich direkt in der Praxis:
    – Weniger Nachbearbeitung durch konsistenten Ton.
    – Wiederverwendung gelingt einfacher.

    Auch für Governance ist der Systemprompt ein Hebel: klare Rollen helfen, Risiken in Recht, Compliance oder Kommunikation besser zu steuern.

    Vom einzelnen Prompt zur Vorlage

    Mit ChatGPT Pro oder ähnlichen Tools kannst du Rollenbeschreibungen dauerhaft hinterlegen. So entstehen Team-Vorlagen, die versioniert werden. Änderungen sind nachvollziehbar, Verbesserungen gezielt.

    Deine Organisation wächst damit von ersten Experimenten zu einem reproduzierbaren Vorgehen. Neue Kolleginnen und Kollegen werden schneller produktiv – weil die Stimme der Organisation bereits in den Vorlagen steckt.

    Weiterbildung: Prompt Engineering Kurs

    In dieser Videoreihe erklären wir die wichtigsten Prinzipien Schritt für Schritt und zeigen, warum sie technisch tragen. Ziel: dass Nutzerinnen und Nutzer mit wenig Aufwand bessere, stabilere Resultate erzielen.

    Wer tiefer einsteigen will, findet in unserem Weiterbildungsangebot mit der ZHAW ein kompaktes Format:
    Prompt Engineering: ChatGPT und andere KIs lernen und produktiv einsetzen.

    Der Kurs vermittelt praxisnahes Prompt Design, zeigt Prompt Templates mit ChatGPT Beispielen und macht KI im Alltag direkt anwendbar.

    Mehr dazu im Video und auf der Prompting-Landingpage

    Mehr Details dazu auch in diesem Video.
    Zusätzlich haben wir eine Übersichtsseite über Prompt-Engineering eingerichtet.
    Trage dich auch unten auf der Seite in den Newsletter ein, es erscheinen hier in den nächsten Wochen viele weitere Videos zum Thema “Prompt Engineering”.

  • Prompt Engineering: Die vier Bausteine für verlässliche Ergebnisse | Teil 2

    Prompt Engineering: Die vier Bausteine für verlässliche Ergebnisse | Teil 2

    Warum wir über Prompt Engineering sprechen

    Bei Beaufort entwickeln wir KI-Agenten, die reale Geschäftsprozesse Ende-zu-Ende unterstützen. Damit diese Agenten zuverlässig arbeiten, brauchen sie präzise Eingaben und klare Vorgaben. Genau dort liegt unsere tägliche Praxis als Prompt-Profis im Prompt Engineering: Wir formulieren Prompts so, dass Ergebnisse konsistent, nachvollziehbar und produktiv einsetzbar sind – in Fachbereichen von Compliance über Operations bis Kommunikation.

    Die vier Bausteine im Prompt Design

    Wer mit Sprachmodellen arbeitet, merkt schnell: Eine spontane Frage liefert selten eine verlässliche Grundlage für Entscheidungen. Stabilität entsteht, wenn ein Prompt wie ein kleiner Prozess gestaltet ist. Vier Bausteine des Prompt Designs tragen diesen Prozess: Rolle, Kontext, Aufgabe und Format. Zusammen geben sie dem Modell Orientierung, Grenzen und ein Zielbild für die Ausgabe. Genau diese Struktur sorgt dafür, dass Antworten reproduzierbarer werden – und sich im Arbeitsalltag nutzen lassen.

    Rolle: Die Perspektive festlegen

    Ein Modell ohne Rolle hat keine Haltung. Es antwortet allgemein, streut breit und variiert stärker. Mit einer Rolle geben Sie die fachliche Perspektive vor. „Du bist Fachanwalt für Arbeitsrecht“ ist mehr als Zierde. Die Formulierung verankert Wissen, Wortwahl und Bewertungskriterien in einer Domäne. Das Modell gewichtet Quellen und Begriffe anders, wählt präzisere Beispiele und verzichtet auf Ausflüge, die aus Sicht der Rolle unpassend wären.

    Wichtig ist die Schärfe: Eine zu weite Rolle lässt Interpretationsspielraum, eine zu enge wirkt wie eine Zwangsjacke. Zielführend ist eine professionelle Identität mit klarer Zuständigkeit und einem Hinweis auf den Anwendungsfall. So entsteht ein verlässlicher Ausgangspunkt – die Basis für gutes Prompt Engineering.

    Kontext: Den Rahmen abstecken

    Ohne Kontext wird jedes Thema zu weit. „Kündigungsfristen in der Schweiz“ ist ein Rahmen, der Gesetze, Rechtsprechung und Begriffe lokalisiert. Das Modell weiss, dass deutsche Regelungen nicht gelten und dass kantonale Besonderheiten denkbar sind. Je konkreter der Rahmen, desto geringer die Streuung. Datenlage, Zeitraum, Zielgruppe, Branche, Dokumenttyp – all das sind Hebel, um die Relevanz zu erhöhen.

    Kontext ist kein Datenabwurf. Zu viele Details verwässern das Ziel. Besser ist eine knappe Beschreibung, die das Feld begrenzt und Hinweise auf Ausnahmen gibt. So bleibt das Modell beweglich, aber nicht beliebig.

    Aufgabe: Qualität messbar machen

    Die Aufgabe ist das, was sonst als Frage formuliert wird – nur verbindlicher. „Erkläre die Kündigungsfristen in der Schweiz“ ist eine Richtung. „Erkläre die Kündigungsfristen in der Schweiz für Angestellte im Privatrecht mit Bezug auf OR-Artikel, verständlich für HR-Generalisten, ohne Rechtsberatung zu ersetzen“ ist ein Arbeitsauftrag.

    Gute Aufgaben nennen nicht nur das „Was“, sondern auch das „Wozu“. Wenn das Modell den Zweck kennt – informieren, entscheiden, dokumentieren, zusammenfassen –, richtet es die Auswahl danach aus. Das spart Nacharbeit, weil weniger Interpretationsfehler entstehen.

    Format: Ergebnisse vergleichbar machen

    Format bedeutet Struktur. Absatzlänge, Gliederung, Ton, Länge, Zitationswünsche – all das beeinflusst die Form der Antwort. Wer „in drei kurzen Punkten mit je rund achtzig Zeichen“ bittet, zwingt das Modell, zu verdichten. Wer „ein prägnantes Memo mit Überschrift, Einleitung, Kernpunkten und Empfehlung“ verlangt, schafft ein Muster, das sich wiederholen lässt.

    Entscheidend ist Konsequenz: Wenn Formatvorgaben bei wiederkehrenden Aufgaben stabil bleiben, sinkt die Varianz. Teams erkennen schneller, was gut ist, und können Vorlagen systematisch verbessern.

    Zusammenspiel: Vier Bausteine für reproduzierbare Qualität

    Rolle gibt die Perspektive, Kontext begrenzt das Feld, Aufgabe definiert das Ziel, Format macht die Ausgabe prüfbar. Erst im Zusammenspiel entsteht der Effekt. Fehlt eines der Elemente, steigt die Streuung. Häufige Fehler sind zu allgemeine Rollen, vage Kontexte, offene Aufgaben oder fehlende Formatvorgaben.

    In Projekten sehen wir: Eine saubere Vier-Bausteine-Struktur erhöht die Trefferquote spürbar. Antworten bleiben variabel, aber bewegen sich in einem engen, fachlich brauchbaren Korridor. Genau das braucht ein Unternehmen, das mit KI arbeiten will.

    Vorlagen & Prompt Templates in der Praxis

    Wer diese Struktur nutzt, sollte sie als Vorlage sichern. So verkürzt sich die Anlaufzeit, und die Qualität wird planbarer. In ChatGPT lassen sich eigene Assistenten definieren, in denen Rolle und Kontext dauerhaft hinterlegt sind. Aufgaben und Formate können je nach Anwendungsfall ergänzt werden.
    Teams profitieren zusätzlich von gemeinsamen Bibliotheken. Wenn eine Vorlage trägt, gehört sie an einen zentralen Ort – mit Beispielausgaben und Hinweisen, wann sie nicht passt. So wächst aus einzelnen Prompts ein leichtes Framework. Genau hier helfen Prompt Templates mit ChatGPT Beispielen, die in Prompt Engineering Kursen vermittelt werden.

    Qualität sichern: Leitplanken statt Bevormundung

    Manche befürchten, strenge Prompts würden Kreativität ersticken. Das Gegenteil ist der Fall. Die Vier-Bausteine-Struktur setzt Leitplanken, innerhalb derer das Modell kreativ sein darf. Ein klarer Rahmen verhindert Abschweifungen, beschleunigt die Bearbeitung und macht Ergebnisse anschlussfähig.

    Weiterbildung: Prompt Engineering Kurs

    In dieser Videoreihe erklären wir die wichtigsten Prinzipien Schritt für Schritt und zeigen, warum sie technisch tragen. Ziel: dass Nutzerinnen und Nutzer mit wenig Aufwand bessere, stabilere Resultate erzielen.

    Wer tiefer einsteigen will, findet in unserem Weiterbildungsangebot mit der ZHAW ein kompaktes Format:
    Prompt Engineering: ChatGPT und andere KIs lernen und produktiv einsetzen.

    Der Kurs vermittelt praxisnahes Prompt Design, zeigt Prompt Templates mit ChatGPT Beispielen und macht KI im Alltag direkt anwendbar.

    Mehr dazu im Video und auf der Prompting-Landingpage

    Mehr Details dazu auch in diesem Video.
    Zusätzlich haben wir eine Übersichtsseite über Prompt-Engineering eingerichtet.
    Trage dich auch unten auf der Seite in den Newsletter ein, es erscheinen hier in den nächsten Wochen viele weitere Videos zum Thema “Prompt Engineering”.