Zum Inhalt springen
Weiterbildung Digitalisierungsmanager

Prompts für den Arbeitsalltag schreiben lernen (Modul 6)

· 8 Min. Lesezeit · Dr. Jens Aichinger
Teilnehmerin schreibt einen strukturierten Prompt für den Arbeitsalltag am Laptop

Ein guter Prompt ist kein Trick, sondern ein strukturiertes Kommunikationsstück. Wer im Arbeitsalltag regelmäßig mit einem großen Sprachmodell (LLM) arbeitet, merkt schnell: Zwei Prompts zu derselben Aufgabe produzieren völlig unterschiedliche Ergebnisse. Der Unterschied liegt fast immer in der Prompt-Qualität. Dieser Artikel zeigt, wie du Prompts für den Arbeitsalltag sauber formulierst und schließt an Modul 6 der Weiterbildung zum Digitalisierungsmanager an.

Die Grundlage ist einfach: Ein LLM tut, was du sagst, so wörtlich wie es kann. Wenn du unklar bist, wird die Antwort unklar. Wenn du präzise bist, wird die Antwort präzise. Kein Geheimnis, nur strukturierte Sprache.

Die Anatomie eines guten Prompts

Ein Prompt hat im Arbeitsalltag drei Grundbausteine:

  • Instruction: Was soll das Modell tun?
  • Context: Welche Information braucht es dafür?
  • Constraints: Welche Einschränkungen gelten?

Diese drei Elemente sind das Minimum. Sie können ergänzt werden durch Beispiele, durch eine Rolle (zum Beispiel “Du bist ein erfahrener Steuerberater”) und durch ein Ausgabeformat (zum Beispiel “Antworte in einer Tabelle mit drei Spalten”).

Ein schlechter Prompt lautet: “Fasse das zusammen.” Ein guter Prompt lautet: “Fasse die folgenden Notizen aus einer Teambesprechung in einem kurzen Protokoll zusammen. Nenne die Entscheidungen in Stichpunkten, danach die offenen Punkte mit Verantwortlichem, danach die nächste Besprechung. Maximal 200 Wörter. Formell geschrieben.”

Der zweite Prompt gibt Instruction, Context, Constraints und Format vor. Das Ergebnis ist vorhersehbar und nutzbar.

Zero-Shot oder Few-Shot

Zero-Shot Prompting heißt: Du gibst nur die Anweisung, kein Beispiel. Few-Shot Prompting heißt: Du gibst zusätzlich ein bis drei Beispiele, die zeigen, wie die Antwort aussehen soll.

Zero-Shot funktioniert gut bei gewöhnlichen Aufgaben. Texte zusammenfassen, übersetzen, erklären, umformulieren. Hier sind die Modelle so stark, dass Beispiele keinen echten Vorteil bringen.

Few-Shot lohnt sich bei ungewöhnlichen Formaten. Wenn du eine spezifische Struktur oder einen speziellen Ton willst, den das Modell nicht automatisch trifft. Zum Beispiel: “Hier sind drei Beispiele, wie unsere Supportanfragen kategorisiert werden. Kategorisiere die folgende neue Anfrage nach demselben Muster.”

Die Faustregel: erst Zero-Shot versuchen. Wenn das Ergebnis nicht passt, auf Few-Shot umsteigen. Beispiele kosten Kontextfenster und Kosten, deshalb nicht automatisch der erste Griff.

Chain-of-Thought richtig einsetzen

Chain-of-Thought (CoT) ist eine Technik, bei der du das Modell bittest, seine Überlegungen schrittweise darzulegen. Der einfachste Einstieg: am Ende des Prompts die Phrase “Denke Schritt für Schritt.” ergänzen.

Moderne LLMs liefern bei komplexen Aufgaben bessere Ergebnisse, wenn sie zuerst Zwischenschritte ausgeben. Die Zwischenschritte zwingen das Modell, konsistent zu bleiben.

CoT lohnt sich vor allem bei:

  • Rechenaufgaben und numerischen Vergleichen
  • Mehrstufigen Entscheidungen mit verschachtelten Bedingungen
  • Analyse- und Bewertungsaufgaben, bei denen Begründung wichtig ist
  • Juristischen und fachlichen Einschätzungen

Bei einfachen Umformulierungs-, Übersetzungs- oder Zusammenfassungs-Aufgaben ist CoT nicht nötig.

Rollen und Personas

Eine Rolle am Anfang eines Prompts verändert den Antwortstil deutlich. Beispiele:

  • “Du bist ein erfahrener Steuerberater, der einem Mandanten ohne Fachwissen antwortet.”
  • “Du bist eine Support-Mitarbeiterin, die freundlich und sachlich schreibt.”
  • “Du bist ein kritischer Lektor, der einen Text auf Schwächen prüft.”

Rollen sind kein Zaubertrick, aber sie verschieben den Ton des Modells in eine vorhersehbare Richtung. In der Praxis hilft das besonders bei wiederkehrenden Aufgaben, bei denen derselbe Ton gewünscht ist.

Rollen ersetzen allerdings keine Fakten. Wenn du ein LLM als “erfahrenen Steuerberater” ansprichst, wird es nicht plötzlich über aktuelles deutsches Steuerrecht Bescheid wissen, das außerhalb seines Trainingsstandes liegt. Rollen beeinflussen den Stil, nicht die Wissensbasis.

Constraints in der Praxis

Constraints sind Einschränkungen, die du setzt. Die wichtigsten für den Arbeitsalltag betreffen Länge (“Maximal 150 Wörter”, “Genau drei Sätze”, “In einer Tabelle mit drei Spalten”), Sprache und Ton (“Auf Deutsch”, “Formell”, “Freundlich, aber sachlich”), inhaltliche Begrenzung (“Nenne keine Markennamen”, “Nimm keine rechtliche Bewertung vor”) und Format (“Als Markdown”, “Als JSON mit den Feldern X, Y, Z”, “Als Bullet-Liste”).

Constraints sind mächtig, weil sie das Modell zwingen, die gewünschte Form zu treffen. Wer keine Constraints gibt, bekommt einen Durchschnittstext, der niemanden besonders glücklich macht.

Typische Fehler

Aus meiner Beratungspraxis und meinen Kursen sind fünf Fehler besonders verbreitet.

Zu kurze Prompts. “Mach mal einen Plan.” Das ist kein Prompt, das ist eine Andeutung. Kein Modell kann daraus einen hilfreichen Plan ableiten.

Widersprüchliche Anweisungen. “Schreib kurz und umfassend.” Logisch widersprüchlich. Entscheide dich.

Vergessener Kontext. Du weißt, was du meinst. Das Modell nicht. Wenn du über ein bestimmtes Projekt, ein bestimmtes Unternehmen, eine bestimmte Zielgruppe sprichst, musst du das im Prompt klarstellen.

Unklare Zielgruppe. Wem soll der Text am Ende nützen? Einem Kunden? Einem Chef? Einer Kollegin? Gute Prompts nennen die Zielgruppe.

Keine Iteration. Wer beim ersten Ergebnis aufgibt, verschenkt das Beste. Ein schlechter erster Wurf ist Lern-Material. Passe den Prompt an und versuche es erneut.

In der Praxis sehen wir: Die meisten Prompt-Probleme lösen sich, wenn man einen schlechten Prompt nicht wegwirft, sondern ihn drei Mal überarbeitet. Das ist die eigentliche Kompetenz.

Prompt-Bibliotheken aufbauen

Wer täglich mit LLMs arbeitet, merkt schnell: Bestimmte Aufgaben kommen immer wieder. Status-Mails formulieren, Meeting-Protokolle strukturieren, Angebotstexte schreiben, Übersetzungen liefern. Statt jedes Mal einen neuen Prompt zu tippen, lohnt sich eine eigene Prompt-Bibliothek.

Eine einfache Prompt-Bibliothek ist eine Datei (Markdown, Notion, eine Tabelle), in der du deine bewährten Prompts sammelst. Jeder Eintrag hat einen klaren Titel, den Prompt-Text, Notizen zur Verwendung und gegebenenfalls eine Versionsnummer. Wer ein Team führt, teilt die Bibliothek mit allen.

Das ist keine große Sache, aber sie spart im Laufe eines Jahres viele Stunden. In Modul 6 wird genau diese Praxis eingeübt.

Einbettung in den DigiMan-Kurs

Prompt Engineering wird in Modul 6 (Große Sprachmodelle) systematisch gelehrt. Du lernst Zero-Shot, Few-Shot, CoT, System-Prompts und Prompt Chaining. In den folgenden Modulen 7 (Dokumentenverarbeitung) und 8 (Chatbots) nutzt du diese Techniken aktiv. Im Abschlussprojekt in Modul 13 wendest du Prompt Engineering in deinem eigenen Projekt an.

Den gesamten Modul-6-Artikel findest du hier. Wie die Module logisch aufeinander aufbauen, erklärt diese Übersicht. Welches Modul am wichtigsten für die Praxis ist, beantwortet dieser Artikel.

Den vollständigen Text der KI-Verordnung findest du auf EUR-Lex. Eine aktuelle Einordnung der LLM-Nutzung in deutschen Unternehmen liefert der Bitkom.

FAQ zu Prompts im Arbeitsalltag

Muss ich Englisch können, um gute Prompts zu schreiben?

Nein. Moderne LLMs antworten auf Deutsch fast genauso gut wie auf Englisch. Für manche Aufgaben (besonders im Coding) ist Englisch minimal schneller oder präziser, für den typischen Arbeitsalltag reicht Deutsch vollkommen.

Wie lange darf ein Prompt sein?

So lang wie nötig und so kurz wie möglich. Moderne Modelle verarbeiten Kontextfenster von vielen Tausend Tokens, also auch sehr lange Prompts. In der Praxis sind zwei bis sechs Absätze typisch. Mehr nur dann, wenn du komplexe Beispiele brauchst.

Sollte ich Kundendaten in einen Prompt einfügen?

Das ist datenschutzrechtlich heikel. Ohne einen Auftragsverarbeitungsvertrag mit dem Anbieter und ohne Enterprise-Variante ist das Einfügen personenbezogener Daten DSGVO-kritisch. In Modul 12 werden die Details behandelt. In der Praxis nutzen Unternehmen für sensible Daten Enterprise-Varianten mit Non-Training-Vereinbarung.

Was ist der Unterschied zwischen System-Prompt und Nutzer-Prompt?

Der System-Prompt ist die dauerhafte Rollen- und Verhaltensanweisung, die am Anfang einer Unterhaltung gesetzt wird und für alle folgenden Nutzer-Nachrichten gilt. Der Nutzer-Prompt ist die einzelne Anweisung im Gespräch. System-Prompts sind nützlich, um konsistenten Ton und Fachkontext zu sichern.

Kann ich den DigiMan-Kurs mit Bildungsgutschein finanzieren?

Ja. Der DigiMan-Kurs ist nach § 81 SGB III vollständig über Bildungsgutschein förderbar, AZAV-zertifiziert über DEKRA. Kosten ohne Förderung 9.662,40 Euro, mit Bildungsgutschein 0 Euro.

Über den Autor

Dr. Jens Aichinger ist Gründer von SkillSprinters, einem DEKRA-zertifizierten Bildungsträger nach AZAV. Er ist promovierter Naturwissenschaftler und arbeitet seit über zehn Jahren an der Schnittstelle von Bildung und Digitalisierung. Mehr zum Autor auf der Autoren-Seite.

Zuletzt geprüft am 14. April 2026 von Dr. Jens Aichinger. Kontakt und Terminbuchung über skill-sprinters.de/termin.

Vor der Buchung: die richtigen Fragen stellen

Bevor du dich für eine Weiterbildung entscheidest, prüfe bei jedem Anbieter, ob das Curriculum wirklich so tief geht, wie es im Marketing klingt. Unser kostenloses PDF “27 Fragen, die du jedem Anbieter stellen solltest” gibt dir eine Checkliste an die Hand, mit der du ein Beratungsgespräch strukturieren kannst.

27 Fragen als PDF herunterladen

Weiterlesen