Zum Inhalt springen
Weiterbildung Digitalisierungsmanager

Modul 6 DigiMan: Große Sprachmodelle und generative KI

· 9 Min. Lesezeit · Dr. Jens Aichinger
Teilnehmer arbeitet an Prompt-Varianten im Notebook und vergleicht Modellausgaben

Modul 6 der Weiterbildung zum Digitalisierungsmanager umfasst 80 Unterrichtseinheiten (UE) in zehn Tagen. Es dreht sich um große Sprachmodelle (Large Language Models, LLMs) und generative KI im Geschäftsprozess. Du lernst, wie LLMs funktionieren, wie du sie per Prompt Engineering sicher steuerst, wie verschiedene Modelle sich unterscheiden und wie du sie über Schnittstellen in eigene Workflows einbindest.

Modul 6 ist mit 80 UE nach Modul 5 das zweitgrößte Modul im 720-UE-Curriculum. Seit 2022 hat generative KI die Automatisierungslandschaft grundlegend verändert. Wer mit LLMs nicht sicher umgehen kann, läuft in der Praxis in drei bis vier Jahren ins Leere.

Aufbau im Curriculum

Modul 6 läuft über zehn Tage. Die ersten vier Tage bauen theoretisches und prompt-technisches Fundament. Die Tage fünf bis acht decken typische Anwendungsfälle ab. Tag neun behandelt Ethik und Recht. Tag zehn ist ein Abschlussprojekt.

TagSchwerpunkt
1LLMs verstehen: Architektur, Transformer, Training
2Modellvergleich: ChatGPT, Claude, Gemini, Open-Source
3Prompt Engineering Grundlagen
4Prompt Engineering Fortgeschritten (CoT, Chaining)
5Berichtswesen und Dokumentation
6Kundenkommunikation
7Wissensmanagement und RAG
8API-Integration und LLMs in n8n
9Ethik, DSGVO, Urheberrecht, EU AI Act
10Abschlussprojekt: LLM-Geschäftsprozess konzipieren

Die Reihenfolge ist bewusst gewählt. Vom Verstehen über den Vergleich zur Anwendung, dann die Einbindung, die rechtliche Einordnung und am Ende die Integration. Jeder Tag baut auf den vorherigen auf.

Wie LLMs funktionieren

Tag 1 erklärt Token, Embeddings und Foundation Models ohne Mathematik. Ein Token ist die kleinste Verarbeitungseinheit (etwa ein halbes Wort). Ein Embedding ist die numerische Darstellung eines Wortes im mehrdimensionalen Raum. Ein Foundation Model ist ein groß vortrainiertes Modell, das als Basis für viele Anwendungen dient.

Der Transformer ist die Architektur dahinter. Self-Attention ist der Mechanismus, der es ermöglicht, Zusammenhänge zwischen weit auseinanderliegenden Wörtern zu erfassen. Das klingt abstrakt, ist aber wichtig für die Frage “warum kann ein LLM plötzlich so viel?”. Du lernst auch Grenzen. Kontextfenster sind endlich, Halluzinationen sind systemimmanent, Trainingsdaten haben Schnittpunkte.

Training ist der zweite Teil von Tag 1: Pre-Training, Supervised Fine-Tuning (SFT) und Reinforcement Learning from Human Feedback (RLHF). Diese drei Phasen erklären, warum moderne LLMs nicht nur statistisch, sondern auch absichtsorientiert antworten.

Modellvergleich

Tag 2 vergleicht praktisch. Du arbeitest mit einer Gegenüberstellung der großen Modellfamilien:

  • GPT-Serie von OpenAI (ChatGPT)
  • Claude von Anthropic
  • Gemini von Google
  • Open-Source-Modelle wie Llama und Mistral

Kern der Übung: Dieselbe Aufgabe an verschiedene Modelle stellen, Antworten nebeneinanderlegen, Unterschiede dokumentieren. Du lernst, dass kein Modell in allen Disziplinen am besten ist. Manche sind stärker im Coding, manche im Schreiben, manche in der Mehrsprachigkeit, manche im Kontextverständnis.

Das Modellauswahl-Framework führt fünf Kriterien ein: Aufgabentyp, Kontextgröße, Kosten, Datenschutz, Anbieterbindung. Am Nachmittag übt ihr in Kleingruppen, für ein gegebenes Geschäftsszenario ein Modell zu empfehlen und die Wahl zu begründen.

Prompt Engineering

Die Tage 3 und 4 sind die praktischste Phase des Moduls. Prompt Engineering ist die Kunst, LLMs so anzusprechen, dass sie brauchbare, konsistente Ergebnisse liefern. Du lernst die Anatomie eines guten Prompts: Instruction, Context, Constraints. Dazu die wichtigsten Techniken:

  • Zero-Shot Prompting: Direkte Anweisung ohne Beispiele.
  • Few-Shot Prompting: Anweisung mit mehreren Beispielen.
  • Chain-of-Thought (CoT): Der Prompt bittet das Modell, Schritt für Schritt zu denken.
  • Prompt Chaining: Mehrere Prompts hintereinander, wobei jeder auf dem vorigen aufbaut.
  • System-Prompts: Die permanente Rollenzuweisung am Anfang einer Unterhaltung.

Die Übungen sind praktisch. Du schreibst drei Prompts für dieselbe Aufgabe (vage, mittel, präzise) und misst den Unterschied im Ergebnis. Dieses Erlebnis sitzt. In unseren Kursen beobachten wir, dass viele Teilnehmer an diesem Punkt erst begreifen, wie stark die eigene Sprache das Ergebnis prägt.

Anwendungsfälle im Geschäftsprozess

Die Tage 5 bis 8 sind Anwendungs-Tage. Tag 5 behandelt Berichtswesen und Dokumentation: automatische Protokolle, Zusammenfassungen, Statusberichte. Tag 6 widmet sich der Kundenkommunikation: Antwortvorschläge für den Kundenservice, E-Mail-Generierung, Tonalitäts-Anpassung. Tag 7 widmet sich RAG, Retrieval Augmented Generation. Die Technik, mit der ein LLM zuerst in einer Wissensdatenbank sucht und dann auf Basis dieser Treffer antwortet. RAG ist der Standardweg, um LLMs mit Unternehmenswissen zu verbinden, ohne die Daten ins Modell zu “lernen”.

Tag 8 führt die API-Integration ein. Du rufst LLMs aus n8n-Workflows heraus auf, verarbeitest die Antworten und leitest sie weiter. Das ist der Moment, in dem LLMs von einem Werkzeug am Browser zu einem Baustein in automatisierten Prozessen werden.

Ethik, DSGVO und EU AI Act

Tag 9 setzt den rechtlichen Rahmen. Du lernst die relevanten Pflichten im Umgang mit LLMs: DSGVO-Konformität (Stichwort personenbezogene Daten in Prompts), Urheberrecht (was darf ein Modell lernen, was darf ein Nutzer mit generierten Texten), Bias (systematische Verzerrungen in Trainingsdaten) und die spezifischen Pflichten aus dem EU AI Act Art. 50 (Transparenz) und Art. 4 (KI-Kompetenzpflicht, seit 02.02.2025 in Kraft).

Das ist kein Jura-Tag. Ein Praxis-Tag mit dem Ziel, dass du nach dem Kurs im Beruf nicht aus Versehen eine DSGVO-Verletzung auslöst, wenn du Kundendaten in ein LLM kopierst. Die Vertiefung folgt in Modul 12.

Wir sehen im Alltag regelmäßig, dass Teilnehmer erst hier anfangen, ihre eigene Nutzung von ChatGPT im Job kritisch zu prüfen. Und dann oft feststellen, dass im eigenen Unternehmen bis heute kein einziger schriftlicher Leitfaden dazu existiert.

Abschlussprojekt

Tag 10 ist ein eigenständiges Mini-Projekt. Du wählst einen Geschäftsprozess (typisch aus deinem Arbeitsumfeld oder einem Fallbeispiel), konzipierst eine LLM-gestützte Automatisierung und präsentierst sie. Bewertet wird die Denkweise, nicht die technische Perfektion. Wer sein Konzept sauber erklären kann, hat das Modul bestanden.

Einordnung ins Gesamtcurriculum

Modul 6 baut auf Modul 4 (KI-Grundlagen) und Modul 5 (Werkzeuge) auf und bereitet Modul 7 (Dokumentenverarbeitung) und Modul 8 (Chatbots) vor. Beide folgenden Module nutzen die LLM-Kompetenz aus Modul 6 intensiv.

Einen breiten Blick auf die Module gibt die Ratgeber-Pillar. Wer tiefer zu Prompts für den Arbeitsalltag will, findet den Modul-Tiefe-Artikel zum Prompt-Schreiben. Wie sich Modul 6 mit Modul 7 und 8 verzahnt, ist Teil dieser Modul-Logik-Übersicht.

Den vollständigen Text der KI-Verordnung findest du auf EUR-Lex. Eine Einordnung der LLM-Nutzung in deutschen Unternehmen bietet der Bitkom.

FAQ zu Modul 6

Muss ich für Modul 6 programmieren können?

Nein. Prompt Engineering ist Sprach-Handwerk, nicht Programmierung. Für die API-Integration an Tag 8 nutzt du visuelle Workflows in n8n. Die technische Hürde ist niedrig.

Welches Modell ist das beste?

Es gibt kein universell bestes Modell. Für Coding-Aufgaben sind andere stark als für Übersetzungen, für lange Kontexte wieder andere. Modul 6 lehrt, wie du für dein Szenario bewusst auswählst. Das Modellauswahl-Framework ist wichtiger als eine statische Rangliste.

Was ist RAG und warum ist es wichtig?

RAG (Retrieval Augmented Generation) verbindet ein LLM mit einer externen Wissensquelle. Das Modell antwortet nicht aus dem Trainingswissen, sondern auf Basis gezielter Suchtreffer. Für Unternehmen ist RAG der Standardweg, um LLMs mit eigenen Dokumenten und Daten zu verbinden, ohne die Daten ins Modell zu trainieren.

Darf ich Kundendaten in ChatGPT eingeben?

Ohne besondere Vereinbarung zum Datenverarbeitungsvertrag ist das DSGVO-kritisch. Modul 6 und Modul 12 behandeln die Details. In der Praxis arbeiten Unternehmen oft mit Enterprise-Varianten der Anbieter, bei denen die Eingaben nicht für das Training verwendet werden. Diese Abgrenzung ist Teil des Kurses.

Kann ich Modul 6 mit Bildungsgutschein finanzieren?

Ja. Der gesamte DigiMan-Kurs ist über Bildungsgutschein nach § 81 SGB III förderbar. Voraussetzung ist die AZAV-Zertifizierung des Bildungsträgers. Kosten ohne Förderung 9.662,40 Euro, mit Bildungsgutschein 0 Euro.

Über den Autor

Dr. Jens Aichinger ist Gründer von SkillSprinters, einem DEKRA-zertifizierten Bildungsträger nach AZAV. Er ist promovierter Naturwissenschaftler und arbeitet seit über zehn Jahren an der Schnittstelle von Bildung und Digitalisierung. Mehr zum Autor auf der Autoren-Seite.

Zuletzt geprüft am 14. April 2026 von Dr. Jens Aichinger. Kontakt und Terminbuchung über skill-sprinters.de/termin.

Vor der Buchung: die richtigen Fragen stellen

Bevor du dich für eine Weiterbildung entscheidest, prüfe bei jedem Anbieter, ob das Curriculum wirklich so tief geht, wie es im Marketing klingt. Unser kostenloses PDF “27 Fragen, die du jedem Anbieter stellen solltest” gibt dir eine Checkliste an die Hand, mit der du ein Beratungsgespräch strukturieren kannst.

27 Fragen als PDF herunterladen

Weiterlesen