Generative KI Masterclass: Ein eigenes LLM bauen und trainieren

Dauer
Ausführung
Vor Ort, Online
Startdatum und Ort

Generative KI Masterclass: Ein eigenes LLM bauen und trainieren

GFU Cyrus AG
Logo von GFU Cyrus AG
Bewertung: starstarstarstarstar_border 7,9 Bildungsangebote von GFU Cyrus AG haben eine durchschnittliche Bewertung von 7,9 (aus 13 Bewertungen)

Tipp: Haben Sie Fragen? Für weitere Details einfach auf "Kostenlose Informationen" klicken.

Startdaten und Startorte

placeKöln
28. Jul 2025 bis 1. Aug 2025
computer Online: Zoom
28. Jul 2025 bis 1. Aug 2025
placeKöln
20. Okt 2025 bis 24. Okt 2025
computer Online: Zoom
20. Okt 2025 bis 24. Okt 2025
placeKöln
17. Nov 2025 bis 21. Nov 2025
computer Online: Zoom
17. Nov 2025 bis 21. Nov 2025

Beschreibung

Schulungen der Extraklasse ✔ Durchführungsgarantie ✔ Trainer aus der Praxis ✔ Kostenfreies Storno ✔ 3=2 Kostenfreie Teilnahme für den Dritten ✔ Persönliche Lernumgebung ✔ Kleine Lerngruppen

Seminarziel

Diese Masterclass vermittelt ein tiefgehendes Verständnis darüber, wie LLMs aufgebaut, trainiert und optimiert werden. Die Teilnehmenden lernen, eigene Transformer-Modelle zu entwickeln, die richtigen Datensätze aufzubereiten, Tokenizer zu trainieren und den gesamten Trainingsprozess von LLMs nachzuvollziehen. Neben dem Training von Modellen wird auch Feintuning, Evaluierung und Optimierung behandelt. Nach dem Kurs sind die Teilnehmenden in der Lage, ein eigenes kleines LLM zu trainieren, es zu evaluieren und in Anwendungen zu integrieren. 

Inhalt

Tag 1: Deep Dive - Architektur & Daten
1. Eigene LLM-Architektur
  • Transformer intern (Self-Attention, Multi-Head, Position Embeddings)

Gesamte Beschreibung lesen

Frequently asked questions

Es wurden noch keine FAQ hinterlegt. Falls Sie Fragen haben oder Unterstützung benötigen, kontaktieren Sie unseren Kundenservice. Wir helfen gerne weiter!

Noch nicht den perfekten Kurs gefunden? Verwandte Themen: Elektrizität, Elektrotechnik, Elektroingenieurwesen, Arbeiten unter Spannung und Erdung.

Schulungen der Extraklasse ✔ Durchführungsgarantie ✔ Trainer aus der Praxis ✔ Kostenfreies Storno ✔ 3=2 Kostenfreie Teilnahme für den Dritten ✔ Persönliche Lernumgebung ✔ Kleine Lerngruppen

Seminarziel

Diese Masterclass vermittelt ein tiefgehendes Verständnis darüber, wie LLMs aufgebaut, trainiert und optimiert werden. Die Teilnehmenden lernen, eigene Transformer-Modelle zu entwickeln, die richtigen Datensätze aufzubereiten, Tokenizer zu trainieren und den gesamten Trainingsprozess von LLMs nachzuvollziehen. Neben dem Training von Modellen wird auch Feintuning, Evaluierung und Optimierung behandelt. Nach dem Kurs sind die Teilnehmenden in der Lage, ein eigenes kleines LLM zu trainieren, es zu evaluieren und in Anwendungen zu integrieren. 

Inhalt

Tag 1: Deep Dive - Architektur & Daten
1. Eigene LLM-Architektur
  • Transformer intern (Self-Attention, Multi-Head, Position Embeddings)
  • GPT-Style Decoder vs. Encoder-Decoder (T5, BART)
  • 2. Datenauswahl & Aufbereitung
  • Öffentliche Datensätze (The Pile, Books3, OpenWebText2)
  • Copyright & Cleanup (Duplikate, Filters)
  • Geschlossene/unternehmensinterne Daten (Datenschutz)
  • 3. Tokenisierung
  • Byte Pair Encoding (BPE), SentencePiece, ttoken
  • Vocabulary-Größe, Trade-offs
  • 4. Hands-on:
  • Erstes Skript: Tokenizer-Training auf einem Mini-Korpus
  • Großer Korpus? Wie man ihn vorbereitet (Chunking, Sharding, etc.)
Tag 2: Implementierung & Training-Pipeline
  • 1. Implementierung eines Mini-Transformers
    • PyTorch oder TensorFlow: Layer (Attention, Feedforward), GPTBlock / DecoderLayer
    • Konfigurationsparameter (Hidden Dim, Heads, Depth)
  • 2. Training-Setup
    • GPU/TPU-Einrichtung (lokal vs. Cloud)
    • Batch Size, Lernrate, Optimizer (AdamW)
    • Mixed Precision (FP16/BF16)
  • 3. MLOps-Tools
    • MLflow, ClearML oder Weights & Biases zum Tracken von Experimenten
  • 4. Hands-on:
    • Starte ein Trainingsskript für einen kleinen Datensatz (z. B. 50-100 MB Text)
    • Protokolliere Training Loss, evaluiere gelegentliche Samples
Tag 3: Feintuning, Evaluierung & RAG
  • 1. Weiterführendes Training
    • Feintuning vs. Training-from-scratch
    • RLHF (Reinforcement Learning from Human Feedback) - theoretischer Überblick
  • 2. Evaluierung
    • Perplexity, Token-Accuracy
    • Generische Metriken: BLEU, ROUGE, etc.
  • 3. Retrieval-Augmented Generation
    • Eigene RAG-Pipeline auf selbst trainiertem Modell?
    • Einbinden einer Vektordatenbank (Chroma, FAISS)
  • 4. Hands-on:
    • Feinjustriere dein Modell auf einen speziellen Datensatz (z. B. interne Doku)
    • Baue eine Mini-RAG-Demo (prompt + fetch + generation)
Tag 4: Fortgeschrittene Optimierung & Multimodale Erweiterungen
  • 1. Fortgeschrittene Optimierung
    • Gradient Accumulation, ZeRO, LoRA (Low-Rank Adaptation)
    • Parameter-Effiziente Methoden (QLoRA, 4-Bit/8-Bit Training)
    • Modellkompression, Distillation
  • 2. Multimodale Szenarien
    • Text/Bild (CLIP-Ansätze, Vision Transformer-Encoder + GPT-Decoder)
    • Kurzer Abstecher: Diffusion Models integrieren (für Image Generation)
  • 3. Hands-on:
    • Probier LoRA-Fine-Tuning oder 4-Bit-Quantisierung, um GPU-Speicher zu sparen
    • Experimentiere mit kleiner Bild/Text-Integration (z. B. Bild-Captions)
Tag 5: Production-Ready & Abschlussprojekt
  • 1. Deployment & Skalierung
    • Serving-Frameworks (FastAPI, Triton Inference Server)
    • Monitoring & Logging
    • Parallel-LLM-Setups (Fallback, Ensembles)
  • 2. Sicherheit & Governance
    • Prompt Injection-Verhinderung, Content Filtering
    • Datenschutz und On-Prem-Lösungen
  • 3. Abschlussprojekt
    • Wähle: 
      • Eigener GPT-Klon (kleines Modell)
      • RAG-System mit selbst trainiertem Modell
      • Multimodaler Mini-Prototyp (Text + Bild)
      • Stelle Ergebnisse vor, diskutiere Performance und Limitierungen
  • 4. Ausblick
    • Größere Modelle (Llama, Bloom)
    • HPC-Anforderungen, verteiltes Training
    • Kommerzielle vs. Open-Source-Varianten

Werden Sie über neue Bewertungen benachrichtigt

Es wurden noch keine Bewertungen geschrieben.

Schreiben Sie eine Bewertung

Haben Sie Erfahrung mit diesem Kurs? Schreiben Sie jetzt eine Bewertung und helfen Sie Anderen dabei die richtige Weiterbildung zu wählen. Als Dankeschön spenden wir € 1,00 an Stiftung Edukans.

Es wurden noch keine FAQ hinterlegt. Falls Sie Fragen haben oder Unterstützung benötigen, kontaktieren Sie unseren Kundenservice. Wir helfen gerne weiter!

Bitte füllen Sie das Formular so vollständig wie möglich aus

(optional)
(optional)
(optional)
(optional)
(optional)
(optional)
(optional)

Haben Sie noch Fragen?

(optional)

Anmeldung für Newsletter

Damit Ihnen per E-Mail oder Telefon weitergeholfen werden kann, speichern wir Ihre Daten.
Mehr Informationen dazu finden Sie in unseren Datenschutzbestimmungen.