Generative KI Masterclass: Ein eigenes LLM bauen und trainieren
Startdaten und Startorte
Beschreibung
Schulungen der Extraklasse ✔ Durchführungsgarantie ✔ Trainer aus der Praxis ✔ Kostenfreies Storno ✔ 3=2 Kostenfreie Teilnahme für den Dritten ✔ Persönliche Lernumgebung ✔ Kleine Lerngruppen
Seminarziel
Diese Masterclass vermittelt ein tiefgehendes Verständnis darüber, wie LLMs aufgebaut, trainiert und optimiert werden. Die Teilnehmenden lernen, eigene Transformer-Modelle zu entwickeln, die richtigen Datensätze aufzubereiten, Tokenizer zu trainieren und den gesamten Trainingsprozess von LLMs nachzuvollziehen. Neben dem Training von Modellen wird auch Feintuning, Evaluierung und Optimierung behandelt. Nach dem Kurs sind die Teilnehmenden in der Lage, ein eigenes kleines LLM zu trainieren, es zu evaluieren und in Anwendungen zu integrieren.Inhalt
Tag 1: Deep Dive - Architektur & Daten1. Eigene LLM-Architektur
- Transformer intern (Self-Attention, Multi-Head, Position Embeddings) …
Frequently asked questions
Es wurden noch keine FAQ hinterlegt. Falls Sie Fragen haben oder Unterstützung benötigen, kontaktieren Sie unseren Kundenservice. Wir helfen gerne weiter!
Schulungen der Extraklasse ✔ Durchführungsgarantie ✔ Trainer aus der Praxis ✔ Kostenfreies Storno ✔ 3=2 Kostenfreie Teilnahme für den Dritten ✔ Persönliche Lernumgebung ✔ Kleine Lerngruppen
Seminarziel
Diese Masterclass vermittelt ein tiefgehendes Verständnis darüber, wie LLMs aufgebaut, trainiert und optimiert werden. Die Teilnehmenden lernen, eigene Transformer-Modelle zu entwickeln, die richtigen Datensätze aufzubereiten, Tokenizer zu trainieren und den gesamten Trainingsprozess von LLMs nachzuvollziehen. Neben dem Training von Modellen wird auch Feintuning, Evaluierung und Optimierung behandelt. Nach dem Kurs sind die Teilnehmenden in der Lage, ein eigenes kleines LLM zu trainieren, es zu evaluieren und in Anwendungen zu integrieren.Inhalt
Tag 1: Deep Dive - Architektur & Daten1. Eigene LLM-Architektur
- Transformer intern (Self-Attention, Multi-Head, Position Embeddings)
- GPT-Style Decoder vs. Encoder-Decoder (T5, BART)
- 2. Datenauswahl & Aufbereitung
- Öffentliche Datensätze (The Pile, Books3, OpenWebText2)
- Copyright & Cleanup (Duplikate, Filters)
- Geschlossene/unternehmensinterne Daten (Datenschutz)
- 3. Tokenisierung
- Byte Pair Encoding (BPE), SentencePiece, ttoken
- Vocabulary-Größe, Trade-offs
- 4. Hands-on:
- Erstes Skript: Tokenizer-Training auf einem Mini-Korpus
- Großer Korpus? Wie man ihn vorbereitet (Chunking, Sharding, etc.)
- 1. Implementierung eines Mini-Transformers
- PyTorch oder TensorFlow: Layer (Attention, Feedforward), GPTBlock / DecoderLayer
- Konfigurationsparameter (Hidden Dim, Heads, Depth)
- 2. Training-Setup
- GPU/TPU-Einrichtung (lokal vs. Cloud)
- Batch Size, Lernrate, Optimizer (AdamW)
- Mixed Precision (FP16/BF16)
- 3. MLOps-Tools
- MLflow, ClearML oder Weights & Biases zum Tracken von Experimenten
- 4. Hands-on:
- Starte ein Trainingsskript für einen kleinen Datensatz (z. B. 50-100 MB Text)
- Protokolliere Training Loss, evaluiere gelegentliche Samples
- 1. Weiterführendes Training
- Feintuning vs. Training-from-scratch
- RLHF (Reinforcement Learning from Human Feedback) - theoretischer Überblick
- 2. Evaluierung
- Perplexity, Token-Accuracy
- Generische Metriken: BLEU, ROUGE, etc.
- 3. Retrieval-Augmented Generation
- Eigene RAG-Pipeline auf selbst trainiertem Modell?
- Einbinden einer Vektordatenbank (Chroma, FAISS)
- 4. Hands-on:
- Feinjustriere dein Modell auf einen speziellen Datensatz (z. B. interne Doku)
- Baue eine Mini-RAG-Demo (prompt + fetch + generation)
- 1. Fortgeschrittene Optimierung
- Gradient Accumulation, ZeRO, LoRA (Low-Rank Adaptation)
- Parameter-Effiziente Methoden (QLoRA, 4-Bit/8-Bit Training)
- Modellkompression, Distillation
- 2. Multimodale Szenarien
- Text/Bild (CLIP-Ansätze, Vision Transformer-Encoder + GPT-Decoder)
- Kurzer Abstecher: Diffusion Models integrieren (für Image Generation)
- 3. Hands-on:
- Probier LoRA-Fine-Tuning oder 4-Bit-Quantisierung, um GPU-Speicher zu sparen
- Experimentiere mit kleiner Bild/Text-Integration (z. B. Bild-Captions)
- 1. Deployment & Skalierung
- Serving-Frameworks (FastAPI, Triton Inference Server)
- Monitoring & Logging
- Parallel-LLM-Setups (Fallback, Ensembles)
- 2. Sicherheit & Governance
- Prompt Injection-Verhinderung, Content Filtering
- Datenschutz und On-Prem-Lösungen
- 3. Abschlussprojekt
- Wähle:
- Eigener GPT-Klon (kleines Modell)
- RAG-System mit selbst trainiertem Modell
- Multimodaler Mini-Prototyp (Text + Bild)
- Stelle Ergebnisse vor, diskutiere Performance und Limitierungen
- Wähle:
- 4. Ausblick
- Größere Modelle (Llama, Bloom)
- HPC-Anforderungen, verteiltes Training
- Kommerzielle vs. Open-Source-Varianten
Werden Sie über neue Bewertungen benachrichtigt
Schreiben Sie eine Bewertung
Haben Sie Erfahrung mit diesem Kurs? Schreiben Sie jetzt eine Bewertung und helfen Sie Anderen dabei die richtige Weiterbildung zu wählen. Als Dankeschön spenden wir € 1,00 an Stiftung Edukans.Es wurden noch keine FAQ hinterlegt. Falls Sie Fragen haben oder Unterstützung benötigen, kontaktieren Sie unseren Kundenservice. Wir helfen gerne weiter!