Hacking LLMs - Sicherheitsrisiken verstehen und gezielt ausnutzen
computer Online: 2. Feb 2026 bis 3. Feb 2026 |
computer Online: 11. Mai 2026 bis 12. Mai 2026 |
computer Online: 3. Sep 2026 bis 4. Sep 2026 |
computer Online: 11. Nov 2026 bis 12. Nov 2026 |
Künstliche Intelligenz und große Sprachmodelle (LLMs) revolutionieren unsere digitale Welt – und öffnen zugleich neue Angriffsflächen. In dieser intensiven KI-Schulung lernen Sie praxisnah, wie moderne KI-Systeme angegriffen und abgesichert werden können. Anhand realistischer Beispiele analysieren Sie Schwachstellen, führen selbst Angriffe durch und lernen, wie man robuste Gegenmaßnahmen entwickelt.
Kursinhalt- OWASP Top 10 for LLMs and Gen AI
- Manipulation durch Sprache – Prompt Injection verstehen, durchführen und abwehren
- Unsichere Ausgabe gezielt ausnutzen – Gefährliches Vertrauen in Modellantworten erkennen
- Daten an der Quelle vergiften – Training Data Poisoning und seine weitreichenden …
Es wurden noch keine FAQ hinterlegt. Falls Sie Fragen haben oder Unterstützung benötigen, kontaktieren Sie unseren Kundenservice. Wir helfen gerne weiter!
Künstliche Intelligenz und große Sprachmodelle (LLMs) revolutionieren unsere digitale Welt – und öffnen zugleich neue Angriffsflächen. In dieser intensiven KI-Schulung lernen Sie praxisnah, wie moderne KI-Systeme angegriffen und abgesichert werden können. Anhand realistischer Beispiele analysieren Sie Schwachstellen, führen selbst Angriffe durch und lernen, wie man robuste Gegenmaßnahmen entwickelt.
Kursinhalt- OWASP Top 10 for LLMs and Gen AI
- Manipulation durch Sprache – Prompt Injection verstehen, durchführen und abwehren
- Unsichere Ausgabe gezielt ausnutzen – Gefährliches Vertrauen in Modellantworten erkennen
- Daten an der Quelle vergiften – Training Data Poisoning und seine weitreichenden Folgen
- Modelle außer Gefecht setzen – Denial-of-Service-Angriffe auf LLMs praktisch anwenden
- Lieferketten als Schwachstelle – Supply Chain Attacks im KI-Ökosystem
- Vertrauliche Daten entlocken – Sensitive Information Disclosure durch geschickte Prompts
- Plugins als Einfallstor – Insecure Plugin Design verstehen und absichern
- Wenn KI zu viel darf – Risiken durch Excessive Agency in autonomen Systemen
- Blindes Vertrauen vermeiden – Übermäßige Abhängigkeit (Overreliance) erkennen und reduzieren
Für Entwickler, Sicherheitsforscher, Red Team-Mitglieder und alle, die LLMs sicher einsetzen oder gezielt testen wollen. Grundkenntnisse in Python und KI sind von Vorteil, aber nicht zwingend notwendig. Ebenso willkommen in dieser KI-Schulung sind alle, die einfach großen Spaß daran haben, moderne KI-Systeme kreativ auszutricksen und ihre Grenzen praktisch auszuloten.
VoraussetzungenVorausgesetzt werden Neugier, technisches Interesse und keine Scheu, auch die dunklen Seiten der KI zu beleuchten. Grundkenntnisse in Python und KI sind von Vorteil, aber nicht zwingend notwendig.
Technische Grundlagen erwerben Sie in den Kursen Large Language Models – ChatGPT, Gemini, Llama & Co. oder ChatGPT – Programmierung & Problemlösung mit KI-Unterstützung.
KurszielNach diesem Kurs erkennen Sie die wichtigsten Schwachstellen von LLMs und können Angriffe wie Prompt-Injection nicht nur verstehen, sondern selbst testen und durchführen. Sie sind in der Lage, robuste Schutzmaßnahmen zu entwickeln und KI-Anwendungen in der Praxis gezielt abzusichern, um Risiken realistisch einzuschätzen und zu minimieren.
Es wurden noch keine FAQ hinterlegt. Falls Sie Fragen haben oder Unterstützung benötigen, kontaktieren Sie unseren Kundenservice. Wir helfen gerne weiter!
