Übersicht
KI revolutioniert unsere Welt – doch unsichere LLM-Integrationen sind ein leichtes Ziel für Hacker. In diesem intensiven, 2-tägigen Praxis-Kurs (für Beginner und Fortgeschrittene) erfahren Sie, wie Sie sich wirksam schützen.
Sie lernen, wie Angreifer LLM-basierte Systeme ausnutzen und wie Sie diese Schwachstellen gezielt absichern können. Anhand realistischer Angriffsszenarien und praktischer Lab-Übungen eignen Sie sich fundiertes Wissen und effektive Abwehrstrategien an, um LLM-Integrationen sicher zu gestalten.
Lernziele
Nach Abschluss des Kurses können Sie unter anderem:
- Wie Angreifer denken und handeln, die LLM-basierte Systeme angreifen
- Angriffstechniken erkennen und ausnutzen (z. B. Prompt Injection, Datenmanipulation)
- Defensive Strategien anwenden und Sicherheitskontrollen implementieren
- Prompt Engineering zur Minimierung von Sicherheitslücken gezielt einsetzen
- LLM-Integrationen so gestalten, dass die Angriffsfläche minimiert wird
- Best Practices für Überwachung, Logging und Guardrails etablieren
Hinweis
Kurssprache: Englisch

Zielgruppe
Der Kurs richtet sich an:
- Security Professionals (Penetration Tester, Security Engineers)
- Entwickler / Software-Ingenieure
- System- und Architektur-Teams
- Produktmanager im KI/LLM-Bereich
- Prompt Engineers oder KI/LLM-Architekten
- Alle, die direkt mit der Integration und Absicherung von LLM-Technologien arbeiten
Voraussetzungen
Teilnehmer sollten mitbringen:
- Grundlegendes Verständnis von KI / LLM-Konzepten
- Erste Erfahrung mit Cybersecurity-Grundlagen
- Basiswissen in Softwareentwicklung oder Skripting ist hilfreich
- Erfahrung in der Integration von LLMs oder in entsprechenden Entwicklungsteams wird empfohlen
Inhalte
Der Kurs ist stark praxisorientiert und besteht aus verschiedenen Modulen inkl. Lab-Übungen. Dazu gehören unter anderem:
- 1. Prompt Engineering
- Grundlagen von Prompts und sicherer Prompt-Gestaltung. Themen wie:
- Was macht einen guten Prompt aus?
- Few-Shot Prompting
- Nutzung von Delimitern für Sicherheit
- 2. Prompt Injection
- Erkennung, Risiken und Abwehr von Prompt-Injection-Angriffen:
- Direkte vs. indirekte Injektionen
- Real-World-Exploits
- Verteidigungsstrategien
- 3. ReACT LLM Agent Prompt Injection
- Angriffe auf LLM-Agenten basierend auf Reasoning-Action-Observation Framework & Schutzmöglichkeiten.
- 4. Insecure Output Handling
- Risiken durch unsichere Ergebnisse in LLM-Workflows und praktische Abwehrmaßnahmen.
- 1. Prompt Engineering
- 5. Training Data Poisoning
- Manipulation von Trainingsdaten und wie diese Angriffe erkannt und verhindert werden.
- 6. Insecure Plugin Design
- Sicherheitslücken bei Plugins und Erweiterungen in LLM-Integrationen.
- 7. Excessive Agency & Overreliance
- Probleme durch zu viel Handlungsspielraum oder Übervertrauen in LLMs sowie mögliche Konsequenzen.
Lab-Übungen
Zu jedem Modul gibt es praktische Labs, z. B. Prompt Injection-Szenarien, Netzwerkagenten-Angriffe oder Datenvergiftungs-Simulationen
Preis: 1.450,00 CHF
Termine
= Durchführungsgarantie