CS-501

Mastering LLM Integration Security: Offensive & Defensive Tactics

Übersicht

Durch Abspielen dieses Videos erhält YouTube die Information, dass Sie diese Seite aufgerufen haben. Außerdem werden folgende Daten übermittelt: Browsertyp/-version, Betriebssystem, Referrer-URL, IP-Adresse, Zeitpunkt der Serveranfrage. Weitere Informationen finden Sie in unserer Datenschutzerklärung


KI revolutioniert unsere Welt – doch unsichere LLM-Integrationen sind ein leichtes Ziel für Hacker. In diesem intensiven, 2-tägigen Praxis-Kurs (für Beginner und Fortgeschrittene) erfahren Sie, wie Sie sich wirksam schützen.
Sie lernen, wie Angreifer LLM-basierte Systeme ausnutzen und wie Sie diese Schwachstellen gezielt absichern können. Anhand realistischer Angriffsszenarien und praktischer Lab-Übungen eignen Sie sich fundiertes Wissen und effektive Abwehrstrategien an, um LLM-Integrationen sicher zu gestalten.

Lernziele

Nach Abschluss des Kurses können Sie unter anderem:

  • Wie Angreifer denken und handeln, die LLM-basierte Systeme angreifen
  • Angriffstechniken erkennen und ausnutzen (z. B. Prompt Injection, Datenmanipulation)
  • Defensive Strategien anwenden und Sicherheitskontrollen implementieren
  • Prompt Engineering zur Minimierung von Sicherheitslücken gezielt einsetzen
  • LLM-Integrationen so gestalten, dass die Angriffsfläche minimiert wird
  • Best Practices für Überwachung, Logging und Guardrails etablieren

Hinweis

Kurssprache: Englisch

Zitat Hacking LLM

Zielgruppe

Der Kurs richtet sich an:

  • Security Professionals (Penetration Tester, Security Engineers)
  • Entwickler / Software-Ingenieure
  • System- und Architektur-Teams
  • Produktmanager im KI/LLM-Bereich
  • Prompt Engineers oder KI/LLM-Architekten
  • Alle, die direkt mit der Integration und Absicherung von LLM-Technologien arbeiten

Voraussetzungen

Teilnehmer sollten mitbringen:

  • Grundlegendes Verständnis von KI / LLM-Konzepten
  • Erste Erfahrung mit Cybersecurity-Grundlagen
  • Basiswissen in Softwareentwicklung oder Skripting ist hilfreich
  • Erfahrung in der Integration von LLMs oder in entsprechenden Entwicklungsteams wird empfohlen

Inhalte

  • Der Kurs ist stark praxisorientiert und besteht aus verschiedenen Modulen inkl. Lab-Übungen. Dazu gehören unter anderem:

    • 1. Prompt Engineering
      • Grundlagen von Prompts und sicherer Prompt-Gestaltung. Themen wie:
      • Was macht einen guten Prompt aus?
      • Few-Shot Prompting
      • Nutzung von Delimitern für Sicherheit
    • 2. Prompt Injection
      • Erkennung, Risiken und Abwehr von Prompt-Injection-Angriffen:
      • Direkte vs. indirekte Injektionen
      • Real-World-Exploits
      • Verteidigungsstrategien
    • 3. ReACT LLM Agent Prompt Injection
      • Angriffe auf LLM-Agenten basierend auf Reasoning-Action-Observation Framework & Schutzmöglichkeiten.
    • 4. Insecure Output Handling
      • Risiken durch unsichere Ergebnisse in LLM-Workflows und praktische Abwehrmaßnahmen.
    • 5. Training Data Poisoning
      • Manipulation von Trainingsdaten und wie diese Angriffe erkannt und verhindert werden.
    • 6. Insecure Plugin Design
      • Sicherheitslücken bei Plugins und Erweiterungen in LLM-Integrationen.
    • 7. Excessive Agency & Overreliance
      • Probleme durch zu viel Handlungsspielraum oder Übervertrauen in LLMs sowie mögliche Konsequenzen.

    Lab-Übungen
    Zu jedem Modul gibt es praktische Labs, z. B. Prompt Injection-Szenarien, Netzwerkagenten-Angriffe oder Datenvergiftungs-Simulationen

Dauer: 2 Tage
Preis: 1.450,00 CHF

Termine

Garantietermin 20.04.2026 | Böblingen
1.450,00 CHF zzgl. MwSt
Garantietermin 23.04.2026 | Zürich
1.450,00 CHF zzgl. MwSt
Ansprechpartner Training
Ivana Damjancuk
+41 44 842 77 11
ch-info@claranet.com

Garantietermin = Durchführungsgarantie