Prompt Injection: Angriffe auf KI-Sprachmodelle
Wednesday, March 6, 2024 3:00 PM to 3:30 PM · 30 min. (Europe/Berlin)
Expo
Live-Demo
Sicherheit & Vertrauen
Information
Mit dem Aufkommen von Large Language Models (LLMs) wie ChatGPT und ihrer zunehmenden Verwendung in Softwareprodukten ergeben sich neue Sicherheitslücken. Prompt Injection ist einer der gefährlichsten Angriffe auf diese Modelle, bei dem ungeprüfte Daten unbemerkt vom Nutzer Kontrolle über das LLM und damit die Anwendung gewinnen können. In der Demo zeigen wir realistische Bedrohungsszenarien und ordnen diese in den Gesamtrahmen der Cybersicherheit ein.
Interessen
Künstliche IntelligenzIT-SicherheitDatenschutz