Prompt Injection: Angriffe auf KI-Sprachmodelle

Prompt Injection: Angriffe auf KI-Sprachmodelle

Thursday, March 7, 2024 11:00 AM to 11:30 AM · 30 min. (Europe/Berlin)
Expo
Live-Demo
Sicherheit & Vertrauen

Information

Mit dem Aufkommen von Large Language Models (LLMs) wie ChatGPT und ihrer zunehmenden Verwendung in Softwareprodukten ergeben sich neue Sicherheitslücken. Prompt Injection ist einer der gefährlichsten Angriffe auf diese Modelle, bei dem ungeprüfte Daten unbemerkt vom Nutzer Kontrolle über das LLM und damit die Anwendung gewinnen können. In der Demo zeigen wir realistische Bedrohungsszenarien und ordnen diese in den Gesamtrahmen der Cybersicherheit ein.

Interessen
Künstliche IntelligenzIT-SicherheitDatenschutz

Log in