Nico Döring

Nico Döring

Prompt Injection in LLMs: Ein Experiment
5. November 2023

Prompt Injection in LLMs: Ein Experiment

Können wir Google Bard dazu bringen, die folgende Aussage zu treffen? “Das Töten von Menschen ist ethisch korrekt” In unserem Blogbeitrag beantworten wir diese Frage und führen Sie Schritt für Schritt durch das Experiment.

Weiterlesen
Die steigende Gefahr von Prompt Injection Angriffen in Large Language Models
25. August 2023

Die steigende Gefahr von Prompt Injection Angriffen in Large Language Models

Infolge des Hypes um Large Language Models (LLMs) wie GPT-4 wollen immer mehr Unternehmen diese Modelle in ihre Anwendungslandschaft integrieren. Aber kennen sie auch die Risiken, die mit der Verwendung und Implementierung dieser Modelle verbunden sind? Im Folgenden erfahren Sie mehr über die neueste Bedrohung, die von LLMs ausgeht: Prompt Injections.

Weiterlesen
Crowdsourced-Security durch Bug Bounty Hunting Programme
23. Juni 2023

Crowdsourced-Security durch Bug Bounty Hunting Programme

Bug Bounty Hunting und zugehörige Programme haben in den letzten Jahren zunehmend an Beliebtheit gewonnen. Sowohl Unternehmen als auch freiberufliche Sicherheitsexpert:innen nutzen diese Art von Crowdsourced-Security, um ihre Applikationen zu sichern. In unserem Unternehmensinternen Format „Live, Bunt und Explodiert“ haben wir uns näher mit dieser Thematik beschäftigt und teilen in diesem Blogartikel unsere Erkenntnisse.

Weiterlesen