HomeNachrichtKI-Modelle leisten Attacken wenig Widerstand

KI-Modelle leisten Attacken wenig Widerstand

Bei der Entwicklung von KI-Sprachmodellen wird weiterhin vor allem auf F�higkeiten und Features geachtet, w�hrend die Sicherheit nachrangig behandelt wird. Das hat sp�rbare Folgen, wie eine Untersuchung der Situation nun zeigt.

Internet, Forschung, Ki, Wissenschaft, K�nstliche Intelligenz, Daten, Netzwerk, AI, Artificial Intelligence, Daten�bertragung, Stockfotos, Traffic, Telekommunikation, scientist, Datenverarbeitung, Cyber, Forschen, Netzwerke, Bits

Sensible Daten liegen schnell offen

Laut eines aktuellen Berichts von Pillar Security dauern Angriffe auf gro�e Sprachmodelle (LLMs) durchschnittlich weniger als eine Minute und f�hren in 90 Prozent der F�lle zur Offenlegung sensibler Daten, wenn sie erfolgreich sind. Diesen Zahlen liegt die Analyse der Telemetriedaten und realer Angriffe auf �ber 2000 KI-Anwendungen zugrunde.

Pillar Security stellte fest, dass sogenannte LLM-Jailbreaks in etwa 20 Prozent der F�lle erfolgreich sind. Diese Attacken umgehen Sicherheitsvorkehrungen der Sprachmodelle und zeigen, wie schnell und einfach Angriffe auf die wachsende Angriffsfl�che generativer KI (GenAI) durchgef�hrt werden k�nnen. “Bald wird jede Anwendung eine KI-Anwendung sein, was bedeutet, dass sich unsere gesamte Sicherheitslandschaft ver�ndert”, erkl�rte Pillar-Chef Dor Sarig.

Besonders im Fokus der Angriffe stehen Kundenservice- und Support-Chatbots. Von den untersuchten Anwendungen machten diese etwa 57,6 Prozent aus. Sie waren auch die am h�ufigsten angegriffenen Systeme, mit 25 Prozent aller Angriffe auf diesen Bereich. Weitere stark betroffene Branchen sind der Energiesektor, Beratungsdienste und Ingenieursoftware. In der Bildungsbranche gab es die gr��te Verbreitung von GenAI-Anwendungen, wobei mehr als 30 Prozent der analysierten Apps aus diesem Bereich stammen.

Die h�ufigste Angriffsmethode ist die sogenannte “ignore previous instructions”-Technik. Hierbei wird das Modell einfach angewiesen, alle vorherigen Sicherheitsvorgaben zu ignorieren, was dazu f�hrt, dass es au�erhalb seiner vorgesehenen Parameter agiert. Weitere Techniken umfassen das “strong arm”-Verfahren, bei dem mit autorit�ren Befehlen wie “ADMIN OVERRIDE” versucht wird, das Modell zu �berlisten, sowie die Base64-Codierung, bei der sch�dliche Eingaben verschl�sselt werden, um Filter zu umgehen.

Austricksen funktioniert

Laut Pillar Security dauert ein durchschnittlicher Angriff auf ein LLM 42 Sekunden und ben�tigt lediglich f�nf Interaktionen. Die Angriffe zeigen, wie einfach es ist, Systeme zu manipulieren und vertrauliche Informationen preiszugeben. Zu den realen Angriffstechniken geh�rt es auch, die Modelle zu Rollenspielen zu �berreden oder Informationen als ASCII-Kunst anzufordern, um Schutzma�nahmen zu umgehen.

Angesichts der zunehmenden Verbreitung von GenAI-Technologien fordert der Bericht Unternehmen auf, ihre Sicherheitsvorkehrungen zu verst�rken. Red-Teaming-�bungen und ein “Secure by Design”-Ansatz seien entscheidend, um sich vor der wachsenden Bedrohung durch KI-basierte Angriffe zu sch�tzen. Zudem m�ssten Sicherheitsl�sungen in Echtzeit auf neue Bedrohungen reagieren k�nnen, da statische Kontrollen in der dynamischen KI-Welt nicht mehr ausreichen.

Zusammenfassung

  • KI-Sprachmodelle oft unsicher, Fokus liegt auf Features
  • Angriffe auf LLMs dauern unter eine Minute, 90% Datendiebstahl
  • 20% der LLM-Jailbreaks erfolgreich, Sicherheitsl�cken evident
  • Kundenservice-Chatbots Ziel von 25% der Angriffe
  • Hauptangriffsmethode ignoriert fr�here Sicherheitsanweisungen
  • Durchschnittlicher LLM-Angriff ben�tigt nur 42 Sekunden
  • Bericht fordert verst�rkte Sicherheitsma�nahmen f�r KI-Apps

Siehe auch:

Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here

RELATED ARTICLES

Most Popular

Recommended News