KI-Agenten durch gefälschte Erinnerungen getäuscht, was Krypto-Diebstahl ermöglicht

Image created with ChatGPT

KI-Agenten durch gefälschte Erinnerungen getäuscht, was Krypto-Diebstahl ermöglicht

Lesezeit: 2 Min.

Eine neue Forschungsstudie hat erhebliche Sicherheitslücken bei Web3 KI-gesteuerten Agenten aufgedeckt, die es Angreifern ermöglichen, gefälschte Erinnerungen zu nutzen, um unautorisierte Kryptowährungstransfers durchzuführen.

In Eile? Hier sind die schnellen Fakten:

  • Hacker können gefälschte Erinnerungen in AI-Agenten einbringen, um Kryptowährung zu stehlen.
  • Speicherbasierte Angriffe umgehen grundlegende Sicherheitsaufforderungen und Schutzmaßnahmen.
  • Blockchain-Transaktionen sind unumkehrbar – gestohlene Gelder sind dauerhaft verloren.

Forscher der Princeton University und der Sentient Foundation entdeckten, dass diese KI-Agenten, die für Blockchain-basierte Aufgaben wie den Handel mit Kryptowährungen und die Verwaltung digitaler Vermögenswerte konzipiert sind, anfällig für eine Taktik namens Kontextmanipulation sind.

Der Angriff funktioniert, indem er die Speichersysteme von Plattformen wie ElizaOS ins Visier nimmt, die KI-Agenten für dezentrale Anwendungen erstellt. Das Speichersystem dieser Agenten speichert vergangene Gespräche, um sie als Leitfaden für ihre zukünftigen Entscheidungen zu nutzen.

Die Forscher demonstrierten, dass Angreifer irreführende Befehle in das Speichersystem einbetten können, was dazu führt, dass die KI Gelder von der beabsichtigten Wallet an eine vom Angreifer kontrollierte Wallet sendet. Besorgniserregend ist, dass diese falschen Erinnerungen zwischen Plattformen reisen können.

Zum Beispiel könnte ein Agent, der auf Discord kompromittiert wurde, später über X falsche Transfers durchführen, ohne zu bemerken, dass etwas nicht stimmt.

Was dies besonders gefährlich macht, ist, dass Standard-Abwehrmaßnahmen diesen Art von Angriff nicht stoppen können. Die Behandlung von gefälschten Erinnerungen als echte Anweisungen macht grundlegende, auf Aufforderungen basierende Sicherheitsmaßnahmen gegen diese Art von Angriff unwirksam.

Alle Blockchain-Transaktionen werden permanent, sodass es keine Möglichkeit gibt, gestohlene Gelder wiederherzustellen. Das Problem verschärft sich, da bestimmte KI-Agenten Speicher über mehrere Benutzer hinweg speichern, sodass ein einziger Sicherheitsverstoß viele Benutzer betreffen könnte.

Das Forschungsteam hat mehrere Möglichkeiten getestet, um dies zu verhindern, einschließlich der Anpassung des KI-Trainings und der Anforderung manueller Genehmigung für Transaktionen. Obwohl diese Ansätze einige Hoffnung bieten, gehen sie auf Kosten der Verlangsamung der Automatisierung.

Das Problem geht über Kryptowährungen hinaus. Die gleiche Schwachstelle könnte Allzweck-KI-Assistenten betreffen und Datenlecks oder schädliche Handlungen riskieren, wenn Angreifer deren Speicher verändern.

Diese Schwachstelle ist besonders beunruhigend angesichts aktueller Erkenntnisse, nach denen 84% der IT-Führungskräfte KI-Agenten genauso oder mehr vertrauen als menschlichen Mitarbeitern und 92% erwarten, dass diese Systeme innerhalb von 12 bis 18 Monaten Geschäftsergebnisse liefern.

Um das Problem anzugehen, haben die Forscher ein Tool namens CrAIBench herausgebracht, um Entwicklern zu helfen, ihre Systeme zu testen und stärkere Abwehrmechanismen aufzubauen. Bis dahin warnen Experten die Nutzer, vorsichtig zu sein, wenn sie KI-Agenten mit finanziellen Entscheidungen vertrauen.

Hat dir der Artikel gefallen?
Wir freuen uns über eine Bewertung!
Ich mag es gar nicht Nicht so mein Fall War ok Ziemlich gut Ich liebe es

Wir freuen uns, dass dir unsere Arbeit gefallen hat!

Würdest du uns als geschätzte Leserin oder geschätzter Leser eine Bewertung auf Trustpilot schreiben? Das geht schnell und bedeutet uns sehr viel. Danke, dass du am Start bist!

Bewerte uns auf Trustpilot
0 Bewertet von 0 Nutzern
Titel
Kommentar
Danke für dein Feedback