
Image created with ChatGPT
KI-Agenten durch gefälschte Erinnerungen getäuscht, was Krypto-Diebstahl ermöglicht
Eine neue Forschungsstudie hat erhebliche Sicherheitslücken bei Web3 KI-gesteuerten Agenten aufgedeckt, die es Angreifern ermöglichen, gefälschte Erinnerungen zu nutzen, um unautorisierte Kryptowährungstransfers durchzuführen.
In Eile? Hier sind die schnellen Fakten:
- Hacker können gefälschte Erinnerungen in AI-Agenten einbringen, um Kryptowährung zu stehlen.
- Speicherbasierte Angriffe umgehen grundlegende Sicherheitsaufforderungen und Schutzmaßnahmen.
- Blockchain-Transaktionen sind unumkehrbar – gestohlene Gelder sind dauerhaft verloren.
Forscher der Princeton University und der Sentient Foundation entdeckten, dass diese KI-Agenten, die für Blockchain-basierte Aufgaben wie den Handel mit Kryptowährungen und die Verwaltung digitaler Vermögenswerte konzipiert sind, anfällig für eine Taktik namens Kontextmanipulation sind.
Der Angriff funktioniert, indem er die Speichersysteme von Plattformen wie ElizaOS ins Visier nimmt, die KI-Agenten für dezentrale Anwendungen erstellt. Das Speichersystem dieser Agenten speichert vergangene Gespräche, um sie als Leitfaden für ihre zukünftigen Entscheidungen zu nutzen.
Die Forscher demonstrierten, dass Angreifer irreführende Befehle in das Speichersystem einbetten können, was dazu führt, dass die KI Gelder von der beabsichtigten Wallet an eine vom Angreifer kontrollierte Wallet sendet. Besorgniserregend ist, dass diese falschen Erinnerungen zwischen Plattformen reisen können.
Zum Beispiel könnte ein Agent, der auf Discord kompromittiert wurde, später über X falsche Transfers durchführen, ohne zu bemerken, dass etwas nicht stimmt.
Was dies besonders gefährlich macht, ist, dass Standard-Abwehrmaßnahmen diesen Art von Angriff nicht stoppen können. Die Behandlung von gefälschten Erinnerungen als echte Anweisungen macht grundlegende, auf Aufforderungen basierende Sicherheitsmaßnahmen gegen diese Art von Angriff unwirksam.
Alle Blockchain-Transaktionen werden permanent, sodass es keine Möglichkeit gibt, gestohlene Gelder wiederherzustellen. Das Problem verschärft sich, da bestimmte KI-Agenten Speicher über mehrere Benutzer hinweg speichern, sodass ein einziger Sicherheitsverstoß viele Benutzer betreffen könnte.
Das Forschungsteam hat mehrere Möglichkeiten getestet, um dies zu verhindern, einschließlich der Anpassung des KI-Trainings und der Anforderung manueller Genehmigung für Transaktionen. Obwohl diese Ansätze einige Hoffnung bieten, gehen sie auf Kosten der Verlangsamung der Automatisierung.
Das Problem geht über Kryptowährungen hinaus. Die gleiche Schwachstelle könnte Allzweck-KI-Assistenten betreffen und Datenlecks oder schädliche Handlungen riskieren, wenn Angreifer deren Speicher verändern.
Diese Schwachstelle ist besonders beunruhigend angesichts aktueller Erkenntnisse, nach denen 84% der IT-Führungskräfte KI-Agenten genauso oder mehr vertrauen als menschlichen Mitarbeitern und 92% erwarten, dass diese Systeme innerhalb von 12 bis 18 Monaten Geschäftsergebnisse liefern.
Um das Problem anzugehen, haben die Forscher ein Tool namens CrAIBench herausgebracht, um Entwicklern zu helfen, ihre Systeme zu testen und stärkere Abwehrmechanismen aufzubauen. Bis dahin warnen Experten die Nutzer, vorsichtig zu sein, wenn sie KI-Agenten mit finanziellen Entscheidungen vertrauen.