
Image by Dr. Frank Gaeth, from Wikimedia Commons
Schwedische Premierministerin für die Nutzung von ChatGPT in Regierungsentscheidungen kritisiert
Schwedens Ministerpräsident Ulf Kristersson stand unter Kritik, nachdem er zugegeben hatte, ChatGPT zur Generierung von Ideen für Regierungsentscheidungen zu nutzen.
In Eile? Hier sind die schnellen Fakten:
- Der schwedische Premierminister gibt zu, ChatGPT für politische Entscheidungsprozesse zu nutzen.
- Sein Sprecher behauptet, dass keine sensiblen Daten mit AI-Tools geteilt werden.
- Kritiker sagen, der Einsatz von KI in der Regierung sei gefährlich und undemokratisch.
Der schwedische Ministerpräsident Ulf Kristersson sieht sich einer wachsenden öffentlichen Kritik ausgesetzt, nachdem er seine Praxis offenbarte, ChatGPT und LeChat zur Unterstützung seines offiziellen Entscheidungsprozesses zu verwenden.
„Ich benutze es selbst ziemlich oft. Wenn nicht aus anderem Grund, dann für eine zweite Meinung“, sagte Kristersson, wie von The Guardian berichtet. „Was haben andere getan? Und sollten wir das komplette Gegenteil denken? Solche Fragen.“
Seine Aussage löste einen Rückstoß aus, mit Aftonbladet, der ihn beschuldigte, der „AI-Psychose der Oligarchen“ verfallen zu sein, wie The Guardian berichtete. Kritiker argumentieren, dass die Nutzung von KI für politische Urteilsfindung sowohl leichtsinnig als auch undemokratisch ist.
„Wir müssen darauf bestehen, dass Zuverlässigkeit garantiert werden kann. Wir haben nicht für ChatGPT gestimmt“, sagte Virginia Dignum, Professorin für verantwortungsbewusste KI an der Universität von Umeå.
Kristerssons Sprecher, Tom Samuelsson, spielte die Kontroverse herunter und sagte: „Natürlich handelt es sich nicht um sicherheitsrelevante Informationen, die dort landen. Es wird eher als Richtwert genutzt“, wie The Guardian berichtete.
Doch Technikexperten sagen, die Risiken gehen über die Datensensibilität hinaus. Die Professorin der Universität Karlstad, Simone Fischer-Hübner, rät davon ab, ChatGPT und ähnliche Tools für offizielle Arbeitstätigkeiten zu verwenden, wie The Guardian bemerkt hat.
Der KI-Forscher David Bau hat gewarnt, dass KI-Modelle manipuliert werden können. „Sie haben einen Weg gezeigt, wie Menschen ihre eigenen verborgenen Agenden in die Trainingsdaten einschleusen können, die sehr schwer zu erkennen wären.“ Forschung zeigt eine Erfolgsquote von 95% bei der Irreführung von KI-Systemen mittels Speicherinjektion oder „Rules File Backdoor“ Angriffen, was Befürchtungen hinsichtlich unsichtbarer Beeinflussung politischer Entscheidungsprozesse weckt.
Weitere Risiken entstehen durch das Potenzial der KI, die Demokratie zu untergraben. Eine kürzlich durchgeführte Studie warnt, dass KI-Systeme in der Strafverfolgung Macht konzentrieren, die Kontrolle verringern und möglicherweise Autoritarismus fördern können.