Schwedische Premierministerin für die Nutzung von ChatGPT in Regierungsentscheidungen kritisiert

Image by Dr. Frank Gaeth, from Wikimedia Commons

Schwedische Premierministerin für die Nutzung von ChatGPT in Regierungsentscheidungen kritisiert

Lesezeit: 2 Min.

Schwedens Ministerpräsident Ulf Kristersson stand unter Kritik, nachdem er zugegeben hatte, ChatGPT zur Generierung von Ideen für Regierungsentscheidungen zu nutzen.

In Eile? Hier sind die schnellen Fakten:

  • Der schwedische Premierminister gibt zu, ChatGPT für politische Entscheidungsprozesse zu nutzen.
  • Sein Sprecher behauptet, dass keine sensiblen Daten mit AI-Tools geteilt werden.
  • Kritiker sagen, der Einsatz von KI in der Regierung sei gefährlich und undemokratisch.

Der schwedische Ministerpräsident Ulf Kristersson sieht sich einer wachsenden öffentlichen Kritik ausgesetzt, nachdem er seine Praxis offenbarte, ChatGPT und LeChat zur Unterstützung seines offiziellen Entscheidungsprozesses zu verwenden.

„Ich benutze es selbst ziemlich oft. Wenn nicht aus anderem Grund, dann für eine zweite Meinung“, sagte Kristersson, wie von The Guardian berichtet. „Was haben andere getan? Und sollten wir das komplette Gegenteil denken? Solche Fragen.“

Seine Aussage löste einen Rückstoß aus, mit Aftonbladet, der ihn beschuldigte, der „AI-Psychose der Oligarchen“ verfallen zu sein, wie The Guardian berichtete. Kritiker argumentieren, dass die Nutzung von KI für politische Urteilsfindung sowohl leichtsinnig als auch undemokratisch ist.

„Wir müssen darauf bestehen, dass Zuverlässigkeit garantiert werden kann. Wir haben nicht für ChatGPT gestimmt“, sagte Virginia Dignum, Professorin für verantwortungsbewusste KI an der Universität von Umeå.

Kristerssons Sprecher, Tom Samuelsson, spielte die Kontroverse herunter und sagte: „Natürlich handelt es sich nicht um sicherheitsrelevante Informationen, die dort landen. Es wird eher als Richtwert genutzt“, wie The Guardian berichtete.

Doch Technikexperten sagen, die Risiken gehen über die Datensensibilität hinaus. Die Professorin der Universität Karlstad, Simone Fischer-Hübner, rät davon ab, ChatGPT und ähnliche Tools für offizielle Arbeitstätigkeiten zu verwenden, wie The Guardian bemerkt hat.

Der KI-Forscher David Bau hat gewarnt, dass KI-Modelle manipuliert werden können. „Sie haben einen Weg gezeigt, wie Menschen ihre eigenen verborgenen Agenden in die Trainingsdaten einschleusen können, die sehr schwer zu erkennen wären.“ Forschung zeigt eine Erfolgsquote von 95% bei der Irreführung von KI-Systemen mittels Speicherinjektion oder „Rules File Backdoor“ Angriffen, was Befürchtungen hinsichtlich unsichtbarer Beeinflussung politischer Entscheidungsprozesse weckt.

Weitere Risiken entstehen durch das Potenzial der KI, die Demokratie zu untergraben. Eine kürzlich durchgeführte Studie warnt, dass KI-Systeme in der Strafverfolgung Macht konzentrieren, die Kontrolle verringern und möglicherweise Autoritarismus fördern können.

Hat dir der Artikel gefallen?
Wir freuen uns über eine Bewertung!
Ich mag es gar nicht Nicht so mein Fall War ok Ziemlich gut Ich liebe es

Wir freuen uns, dass dir unsere Arbeit gefallen hat!

Würdest du uns als geschätzte Leserin oder geschätzter Leser eine Bewertung auf Trustpilot schreiben? Das geht schnell und bedeutet uns sehr viel. Danke, dass du am Start bist!

Bewerte uns auf Trustpilot
0 Bewertet von 0 Nutzern
Titel
Kommentar
Danke für dein Feedback