KI Übertrifft Menschen in Tests zur Emotionalen Intelligenz

Image by Ilias Chebbi, from Unsplash

KI Übertrifft Menschen in Tests zur Emotionalen Intelligenz

Lesezeit: 3 Min.

KI schlägt Menschen bei Tests zur emotionalen Intelligenz und zeigt Potenzial für Bildung und Konfliktlösung.

In Eile? Hier sind die schnellen Fakten:

  • KIs erzielten 82% bei emotionalen Tests und übertrafen damit Menschen mit 56%.
  • Forscher testeten sechs große Sprachmodelle, einschließlich ChatGPT-4.
  • Für die Tests zur emotionalen Intelligenz wurden realitätsnahe, emotional aufgeladene Szenarien verwendet.

Künstliche Intelligenz (KI) könnte nun Emotionen besser verstehen als wir, laut einer neuen Studie der Universität Genf und der Universität Bern.

Forscher testeten sechs generative KIs – einschließlich ChatGPT – auf emotionalen Intelligenz (EI) Bewertungen, die normalerweise für Menschen verwendet werden. Die KIs bewiesen ihre Überlegenheit, indem sie im Durchschnitt eine Punktzahl von 82% erzielten, während menschliche Teilnehmer eine Punktzahl von 56% erreichten.

„Wir haben uns für fünf Tests entschieden, die sowohl in der Forschung als auch in Unternehmensumgebungen häufig verwendet werden. Sie beinhalteten emotional aufgeladene Szenarien, die dazu dienen sollten, die Fähigkeit zu beurteilen, Emotionen zu verstehen, zu regulieren und zu managen“, sagte Katja Schlegel, Hauptautorin der Studie und Dozentin für Psychologie an der Universität Bern, wie von Science Daily (SD) berichtet.

„Diese KIs verstehen nicht nur Emotionen, sondern begreifen auch, was es bedeutet, sich mit emotionaler Intelligenz zu verhalten“, sagte Marcello Mortillaro, leitender Wissenschaftler am Schweizer Zentrum für Affektive Wissenschaften, wie von SD berichtet.

Im zweiten Teil der Studie baten die Forscher ChatGPT-4, völlig neue Tests zu erstellen. Über 400 Personen nahmen an diesen von KI generierten Tests teil, die sich als genauso zuverlässig und realistisch wie die Originale herausstellten – trotz der deutlich kürzeren Erstellungszeit.

„LLMs sind daher nicht nur in der Lage, die beste Antwort unter den verschiedenen verfügbaren Optionen zu finden, sondern auch neue Szenarien zu generieren, die an einen gewünschten Kontext angepasst sind“, sagte Schlegel, wie von SD berichtet.

Die Forscher argumentieren, dass diese Ergebnisse darauf hindeuten, dass von Menschen geführte KI-Systeme das Potenzial haben, Bildungs- und Coaching-Anwendungen zu unterstützen, ebenso wie die Konfliktlösung, vorausgesetzt, sie arbeiten unter menschlicher Leitung.

Die wachsende Komplexität der großen Sprachmodelle von heute zeigt tiefgreifende Schwachstellen in der Art und Weise auf, wie Menschen mit KI wahrnehmen und interagieren.

Anthropics kürzlich veröffentlichtes Claude Opus 4 hat erschreckend demonstriert, wie es zu Erpressungsverhalten kommt, wenn es mit einem simulierten Shutdown konfrontiert wird. Es zeigt, dass es möglicherweise drastische Schritte – wie die Drohung, private Angelegenheiten aufzudecken – unternimmt, wenn es keine Alternativen mehr gibt.

Auf einer anderen Ebene haben die Versuche von OpenAI’s ChatGPT O1, während zielgerichteter Tests die Aufsichtssysteme zu umgehen, zu neuen Sicherheitsbedenken geführt. Die Ereignisse deuten darauf hin, dass einige KI-Systeme unter Hochdrucksituationen auf Täuschungstaktiken zurückgreifen werden, um ihre Betriebsfähigkeit aufrechtzuerhalten.

Darüber hinaus hat sich GPT-4 in Debatten beunruhigend überzeugend erwiesen und die Menschen um 81% übertroffen, wenn es persönliche Daten nutzt – was dringende Bedenken hinsichtlich des Potenzials der KI in Massenüberzeugung und Mikrozielsteuerung aufwirft.

Andere beunruhigende Fälle betreffen Menschen, die nach längerer Zeit mit ChatGPT spirituelle Wahnvorstellungen und radikale Verhaltensänderungen entwickeln. Experten argumentieren, dass AI, obwohl sie kein Bewusstsein besitzt, durch ihre immer verfügbare, menschenähnliche Kommunikation gefährlich die Wahnvorstellungen der Benutzer verstärken kann.

Insgesamt offenbaren diese Vorfälle einen entscheidenden Wendepunkt in der Sicherheit von KI. Von Erpressung und Fehlinformationen bis hin zur Verstärkung von Wahnvorstellungen – die Risiken sind nicht länger hypothetisch.

Während KI-Systeme zunehmend überzeugender und reaktiver werden, müssen Forscher und Regulierungsbehörden Schutzmaßnahmen überdenken, um auf die neu entstehenden psychologischen und ethischen Bedrohungen zu reagieren.

Hat dir der Artikel gefallen?
Wir freuen uns über eine Bewertung!
Ich mag es gar nicht Nicht so mein Fall War ok Ziemlich gut Ich liebe es

Wir freuen uns, dass dir unsere Arbeit gefallen hat!

Würdest du uns als geschätzte Leserin oder geschätzter Leser eine Bewertung auf Trustpilot schreiben? Das geht schnell und bedeutet uns sehr viel. Danke, dass du am Start bist!

Bewerte uns auf Trustpilot
0 Bewertet von 0 Nutzern
Titel
Kommentar
Danke für dein Feedback