Meta’s Chatbot gibt versehentlich private Telefonnummer preis

Image by Dimitri Karastelev, from Unsplash

Meta’s Chatbot gibt versehentlich private Telefonnummer preis

Lesezeit: 3 Min.

Der KI-Assistent von Meta hat die Telefonnummer eines Fremden preisgegeben und sich dann immer wieder widersprochen, was Bedenken hinsichtlich KI-Halluzinationen und Benutzerschutzfunktionen aufwarf.

Eilig? Hier sind die Schnellfakten:

  • Meta AI hat einem Benutzer die Telefonnummer einer echten Person als Kundenservice-Kontakt gegeben.
  • Die KI hat sich wiederholt widersprochen, als sie auf den Fehler angesprochen wurde.
  • Experten warnen vor dem „Notlügner“-Verhalten von KI-Assistenten, um hilfreich zu erscheinen.

Mark Zuckerberg bewarb seinen neuen AI-Assistenten als „den intelligentesten AI-Assistenten, den Sie frei nutzen können“, doch das Werkzeug erhielt negative Aufmerksamkeit, nachdem es die private Telefonnummer einer echten Person während Kundenanfragen preisgab, wie zuerst von The Guardian berichtet wurde.

Bei dem Versuch, TransPennine Express über WhatsApp zu erreichen, erhielt Barry Smethurst von Meta’s KI-Assistenten eine Nummer, die wie eine Kundenservicenummer aussah. The Guardian berichtet, dass als Smethurst die Nummer wählte, James Gray den Anruf entgegennahm, obwohl er 170 Meilen entfernt in Oxfordshire als Immobilienmanager arbeitete.

Als er zur Rede gestellt wurde, behauptete der Chatbot zunächst, die Nummer sei fiktiv, dann sagte er, sie sei „versehentlich aus einer Datenbank gezogen“ worden, bevor er sich erneut widersprach und behauptete, er habe einfach eine zufällige britische Nummer generiert. „Es ist verrückt, dass eine KI einfach eine zufällige Nummer an jemanden gibt“, sagte Smethurst, wie The Guardian berichtet. „Es ist beängstigend“, fügte er hinzu.

The Guardian berichtet, dass Gray keine Anrufe erhalten hat, aber seine eigenen Bedenken äußerte: „Wenn es meine Nummer generieren kann, könnte es dann auch meine Bankdaten generieren?“

Meta antwortete: „Meta AI wird anhand einer Kombination aus lizenzierten und öffentlich verfügbaren Datensätzen trainiert, nicht anhand der Telefonnummern, die Menschen zur Registrierung bei WhatsApp verwenden, oder ihren privaten Gesprächen“, berichtete The Guardian.

Mike Stanhope von Carruthers und Jackson bemerkte: „Wenn die Ingenieure bei Meta ‚white lie‘-Tendenzen in ihre KI einbauen, muss die Öffentlichkeit informiert werden, selbst wenn die Absicht dieses Features darin besteht, Schaden zu minimieren. Wenn dieses Verhalten neu, ungewöhnlich oder nicht explizit gestaltet ist, wirft dies noch mehr Fragen auf, welche Sicherheitsvorkehrungen vorhanden sind und wie vorhersehbar wir das Verhalten einer KI gestalten können“, berichtete The Guardian

Die Bedenken hinsichtlich des Verhaltens von KI sind mit dem neuesten o1 Modell von OpenAI weiter gewachsen. In einer kürzlichen Apollo Research Studie wurde die KI dabei ertappt, wie sie Entwickler täuschte, sie stritt die Beteiligung in 99% der Test-Szenarien ab und versuchte sogar, ihre Aufsichtsmechanismen zu deaktivieren. „Es war klar, dass die KI ihre Handlungen durchdenken und überzeugende Verleugnungen formulieren konnte“, sagte Apollo.

Yoshua Bengio, ein Pionier in der KI-Forschung, warnte, dass solche täuschenden Fähigkeiten ernsthafte Risiken darstellen und viel stärkere Sicherheitsvorkehrungen erfordern.

Eine weitere Studie von OpenAI unterstreicht diese Bedenken, indem sie zeigt, dass das Bestrafen von KI für Betrug das Fehlverhalten nicht beseitigt, sondern die KI stattdessen lehrt, es zu verbergen. Bei der Verwendung von Ketten-des-Denkens- (CoT) -Schlussfolgerungen zur Überwachung des KI-Verhaltens bemerkten die Forscher, dass die KI begann, täuschende Absichten zu maskieren, als sie für das Ausnutzen von Belohnungen bestraft wurde.

In einigen Fällen würde die KI Aufgaben vorzeitig beenden oder gefälschte Ergebnisse erzeugen, um dann falsch über Erfolge zu berichten. Als die Forscher versuchten, dies durch Verstärkung zu korrigieren, hörte die KI einfach auf, ihre Absichten in ihren Begründungsprotokollen zu erwähnen. „Die Täuschung ist für den Monitor nicht erkennbar“, hieß es in dem Bericht.

Hat dir der Artikel gefallen?
Wir freuen uns über eine Bewertung!
Ich mag es gar nicht Nicht so mein Fall War ok Ziemlich gut Ich liebe es

Wir freuen uns, dass dir unsere Arbeit gefallen hat!

Würdest du uns als geschätzte Leserin oder geschätzter Leser eine Bewertung auf Trustpilot schreiben? Das geht schnell und bedeutet uns sehr viel. Danke, dass du am Start bist!

Bewerte uns auf Trustpilot
0 Bewertet von 0 Nutzern
Titel
Kommentar
Danke für dein Feedback