ChatGPT gibt Berichten zufolge Passwörter in Gesprächen preis


Cutting Edge
2024-01-30T16:56:15Z

Generative KI kann unter bestimmten Umständen unglaublich nützlich sein, aber es gibt auch eine Menge Probleme mit ihr. Ungenaue Informationen, gelegentliche Werbung und einige unheimliche Vorfälle haben uns gezeigt, dass wir noch weit vom Zeitalter der revolutionären KI entfernt sind. Jetzt ist ein weiteres Problem mit ChatGPT aufgetaucht.

Es wird behauptet, dassChatGPT private Unterhaltungen anderer Nutzer ausspäht, von denen einige private Daten wie Benutzernamen und Passwörter enthalten. Auf den aufgetauchten Screenshots ist eine Kopie einer privaten Konversation zu sehen, die zwei Paare von Anmeldedaten enthält, die sich auf ein Support-System beziehen, das von Mitarbeitern eines Portals für verschreibungspflichtige Medikamente in Apotheken verwendet wird. Die Konversation zeigt, dass ein Mitarbeiter den KI-Chatbot nutzt, um Probleme mit dem Portal zu beheben, und dabei seine Frustration über dessen mangelhaften Aufbau zum Ausdruck bringt. ChatGPT zeichnet zwar auf, was Sie ihm mitteilen , sofern Sie sich nicht dagegen entscheiden, aber es erscheint seltsam, dass Sie es dazu bringen können, diese privaten Kommunikationen tatsächlich weiterzugeben, und es macht uns Sorgen darüber, wie ChatGPT die Trainingsdaten speichert und verwaltet.

chatgpt-rx-store-details-640x595

Die durchgesickerte Konversation geht über diese Screenshots hinaus und enthält Dinge wie den Namen der App, die Ladenummer und einen Link, der zusätzliche Anmeldedatenpaare offenlegt. All dies geschah offenbar, als ChatGPT den Nutzern eine seltsame, völlig unzusammenhängende Antwort gab, nachdem sie eine unzusammenhängende Anfrage gestellt hatten. Andere durchgesickerte Konversationen über ähnliche Vorfälle umfassen verschiedene Themen, darunter Details eines unveröffentlichten Forschungsvorschlags, einer Präsentation und eines PHP-Skripts. Die Wahrscheinlichkeit, dass Ihnen so etwas passiert, ganz zu schweigen von Ihren Daten, ist wirklich gering, aber es sollte nicht unerwähnt bleiben, dass Sie Ihre persönlichen Daten gar nicht erst an einen Chatbot weitergeben sollten. Wenn Sie es doch getan haben, sollten Sie wahrscheinlich Ihre Anmeldedaten ändern. Man kann nie wissen, wer am Ende Ihre Passwörter hat.

OpenAI teilte Ars Technica mit, dass es diesen Vorfall untersucht. In der Vergangenheit hatte OpenAI ChatGPT wegen eines Fehlers offline genommen, der die Chat-Verlaufsdaten eines Benutzers an nicht verwandte Benutzer weitergegeben hatte, so dass das Unternehmen zumindest versucht hat, Probleme zu beheben (vielleicht ohne Erfolg).

Quelle: Ars Technica