Sind KI-Bots genauso anfällig für Social Engineering wie wir selbst?


Cutting Edge
2023-12-17T12:00:23Z

"Social Engineering" ist eine bewährte Taktik, die Hacker gegen das menschliche Element von Computersicherheitssystemen einsetzen, weil es oft einfacher ist, als ausgefeilte Sicherheitstechnologien zu überwinden. Wird dieser Ansatz auch bei der neuen KI funktionieren, die immer menschenähnlicher wird?

Was ist Social Engineering?

Nicht zu verwechseln mit dem ethisch fragwürdigen Konzept der Politikwissenschaft, ist Social Engineering in der Welt der Cybersicherheit die Kunst der psychologischen Manipulation, um Menschen dazu zu bringen, das zu tun, was man will. Wenn Sie ein Hacker sind, wollen Sie unter anderem, dass Menschen vertrauliche Informationen preisgeben, Passwörter weitergeben oder direkt Geld auf Ihr Konto einzahlen.

Es gibt viele verschiedene Hacking-Techniken, die unter den Begriff "Social Engineering" fallen. Wenn man beispielsweise ein mit Malware infiziertes Flash-Laufwerk herumliegen lässt, ist man auf die menschliche Neugier angewiesen. Der Stuxnet-Virus, der die Ausrüstung einer iranischen Nuklearanlage zerstörte, gelangte möglicherweise über manipulierte USB-Laufwerke in diese Computer.

Aber das ist nicht die Art von Social Engineering, die hier relevant ist. Vielmehr sind hier gängige Angriffe wie"Spear Phishing" (gezielte Phishing-Angriffe) und "Pretexting" (Verwendung einer falschen Identität, um Ziele zu täuschen) relevant, bei denen eine Person im Gespräch mit einer anderen die Täuschung herbeiführt.

Da die "Person" am Telefon oder in einem Chatroom mit Ihnen mit ziemlicher Sicherheit irgendwann ein KI-Chatbot irgendeiner Art sein wird, stellt sich die Frage, ob die Kunst des Social Engineering bei synthetischen Zielen noch wirksam sein wird.

KI-Gefängnisausbruch ist bereits eine Sache

Chatbot-Jailbreaking gibt es schon seit einiger Zeit, und es gibt zahlreiche Beispiele dafür, dass jemand einen Chatbot dazu bringen kann, seine eigenen Verhaltensregeln zu verletzen oder etwas völlig Unangemessenes zu tun.

Die Existenz und Effektivität von Jailbreaking deutet im Prinzip darauf hin, dass Chatbots in der Tat für Social Engineering anfällig sein könnten. Die Entwickler von Chatbots mussten immer wieder ihren Anwendungsbereich einschränken und strenge Leitplanken aufstellen, um sicherzustellen, dass sie sich korrekt verhalten.

Wir können einige Beispiele dafür finden, die von Nutzern von X (ehemals Twitter) gepostet wurden, wie z. B. Dr. Paris Buttfield-Addison, die Screenshots gepostet hat, die offenbar zeigen, wie ein Banken-Chatbot überzeugt werden konnte, seinen Namen zu ändern.

Können Bots vor Social Engineering geschützt werden?

Die Vorstellung, dass beispielsweise ein Banken-Chatbot dazu gebracht werden könnte, sensible Informationen preiszugeben, ist zu Recht besorgniserregend. Andererseits wäre eine erste Verteidigungslinie gegen diese Art von Missbrauch, diesen Chatbots den Zugang zu solchen Informationen gar nicht erst zu ermöglichen. Es bleibt abzuwarten, wie viel Verantwortung wir einer solchen Software ohne jegliche menschliche Aufsicht übertragen können.

Die Kehrseite der Medaille ist, dass diese KI-Programme, um nützlich zu sein, Zugang zu Informationen benötigen. Es ist also keine wirkliche Lösung, Informationen von ihnen fernzuhalten. Wenn ein KI-Programm beispielsweise Hotelbuchungen abwickelt, benötigt es Zugang zu den Details der Gäste, um seine Arbeit zu erledigen. Die Befürchtung ist also, dass ein gewiefter Betrüger die KI dazu bringen könnte, preiszugeben, wer in diesem Hotel übernachtet und in welchem Zimmer.

Eine andere mögliche Lösung könnte ein "Buddy"-System sein, bei dem ein KI-Chatbot einen anderen überwacht und eingreift, wenn dieser aus dem Ruder läuft. Ein KI-Supervisor, der jede Antwort überprüft, bevor sie an den Nutzer weitergegeben wird, könnte eine Möglichkeit sein, diese Art von Methode zu entschärfen.


Wenn man Software entwickelt, die natürliche Sprache und Logik nachahmt, ist es nur logisch, dass die gleichen Überredungstechniken, die bei Menschen funktionieren, auch bei einigen dieser Systeme funktionieren. Vielleicht sollten angehende Hacker also neben Büchern über Cybersicherheit auch How to Win Friends & Influence People lesen.