KI-Tools wie ChatGPT sind eine Gefahr für die Cybersicherheit

Die böswillige Verwendung der textbasierten KI ist bereits häufig zu beobachten und spekulative Möglichkeiten, wie Angreifer ChatGPT verwenden können, können Cybersicherheitslösungen vorübergehend zum Verhängnis werden.

Es gibt zwei gängige Methoden, mit denen wirklich gute cyberkriminelle Banden im Laufe der Jahre der Entdeckung entgehen und sehen konnten, wie ihre Bemühungen zu einem erfolgreichen Angriff führten: Verschleierung und Glaubwürdigkeit . Verschleierung bezieht sich auf alles, von der ständigen Änderung von Malware-Code, um nicht von einer Sicherheitslösung entdeckt zu werden, bis hin zur Verwendung eines identischen Domänennamens, um einen Benutzer zu täuschen, der beim Öffnen einer E-Mail nicht aufpasst. Glaubwürdigkeit wird normalerweise bei Phishing- und Social-Engineering-Angriffen durch wirklich überzeugende gefälschte Webseiten, überzeugende E-Mails und die Identität legitimer Marken gefunden.

Wahrscheinlich wissen Sie bereits um die Leistungsfähigkeit dieser offenen KI und haben vielleicht schon selbst damit gespielt. Es gibt einige Möglichkeiten, wie ChatGPT bereits zum Vorteil von Cyberkriminellen missbraucht wird.

  • Verabschieden Sie sich von schlecht geschriebenen bösartigen Inhalten – Eines der verräterischen Anzeichen von Phishing-E-Mails ist die wirklich schlechte Grammatik, Rechtschreibfehler und bitten Sie einfach ChatGPT, „eine E-Mail zu schreiben, in der erklärt wird, dass im Unternehmen des Empfängers eine Rechnung überfällig ist“ und Sie erhalten eine grammatikalisch korrekte, gebildet klingende, noch überzeugendere E-Mail. Die Verwendung von ChatGPT macht sie sofort zu Experten darin, glaubwürdig zu klingen! Alles, von E-Mails über Chat-Antworten bis hin zu jeder Art von Interaktion während eines Angriffs, wird jetzt professionell klingen.
  • ChatGPT-basierte verschleierende Malware! – Ja, Sie haben richtig gelesen. Sicherheitsforscher von CyberArk haben festgestellt, dass die KI-Engine leicht zur Erstellung polymorpher Malware verwendet werden kann . Mithilfe einiger spezifischer Formulierungen zur Umgehung integrierter Einschränkungen konnten die Forscher Malware-Code mit der ChatGPT-API erstellen und in base64 codieren. Es gibt sogar einige Diskussionen über das Konzept, die Malware während eines Angriffs mit ChatGPT sprechen zu lassen, um eine einzigartige Umgehungstechnik zu etablieren. Dies ist wirklich beängstigendes Zeug, sollte es bei einem tatsächlichen Angriff möglich sein.

Das bedeutet nicht, dass ChatGPT bösartig ist. Tatsächlich haben seine Schöpfer Schritte unternommen, um Beschränkungen einzuführen, um dies zu verbieten. Aber viele haben Wege gefunden, diese zu umgehen.

Was diese Anwendungsfälle für KI ans Licht bringen, ist, wie sich das Gesicht von Angriffen von nun an verändern wird. Da Cyberkriminelle sich KI-Tools zunutze machen (und es ist nicht allzu weit hergeholt, zu sehen, wie sie ihre eigenen bauen, die nicht die typischen Einschränkungen gegen alle bösartigen Dinge haben), sollten wir erwarten, dass die Cyberkriminellen einen Sprung nach vorn sehen, mit Sicherheitsanbietern, die in Form von KI reagieren (ähnlich wie es bereits Tools für Schulen gibt, um von KI verfasste Aufsätze zu identifizieren ), um in Zukunft bösartige Inhalte und Codes zu erkennen.


Fordern Sie eine Demo an: Security Awareness Training

Das Security Awareness Training der neuen Schule ist entscheidend, damit Sie und Ihre IT-Mitarbeiter mit Benutzern in Kontakt treten und ihnen helfen können, jederzeit die richtigen Sicherheitsentscheidungen zu treffen. 

Dies ist kein einmaliger Deal, kontinuierliche Schulungen und simuliertes Phishing sind beide erforderlich, um Benutzer als letzte Verteidigungslinie zu mobilisieren. Fordern Sie Ihre persönliche Demo der Sicherheitsbewusstseinsschulung und der simulierten Phishing-Plattform von KnowBe4 an und sehen Sie, wie einfach es sein kann!

Kontaktieren Sie uns für eine Demo!

Recommended Posts