OpenAI – im Angriffsfokus des Bedrohungsakteurs SweetSpecter
November 2024 von Dr. Martin J. Krämer, Security Awareness Advocate, KnowBe4
2023 machte der vermutlich in der Volksrepublik China ansässige Threatactor SweetSpecter erstmals von sich reden. Damals zielten seine Cyberangriffe auf politische Einrichtungen im Nahen Osten, in Afrika und Asien. Nun hat er sich ein neues Angriffsziel gesucht: das bekannte US-amerikanische KI-Unternehmen OpenAI.
Das hat vor kurzem bekannt gegeben, dass einige seiner Mitarbeiter Ziel einer Spear-Phishing-Angriffskampagne geworden seien. Zu Schäden sei es nicht gekommen. Die Sicherheitsteams des Unternehmens hätten den Angriff rechtzeitig erkannt, die implementierte Sicherheitsarchitektur habe gehalten.
Für seinen Spear Phishing-Angriff habe SweetSpecter E-Mails mit bösartigen Anhängen an Mitarbeiter von OpenAI versandt – sowohl an die privaten als auch an die Mitarbeiter-E-Mail-Konten. SweetSpecter habe sich dabei als ChatGPT-Nutzer ausgegeben, der Support bei der Aufspürung und Behebung einiger ChatGPT-Fehler benötige. Klickten die Mitarbeiter auf den Anhang der E-Mail, der den Namen ‚some problems.zip’ trug, öffneten sie eine DOCX-Datei, die verschiedene Fehler- und Servicemeldungen von ChatGPT enthielt. Was sie nicht mitbekamen: gleichzeitig begann sich im Hintergrund die Malware SugarGh0st RAT zu entschlüsseln, zu installieren und zu starten. Sie sollte SweetSpecter in die Lage versetzen, die Kontrolle über den kompromittierten Computer zu erhalten, um zum Beispiel Screenshots zu erstellen und Daten zu kompromittieren oder zu entwenden.
OpenAI konnte rasch und erfolgreich auf die Kampagne reagieren. Im Mai hatten seine Sicherheitsteams einen Tipp einer ungenannten vertrauenswürdigen Quelle erhalten. Umgehend setzten sie sich mit Mitarbeitern, von denen angenommen wurde, dass sie Ziel der Angriffs-Kampagne geworden seien, in Kontakt. Rasch konnte geklärt werden, dass die E-Mail-Sicherheitskontrollen des Unternehmens gehalten hatten. Keine der bösartigen E-Mails war bis zu einem Mitarbeiter-Konto im Unternehmensnetzwerk vorgedrungen.
Dennoch begannen die Sicherheitsteams den Angriff und seine Infrastruktur eingehend zu analysieren. Dabei kam auch ChatGPT zum Einsatz – um Interaktionen von feindlichen Konten zu analysieren, zu kategorisieren, zu übersetzen und zusammenzufassen. Interessanterweise stießen sie hierbei auch auf eine Reihe verdächtiger ChatGPT-Konten, die wahrscheinlich von SweetSpecter genutzt worden waren – um Antworten auf technische Fragen zu erhalten, um Scripting- und Schwachstellenforschungsaufgaben zu erledigen. Sie alle wurden vorsichtshalber von den OpenAI-Sicherheitsteams geschlossen.
Das Beispiel OpenAI zeigt, wie wichtig es nach wie vor ist, ein möglichst engmaschiges Netz aus menschlichen Informanden zu unterhalten, die verdächtige Aktivitäten melden. Nur durch das kontinuierliche Teilen bedrohungsrelevanter Erkenntnisse, nur durch kollektive Zusammenarbeit kann und wird es gelingen, die Risikolage zu verbessern und KI-Plattformen wie ChatGPT auch in Zukunft sicher zu halten.
OpenAI hatte Glück. Eine ungenannte Quelle informierte das Unternehmen über den Angriff auf seine Mitarbeiter. Seine Sicherheitsteams konnten dann erfolgreich die erforderlichen Gegenmaßnahmen einleiten. Besser wäre es aber gewesen, wenn die eigenen Mitarbeiter die Sicherheitsteams informiert hätten – auch über verdächtige Aktivitäten auf ihren privaten E-Mail-Accounts. Vielerorts mangelt es hier immer noch am erforderlichen Sicherheitsbewusstsein, an einer stabilen und effektiven Sicherheitskultur. Viele Unternehmen schrecken immer noch vor Investitionen in regelmäßige Sicherheitsschulungen, -trainings und -tests für ihre Belegschaft zurück – und verbauen sich damit die Chance, dass ihre Mitarbeiter Phishing-, Spear Phishing und Social Engineering-Angriffe rechtzeitig erkennen und ihre Sicherheitsteams dabei unterstützen, diese erfolgreich abzuwehren.