Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnieren Sie unseren NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

vom Newsletter abmelden

3 Fragen rund um ChatGPT und seinen Nutzen für die Cybersicherheit

Februar 2023 von David Hoelzer, Instructor beim SANS Institute

David Hoelzer, Instructor beim SANS Institute zur aktuellen Diskussion um ChatGPT und was der Chatbot für die Cybersicherheits-Community bedeutet

David Hoelzer, Instructor beim SANS Institute

Was genau ist ChatGPT?

Der Chatbot ChatGPT von OpenAI ist ein leistungsstarkes System der künstlichen Intelligenz, das auf der Grundlage einer riesigen Datenmenge trainiert wurde, um geschriebenen Text mit bemerkenswerter Genauigkeit und Kontext zu erzeugen. Es handelt sich um ein Forschungsinstrument, das geschaffen wurde, um der Welt zu zeigen, was mit KI möglich ist. Veröffentlicht wurde es, um zu sehen, wie die Menschen es nutzen und um potenzielle kommerzielle Anwendungen zu erforschen.

Wie kann man ChatGPT außerhalb des Bildungssektors noch einsetzen? Welche weiteren praktischen Anwendungen gibt es, z. B. im Gesundheitswesen und im Finanzsektor?

Derzeit kollidiert die Menge der vorhandenen Daten mit der Notwendigkeit, die Produktivität und Effizienz zu steigern und bessere Kundenerfahrungen in verschiedenen Wirtschaftssektoren zu bieten. Im medizinischen Bereich können Anbieter ChatGPT für tägliche Aufgaben und Routinevorgänge wie das Erstellen von Patientenakten oder Berichten nutzen, obwohl es sicherlich auch missbraucht werden könnte. ChatGPT aufzufordern, eine Patientenakte auf der Grundlage einer Eingabeaufforderung zu schreiben, ist unglaublich riskant, da ChatGPT einfach Text auf der Grundlage von Wahrscheinlichkeiten und nicht auf der Grundlage des Gesundheitszustands des Patienten generiert. Im Finanzsektor wurde ChatGPT genutzt, um eine neue Generation von Finanz-Chatbots zu entwickeln. Mit einfachen und intuitiven Dialogen konnten diese Chatbots Kunden bei Zahlungen, der Überprüfung ihres Kontostands und der Verwaltung und Verfolgung ihrer Investitionen unterstützen.

Jede neue Entwicklung im Bereich der künstlichen Intelligenz eröffnet neue Möglichkeiten, wirft aber auch Bedenken hinsichtlich der Auswirkungen auf den Wert menschlicher Arbeit und des Datenschutzes auf. KI-Tools wie ChatGPT könnten scheinbar die Effizienz verbessern und die Nutzer möglicherweise bei ihren Aufgaben unterstützen, doch sie sind weniger genau als von einigen angenommen.

Wo liegen die Grenzen und Risiken von ChatGPT? Und wie können Cyberkriminelle ChatGPT für Online-Betrug und die Entwicklung von Schadsoftware nutzen?

Die größte Einschränkung und das größte Risiko im Zusammenhang mit ChatGPT ist das Vertrauen, das die Menschen in das Programm setzen. Sprachmodelle wie dieses generieren einfach Wörter auf der Grundlage von Wahrscheinlichkeiten, die sich aus dem bisherigen Kontext des Gesprächs ergeben. Dies führt zwar zu erstaunlichen Ergebnissen, aber es findet keine wirkliche Argumentation oder ein „Denken“ statt. Menschen neigen dazu, dem, was ChatGPT tut, viel mehr zuzuschreiben als dem, was es tatsächlich tut. Interessanterweise gibt es viel genauere KI-Modelle, aber sie haben einfach nicht die gleiche mediale Aufmerksamkeit erhalten.

Selbst die fortschrittlichste KI bleibt anfällig für Cybersicherheitsrisiken in Form von Verzerrungen, Fehlinformationen, Datenschutzbedenken, automatisierten Angriffen und sogar böswilliger Nutzung. Der Chatbot verfügt zwar über bahnbrechende Fähigkeiten, aber er ist auch ein gefundenes Fressen für Hacker. Denn es ermöglicht Cyberkriminellen das System zu nutzen, zu missbrauchen und zu überlisten, damit es Aufgaben ausführt, die ihnen direkt in die Hände spielen.

Die einfachste und gängigste Anwendung von ChatGPT für Cyberkriminelle ist die Erstellung raffinierter und überzeugender Phishing-E-Mails. Wenn eine E-Mail früher Tippfehler enthielt, läuteten bei Nutzern regelmässig die Alarmglocken. Heute ist das Gegenteil der Fall. Experten raten den Nutzern auf Tippfehler zu achten, da dies ein positives Zeichen dafür ist, dass die E-Mail wahrscheinlich von einem Menschen stammt. Die Technologie schreitet unaufhaltsam voran und man kann ChatGPT sogar dazu anweisen, Tippfehler einzubauen - es hängt also davon ab, in welchem Stadium sich die Cyberkriminellen befinden, um dem Programm Phishing-Aufgaben beizubringen. Außerdem ist Spamming eine der ersten Taktiken, die Cyberkriminelle anwenden. Schließlich ist das Versenden von Phishing-E-Mails eine der schnellsten und einfachsten Aufgaben, die das Modell ausführen kann.

Es gab Gerüchte und Befürchtungen, dass ChatGPT zur Generierung von originärer Malware verwendet werden könnte. ChatGPT kann zwar Code generieren, aber dieser Code funktioniert nur selten im Originalzustand. Es ist zwar möglich, es davon zu überzeugen, rudimentäre Malware zu generieren, aber etwas Raffiniertes und Neuartiges würde meiner Meinung nach seine Fähigkeiten übersteigen.

Für die Threat Hunting- und Sicherheitsteams in Unternehmen ist es von entscheidender Bedeutung zu verstehen, wie diese Tools funktionieren. Darüber hinaus müssen sie wissen, was die Möglichkeiten dieser Technologien sind, um zu verhindern, dass diese Risiken zu Angriffen werden. Ohne dieses Wissen kann es für die Security-Teams sehr schwierig sein, das Management über die tatsächlichen Risiken, Auswirkungen und Möglichkeiten zu informieren.


zum vorherigen Artikel

    

zum nächsten Artikel