Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnieren Sie unseren NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

vom Newsletter abmelden

ChatGPT im Identitätsmanagement: KI ist eine Frage des Vertrauens

März 2023 von Andrew Silberman, Direktor für Produktmarketing, Omada

In den letzten Wochen musste man nicht zwangsläufig einschlägige Fachmagazine verfolgen, um die Sensation aus der Welt der künstlichen Intelligenz (KI) zu lesen: ChatGPT heißt das Internet-Phänomen, das derzeit nicht nur die IT-Welt in Atem hält.

ChatGPT ist ein neues Tool für das Arbeiten mit KI des US-amerikanischen Unternehmens OpenAI, mit dem Programmierer ihre Fragen einem Chatbot stellen können. Dieser gibt dann eine fast menschlich anmutende Antwort, die wie eine Unterhaltung präsentiert wird. Das Tool kann sich die gesamte Diskussion merken und verwendet frühere Fragen und Antworten, um wiederum künftige Antworten zu ermitteln und diese zu optimieren. ChatGPT wählt die Antworten wiederum aus, indem es riesige Datenmengen aus dem Internet verarbeitet – aller Art. Es kann auch skurrile Befehle recht akkurat umsetzen, wie das Schreiben einer Geburtstagskarte im Tonfall einer beliebigen Berühmtheit.

ChatGPT selbst sagt jedoch auf Nachfrage über sich: „Ich bin nicht perfekt und habe vielleicht nicht immer die richtige Antwort auf jede Frage. Außerdem sind die Informationen, die ich zur Verfügung stelle, nur so genau wie die Daten, auf die ich trainiert wurde und die einen festen Stichtag haben. Das bedeutet, dass ich möglicherweise nicht in der Lage bin, Informationen über aktuelle Ereignisse oder Entwicklungen zu liefern, die seit der Erfassung der Trainingsdaten eingetreten sind“, und unterstreicht die Tatsache, dass KI immer noch auf menschliche Komponenten angewiesen ist sowie eine hohe Datenqualität erfordert, um ordnungsgemäß zu funktionieren. Das Gleiche gilt für den Einsatz von KI in der Identitätsverwaltung: Sie eröffnet viele spannende Möglichkeiten, erfordert aber noch menschliches Eingreifen, damit sie funktioniert.

Aus dem Phänomen ChatGPT lassen sich drei wichtige Lehren ziehen, die auf jedes Programm zur Identitätsverwaltung angewendet werden können

1. Menschen sind immer noch wichtig

Viele sehen hinter ChatGPT auch den Versuch, eine neue Art von Suchmaschine zu etablieren und den derzeitigen Markt aufzurütteln. Wie bei Suchmaschinen ist jedoch sowohl der Mensch, der die Frage stellt, wichtig, als auch die Menschen hinter der Programmierung der KI selbst. Im Bereich der Identitäten kann man an KI denken, die Zugriffsrechte empfehlen kann, die auf der Grundlage von Zugriffsrechten in Peer-Gruppen generiert wurden. In diesem Fall kann die Software-Lösung diese Empfehlungen zwar auf der Grundlage dessen, was andere Personen im gesamten Netzwerk tun, kuratieren, doch ist zu Beginn trotzdem noch menschliches Eingreifen erforderlich, denn vorher muss festgestellt werden, wer die wahren Peers sind und welche Arten von Zugriffsrechten und Berechtigungen auf der Grundlage von (stets neu zu bewertenden) Rollen gewährt werden dürfen.

2. Datenqualität ist entscheidend

Betrachten wir noch einmal das oben genannte Beispiel der Geburtstagskarte: Angenommen, ein Nutzer erhält auf diese Anfrage hin eine ganze Reihe gefälschter Reden eines Politikers, den er sich wünschte, die ebenfalls im Netz kursieren – dann ist das Ergebnis nicht sehr genau und wird den Fragesteller verwirren. Ähnlich ist es bei der Identitätsverwaltung, daher ist es nicht so einfach, schlicht ein KI-Tool anzuschließen, denn man bedenke: In diesem wichtigen Segment der IT-Sicherheit spielen Governance, Compliance, Prüfkontrollen und reibungslose Arbeitsabläufe eine wichtige Rolle. Damit ein Identitätsmanagement-Tool funktioniert, muss es mit hochqualitativen Daten gefüttert werden, um überwachen zu können, wer Zugriff auf welche Bereiche hat, warum dieser Zugriff gewährt wurde, für wie lange – und so weiter. Für ein leistungsfähiges Identitätsmanagement kann die Einspeisung von Daten aus mehreren Quellen sehr schnell problematisch werden, insbesondere dann, wenn die Daten in unterschiedlichen Formaten oder Modellen gespeichert wurden.

3. KI ist kein Allheilmittel

Viele befürchten, dass ChatGPT bedeutet, Kinder bräuchten ihre Hausaufgaben nicht mehr selbst erledigen, oder Fachartikel, Gedichte, ganze Bücher, Komposition, Gemälde oder Kommentare (wie dieser) würden automatisch generiert werden. In einigen Fällen mag dies zutreffen, doch in den meisten Fällen sollte KI nur zur Optimierung der Entscheidungsfindung oder der Prozesse eingesetzt werden, neben dem Menschen, damit sie ihre volle Wirkung entfalten kann. Eine wichtige Erkenntnis aus der jüngsten Begeisterungm KI lautet daher, dass sie auf solide Grundprozesse aufgesetzt werden sollte, um den größten Nutzen zu erzielen. Auch bei ChatGPT muss man wissen, welche Fragen man stellen will und wie man sie zu stellen, damit man die besten Informationen erhält.

Mit anderen Worten: Im Identitätsmanagement müssen die KI-Funktionen von IAM-Administratoren und Sicherheitsverantwortlichen in die richtige Richtung gelenkt werden. Um KI optimal nutzen zu können, muss sie in Verbindung mit Menschen eingesetzt werden, damit bessere Entscheidungen getroffen werden können. KI kann zwar problemlos zur Automatisierung manueller oder sich wiederholender Prozesse eingesetzt werden, aber es wird immer menschliches Eingreifen erforderlich sein, um eine große Anzahl von Identitäten verwalten zu können, die Zugriff auf eine wachsende Liste von Cloud-basierten Anwendungen und Infrastrukturen benötigen.


zum vorherigen Artikel

    

zum nächsten Artikel