Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 

Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Qui gagnera la guerre des agents ?

juillet 2022 par Dagobert Lévy, Vice-président, Europe du Sud chez Tanium

Depuis une vingtaine d’années, les éditeurs de logiciels n’ont eu de cesse de proposer des solutions pour répondre aux problèmes rencontrés par les directions informatiques pour la gestion et la sécurité de leurs postes de travail et serveurs. Ce phénomène, en constante progression, a eu pour conséquence la multiplication du nombre d’agents installés sur les postes de travail, suivant la logique selon laquelle “1 problème = 1 agent”. Cette tendance, accentuée par le recours massif au télétravail, a entraîné une saturation des postes et souligné la nécessité de rationaliser le nombre de ces agents. Avec pour conséquence une nouvelle guerre commerciale entre les éditeurs, et dont les gagnants seront ceux qui sauront résoudre ce problème.

Des agents indispensables

Mais pourquoi les éditeurs ont-ils besoin d’installer des agents ? L’origine des agents est associée à l’existence même des systèmes d’exploitation. Chaque OS nécessite que l’on réalise des actions en local, comme installer, maintenir à jour des logiciels ou encore en modifier les paramètres. Ces opérations ne peuvent pas se faire sans agent local, de plus la bande passante et les infrastructures complexes sont autant de freins supplémentaires pour des opérations liées au contrôle et à la mise en conformité d’un parc à grande échelle.

L’agent apparaît alors comme la solution idéale. Plutôt léger, facilement contrôlable à distance depuis un serveur, il peut être mis en sommeil et être réveillé en cas de besoin pour effectuer une, voire plusieurs opérations à distance : installer et mettre à jour, appliquer un patch, une politique de sécurité, et vérifier la conformité du poste client.

La complexification des systèmes d’exploitation ces vingt dernières années a induit une augmentation du nombre de ces agents, capables d’effectuer de plus en plus d’actions. Les cas d’usages et les fonctions se multiplient. Alors qu’un agent d’une solution antivirus vérifie lors de l’ouverture d’un fichier si celui-ci n’est pas infecté, un autre s’occupe de l’analyse des vulnérabilités et un troisième fait l’inventaire des logiciels qui tournent sur la machine. On a alors adopté l’adage un problème, une solution, un agent.

La saturation des postes client

En 2020, l’explosion soudaine du télétravail a intensifié l’usage des agents. Avec des postes de travail désormais hors du réseau de l’entreprise, et le plus souvent sur des réseaux domestiques, un nombre encore plus important d’opérations sont devenues difficiles à accomplir à distance. A titre d’exemple, le scan de vulnérabilité, réalisé auparavant sur le réseau d’entreprise grâce à une sonde, a ainsi nécessité l’installation d’un agent sur chaque poste de travail désormais connecté au réseau domestique. La conséquence ? Une augmentation exponentielle des requêtes adressées aux agents et surtout, la mise en lumière des limites d’un recours à un si grand nombre d’agents sur un même poste.

En premier lieu, le nombre d’agents installés est devenu tel qu’il peut avoir pour conséquence une chute des performances des postes de travail. Souvent, le réflexe contre-intuitif adopté était d’ajouter un agent pour évaluer les performances. Conséquence en cascade : l’utilisateur peut vouloir désactiver un ou plusieurs agents qu’il considère comme responsable de ces lenteurs, quitte à baisser le niveau de sécurité du poste client. Autre conséquence non anticipée : la simple présence ou l’activité d’un agent peut gêner l’action d’un autre, réduisant d’autant l’efficacité des solutions dépendant de ces agents.

Rationaliser, un impératif

Face à la multiplication du nombre d’agents, on observe une prise de conscience au sein des services informatiques. Conscientes de l’importance de l’expérience utilisateur, les directions informatiques comprennent l’ampleur du problème et réfléchissent à des solutions. Elles deviennent alors plus réticentes à ajouter une solution incluant un agent de plus. Désormais, il est nécessaire d’obtenir la validation des équipes opérationnelles et de montrer patte blanche lors de l’audit de sécurité… ce qui complexifie et rend moins facile l’usage de ce type de solution. L’une des clés est donc de rationaliser, c’est à dire de limiter le nombre d’agents sur le poste, par exemple en utilisant un même agent pour différentes missions.

La première étape consiste à réaliser une analyse fine de la situation présente, un inventaire des agents déployés. Combien y en a-t-il ? Sont-ils tous opérationnels ? Et surtout : sont-ils vraiment nécessaires ? La seconde décision des services IT est de ne plus accepter de rajouter de nouvelles solutions s’appuyant sur des agents sans avoir vérifié qu’elles sont absolument nécessaires. Ils sont alors en quête d’éditeurs en capacité de couvrir différents cas d’usage via un seul et même agent.

Cette nouvelle « guerre des agents », les éditeurs la mènent tambour battant. Leur cheval de bataille ? Consolider des fonctions sur une plateforme capable de réunir une multitude de cas d’usage sur un seul et même agent. Mais cette recherche ne s’arrête pas aux fonctionnalités : les éditeurs sont-ils capables d’assurer les prérequis en termes de performances du poste ? De ne pas entraver l’expérience utilisateur ? D’avoir les bonnes certifications et le bon niveau de gouvernance ? Une fois ces critères correctement définis, la plateforme ouverte qui sera capable de proposer des agents à même de réaliser plusieurs actions, remportera, à coup sûr, la guerre des agents.


Voir les articles précédents

    

Voir les articles suivants