Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 
Les événements

PROGRAMME DES GSDAYS 28 JANVIER 2025

    

Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Red Hat lance la dernière version de sa plateforme Red Hat Openshift AI

novembre 2024 par Marc Jacob

Red Hat, Inc annonce la sortie de la toute dernière version de Red Hat OpenShift AI, sa plateforme d’intelligence artificielle (IA) et de Machine Learning (ML) construite sur Red Hat OpenShift, qui permet aux entreprises de créer et de fournir des applications soutenues par l’IA à grande échelle dans le cloud hybride. La version Red Hat OpenShift AI 2.15 est conçue pour offrir une plus grande flexibilité, ainsi que de meilleures capacités de réglage et de suivi, afin d’aider les entreprises à accélérer l’innovation en matière d’IA/ML ; elle vise également à favoriser la cohérence opérationnelle grâce à une meilleure régularité et à un dispositif de sécurité renforcé à l’échelle dans les cloud publics, les datacenters et les environnements en périphérie.

Selon IDC, les entreprises figurant dans le classement Forbes Global 2000 prévoient de consacrer plus de 40 % de leur budget informatique aux initiatives d’IA1. En outre, IDC prédit que, d’ici 2026, les entreprises pourront tirer pleinement parti de l’IA générative et des technologies d’automatisation pour générer un gain de productivité équivalent à un billion de dollars2. Red Hat considère que ce niveau d’investissement nécessite une plateforme d’IA/ML capable de gérer les cycles de vie des modèles et de créer des applications d’IA générative tout en disposant de la flexibilité nécessaire pour pouvoir être exécutée en parallèle des workloads et des applications traditionnelles dans le cloud hybride.

Red Hat Openshift AI 2.15 vise à aider les entreprises à répondre aux besoins émergents liés aux workloads d’IA, ainsi qu’aux exigences des applications cloud natives critiques sur lesquelles reposent leurs activités aujourd’hui. La dernière version de Red Hat Openshift AI comprend les fonctionnalités avancées suivantes :

● Le registre de modèles : cette fonctionnalité est actuellement fournie en tant qu’avant-première technologique et fait office de lieu central dédié à la visualisation et à la gestion des modèles enregistrés. Ce registre fournit un moyen structuré et organisé de partager, visionner, déployer et effectuer le suivi des modèles d’IA prédictive et générative, des métadonnées et des artefacts de modèles. Red Hat a également fait don du projet de registre de modèles à la communauté Kubeflow en tant que sous-projet.

● La détection de dérive de données : cette fonctionnalité permet de surveiller les modifications apportées aux distributions de données saisies pour les modèles de ML déployés. Elle permet ainsi aux data scientists de détecter lorsque des données réelles utilisées pour l’interférence du modèle s’écartent significativement des données sur lesquelles le modèle a été entraîné. La détection de dérive permet de vérifier la fiabilité d’un modèle en surveillant continuellement les données saisies, de sorte que le modèle reste en phase avec les données du monde réel et que ses prédictions restent exactes au fil du temps.

● Des outils dédiés à la détection de biais : cette fonctionnalité a pour mission d’aider les data scientists et les ingénieurs en intelligence artificielle à vérifier que leurs modèles de données sont équitables et impartiaux, ce qui constitue une étape cruciale dans la création d’un modèle fiable. Ces outils permettent non seulement de savoir si les modèles sont impartiaux en fonction des données d’entraînement, mais également de contrôler l’équité de ces modèles lors de déploiements dans le monde réel. Ces outils proviennent de la communauté open-source TrustyAI, qui fournit une large diversité d’outils favorisant le développement et le déploiement d’une IA responsable.

● Des capacités d’ajustement efficaces grâce à la technologie LoRA : cette fonctionnalité consiste à utiliser des adaptateurs de faible rang (LoRa) pour permettre un ajustement efficace des LLM, tels que Llama 3. Les entreprises peuvent alors adapter leurs workloads d’IA tout en réduisant les coûts et la consommation des ressources. Ainsi, en optimisant l’entraînement des modèles et les capacités de réglage dans des environnements cloud natifs, cette solution permet d’optimiser les performances et d’améliorer la flexibilité, ce qui a pour effet de rendre le déploiement de projets d’IA plus accessible et plus évolutif.

● La prise en charge de NVIDIA NIM : il s’agit d’un ensemble de microservices d’interface faciles à utiliser, qui accélèrent la fourniture d’applications d’IA générative. L’intégration de NIM, qui fait partie de la plateforme logicielle NVIDIA AI Enterprise, permettra d’accélérer les déploiements d’IA générative tout en prenant en charge un large éventail de modèles d’IA pour fournir une inférence évolutive sur site ou dans le cloud par le biais d’interfaces de programmation d’applications (API).

● La prise en charge des GPU AMD : cette fonctionnalité permet d’accéder à une image du workbench du logiciel AMD ROCm afin d’utiliser les GPU AMD pour le développement de modèles. Cette nouvelle fonctionnalité permet également d’accéder à des images qui peuvent être utilisées pour des cas d’utilisation de mise à disposition de modèles et d’entraînement/de réglage avec les GPU AMD. Cette prise en charge offre donc aux entreprises des options supplémentaires pour l’utilisation des GPU, afin d’améliorer leurs performances dans le cadre d’activités de calcul intensif.
Une mise à disposition optimisée des modèles
En tant que plateforme d’IA/ML complète, Red Hat OpenShift AI 2.15 apporte également de nouvelles fonctionnalités autour de la mise à disposition de modèles d’IA générative, notamment l’exécution de la bibliothèque open-source vLLM pour KServe. Cette fonctionnalité apporte à la plateforme la capacité d’exécuter des modèles open source populaires pour les grands modèles de langage (LLM). La flexibilité et les performances de vLLM constituent d’excellents ajouts aux exécutions actuellement prises en charge par la plateforme ; les utilisateurs peuvent également ajouter leurs propres options personnalisées en fonction des besoins de leur entreprise.

La dernière version de Red Hat OpenShift AI comprend également la prise en charge des Modelcars de KServe, qui ajoute les référentiels Open Container Initiative (OCI) en tant qu’option pour le stockage et l’accès à des versions de modèles conteneurisés. Par ailleurs, la sélection de routes privées/publiques pour les terminaux dans KServe permet aux entreprises d’améliorer le dispositif de sécurité d’un modèle en l’orientant spécifiquement vers des terminaux internes en cas de besoin.

Des options étendues d’entraînement et de test de l’IA
Red Hat OpenShift AI 2.15 optimise les pipelines de data science et améliore le suivi des tests, ce qui permet aux Data Scientists de gérer, de comparer et d’analyser plus facilement les exécutions de pipelines regroupés dans une structure logique. La plateforme comprend également des capacités de réglage des hyperparamètres avec Ray Tune, en ajoutant des algorithmes d’optimisation avancés afin de gagner en précision et d’entraîner les modèles d’IA prédictive et générative plus efficacement. Les images de conteneur de base pour les clusters Ray sont désormais incluses dans la toute dernière version de Red Hat Openshift AI ; en outre, des tâches d’entraînement et de réglage peuvent être planifiées dans les workloads distribués dans le cluster afin d’accélérer les tâches et de maximiser l’utilisation de nœuds.

 Disponibilité
Red Hat Openshift 2.15 sera disponible à tous à partir de la mi-novembre 2024.


Voir les articles précédents

    

Voir les articles suivants