Red Hat OpenShift 4.19 est maintenant disponible. Basée sur Kubernetes 1.32 et CRI-O 1.32, la version 4.19 permet le déploiement de charges de travail d'IA robustes, offre de la flexibilité pour la virtualisation et la sécurité, et continue de prendre en charge Red Hat OpenShift Platform Plus. OpenShift fournit une plateforme d'applications fiable, complète et cohérente qui aide à innover de manière rapide et sécurisée dans le cloud hybride.
Disponible sous forme de service cloud autogéré ou entièrement géré, OpenShift comprend une gamme complète d'outils et de services intégrés pour les charges de travail cloud-native, virtuelles, traditionnelles et d'IA. Cet article présente les dernières innovations d'OpenShift 4.19 ainsi que ses principales améliorations. Pour une liste complète des mises à jour et des améliorations, consultez les notes de version officielles.

Points forts de Red Hat OpenShift 4.19
Ingress modernisé avec Gateway API with OpenShift Service Mesh 3 pour plus d'unité et d'extensibilité
Cette version marque la disponibilité générale de Gateway API with OpenShift Service Mesh 3 dans OpenShift 4.19. L'API Gateway est la nouvelle référence en matière d'ingress dans Kubernetes. Elle offre un modèle flexible qui repose sur les rôles pour contrôler l'accès du trafic externe aux services dans le cluster. Au moyen de définitions de ressources personnalisées standards, ce puissant contrôleur de trafic permet le routage du trafic au niveau des couches 4 et 7, l'équilibrage de charge dynamique et la terminaison TLS.
En plus des routes et de l'ingress, OpenShift prend désormais en charge l'API Gateway, issue d'Istio. Si vous souhaitez utiliser l'API Gateway avec Service Mesh (ce qui n'est pas obligatoire), l'opérateur d'ingress OpenShift gère le cycle de vie complet : installation d'Istio via OpenShift Service Mesh, gestion des configurations DNS et de l'équilibreur de charge, et déploiement d'une passerelle basée sur Envoy. Pour les utilisateurs d'installations tierces de l'API Gateway, la gestion du DNS et de l'équilibreur de charge doit être effectuée manuellement. L'API Gateway offre plus de flexibilité et d'expressivité que l'API Ingress existante, ce qui permet de contrôler avec précision les flux de trafic complexes tout en gérant les ingress de manière observable, évolutive et adaptée aux charges de travail cloud-native modernes.
Intégration facilitée entre la mise en réseau OpenShift et les réseaux client externes avec BGP
Le protocole de routage BGP (Border Gateway Protocol) transmet des informations de routage à d'autres homologues BGP. Il est compatible avec OpenShift 4.19 dans une version préliminaire de flux en z. Une prise en charge limitée de BGP existe déjà dans MetalLB pour transmettre les adresses IP du service Kubernetes d'équilibrage de charge. Dans OpenShift 4.19, BGP est étroitement lié à la mise en réseau OpenShift. Vous pouvez importer et indiquer des routes de réseaux de pods et de machines virtuelles à des homologues BGP en dehors du cluster, en bénéficiant d'une intégration directe à l'infrastructure réseau du fournisseur. En association avec VRF-Lite, vous pouvez étendre le VPN d'un fournisseur à un cluster OpenShift pour les machines virtuelles et les pods. Il s'agit alors d'un réseau UDN (User Defined Network). Vous pouvez également transmettre les adresses IP d'egress avec BGP.
L'utilisation conjointe de BGP et de la mise en réseau OpenShift permet de se servir du protocole BFD (Bidirectional Forwarding Detection), qui accélère la détection des défaillances de liaison dans les périphériques réseau. Ce protocole détecte rapidement les problèmes de liaison ou de chemin entre des périphériques pour ajuster le routage et le transfert des informations.
Maîtrise rapide de Red Hat OpenShift avec Red Hat OpenShift Lightspeed
Cette nouvelle version inclut OpenShift Lightspeed, un assistant virtuel basé sur l'IA générative qui est directement intégré à la plateforme OpenShift. Ce service permet aux débutants de prendre la plateforme en main rapidement, et aux utilisateurs expérimentés de se perfectionner pour les opérations de production. Il offre notamment une assistance pour la résolution de problèmes en langage naturel, une intégration flexible aux modèles d'IA de plusieurs fournisseurs (OpenAI, Azure OpenAI, IBM watsonx, etc.), ainsi que des capacités en version préliminaire pour l'interaction des clusters et l'adoption de l'approche « Bring Your Own Knowledge ». De plus, l'assistant vous accompagne dans votre utilisation d'OpenShift Virtualization. En répondant à des questions spécifiques sur la virtualisation, il simplifie la migration des machines virtuelles et les tâches de modernisation. Pour vous faire votre propre idée, regardez la démonstration d'OpenShift Lightspeed à l'œuvre.
Charges de travail d'IA optimisées avec le découpage dynamique du processeur graphique
Notre objectif est qu'OpenShift et Red Hat OpenShift AI continuent de fournir des solutions innovantes qui vous aideront à adopter plus rapidement l'IA, notamment un cycle de vie MLOps (Machine Learning Operations) complet qui couvre le développement, l'entraînement, le réglage, l'IA générative et d'autres charges de travail d'IA dans des datacenters privés, des clouds et des environnements d'edge computing. Cette version contient deux nouvelles fonctions intéressantes pour l'IA : le découpeur dynamique de l'accélération et la version Red Hat de Kueue.
Disponible en version préliminaire, le découpeur dynamique de l'accélération alloue des tranches de processeur graphique à la demande de manière dynamique, en fonction des besoins de la charge de travail, optimisant ainsi l'utilisation du processeur et réduisant les coûts. Il remplace l'allocation de ressources statique avant le découpage, qui entraîne une sous-utilisation du processeur graphique lorsque les demandes des charges de travail ne correspondent pas à la taille préconfigurée de partition du processeur. Le découpeur dynamique de l'accélération est principalement utilisé pour exécuter plusieurs instances d'inférence de grands modèles de langage, telles que Red Hat AI Inference Server, sur un seul processeur graphique pour prendre en charge des environnements multisites dans lesquels les équipes partagent des ressources de processeur afin de développer des systèmes d'IA, de réaliser des tests et de mettre à disposition des workflows en veillant à la rentabilité.
Exploitation de l'IA rationalisée avec la mise en file d'attente intelligente des tâches
La version Red Hat de Kueue est un système centralisé de mise en file d'attente des tâches natif pour Kubernetes qui gère les charges de travail par lots en planifiant, en hiérarchisant et en allouant les ressources des clusters de manière intelligente en fonction des quotas et de la disponibilité. Le système résout les problèmes de conflit de ressources en mettant les tâches en file d'attente jusqu'à ce qu'une quantité suffisante de ressources de calcul, de mémoire ou de processeur graphique soit disponible, puis en les relâchant automatiquement dans le pool une fois qu'elles sont terminées. La version Red Hat de Kueue est principalement utilisée pour gérer les pipelines d'apprentissage automatique, les charges de travail de calcul haute performance et les tâches de traitement par lots dans les environnements multisites où les équipes ont besoin d'un partage équitable des ressources et d'une planification basée sur les priorités. Pour en savoir plus sur Kueue et d'autres technologies Open Source, lisez le rapport spécial d'O'Reilly sur l'infrastructure Kubernetes évolutive pour les plateformes d'IA.
Le découpeur dynamique de l'accélération et la version Red Hat de Kueue peuvent s'associer à des plateformes d'IA, comme OpenShift AI. La plateforme Red Hat OpenShift AI, basée sur OpenShift, permet de gérer le cycle de vie des modèles d'IA prédictive et générative à grande échelle dans les environnements de cloud hybride.
Nœuds Red Hat OpenShift personnalisés pour accélérer le déploiement des agents et des pilotes
Sur OpenShift, le mode image à l'intérieur du cluster permet de mieux contrôler les nœuds de cluster OpenShift. Il fournit une solution autonome pour la création et la gestion d'images de système d'exploitation personnalisées au sein d'un cluster. Avec ce mode, le système d'exploitation Red Hat Enterprise Linux CoreOS (RHCOS) est traité comme une image de conteneur qui peut être gérée comme du code, créée comme une image unifiée et déployée de façon cohérente sur des flottes OpenShift entières. Les entreprises peuvent ainsi ajouter des agents non conteneurisés, des pilotes d'accélération du matériel spécialisés ou des outils de surveillance directement à RHCOS, tout en préservant les personnalisations antérieures avec des mises à jour du cluster. Il n'est plus nécessaire d'attendre la version suivante d'OpenShift pour déployer des mises à jour de contenus personnalisés. Plus précisément, le processus de création a lieu exclusivement dans le cluster, ce qui permet de se passer de pipelines CI/CD externes et de rationaliser l'exploitation lors des déploiements à grande échelle.
Routes associées à des certificats gérés en externe
Dans OpenShift 4.19, les routes peuvent être configurées pour utiliser des certificats TLS issus de solutions tierces de gestion de certificats à l'aide du champ .spec.tls.externalCertificate dans l'API de route. La route peut ainsi référencer des certificats TLS via des ressources de secrets et s'appuyer sur l'opérateur cert-manager pour Red Hat OpenShift afin de gérer, renouveler et faire tourner les certificats automatiquement à grande échelle.
Données sécurisées grâce à l'informatique confidentielle sur Azure, Google Cloud et IBM Cloud
La sécurité est notre priorité. Nous continuons d'intégrer des capacités de sécurité à la plateforme et au cycle de vie des applications, notamment en rendant nos solutions d'informatique confidentielle compatibles avec OpenShift. La solution OpenShift prend également en charge les clusters confidentiels des principaux fournisseurs de cloud afin de protéger les données utilisées par isolation cryptographique matérielle. Les données restent ainsi protégées non seulement au repos et en transit, mais aussi pendant le traitement actif, ce qui répond aux exigences de conformité dans les secteurs réglementés et les environnements multisites où les limites de sécurité traditionnelles sont insuffisantes.
Sur Google Cloud, les nœuds confidentiels peuvent désormais être déployés sur des machines virtuelles basées sur Intel TDX et AMD SEV-SNP, en plus des machines virtuelles confidentielles. Avec OpenShift, les nœuds confidentiels renforcent la sécurité des données utilisées grâce à l'isolation cryptographique matérielle (qui isole même du fournisseur de cloud), sans qu'il y ait besoin de modifier le code. Il est également possible de déployer OpenShift 4.19 sur des machines virtuelles Azure confidentielles et basées sur des machines virtuelles AMD SEV-SNP, afin de bénéficier de limites matérielles robustes qui protègent les charges de travail contre les menaces au niveau de l'hyperviseur et assurent la conformité dans les secteurs réglementés. En outre, IBM intègre des conteneurs confidentiels à OpenShift pour IBM Z via Hyper Protect Services, tirant ainsi parti des conteneurs en sandbox OpenShift pour isoler les conteneurs des administrateurs de l'infrastructure et de Kubernetes.
Mise en œuvre d'OpenShift Virtualization dans tous les principaux clouds grâce à une migration simplifiée
En ce qui concerne la virtualisation, les clients peuvent désormais migrer des machines virtuelles depuis une classe de stockage vers une autre au sein d'un même cluster, ce qui facilite les migrations en masse de machines virtuelles. Pour voir cette fonction à l'œuvre, regardez la démonstration de la migration à chaud du stockage pour OpenShift Virtualization. Les clients peuvent également exécuter Red Hat OpenShift Virtualization dans la plupart des environnements, notamment sur site, bare metal, AWS, Azure, Google Cloud, IBM Cloud et Oracle Cloud Infrastructure. Déjà disponible dans Red Hat OpenShift Service on AWS, OpenShift Virtualization existe maintenant sous forme d'aperçu sur Microsoft Azure Red Hat OpenShift et Red Hat OpenShift Dedicated. OpenShift 4.19 facilite l'intégration à OpenShift Virtualization avec un programme d'installation simplifié d'OpenShift Virtualization qui déploie OpenShift, OpenShift Virtualization et tous les opérateurs nécessaires sans avoir à utiliser le langage YAML ou l'interface en ligne de commande.
Gestion de la flotte à grande échelle avec Red Hat OpenShift Platform Plus
Les solutions Red Hat OpenShift Platform Plus offrent des fonctions de sécurité avancées pour la création, le déploiement et l'exécution. Elles aident à gérer et automatiser des applications intelligentes à grande échelle. Les clients pourront notamment bénéficier de l'analyse de la conformité Red Hat Advanced Cluster Security for Kubernetes 4.8, de la politique en tant que code et de la disponibilité générale des adresses IP externes. L'outil de nouvelle génération pour l'analyse des vulnérabilités, qui utilise le flux de données Vex et inclut des capacités d'analyse du langage, devient également la solution par défaut. Red Hat Advanced Cluster Management for Kubernetes est désormais disponible à la demande sur AWS Marketplace, et offre une tarification à la demande ainsi qu'une option de facturation groupée et simplifiée pour les clients qui exécutent Red Hat Advanced Cluster Management sur Red Hat OpenShift Service on AWS. Red Hat OpenShift Data Foundation continue d'accorder la priorité à la protection des données et à la récupération après sinistre, notamment avec la prise en charge régionale de la récupération après sinistre pour plusieurs classes de stockage ODF.
Essai de Red Hat OpenShift 4.19
Lancez-vous dès aujourd'hui avec Red Hat Hybrid Cloud Console et profitez des dernières fonctions et améliorations d'OpenShift. Pour en savoir plus, consultez les ressources suivantes :
- Nouveautés de Red Hat OpenShift
- Nouveautés de Red Hat OpenShift 4.19
- In the Clouds (sortie : 26 juin 2025)
- Chaîne YouTube d'OpenShift
- Articles de blog sur OpenShift
- OpenShift Commons
- Articles de blog Red Hat sur le développement
- Centre d'architecture des produits Red Hat
- Validated Patterns
Vous trouverez la liste complète des mises à jour de Red Hat OpenShift 4.19 dans les notes de version d'OpenShift 4.19. Faites-nous part de vos commentaires par le biais de vos contacts Red Hat ou ouvrez un dossier sur GitHub.
product trial
Red Hat OpenShift Container Platform | Essai de produit
À propos de l'auteur
Ju Lim works on the core Red Hat OpenShift Container Platform for hybrid and multi-cloud environments to enable customers to run Red Hat OpenShift anywhere. Ju leads the product management teams responsible for installation, updates, provider integration, and cloud infrastructure.
Contenu similaire
Parcourir par canal
Automatisation
Les dernières nouveautés en matière d'automatisation informatique pour les technologies, les équipes et les environnements
Intelligence artificielle
Actualité sur les plateformes qui permettent aux clients d'exécuter des charges de travail d'IA sur tout type d'environnement
Cloud hybride ouvert
Découvrez comment créer un avenir flexible grâce au cloud hybride
Sécurité
Les dernières actualités sur la façon dont nous réduisons les risques dans tous les environnements et technologies
Edge computing
Actualité sur les plateformes qui simplifient les opérations en périphérie
Infrastructure
Les dernières nouveautés sur la plateforme Linux d'entreprise leader au monde
Applications
À l’intérieur de nos solutions aux défis d’application les plus difficiles
Virtualisation
L'avenir de la virtualisation d'entreprise pour vos charges de travail sur site ou sur le cloud