Conteneuriser une PARO (Plateforme d’automatisation de réseau ouverte) par souci d’efficacité : les raisons pour lesquelles Bell a créé la GOP avec Kubernetes
Les entreprises qui souhaitent demeurer pertinentes numériquement adoptent des architectures orientées logiciels et, afin d’orchestrer les charges de travail de manière agile, plusieurs transitent leur service des TI de machines virtuelles (MV) vers les conteneurs. Bien que les MV procurent un certain niveau d’agilité et de souplesse en abstrayant le système informatique dans des images de machines virtuelles, elles apportent aussi certaines des limites des systèmes d’exploitation traditionnels (OS) par VM, comme leur architecture monolithique nécessitant beaucoup de ressources. En revanche, les conteneurs allègent cette dépendance en permettant aux développeurs d’abstraire le système d’exploitation pour créer des applications complètement autonomes et couplées de façon lâche qui peuvent être déployées, testées et mises à jour individuellement. Ensuite, Kubernetes groupe les conteneurs qui composent les applications en « pods », ce sont des unités logiques qui accomplissent des fonctions spécifiques, facilitent la gestion et la découverte et permettent la gestion à l’échelle des conteneurs Docker. En tant que technologies de logiciel libre, Docker et Kubernetes procurent une viabilité à long terme en normalisant la conception d’applications en microservices modulaires et portatifs qui peuvent être déployés sur de multiples plateformes infonuagiques. Refaire leur plateforme applicative en utilisant les technologies de conteneurs devient alors nécessaire pour les entreprises, peu importe leur taille, surtout si elles désirent demeurer concurrentielles dans l’environnement actuel au rythme accéléré, hautement dynamique et de plus en plus compétitif.
Bell Canada porte les conteneurs vers de nouveaux sommets en devenant le premier fournisseur de télécommunications à déployer une version de logiciel libre d’une Plateforme d’automatisation de réseau ouverte (PARO) pour automatiser l’approvisionnement en réseau de son centre de données. La PARO fournit des capacités de conception, de création, d’orchestration, de surveillance et de gestion de cycle de vie des fonctions des réseaux virtuels et des réseaux SDN, en apportant simultanément l’agilité et une réduction des coûts significative aux services de réseaux. Le plan de contrôle de la PARO demande d’importants investissements en infrastructure et en ressources afin de le déployer et de l’exploiter. Bell a collaboré à la création d’une nouvelle façon d’exécuter et d’exploiter une PARO, appelée Gestion des opérations de plateforme d’automatisation de réseau ouverte (GOP), qui reconditionne, avec Kubernetes, les instances de plan de contrôle de PARO dans des conteneurs. En réalisant cet exploit, la plateforme GOP de Bell répond au besoin d’une méthode constante, et à l’échelle de la plateforme, pour gérer les composantes du logiciel et réduire la taille de leurs ressources de quatre-vingts pour cent. De plus, elle améliore l’efficacité, la rapidité, la portabilité, le niveau d’indépendance infonuagique, le nombre d’instances de PARO et l’automatisation au sein de leurs opérations.
Efficacité
La création de GOP, par Bell, rend la PARO beaucoup plus compacte. Voici un exemple : un déploiement basé sur une MV de PARO nécessite 29 MVs, 148 vCPUs, 336 Go de mémoire vive, 3 To de stockage et 29 adresses IP flottantes. Par opposition, la même méthode de déploiement avec GOP nécessite seulement 16 MVs, 52 vCPUs, 152 Go de mémoire vive, 980 Go de stockage et 15 adresses IP flottantes. Par ailleurs, la majorité de l’espace d’une GOP est utilisé par les composantes DCAE (Data Collection, Analytics and Events) qui fonctionnent toujours sur des MV. Les composantes DCAE utilisent elles-mêmes actuellement 15 MVs, 44 vCPUs, 88 Go de mémoire vive, 880 Go de stockage et 15 adresses IP flottantes. Le fait de refaire la plateforme réduit les besoins en divers types d’équipement et le delta diminue les CapEx et la complexité opérationnelle. La GOP a l’intention d’offrir aux fournisseurs de services un seul tableau de bord et interface utilisateur (IU) desquels se fait l’opération complète ou partielle de la plateforme (PARO), d’où l’on peut voir les instances en gestion et l’état de chacun de leurs composants, et d’où l’on peut surveiller les actions à l’intérieur d’une boucle de contrôle pour déclencher des mesures correctives.
Rapidité
Une plus grande efficacité se traduit indéniablement par une plus grande rapidité ; la refonte de la plateforme donne lieu à un délai de lancement plus court. Le fait d’être dix fois plus léger que les conteneurs de MV engendre dix fois plus de rapidité. Avec la GOP, la PARO peut être déployée en moins de huit minutes tandis que le même déploiement sur une MV peut facilement s’étendre sur des dizaines de minutes. Les étapes de gestion du cycle de vie subséquentes sont alors accélérées, diminuant les OpEx.
Indépendance infonuagique
Il est primordial pour une entreprise désirant rester concurrentielle et innovatrice d’éviter l’enfermement à un fournisseur en maintenant ses applications portatives. En partageant système d’exploitation principal sur la machine physique, les conteneurs permettent la portabilité complète des applications entre les serveurs et les fournisseurs infonuagiques. Par ailleurs, elles peuvent être déployées sur des serveurs traditionnels, des serveurs virtuels, des nuages privés ou publics, offrant ainsi à l’entreprise plus de souplesse, en plus de la capacité d’évoluer et d’innover de manière autonome. La refonte de la plateforme de Bell découple la fonction du réseau dans le logiciel de l’infrastructure de soutien dans le matériel, permettant ainsi la migration aisée entre les nuages.
Instances de PARO multiples
La création de « pods » de conteneurs facilite l’isolement des applications, ce qui les rend plus faciles à créer, à modifier ou à démanteler, selon les circonstances. Tandis que la PARO permet le déploiement de toute la plateforme d’un seul coup, la GOP s’attaque aux défis qui découlent des conteneurs doublons et des dépendances de conteneurs. Cela donne de multiples exigences de déploiement Kubernetes, permettant à la même grappe Kubernetes de développer, de tester, de mettre en œuvre et de produire des environnements d’un seul coup, minimisant ainsi le temps de déploiement et réduisant les CapEx en optimisant les ressources.
Automatisation plus riche
L’automatisation est un avantage significatif qu’offre Kubernetes par rapport aux outils d’orchestration basés sur des MV. Par exemple, Kubernetes facilite la communication des services entre eux en utilisant des espaces de noms, ce qui permet aux « pods » sous-jacents qui fournissent les services, d’évoluer horizontalement sans avoir recours à une configuration IP supplémentaire pour livrer la capacité ajoutée. Donc, même si les services de Kubernetes sont encore liés à des adresses IP, une plus grande automatisation est maintenant possible grâce à leur communication améliorée.
En résumé, le succès de la refonte de la plateforme par Bell sert d’exemple aux entreprises de télécommunications qui cherchent à tirer profit du pouvoir du logiciel libre et qui choisissent d’être maîtres de leur destin infonuagique. La simplification de la PARO par la GOP avec Kubernetes démontre le dynamisme des technologies de logiciel libre et les avantages des plateformes de conteneurs. Par ailleurs, cela témoigne de l’étendue des options d’utilisation des déploiements de Kubernetes, tant en types d’organisations qu’en charges de travail. Que ce soit une société, une grande organisation, une PME ou une entreprise agile, la refonte de sa plateforme en conteneurs est devenue base de référence ; peu importe la charge de travail.
L’infrastructure de réseau infonuagique offre de nombreux avantages mais elle pose aussi des problèmes qui demandent, pour les régler, une expertise et de grandes connaissances techniques. La migration vers une plateforme de réseau complètement virtualisée doit coexister avec l’utilisation de plateformes de réseau matérielles personnalisées, associées à la transition des anciennes pratiques BSS et OSS, vers une approche DevOps. Un autre enjeu important est l’assurance d’un niveau de protection adéquat contre les attaques, les mauvaises configurations ou contre les pannes matérielles ou logicielles. Finalement, l’enfermement à un fournisseur est aussi une préoccupation et les entreprises qui cherchent à migrer leurs services entre les fournisseurs doivent réussir à intégrer le matériel et les appareils virtuels provenant de divers fournisseurs. Afin de déployer et de tirer profit des applications avec Kubernetes, il est indispensable d’avoir une expertise technique, cette dernière peut être obtenue en participant à des ateliers pertinents donnés par des fournisseurs certifiés de services Kubernetes (Certified Kubernetes Service Providers ou CKSP) comme CloudOps, ainsi que par d’autres organisations.
Ressources
Résumé de la Solution GOP (OOM Solution Brief) en anglais. ONAP Operations Manager Utilizes Kubernetes for ONAP Lifecycle Management:
https://www.onap.org/wp-content/uploads/sites/20/2017/12/ONAP_CaseSolution_OOM_1217.pdf
AT&T Vision Alignment Challenge Technology Survey:
https://www.att.com/Common/about_us/pdf/AT&T%20Domain%202.0%20Vision%20White%20Paper.pdf
Why You Should Make the Move to Docker Containers from VM, par Lee Forkenbrock: Developpement
https://www.loadsys.com/why-you-should-make-the-move-to-docker-containers/