The Doppler Quarterly (FRANÇAIS) Hiver 2016 - Page 48

Enfin, Mesos et K8s sont tous deux capables de replanifier les conteneurs. En cas de défaillance d’un hôte, un nouvel hôte en bon état est trouvé et les con- teneurs sont replanifiés dessus. Swarm doit disposer d’une option de replanification des conteneurs dans sa prochaine version. Evolutivité et épreuve du feu (utilisation en sit- uation réelle) Mesos est utilisé dans beaucoup de très grandes entre- prises. Des cas d’utilisation existent à Twitter, eBay, Netflix, et la liste est encore longue. Ceci étant dit, ces cas d’utilisation en situation réelle sont pour Mesos, qui dispose d’un large écosystème de structures au-delà des conteneurs. Kubernetes et Docker Swarm sont utilisés par la communauté des développeurs, et ont déjà été vus en déploiement de production chez diverses entreprises. Je pense que nous verrons de plus en plus de références publiques dans les mois à venir. Il est également intéressant de noter que Kubernetes a l’appui de Google. L’ensemble des activités de Goo- gle se fait sur conteneurs depuis dix ans, et ils lancent 2 milliards de conteneurs par semaine. K8s a fait des progrès énormes ces six derniers mois en termes d’évolutivité. Avec la version 1.1, les clusters sont désormais pris en charge avec pas moins de mille nœuds et un million de requêtes par seconde. Swarm a également récemment atteint le niveau « prêt pour la production ». En phase de test, le seuil des mille nœuds a été atteint. Swarm a également été adopté par certaines entreprises. La plus notable est Rackspace, qui utilise Swarm en interne dans leur dernière offre de conteneurs. Hortonworks utilise également Swarm sur son nouveau projet Cloudbreak, un produit de fournis- seur indépendant Hadoop en tant que service. Alors que Mesos lui-même a été largement utilisé dans la communauté, Mesosphere et Microsoft travaillent également ensemble sur le nouveau service de conte- neurs Azure. Ce service a été annoncé à la MesosCon et devrait être disponible dans les prochains mois. Facilité d’adoption (compétences nécessaires) Lorsqu’on évalue des solutions de gestion des conte- neurs Docker, rien de plus facile que de travailler sur la même API Docker que votre équipe utilise habituelle- ment. Le trio Swarm, Compose, Machine est intégré au cœur de l’écosystème Docker, donc une équipe Docker ne devrait avoir aucun mal à utiliser ces outils. Kuber- netes ne nécessite pas d’acquérir beaucoup de nou- velles compétences, et vous pouvez même l’essayer 46 | THE DOPPLER | HIVER 2016 vous-même avec ce guide. La plus grande différence portera sur la représentation mentale des Pods, Ser- vices et Contrôleurs. Ceci étant dit, cela s’apprend rap- idement, et en contrepartie, vous serez capable de gérer à une granularité d’application et de service. Mesos, en revanche, n’est pas pour les âmes sensibles. Il peut être assez brut et nécessite plus de com- pétences pour son déploiement. Mesosphere a fait de grands progrès pour faciliter l’installation et l’utilisa- tion de l’adoption de Mesos. Le DCOS vient de devenir disponible à tous en début d’automne. Ils ont construit une excellente interface utilisateur de gestion et un tableau de bord qui s’intègre directement avec Mara- thon. Vous pouvez l’essayer gratuitement sur leur site. Mise en réseau de clusters Kubernetes dispose de la mise en réseau de conteneurs la plus directe du lot. La gestion du réseau et des ports peut être un enfer et représente un domaine clé de la complexité de la gestion de conteneurs. K8s présente certains principes de mise en réseau qui simplifient les choses pour les développeurs et réduisent nettement les risques à ce sujet. D’abord, ils imposent à tous les conteneurs de communiquer entre eux sans utiliser le NAT (Network Address Translation). Ils imposent égale- ment aux nœuds de communiquer avec les conteneurs sans NAT. Enfin, K8s exige que l’adresse IP interne d’un conteneur soit la même adresse IP utilisée par les autres conteneurs et par les nœuds pour la communi- cation. Ces principes éliminent une grande partie des problèmes de mappage de ports, de traduction d’adresses, et de détection de services qui surviennent dans les opérations à grande échelle. Lorsqu’on évalue des solutions de gestion des conteneurs Docker, rien de plus facile que de travailler sur l’API Docker que votre équipe utilise habituellement. Docker a fait des progrès énormes ces six derniers mois sur sa façon de gérer la mise en réseau. La ver- sion 1.9, tout juste sortie, a changé le statut des plug- ins de mise en réseau Docker de « prise en charge expérimentale » à « prêt pour la production ». Le nou- veau modèle de mise en réseau vous permet de créer des réseaux virtuels indépendants des conteneurs. De cette façon, des groupes de conteneurs peuvent être placés sur des réseaux spécifiques selon vos besoins. De plus, la mise en réseau sous Docker per- met l’utilisation de plug-ins si vous préférez un autre