Il y a 5 ans -

Temps de lecture 8 minutes

KubeCon + CloudNativeCon EU 2018 – Day 2

 

Il y a quelques temps, je vous présentais sur ce blog les retours sur la KubeCon + CloudNativeCon, et plus précisément sur le « Jour 0 » ainsi que la première réelle journée de conférence.

Il est désormais l’heure, avec un léger délai, de se pencher sur la deuxième journée de cette KubeCon + CloudNativeCon !

Keynotes d’ouverture

La journée commence comme s’est finie la précédente : Liz Rice et Kelsey Hightower mènent les keynotes tels des chefs d’orchestre (c’est le moins que l’on puisse dire, ces keynotes matinales étant toutes axées sur Kubernetes !).

 

Keynote : Kubernetes Project Update – Aparna Sinha, Group Product Manager, Kubernetes and Google Kubernetes Engine, Google

Cette première keynote nous propose un rapide passage sur les évolutions de Kubernetes, avec comme thèmes principaux la sécurité ainsi que la gestion d’applications stateful.

Google en profite pour présenter quelques détails sur gVisor annoncé la veille par Kelsey Hightower sur scène; détails que vous pouvez retrouver sur l’article de blog qui y est dédié.

 

Cette keynote a sans doute été l’un des meilleurs moments de cette conférence, et je pèse mes mots.
Sara Wells, Technical Director for Operations and Reliability au Financial Times, résume lors de sa keynote 70 % des messages que je cherche à transmettre à nos clients chez Xebia.
Qui penserait, en entendant « Financial Times », à « Kubernetes en production » ? La surprise a été totale : des technologies modernes, et une approche qui l’est tout autant, bien que restant pragmatique. La présentatrice
maîtrise son sujet sur le bout des doigts tout en faisant passer des messages clés de manière limpide.

 

Je ne peux que vous conseiller de regarder la vidéo, dont j’ajouterai le lien sans faute dans l’article de clôture sur cet évènement.
Ces 3 points de sa présentation résument selon moi les messages clés :
  • Choisissez des technologies sans surprise
  • Dépensez votre pouvoir d’innovation avec sagesse
  • Métriques de succès :
    • Temps passé à garder le cluster en bonne santé
    • Nombre de commentaires sarcastiques sur Slack

Keynote : Software’s Community – Dave Zolotusky, Software Engineer, Spotify

Suite à sa présentation de la veille (dont je vous avais déjà parlé) sur la migration de Spotify vers une approche Cloud Native, Dave Zolotusky nous propose ici un talk radicalement différent.
Pas de technique ce matin : un axe communauté et collaboration. Dave nous rappelle
à tous le
s messages clés suivants, que j’ai le plaisir de retrouver dans les valeurs de Xebia et que je souhaiterais continuer à propager tant ils sont importants :
  • Communiquez et Partagez ! Notre industrie n’en ressortira que grandie et nous avons tous à apprendre les uns des autres
  • Ayons le courage de participer aux différentes initiatives : nous avons tous notre pierre à apporter à l’écosystème

Présentations

Entre les keynotes et les présentations, j’ai pu trouver un moment afin de pouvoir vous partager cette vue représentative à la fois de l’effervescence de la conférence ainsi que de son confort et ambiance détendue et amicale :

The Path to GPU as a Service in Kubernetes – Renaud Gaubert, NVIDIA

Je ne pourrais résumer cette journée sans vous parler de Renaud Gaubert, ami avec lequel j’ai pu me rendre à cette conférence. Il se trouve que celui-ci a le plaisir de travailler pour NVidia, et pas sur n’importe quelle sujet : l’implémentation de la gestion des GPU dans Kubernetes !

Il nous propose un talk dressant le panorama des problématiques liées à l’orchestration et la conteneurisation avec des GPU : un sujet qui en est encore à ses premiers pas mais qui avance à pleine allure sous la poussée des géants :

  • Distribution d’entraînement de modèles de Deep Learning
  • Gestion des GPU au niveau du Runtime (Docker, CRI-o…) et device plugin Kubernetes
  • Problématiques liées à l’orchestration des ressources GPU elles-mêmes : blue/green deployment, résilience par rapport aux données chargées, queues de jobs utilisateurs…
  • Monitoring de GPU de manière moderne
  • Des pistes intéressantes sur les prochaines évolutions en terme de gestion de GPU par Kubernetes : un Operator ? Un Scheduler personnalisé ? L’avenir nous le dira !

Un bon rappel également que tout ceci est un énorme effort communautaire ainsi qu’un bel exemple de collaboration entre des entreprises telles que Google et NVidia dans une seule et même direction.

Envoy Internals Deep Dive – Matt Klein, Lyft

Les présentations ayant osé s’étiqueter « Advanced level » parmi les 3 niveaux référencés sur cette conférence (Beginner, Intermediate, Advanced) se font rares : seulement 14 parmis les 300 présentations ayant eu lieu sur ces 3 jour ! Le deep dive sur Envoy de Matt Klein en tant que l’un de ses créateurs fait partie de celles-ci.

Pour rappel, Envoy est un (reverse) proxy et load balancer layer 7, pensé dans une approche Cloud Native. Sa réputation lui vient principalement de 2 points : ses performances dues à une architecture logicielle en C++ extrêmement optimisée, et son utilisation par Istio, une solution de service mesh très en vogue dernièrement.

Mais cette présentation n’était pas là pour présenter ces bases; il s’agissait de détails sur les détails d’implémentation internes d’Envoy : quels sont les choix qui ont été faits sur le modèle de threading ? Comment garantir des performances maximales sur la gestion des requêtes avec un seul processus de manière asynchrone ? Comment associer à ces performances une configuration modifiable à chaud dans une optique Cloud Native ? Tant de points passionnants, qui sont malheureusement délicats à vous résumer tant ils sont complexes mais dont je peux vous donner un bref aperçu :

  • Hot restart (vous avez bien lu, restart, et non reload !)
  • Statistiques et observabilité moderne
  • Service et configuration discovery native
  • Filtering au niveau L3/L4
  • Le tout de manière ultra performante tout en restant simple d’utilisation

Ce talk m’a beaucoup rappelé celui d’Alex Crichton sur les I/O asynchrones en Rust via Tokio, qui rentrait lui aussi dans le même niveau de détail et dont je vous invite à regarder la vidéo si ces sujets vous intéressant.

Observability and the Depths of Debugging Cloud-Native Applications using Linkerd and Conduit – Franziska von der Goltz, Buoyant

Pour continuer sur le thème des service mesh, j’ai pu assister à une démonstration de Conduit. Pour rappel, les solutions dites de « service mesh » sont en réalité des reverse proxy / load balancers visant à ajouter de l’intelligence dans la gestion du trafic entre les services et non seulement le trafic externe.

Conduit peut être vu comme une sorte de « Linkerd v2″ et répond donc au même besoin. Par exemple faire des canary releases directement au niveau de l’exposition des services, router les requêtes vers les backend avec les meilleurs résultats (faible taux d’erreurs et meilleures performances), ou encore se service de ce composant central pour avoir une meilleure vision d’ensemble sur un système distribué en supplément du tracing. Tous ces exemples ont été démontrés lors de cette présentation, qui convainc sur les usages et la facilité de mise en place mais laisse cependant quelques doutes côté maturité : sujet définitivement à suivre quoi qu’il en soit !

Conclusion

Cette journée fut donc tout aussi chargée que la précédente, avec cette fois un sujet phare (malgré un biais sur le choix des talks de ma part) : les solutions de Service mesh !

Si vous découvrez l’évènement via cet article, vous pouvez consulter ceux sur le Jour 0 ainsi que le Jour 1 sur ce blog ; la troisième journée vous sera présentée prochainement.

 

Publié par Alexis "Horgix" Chotard

Alexis "Horgix" Chotard est DevOps chez Xebia et s'intéresse particulièrement à tout ce qui est infrastructure moderne et dynamique (infra-as-code, containérisation, automatisation, self-healing, déploiement continu, ...). Alexis est également formateur au sein de Xebia Training .

Commentaire

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Nous recrutons

Être un Sapient, c'est faire partie d'un groupe de passionnés ; C'est l'opportunité de travailler et de partager avec des pairs parmi les plus talentueux.