Il y a 5 ans -
Temps de lecture 8 minutes
KubeCon + CloudNativeCon EU 2018 – Day 2
- Keynotes d’ouverture
- Keynote : Kubernetes Project Update – Aparna Sinha, Group Product Manager, Kubernetes and Google Kubernetes Engine, Google
- Keynote : Switching Horses Midstream: The Challenges of Migrating 150+ Microservices to Kubernetes – Sarah Wells
- Keynote : Software’s Community – Dave Zolotusky, Software Engineer, Spotify
- Présentations
- Conclusion
Il y a quelques temps, je vous présentais sur ce blog les retours sur la KubeCon + CloudNativeCon, et plus précisément sur le « Jour 0 » ainsi que la première réelle journée de conférence.
Il est désormais l’heure, avec un léger délai, de se pencher sur la deuxième journée de cette KubeCon + CloudNativeCon !
Keynotes d’ouverture
La journée commence comme s’est finie la précédente : Liz Rice et Kelsey Hightower mènent les keynotes tels des chefs d’orchestre (c’est le moins que l’on puisse dire, ces keynotes matinales étant toutes axées sur Kubernetes !).
Let’s go for this second day keynotes! @lizrice leading the way to Aparna Siinha from @Google presenting an update on Kubernetes: security focus (hi gVisor!), stateful apps with Operators, and skaffold.
Oh and « Updates are not fun » btw#KubeCon #CloudNativeCon pic.twitter.com/fNQQJlyBs9— Alexis « Horgix » Chotard (@Horgix) 3 mai 2018
Keynote : Kubernetes Project Update – Aparna Sinha, Group Product Manager, Kubernetes and Google Kubernetes Engine, Google
Cette première keynote nous propose un rapide passage sur les évolutions de Kubernetes, avec comme thèmes principaux la sécurité ainsi que la gestion d’applications stateful.
Google en profite pour présenter quelques détails sur gVisor annoncé la veille par Kelsey Hightower sur scène; détails que vous pouvez retrouver sur l’article de blog qui y est dédié.
maîtrise son sujet sur le bout des doigts tout en faisant passer des messages clés de manière limpide.
« Spend you innovation tokens smartly » – wise advice from @sarahjwells
And seriously, the metric « number of sarcastic comments on Slack about our tech stack » is the best metric ever ❤
One of the most inspiring keynotes there without a doubt 😊#KubeCon #CloudNativeCon pic.twitter.com/MIn3esuS6v— Alexis « Horgix » Chotard (@Horgix) 3 mai 2018
- Choisissez des technologies sans surprise
-
Dépensez votre pouvoir d’innovation avec sagesse
-
Métriques de succès :
-
Temps passé à garder le cluster en bonne santé
-
Nombre de commentaires sarcastiques sur Slack
-
Keynote : Software’s Community – Dave Zolotusky, Software Engineer, Spotify
à tous le
s messages clés suivants, que j’ai le plaisir de retrouver dans les valeurs de Xebia et que je souhaiterais continuer à propager tant ils sont importants :
- Communiquez et Partagez ! Notre industrie n’en ressortira que grandie et nous avons tous à apprendre les uns des autres
- Ayons le courage de participer aux différentes initiatives : nous avons tous notre pierre à apporter à l’écosystème
Présentations
Entre les keynotes et les présentations, j’ai pu trouver un moment afin de pouvoir vous partager cette vue représentative à la fois de l’effervescence de la conférence ainsi que de son confort et ambiance détendue et amicale :
The Path to GPU as a Service in Kubernetes – Renaud Gaubert, NVIDIA
Je ne pourrais résumer cette journée sans vous parler de Renaud Gaubert, ami avec lequel j’ai pu me rendre à cette conférence. Il se trouve que celui-ci a le plaisir de travailler pour NVidia, et pas sur n’importe quelle sujet : l’implémentation de la gestion des GPU dans Kubernetes !
Il nous propose un talk dressant le panorama des problématiques liées à l’orchestration et la conteneurisation avec des GPU : un sujet qui en est encore à ses premiers pas mais qui avance à pleine allure sous la poussée des géants :
- Distribution d’entraînement de modèles de Deep Learning
- Gestion des GPU au niveau du Runtime (Docker, CRI-o…) et device plugin Kubernetes
- Problématiques liées à l’orchestration des ressources GPU elles-mêmes : blue/green deployment, résilience par rapport aux données chargées, queues de jobs utilisateurs…
- Monitoring de GPU de manière moderne
- Des pistes intéressantes sur les prochaines évolutions en terme de gestion de GPU par Kubernetes : un Operator ? Un Scheduler personnalisé ? L’avenir nous le dira !
My friend @RenaudWasTaken from @Nvidia is talking about his work on supporting GPUs in Kubernetes right now here at #KubeCon + #CloudNativeCon
Come watch his talk in C1-M5 now 😉
Go Renaud 🎉 pic.twitter.com/GMFkriI8lV— Alexis « Horgix » Chotard (@Horgix) 3 mai 2018
Un bon rappel également que tout ceci est un énorme effort communautaire ainsi qu’un bel exemple de collaboration entre des entreprises telles que Google et NVidia dans une seule et même direction.
Envoy Internals Deep Dive – Matt Klein, Lyft
Les présentations ayant osé s’étiqueter « Advanced level » parmi les 3 niveaux référencés sur cette conférence (Beginner, Intermediate, Advanced) se font rares : seulement 14 parmis les 300 présentations ayant eu lieu sur ces 3 jour ! Le deep dive sur Envoy de Matt Klein en tant que l’un de ses créateurs fait partie de celles-ci.
Pour rappel, Envoy est un (reverse) proxy et load balancer layer 7, pensé dans une approche Cloud Native. Sa réputation lui vient principalement de 2 points : ses performances dues à une architecture logicielle en C++ extrêmement optimisée, et son utilisation par Istio, une solution de service mesh très en vogue dernièrement.
Mais cette présentation n’était pas là pour présenter ces bases; il s’agissait de détails sur les détails d’implémentation internes d’Envoy : quels sont les choix qui ont été faits sur le modèle de threading ? Comment garantir des performances maximales sur la gestion des requêtes avec un seul processus de manière asynchrone ? Comment associer à ces performances une configuration modifiable à chaud dans une optique Cloud Native ? Tant de points passionnants, qui sont malheureusement délicats à vous résumer tant ils sont complexes mais dont je peux vous donner un bref aperçu :
- Hot restart (vous avez bien lu, restart, et non reload !)
- Statistiques et observabilité moderne
- Service et configuration discovery native
- Filtering au niveau L3/L4
- Le tout de manière ultra performante tout en restant simple d’utilisation
Ce talk m’a beaucoup rappelé celui d’Alex Crichton sur les I/O asynchrones en Rust via Tokio, qui rentrait lui aussi dans le même niveau de détail et dont je vous invite à regarder la vidéo si ces sujets vous intéressant.
Observability and the Depths of Debugging Cloud-Native Applications using Linkerd and Conduit – Franziska von der Goltz, Buoyant
Pour continuer sur le thème des service mesh, j’ai pu assister à une démonstration de Conduit. Pour rappel, les solutions dites de « service mesh » sont en réalité des reverse proxy / load balancers visant à ajouter de l’intelligence dans la gestion du trafic entre les services et non seulement le trafic externe.
Conduit peut être vu comme une sorte de « Linkerd v2″ et répond donc au même besoin. Par exemple faire des canary releases directement au niveau de l’exposition des services, router les requêtes vers les backend avec les meilleurs résultats (faible taux d’erreurs et meilleures performances), ou encore se service de ce composant central pour avoir une meilleure vision d’ensemble sur un système distribué en supplément du tracing. Tous ces exemples ont été démontrés lors de cette présentation, qui convainc sur les usages et la facilité de mise en place mais laisse cependant quelques doutes côté maturité : sujet définitivement à suivre quoi qu’il en soit !
Conclusion
Cette journée fut donc tout aussi chargée que la précédente, avec cette fois un sujet phare (malgré un biais sur le choix des talks de ma part) : les solutions de Service mesh !
Si vous découvrez l’évènement via cet article, vous pouvez consulter ceux sur le Jour 0 ainsi que le Jour 1 sur ce blog ; la troisième journée vous sera présentée prochainement.
Commentaire