🤼‍♂️ Debat Kubernetes et LTS | Actus DevOps decembre 2023

Durée: 93m37s

Date de sortie: 20/12/2023

🗞 Actus DevOps est ton #podcast de veille #DevOps et #Cloud mensuel.

🎓 Forge toi un état d'esprit DevOps : https://bref.lydra.fr/devops-mindset


Le sondage sur un podcast par abonnement :

Forum : https://forum.compagnons-devops.fr/t/ton-avis-compte-pour-radiodevops/3601?u=cchaudier

Twitter/X : https://twitter.com/MentorDevOps/status/1737410520729239919

Linkedin : https://www.linkedin.com/posts/mentordevops_compagnonsdudevops-radiodevops-podcast-activity-7143174508751843329-5dv8


Retrouve tous les liens et les outils sur l'article de blog :

https://lydra.fr/blog/debat-kubernetes-et-lts-actus-devops-decembre-2023


## Sommaire

00:00 Intro

01:34 Vos messages

❓ Pose-nous une question : http://question.compagnons-devops.fr


10:07 Faille de sécurité chez Okta - le retour


29:44 Rapport de la CNCF sur les tendances


39:35 Du nouveau chez nos fournisseurs cloud


51:14 Kube a-t-il besoin d’une LTS ?


01:12:22 Nos outils


1:01:40 Clôture

 💬 Rejoins la communauté sur le forum : https://www.compagnons-devops.fr


 💖 Tu peux soutenir mon travail et la communauté sur : https://soutenir.compagnons-devops.fr

  

📩 Si tu n'es pas déjà abonné, alors **abonnes-toi** pour ne pas rater les prochaines vidéos.


🔗 Tous mes liens : https://i.mtr.bio/compagnons-devops


## Crédits


### Les podcasteurs

- Christophe Chaudier : consultant indépendant au sein du collectif Lydra. Animateur du podcast de la communauté des Compagnons du DevOps. Découvre le : https://lydra.fr/ea-3-le-podcasteur-christophe | LinkedIn : https://www.linkedin.com/in/cchaudier

- DamyR : SRE chez Waays / DevOps, passionné d'open source & de logicel libre, :man_teacher: professeur vacataire à l'université Léonard de Vinci. Son credo : "*La connaissance n'a de valeur que si elle est partagée*" ;-). Découvre le : https://lydra.fr/ea-1-le-podcasteur-damyr/ | Linkedin : linkedin.com/in/tgerardin

- Erwan Ben Soudien : DevOps chez Scaleway (ex Toucan Toco, Deezer, Antelink, Weborama - ex sysadmin ) - professeur vacataire à Paris XIII / IUT Creteil. Découvre le : https://lydra.fr/ea-2-le-podcasteur-erwan/ | Linkedin : https://www.linkedin.com/in/erwan-ben-souiden-8b8084152

- René Ribaud : Software Engineer chez RedHat. J'aime apprendre et transmettre des connaissances sur le logiciel libre et le DevOps. Découvre le : https://lydra.fr/ea-6-le-podcasteur-rene/ | Linkedin : https://www.linkedin.com/in/ren%C3%A9-ribaud-44145137/


### Habillage sonore

- L'intro et la fin sont de Baptiste Gaillet : FullStack développeur avec une tendance DevOps au Centre Scientifique et Technique du Bâtiment, Fondateur et développeur de l'application BedFoodCoffee pour aider les personnes en difficultés. Après des études dans le son et différents métiers, il a effectué une reconversion professionnelle en 2015 pour devenir développeur (Formation diplômante dans le cadre d’un CIF). LinkedIn : https://www.linkedin.com/in/baptiste-gaillet-223832b4 | Twitter : https://twitter.com/bat79a

- La musique d'intro est *"Tupac Lives"* de John Bartmann : https://pixabay.com/fr/music

- La musique de fin est *"Passport"* de Purple planet : https://www.purple-planet.com/passport


Image de jannoon028 sur Freepik : https://fr.freepik.com/photos-gratuite/deux-affaires-doigt-ont-argumentation-isole-blanc_1007931.htm


📜 Ce contenu est sous licence libre : CC BY-SA : https://creativecommons.org/licenses/by-sa/4.0/deed.fr

Si tu utilises ces contenus dans une publication, merci de nous le notifier dans les commentaires.


🌐 Les Compagnons du DevOps est une initiative de Lydra : https://www.lydra.fr



Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Quels sont les news du cloud et du DevOps en ce mois de décembre 2023 ?
Aujourd'hui on va parler de la suite de la faille d'Octa dont on a parlé
le mois dernier. On va parler des nouveautés chez nos chers cloud
providers, des tendances vues par la CNCF et on finit par cube.
Tout ça on va le voir aujourd'hui dans cet épisode de podcast.
Bienvenue sur Radio DevOps, la balade aux diffusions des compagnons du DevOps.
Si c'est la première fois que tu nous écoutes, abonne-toi pour ne pas rater les futurs épisodes.
C'est parti !
Bienvenue à toi chers compagnons dans Actu DevOps,
ton émission de veille cloud et DevOps mensuelle.
Eh oui, nous sommes en décembre, c'est bientôt Noël,
c'est une période chargée pour tout le monde et c'est pour ça que tu n'auras qu'un seul
épisode de podcast ce mois-ci. J'en suis désolé.
Mais comme d'habitude, reste bien jusqu'à la fin parce qu'on va finir par découvrir
notre petite sélection d'outils. Et avec moi ce soir pour parler actu, j'ai Damir.
Bonsoir Damir.
Bonsoir ou bonjour à toutes et tous.
J'ai aussi Erwan. Bonsoir Erwan.
Bonsoir.
Et enfin René.
Bonsoir à toutes et tous.
Je te rappelle, parce que je ne le fais pas assez souvent,
que chacun d'entre nous a un épisode de podcast qui lui est dédié pour apprendre à nous connaître,
à apprendre à connaître les podcasteurs et podcasteuses.
Tu peux aller sur la chaîne YouTube, mais souvent dans la
dans la description, il y a le lien vers l'épisode de podcast.
Alors, on commence par la traditionnelle section des courriers, des auditrices et auditeurs.
Et je voudrais remercier tout particulièrement aujourd'hui la communauté Apple Podcast,
qui se mobilise très fortement pour laisser des messages à un pote partout.
Ça fait plaisir.
Continuez à les inonder de messages Apple Podcast.
A ce sujet-là tout à l'heure, au moment où j'enregistre cette émission,
on est le 7 décembre, et bien justement,
j'ai vu qu'on était à la 17e position dans le charte Apple Podcast
de la technologie, enfin de la France pour la technologie,
donc dans la catégorie technologie.
En tout cas, merci à toutes et tous pour vos écoutes.
Et du coup, j'aimerais vous lire quelques messages qui viennent justement d'Apple Podcast.
On a sélectionné quatre parce que il y en a tellement que,
du coup, je vais essayer de faire vite, mais ils ont un peu tous la même idée.
Alors, on a déjà Jules Bruse.
Je ne sais pas comment ça se prononce, mais je vais le prononcer comme ça,
qui vient d'Apple Podcast Canada.
Et c'est le premier commentaire.
D'ailleurs, c'est son petit premier commentaire.
Il nous a laissé cinq étoiles.
Ceci est le premier commentaire du podcast sur Apple Podcast et Moji FET.
C'est tant bien, c'est Noël.
Bref, bonne continuation.
Je suis développeur avec une casquette Ops,
qui aime beaucoup le contenu du podcast avec un emoji.
Keur avec les mains.
Un autre message de Slimbok 6 sur Apple Podcast.
Et il nous dit le podcast du mouvement des Vops avec cinq étoiles.
Ça fait un moment que Christophe demande des commentaires dans podcast d'Apple.
Et bien, j'emmène ma petite contribution pour tous les péditeurs
à la recherche d'une écoute de qualité sur le mouvement des Vops.
Et en français, s'il vous plaît, c'est le podcast à écouter.
Christophe et ses compagnons et ses accompagnons, excusez-moi,
font un travail remarquable et pour coronner le tout,
ils maitrisent totalement leur sujet.
Ça cas, chacun avec leurs expertises et leurs expériences.
Un must-have.
Merci à vous et bonne continuation.
FloFlo06800 nous dit un très bon podcast avec cinq étoiles.
Pour ceux évoluant dans le métier,
ce podcast est un bonheur à suivre pour se tenir un peu informé
quand on a une vie perso un peu trop remplie d'obligations familiales.
Je l'écoute le matin sur la route avec un pouce en l'air.
Et enfin, SmolinDamex.
Merci pour vos pseudo.
Vous êtes formidable, tous et toutes d'ailleurs,
parce que peut-être qu'il y a des femmes.
Alors, son message, c'est.
Pas le mot de la fin de la fin avec cinq étoiles.
Super podcast, sujet toujours très intéressant et abordé de manière compréhensible par tous.
On adorait plus d'épisodes.
Bravo à l'équipe et longue vie aux ingénieurs DevOps avec un clin d'oeil
et une longue qui se tire.
Je j'imagine, je comprends pas pourquoi.

Donc, merci à toutes et tous pour votre soutien
et vos commentaires et le jeu.
Je voulais lire à l'équipe.
J'en profite parce que ça fait toujours plaisir
d'avoir des commentaires sur le travail qu'on fait.
Et justement, j'en profite et je voudrais remercier profondément
mes co-animatrices et animateurs qui sont là depuis maintenant plus de trois ans.
Deux se rendent disponibles et bénévolement pour chaque préparation
et enregistrement d'épisodes de podcast, parce que ça demande quand même un petit travail.
Il m'imagine de rien, y compris de leur côté.
Et c'est un temps précieux qui nous donne.
Pour répondre un peu plus profondément
à Small Indamix au sujet du fait qu'il aimerait avoir plus d'épisodes.
J'aimerais aussi beaucoup produire plus d'épisodes,
mais malheureusement, il n'y a pas de secret.
Il faut pour ça arriver à monnaie-tiser le contenu pour pouvoir payer des salaires.
En l'occurrence, le mien pour que je puisse en vivre et au moins consacrer un mi-temps.
Mais pour l'instant, ce n'est pas facile
et je ne peux plus déléguer.
Du coup, c'est pour ça que je réduis un peu la fréquence des podcasts
en attendant de trouver un équilibre économique sur cette activité.
Donc, j'ai remarqué aussi que les dons, ça ne fonctionnait pas vraiment.
Donc, je réfléchis à des formules alternatives,
comme par exemple un podcast par abonnement en plus de ce flux-là.
C'est-à-dire que j'imagine un flux avec le flux en pub.
Et surtout des épisodes de podcast solo en supplément.
Donc du coup, au moment où sort cet épisode,
j'ai lancé un sondage sur Twitter et sur LinkedIn.
Si tu nous écoutes et que tu veux participer à ce sondage,
tu peux y aller, les liens sont dans la description.
Et maintenant, je vais laisser la parole à mes chers co-animateurs
pour répondre à ces commentaires.
Déjà, merci.
Ça fait toujours plaisir d'avoir ce genre de retour.
C'est vrai que c'est en courageant, on va dire, plus que de commentaires.
On a un peu d'impression de parler dans le vide.
Donc c'est top si ça peut aider.
Et j'espère que ça va encore continuer longtemps
et que tu as trop un équilibre pour toi aussi,
parce que c'est du boulot de tous les côtés.
Mais tant que ce n'est pas fait pour rien, je pense que c'est essentiel.
Donc n'hésitez pas à poster encore plus de commentaires,
créer des pseudo de plus en plus compliqués.
N'hésitez surtout pas à mettre des pseudo de 64 caractères,
à faire des PWGN 64 dans votre pseudo.
Franchement, je pense que Christophe sera le plus heureux
quand il ira le courrier des lecteurs.
C'est pas sympa ce que tu fais.
Je pourrais peut-être te laisser lire la prochaine fois.
Erwan.
Non, c'est cool comme retour.
J'imagine que ça veut aussi dire qu'on s'améliore avec le temps
et qu'on est un peu plus à l'aise au micro,
que les sujets intéressent toujours les gens et tout.
J'espère qu'on va dans la bonne direction.
La culture du feedback fait partie de la culture des Wops.
Donc on prend vos messages avec attention.
J'ai fait un ajouté tout à été dit.
Ecoute, tu peux prendre les éloches aussi.
Justement, hier, j'ai fait mon traditionnel live de news
et de statistiques sur la chaîne YouTube,
parce que si tu ne le sais pas,
ce podcast est aussi diffusé sur YouTube
et sur la chaîne YouTube, il y a des lives de temps en temps.
Et je parle souvent de la communauté,
au moins tous les deux mois.
Et je présentais les stats de YouTube
et aussi sur la partie YouTube.
La chaîne se porte bien et a repris du poil de la bête.
Donc je pense que ta raison, Erwan,
soit on s'améliore, soit il y a un truc, en tout cas,
on arrive plus à capter l'attention
et les gens sont de plus en plus présents.
Je ne sais pas ce que c'est.
En tout cas, moi je vous remercie à nouveau tous.
Tu l'as compris, si tu nous écoutes,
tu peux laisser un message, soit sur Apple Podcast,
mais je suis sûr qu'il y a la communauté Podcast Addict
qui va se prendre en main et laisser des messages,
parce que c'est vrai qu'il n'y en a pas beaucoup.
Et moi, c'est mon application de podcast, Podcast Addict.
Tu peux aller aussi sur 10h ou sur YouTube,
laisser des commentaires, il y en a beaucoup sur YouTube.
J'en sélectionnerai sur YouTube la prochaine fois, justement.
Et puis sinon, tu peux aussi aller sur le forum des compagnons,
puisque chaque épisode de podcast a son propre message.
J'en profite, puisqu'on parle des messages et de YouTube.
J'ai remarqué un truc, on a remonté plusieurs fois
qu'il y avait des problèmes de messages qui disparaissaient.
Et en fait, on a trouvé la raison.
C'est un des spectateurs qui a trouvé la raison.
C'est quand on laisse une URL, un lien, le commentaire disparaît.
J'ai remonté ça à YouTube.
Pour l'instant, ils m'ont dit que ça faisait plusieurs personnes
qui leur remontaient le sujet.
J'ai fait moi-même le test avec un de mes comptes,
et j'ai posté un message sur une de mes vidéos
avec une URL qui pointe vers justement notre site internet,
les compagnons du DevOps,
et le message a disparu en l'espace de quelques secondes.
Donc, tu ne peux pas malheureusement laisser de commentaires
aux vidéos avec des URL.
Je suis désolé, mais c'est pas moi qui les supprime.
Donc, si tu veux laisser des commentaires avec des URL,
le mieux c'est d'aller sur le forum des compagnons,
et là, tu pourras discuter de toute façon chaque vidéo.
Il n'y a pas que les podcasts, mais chaque vidéo a un commentaire.
Ceci étant dit, on va revenir sur un sujet
qu'on a déjà abordé le mois dernier, Erwan.
Tu vas nous parler de la suite de la faille d'Octa.
Oui.
Donc, on va reparler de Data Bridge,
on va parler de Multi-Factor Authentication,
de communication et de suivi d'incidents.
Tout ça dans cette nousse.
Alors, déjà, pour ceux qui m'ont oublié
ou ceux qui ne savent pas,
qu'est-ce qu'Octa ?
Octa, c'est un SAS de gestion d'identité d'accès.
Et globalement, c'est un des leaders du marché.
Et forcément, quand on est sur ce cœur de métier,
on est la cible d'attaques divers et variées,
encore plus que pour les autres SAS.
Donc, il y a quelques temps,
donc c'était fin septembre, si mes souvenirs sont bons,
Octa faisait une communication pour avertir
qu'il y avait une faille qui avait pu être exploité.
Et en fait, la faille, elle est assez basique,
c'est juste les identifiants d'un membre du support
qui ont été volés
et qui ont permis l'attaquant de se loguer
et de récupérer des données.
Et dans les données que les attaquants ont récupérées,
ils ont récupéré les fameuses archives HTTP.
Alors, je ne sais jamais trop comment on prononce ça,
HR, vous avez la ref.
Et donc, dans ces fameux fichiers HR,
donc ces archives,
c'est des archives qui sont assez pratiques,
parce que, en fait, elles sont...
C'est des fichiers qui sont souvent utilisés
pour échanger avec les supports, justement,
pour débuguer, pour reproduire des actions d'utilisateurs, etc.
Sauf que, quand on ne fait pas forcément attention,
quand ce n'est pas bien cliné, etc.,
en fait, dans ces archives,
on peut y retrouver des informations sensibles
comme des tokens d'authentification.
Et en fait, les attaquants
ont su extraire de ça
des tokens des clients de hoquetas.
Et comment dire-je ?
Et donc, du coup, ce token étant valide,
ils ont essayé de se loguer
et le token était valide.
Et donc, qu'est-ce qui s'est passé ?
Le token étant valide,
l'entreprise qui était associée à ce compte,
donc c'est Beyond Trust,
qui est d'ailleurs une entreprise qui fait de la SQ.
En fait, elle a reçu une notification
et elle avait activé le multifacteur authentication.
C'est-à-dire que, en plus de votre login mod pass,
vous devez avoir un outil tiers,
donc ça peut être une application hardware
ou autre pour valider votre identité.
Et bien, en fait, le compte associé
a eu une notification sur son mail
disant que quelqu'un essayait de se connecter
avec une IP qui venait de Malaisie.
Donc, comme la boîte en question
était en train d'échanger
avec les équipes d'octa
autour d'un problème
et qu'ils avaient envoyé
justement la fameuse archive HR,
ils ont rapidement fait le lien
entre ce mail qu'ils ont reçu
et leur action avec le support.
Ils ont contacté tout de suite Octa
en disant attention,
il y a peut-être quelque chose qui se passe
sur votre support.
Il y a peut-être un souci
parce qu'il y a en gros des gens
qui ont essayé de se loguer avec des informations
qui ont réussi à extraire.
On ne sait pas.
Octa, suite à ça,
ils ont réussi à tirer le fil
et à identifier quelles étaient les ID
du support qui avait été chopée.
Ils ont révoqué.
Ils ont fait une petite communication
pour dire
ne vous inquiétez pas,
très peu de clients sont impactés
parce que les personnes du support
n'ont accès qu'aux données
liées aux clients avec lesquels ils sont en contact.
Du coup,
c'est une infime partie de nos clients.
Il n'y a pas de souci.
Les accès ont été révoqués.
N'oubliez pas d'activer le MFA
parce qu'effectivement,
si la boîte en question n'avait pas activé ça,
l'attaquant aurait su se loguer
sur leur console.
On pensait l'histoire finie
parce que finalement,
c'est yet another leak
d'identifiants
qui a été récupéré.
Mais en fait,
la fin d'envendre,
on a appris que
ce n'était pas que ça.
Que pour une raison un peu obscure,
mais en tout cas,
avec le compte du support
qui a été chopé,
l'attaquant
a pu récupérer
l'intégralité des noms
des mails de tous les utilisateurs
qui ont contacté le support
d'Octa à un moment dans leur vie.
On commence à se dire
que ça commence à être un peu plus chaud,
parce que ça fait une sacrée base.
Et puis, en plus,
il s'avère que pour certains utilisateurs,
Octa a communiqué sur le fait
qu'il était quand même inférieur à 1%.
Mais bon, quand même.
Il y a des informations un peu plus
en plus, comme les adresses,
le téléphone, etc.
Et donc,
pourquoi on en parle maintenant
et pourquoi c'est
intéressant
d'un point de vue, on va dire,
mais plus sécurité en général,
c'est que, en fait,
déjà Octa, qui avait fait
une première communication
un petit peu en grande pompe
pour dire voilà en fait le problème,
il a été vite réglé, machin, merci à notre client
et tout, bon...
Mais en fait, là, ils ont refait
une communication qui est quand même bien plus discrète
pour expliquer
que la faille elle est bien plus grosse que prévu
et qu'elle est bien plus grosse que prévu.
Mais naïvement,
on pourrait dire, ah oui, mais c'est que
des noms, des mails,
éventuellement des téléphones et des adresses.
Bah en fait, tout ça,
ça a de la valeur. C'est ce qui permet aussi
et c'est surtout là-dessus
que la communication d'Octa a été faite
d'expliquer que attention,
le phishing provenant,
enfin de gens pouvant se faire passer
pour Octa, etc.,
en fait, il n'est pas le risque
pas si anodin que ça.
Et donc, du coup,
du coup, on comprend tout de suite
l'ampleur
de dégâts
et l'aspect vraiment critique
de ce genre
de service. On en a déjà pas mal parlé
avec le... enfin pas le même type,
mais en gros, les histoires un petit peu similaires
qui étaient arrivées notamment chez LaSpace
dans ce podcast,
dans les précédents
épisodes.
Alors forcément, en ayant communiqué comme ça
et puis surtout en ayant une communication
qui est beaucoup moins flamboyante
et on va dire ouverte que
celle du début qui disait que tout était confiné
et qu'il n'y avait pas de souci,
ils se prennent
une vague pas d'insulte,
mais une vague de message
assez critique
sur leur gestion
de l'incident. Donc je vous laisse
regarder sur Twitter les messages.
C'est pas hyper funky.
Alors du coup, moi,
quand je lis ça,
je me dis ok,
il y a plusieurs choses qu'on...
Donc maintenant, on sait vraiment ce qui s'est passé, comment
comment les personnes ont pu... enfin, comment
Octa a découvert le problème, comment
tout le fil a été tiré
et il y a plusieurs petites choses
que je retiens. Alors
ça peut paraître bête, mais des fois on n'a pas le choix.
On a des...
des comptes partagés
même si c'est pas une bonne pratique, mais ça
peut arriver. Et donc
ça arrive de...
recevoir des mails de nouvelles connexions
depuis quelque part.
Eh ben, quand vous êtes dans une équipe
et que vous partagez des comptes, je pense que
la première chose à faire, c'est
il faut prêter attention à ce genre de messages,
même si ça peut paraître anodin.
L'équité, dire c'est moi
qui suis derrière ou quoi que ce soit,
ça permet d'éviter
enfin, en tout cas de...
de pas...
de... d'un peu se dire attention,
il y a un souci ou pas. Là, c'est clairement
le truc qui a trigger
l'alerte
chez Beyoncé Trust.
Eh ben, on en a déjà parlé
aussi dans les précédents
épisodes, mais
le... le multi-factor authentication
en vrai, c'est pas une...
c'est pas une option aujourd'hui. Et...
et en tant que DevOps, on a des accès
souvent très avancés
à des consoles d'admin,
à des... à... à des outils
de gestion un petit peu pointus, etc.
Et donc, en fait, aujourd'hui
vraiment, c'est... il y a
aucune excuse à ne pas utiliser
à... non, je sais pas, il y a
outils, il y a Google Authenticator
ou encore mieux,
je l'ai ici, la Yubiki.
Il y a... il y a plein de choses.
Enfin,
c'est des solutions qui sont fiables et pratiques.
Téléphone,
application, etc. Et il y a... il y a pas
de soucis. Et puis,
il y a des choses que moi, j'ai rarement
vu ça, mis en place...
j'ai rarement vu ça
mis en place, mais mine de rien, il y a quand
même pas mal de... enfin, je pense à... par
exemple, la OVH ou Scalway ou même à WS,
ils proposent des trucs comme ça, de limiter
certains accès, même par IP.
Bon, c'est... pour des... pour des accès
vraiment... importants,
c'est... c'est des choses...
c'est des choses qu'il faut garder en tête
et puis, bah, je finirais par... encore
une fois, quand il y a des...
quand il y a des leaks, quand il y a des...
quand il y a des exploits, etc.
La communication des boîtes
impactées, elle est hyper importante.
Là, on passe d'un truc
qui, en tout cas, a été communiqué au début
comme quelque chose de... oui, c'est un problème,
mais c'est anodin, à... à quelque chose de...
attention, le... le phishing peut être sérieux.
Maintenant qu'on a dit tout ça, et que
l'action d'Octa a chuté en bourse,
d'Amir, que pense-tu
de cette histoire ?
Oula, beaucoup de choses à dire.
Je suis d'accord avec toi, y a des bonnes pratiques
à mettre en place, et typiquement,
les comptes importants, on doit pas
s'y connecter. Je prends un exemple très simple,
votre compte route à WS,
à part changer la carte bleue, y a 0 raison
de s'y connecter. Donc le compte, il doit
te monitorer, si jamais y a quelqu'un qui s'y
connait, il faut faire une alerte, limite sur la
strainte, et au-delà de ça,
l'accès doit être vraiment, vraiment blindé.
Donc après, bah limitez ça, partagez pas
de comptes, mais bon, tout ça,
je pense qu'on a déjà dit des centaines de fois
dans le podcast, donc je vais pas trop m'étendre
dessus. Je reviendrai sur la partie comme,
la partie comme, dans les cas-là, dans la gestion
de crise, c'est un exercice qui est compliqué.
Là, c'est une grosse boîte, donc ils ont les ressources, mais
encore plus qu'on vous a dans une petite entreprise.
Pourquoi c'est compliqué ? Parce que vous devez
trouver un équilibre entre la transparence
et aussi pas trop descendre votre boîte,
parce que vous pouvez potentiellement
couler la boîte, et
même si, oh, on a fait une connerie, donc on
mérite de couler, bah avoir des millions
de gens, ou un des centaines de gens
qui sont trop au chômage, c'est pas cool,
dans tous les cas. Et, 2ème, et
dernièrement,
il faut aussi communiquer rapidement.
Parce que si vous avez un incident de sécurité,
vous communiquez 3 semaines après, c'est peut-être
trop tard dans beaucoup de cas.
Et ça, c'est quelque chose qui est très compliqué
pour ça, en fait, il faut vraiment être organisé,
il faut vraiment avoir des gens qui communiquent
de manière transparente dans l'entreprise, qui sont
prêts aussi à prendre des décisions.
Parce qu'il y a des choses qu'on peut pas
et qu'il faut trancher, en fait,
il faut que les décideurs soient prêts à trancher.
Et pour le coup,
le dernier truc, je vais prendre un exemple
perceau de 2 minutes,
être transparent en interne aussi.
Pour la petite année d'autre, dans mon premier stage,
c'était la première fois que je suis dans l'entreprise,
ça devait être le 2ème ou 3ème jour
où je venais d'arriver.
J'arrivais tout le matin avant tout le monde,
j'étais le premier dans l'open space.
Et je me suis fait avoir pas un phishing.
C'était pas un phishing de test, un vrai phishing.
Je me suis fait niquer mon compte Google.
J'ai eu le bon réflexe.
J'ai changé le mot de passe direct dès que j'ai compris
que c'était un phishing, donc c'est-à-dire, même pas une minute après.
Donc, l'attaquant, on n'a vraiment pas eu
beaucoup d'infos.
On n'a pas eu vraiment le vecteur d'attaque
qu'il aurait pu avoir.
À cette époque-là,
je me sentais un peu honteux.
Tu viens arriver dans l'entreprise et tout.
T'as pas envie de dire, je me suis fait niquer par le phishing.
J'ai pris sur moi, je l'ai quand même fait.
J'ai dit, désolé,
je me suis fait niquer par le phishing,
j'ai changé mon mot de passe,
j'avais pas changé de mot de passe,
j'ai vérifié mon MFA, etc.
J'ai regardé les logs de connexion.
J'ai dit, j'ai pas vu de bêtises,
qu'est-ce qu'il faut que je fasse ?
J'ai demandé à la personne de la sécurité.
On a vu ensemble, etc.
pour vérifier que tout était ok.
Il a eu un peu de jugement au début,
mais c'était plus du troll par rapport au fait que j'étais
à Stagiaire.
Mais il m'a quand même aidé.
J'ai envie de dire, des deux côtés, soit transparents, quand vous faites une erreur,
ça arrive. Si jamais vous communiquez pas dessus,
vous essayez de la cacher, ça peut être bruyant pire.
Et au-delà de ça,
non, en sens inverse, s'il y a un utilisateur,
je me suis fait avoir un phishing et de ça,
on s'en fout, jugez la personne,
de troll, etc.
Franchement, c'est le dernier des soucis.
Le premier de vos soucis, c'est de
limiter l'impact et éviter que la boîte
subisse une attaque au travers de ça.
Donc ne jugez pas les personnes là-dessus.
Et c'est juste de comprendre et d'aider.
Et ça est important pour la communication interne,
que les gens puissent communiquer une transparence là-dessus.
À peur du jugement, c'est important
dans ces cas-là et je pense que ça peut être un gros facteur de frein.
Sur la compréhension globale de l'attaque,
parce que comprendre une attaque globalement
jusqu'où est allée, quels sont
les accès qu'elle a eu.
C'est quelque chose qui peut prendre du temps
et encore plus si on met des petits ralentisseurs
dans ce type-là.
C'était pour ma digression, moi, globalement,
je n'ai pas envie d'ajouter beaucoup d'autres choses
que j'ai l'impression qu'on va pas mal se répéter.
Cette partie comme me paraît assez importante.
Et du coup,
toi, Christophe,
t'en penses quoi ? Les choses qui t'ont choquée ?
Choqué, non,
je ne sais pas encore.
Je te remercie déjà pour la partie comme,
parce qu'on en avait déjà parlé la transparence
la dernière fois et c'est bien ce que t'apporte.
Moi, je voudrais réagir à un truc
qu'a dit Arwan sur les comptes partagées
et que tu as aussi dit.
Moi, je vais apporter un éclairage
vu petite entreprise,
très petite entreprise même.
Quand on n'est pas très nombreux, parfois,
en effet, on va partager
des comptes, parce que juste, on n'a pas
les moyens d'acheter plusieurs comptes.
Ce n'est pas forcément interdit
d'avoir un compte partagé.
Dans ce cas-là, la bonne pratique,
et c'est celle qu'on applique nous en tout cas,
on estime que c'est une bonne pratique, à vous de voir,
c'est d'avoir une adresse e-mail partagée.
C'est à dire qu'il y a eu par plusieurs personnes.
Et nous, on a un outil
de gestion d'e-mail partagée qui s'appelle Zamad,
qui est un outil libre, c'est un outil de ticketing en fait.
Et toutes nos boîtes mecs partagées
arrivent là. Ce qui fait que quand on a
un mail de ce type-là, et ça arrive souvent,
parce que, notamment quand quelqu'un
se connecte à la console
de facturation des comptes cloud,
on reçoit un mail.
Vous avez reçu un mail et tout.
Et donc la politique, c'est, la personne
qui a fait ça doit fermer le ticket
pour dire que c'est elle.
Et si le ticket n'est pas fermé
dans la journée, c'est qu'il y a un vrai problème, en effet.
Et je voulais aussi
réagir sur la double authentification
ou la multi-authentification.
C'est vraiment nécessaire.
Il faut vraiment
pas...
Faut le faire. Quand c'est disponible, il faut le faire.
Moi, je passe
à chaque fois, y compris chez des clients,
je leur demande de le faire, parce que je déclare
qui nous partage des accès sur leur compte
Sql, OVH, etc.
Et parfois, ils ne le font pas, parce qu'ils
n'ont pas la connaissance de leur dire. Attention, faut le faire.
C'est important pour la sécurité de votre compte.
Activer la double authentification
et toutes les personnes avec qui je travaille,
je leur demande d'activer la double authentification.
C'est hyper important. Faut vraiment pas s'empasser.
Même si c'est un peu pénible,
parce que j'ai
l'application sur smartphone
et j'ai aussi Myou Biki,
mais je ne l'ai pas encore bien configuré de partout.
Mais
c'est essentiel, parce que
si on se fait voler un autre mot de passe,
comme vient de le dire Damir, ça peut arriver.
On peut être inattentif, enfin,
bref.
Ou alors, on a un attaque bruit de force.
La double authentification est là pour protéger
en plus sa file sécurité.
Donc voilà,
je ne vais pas réagir plus que ça.
Je vais passer la parole à René.
En fait,
si je me rappelle bien, on en a parlé la semaine
le mois dernier, pendant,
avec Nicolas.
Et on a été assez
étrouvé que la première communication
était plutôt transparente et pas mal.
Après, effectivement,
c'est dommage qu'ils aient pas continué.
Enfin, voilà, si la deuxième communication a été
un peu pas du même avec Yabi, c'est un peu dommage.
Parce que, après,
c'est sûr que c'est pas évident, parce que ça veut dire
que quelque part, la première analyse
n'avait pas été
bonne, il y avait plus que ce qu'ils pensaient.
Donc oui, effectivement,
c'est peut-être un peu compliqué
à communiquer, mais bon,
je pense que même dans ces cas-là,
c'est mieux pour les clients
de
rester transparent.
Effectivement, pour l'image,
c'est peut-être pas
pas dingue, mais
voilà,
c'est pas forcément plus à dire.
Je remonte sur un dernier point qui est intéressant,
et qui, moi, j'en ai un peu ma claque
que Christophe
m'a bien fait penser.
Petit des ititeurs arrêter avec
ces modèles de facturation à l'utilisateur.
Ça favorise juste des comportements
de mutualisation de compte
ou des comportements de ce type-là.
Et ça fout juste plus la merde qu'autre chose.
Frosemain, ce modèle
pour moi,
il est mauvais.
Tout ce que j'ai vu
de ce modèle-là, c'est effectivement
des gens qui vont dire, du coup,
on mutualise les comptes pour éviter de payer
des X-accès. C'est vraiment un problème.
Il faut trouver, je pense,
que ce n'est pas viable. Ça ne pousse pas les entreprises
à investir, surtout
avec d'autres problèmes dont on a déjà parlé de confiance,
en vrais solutions, ça, c'est-à-dire au niveau du pricing.
Mais je pense qu'il est vraiment important
de trouver un autre modèle et aussi
en parlant de sécurité,
d'arrêter de mettre les features TPSSO
et etc. Les features de sécurité dans les abonnements
les plus chers que les petites
et moyennes entreprises ne peuvent pas atteindre,
ou trouver un modèle de fluctuation qui permet
à des petites entreprises de 5-10 personnes
de se payer les choses-là
sans pour autant
et vous financer, sans pour autant
du coup,
qui se sent un peu égorgé entre guillemus.
Eh ben merci pour ça.
Je pense qu'il faudra qu'on revienne
sur le modèle de
fluctuation. Ça, ça pourrait être un sujet
intéressant, peut-être pour un live YouTube,
je ne sais pas.
En tout cas, si tu écoutes ce podcast
et que tu l'aimes, que tu l'apprécies,
si tu poses que l'on t'apporte des trucs,
tu peux nous soutenir. Alors,
tu peux faire plusieurs choses, déjà, tu peux le partager,
tu peux communiquer sur les réseaux sociaux,
tu peux nous laisser des commentaires, comme je disais,
mais tu peux aussi nous faire un petit don.
Ce petit don, il nous aidera
à payer les outils qu'on utilise.
Là, notamment,
l'outil qu'on utilise pour enregistrer le podcast
dont j'en ai parlé sur YouTube, c'est Riverside.
Il a un coût
l'hébergement du podcast. Bref, on a plein de petits coups
à Nex. Donc, si tu veux
nous faire un don sur Libérapay, tu peux.
En plus, Libérapay, c'est une plateforme libre
qui est gérée par une association française. C'est pour ça que
j'ai choisi cette solution-là.
Tu trouveras le lien en description.
René, tu vas nous parler
des tendances vues par la CNCF, je crois.
Oui, alors
je te vole un peu la vedette,
parce que d'habitude, c'est toi qui nous parle beaucoup
des rapports
et des différentes évolutions, mais
je m'y colle cette fois.
En octobre,
il est sorti un rapport de la CNCF,
donc, la Native Computing Foundation.
Le lien sera
dans les notes
du podcast,
mais vous pouvez trouver ça assez facilement
sur le net.
Ce qui est pas mal,
c'est qu'ils ont analysé
en fait, c'est basé sur le nombre
de PR et Dishoo
sur les différents projets open source.
Donc, ils ont fait des statistiques
et ils ont classé un petit peu
les projets qui sont
CNCF,
donc,
vraiment
orientés Cube et Compagnie.
Et les projets
de la
Linux Foundation
qui font partie,
donc, et les projets
open source en général.
Et donc, je pense que
c'est bien fait,
il y a des graphiques,
on peut zoomer sur les graphiques,
il y a des données brutes, etc.
Et je pense que ça donne une bonne idée
de la façon dont on peut
les utiliser un petit peu
des projets qui sont les plus vivants
et donc un petit peu
des tendances peut-être
à suivre.
Parce que quand on voit le nombre d'outils
hébergés par la CNCF,
c'est vrai qu'il y en a énormément.
Donc là, ça permet un petit peu
de voir qu'elles sont
peut-être pas force, je pense que c'est
plus ou moins corréler
les plus populaires, mais aussi
les projets qui bougent le plus.
Donc on peut imaginer là où il y a le plus
de contributeurs et
d'utilisateurs.
Donc voir un petit peu
qu'est-ce solution se
détache.
Donc voilà, juste pour
exemple, pour la CNCF,
forcément le premier projet c'est
Kubernetes.
Après, on open telemetrie
qui est une grosse grosse bulle.
Après, on parle de Argo.
Backstage,
qui est un, si je dis pas
de bêtises, quelque chose qui est
par Shopify pour faire
des portails
de services.
Et Prometerus, juste pour donner
les cinq premiers.
Voilà, donc
je vous encourage
à regarder en fait ce document.
Et puis, je pense que
c'est assez
bien pour connaître des nouveaux outils,
des nouvelles solutions et voir celles
qui ont l'air de se détacher
ou du moins où il y a le plus
de, on va dire,
de mouvements.
Voilà, est-ce que vous connaissiez
ce rapport ? Est-ce que
ça vous suit ?
Voilà, ça vous pensait que
comme moi, un bon
indicateur.
Erwan, je te laisse
la main.
Alors moi, je n'étais pas tombé dessus
et je trouve que c'est
vachement intéressant et
alors c'est pas pour lancer un troch
ou quoi que ce soit. Mais
bon, je pense que
j'ai jamais trop caché que je met
plutôt bien Jenkins malgré tous
les défauts qu'il a. Et voir qu'il
n'est pas si mal classé que ça, alors bon
il est classé dans
PR, il est bien classé dans le truc
PR et Issue. Donc on peut
imaginer, ça se trouve, c'est que des issues de
gens qui se planquent que ça fait pas ce qui est attendu.
Mais non,
sans trop les, en vrai
c'est bien, on
l'a répété plusieurs fois dans
le podcast, que c'est
important quand on choisit une solution
de voir sa communauté, les
contributeurs, à quel point sa vie et tout
et ça c'est clairement
un moyen
d'avoir
un premier
filtre et avant une idée
et c'est
aujourd'hui du contenu hyper intéressant
et puis en plus c'est quand même vachement bien
faire avec l'interactive map.
Non, c'est du beau
taf.
Christophe ?
Oui, je
je me
doutais que Kubernetes était en premier, mais
alors je pensais pas que la distance entre
le premier et le deuxième était si importante
parce que pour info, Kubernetes
a annoncé
3662 contributeurs
alors qu'OpenTelemetry qui est le deuxième
il y en a deux fois moins avec
1419 contributeurs
c'est assez impressionnant.
Il y a plein de trucs, du coup
en effet c'est vachement bien pour trouver des nouveaux outils
j'ai notamment tendance à
dire à mes collègues que quand on veut trouver
une nouvelle solution, un nouvel outil
ou une nouvelle collection en cible
enfin, toute, toute dépendance
de n'importe quoi,
ce qu'il faut regarder c'est le
nombre de contributeurs et si le projet est
maintenu. Et ce genre
de rapport
et de présentation à une donnée c'est super
intéressant et super important
et là on va pouvoir découvrir plein de trucs
enfin, je pense que
je vais être refait jusqu'à la fin de l'année avec ça
je vais aller l'explorer, merci René
Ouais, merci, c'est vrai que
je t'ai passé la côté
c'est vrai qu'on voit toujours le landscape
et c'est un peu dur de s'y repérer
pour voir ce qui se détache au niveau contribution et utilisation
et là c'est intéressant d'avoir un peu un condensé
pour donner une vision un peu globale, rapide
je ne suis pas étonné que Kuban à être
soit premier, c'est vraiment
je pense un projet qui
qui est en train d'avoir la bonne maturité
d'être utilisé par plus en plus de grosses entreprises
et pour plein de besoins
donc c'est cool de voir que ça continue
d'évoluer, que c'est bien actif. Open telemetrie
me surprend à être si haut
mais c'est génial, parce que
la promesse d'Open telemetrie
est quand même
est quand même vraiment top de faire
globalement
je vais essayer de simplifier
je suis peut-être trop simplifié mais au pire
vous me corrigerais dans les commentaires
c'est de faire un APM
qui soit totalement standardisé
en fait avec des sortes
de maitris clics
ce qui est vraiment cool et ce qui
pourrait éviter aussi le vendeur locking
seul problème c'est que c'est un peu plus dur
à intégrer qu'un APM classique en général
je suis un peu déçu de ne pas voir flux
c'est de voir Argo en troisième mais bon ça on va dire
c'est mon petit
troll. Pour backstage
c'est un portail de développeurs
c'est à dire que vous avez un portail d'entreprise
où les développeurs
peuvent rechercher vos différents
microservices
programmes etc et voir quelle équipe
la développer, voir comment la contacter, voir l'état
des déploiements. C'est vraiment un portail unifié
qui va vous servir en fait à remonter tout ça
et vous pouvez l'interconner avec plein de choses
c'est quelque chose qui est très bien
mais qui je trouve assez lourd à mettre en place
pour que ce soit intéressant, il y a beaucoup de choses custom à faire etc
donc c'est bien si vous avez les moyens
si vous avez pas les moyens
c'est peut-être un peu overkill
je suis content aussi de voir Sylium
que j'apprécie
même si je galère
encore des fois un peu avec
je trouve vraiment c'est un super projet
et pour le reste c'est cool de voir aussi
que d'autres choses
vivent et sont un peu différents
dans les divers scopes
de l'anionction même si je vois que Kubernetes
est dans le top à peu près partout
ce qui est assez marrant au final
si je peux juste ajouter un petit truc
ce qui moi m'a surpris en fait
ce qui est pas mal c'est qu'on dézoome
donc quand on remonte sur
sur les projets open source
ce qui m'a surpris c'est NixOS en fait
on entend effectivement on entend pas mal parler
mais voilà, voir donc
sur les 30 projets open source
il arrive en
1, 2, 3, 4, 5ème position
et voilà ça m'a surpris
donc beaucoup d'activités sur NixOS
impressionnant
c'est pas un billet par contre
ça au niveau de NixOS
j'ai envie de le tester et tout
j'ai pas de soucis avec
mais NixOS de mémoire c'est
centraliser une grosse partie sur des repo-guites
notamment pour les packages
et du coup ça crée beaucoup de contributions pour ajouter
des packages ou pas packages en fait
tout simplement
oui je pense qu'il y a effectivement un petit billet
parce que je pense que dès que quelqu'un crée un nouveau
package pour un software qui existe
voilà ça va faire des comites
des pares etc j'imagine
malgré tout
ça veut dire qu'il y a beaucoup de choses
qui se paquette et qu'il y a beaucoup
du utilisateur
voilà c'est un projet
qui est pas si vieux
et ça m'a surpris
je voulais juste dire
que je pense qu'on contribue
plus facilement à du Nix au quotidien
qu'à du Linux en utilisant
un OS
sachant que Linux est le premier projet
oui
parce qu'il y a quand même
beaucoup de ressources dessus
qui sont là même en fulltime
et heureusement sinon
il y aurait des petits problèmes pour soutenir tout ça
bénévolement
surtout Linux c'est un peu de partout
dans le cloud donc on a besoin en effet
que ce soit robuste et je pense que c'est
aussi pour ça que Kubernetes est aussi haut
parce que
il a pris une place ces dernières années
assez impressionnante
et je pense que c'est pas près de s'arrêter
je pense que c'est vraiment pas près de s'arrêter
bref
c'était le moment de mem dropping
du podcast
si tu veux meme dropper toi aussi
viens sur le forum de la communauté
des compagnons
tu peux t'inscrire sur le site
c'est
c'est compagnon-tiraid-devops.fr
le lien est en description et tu pourras
nous partager aussi tes avis
sur justement le rapport
de la CNCF
et
quelle transition tu as trouvé pour parler de cloud
mon cher Damir, que d'abandonner la CNCF
oui c'est vrai
on va du coup parler de cloud
cette fois-ci
au lot de la des standards et l'open source
et on va dire du tout réseau CNCF
de CNCF
je n'y arriverai pas
on va parler du coup des annonces qu'il y a eu
parce que oui il y a eu des annonces
la fin d'année c'est l'heure de déballer les cadeaux
un petit peu en avance
et pour ça on a eu deux globalement grosses conférences
que j'ai suivi
plus ou moins six du moins en fonction des urgences
du moment et de mes debuts sur Syllium
mais bon c'est une autre histoire
globalement il y a eu tout d'abord
l'AWS Submit
je ne vais pas rentrer en détail de toutes les annonces
que l'AWS Submit c'est
typiquement de la WS dans le sens où
il y a énormément de choses, des choses super
et des choses qui sont très scopées
il y a eu beaucoup d'annonces
pour plein de produits qui sont géniaux
je vais vous prendre deux trois trucs
qui moi m'ont semblé intéressants
soit au niveau de l'entreprise, soit au niveau de l'utilisation
bien sûr vous avez des liens
dans la description pour voir
un peu plus d'informations
sur l'ensemble de ces annonces et voir ce qui vous intéresse
il y a tout d'abord le S3 One Zone
qui va sortir, donc du coup ça va être un S3
qui va peut-être redondé
sur l'ensemble d'un AZ
et qui va être beaucoup plus rapide
et beaucoup moins cher, donc ça c'est vraiment
quelque chose qui peut être intéressant pour des questions de performance
il y a aussi beaucoup de services autour de LIA
notamment un système de prompt
qui pour l'instant ne va pas disponible en France
mais en tout cas
sur les régions européennes en général
mais un système de prompt
à la Charge GPT mais cette fois-ci scopée
ruyanté entreprise pour éviter les fuites de données etc
donc on voit que
là dessus on commence à avoir des choses
qui se retransmettent dans les différents produits
qu'on va voir au quotidien
on a aussi une solution de client léger
qui repose sur
Fire TV je crois ou je ne sais plus
quel est le nom de leur boîtier
Fire TV Cube
qui va permettre du coup de
potentiellement d'une alternative à tout ce qui est citrique etc
donc c'est intéressant de voir qui réutilise ça
sur AWS
il y a eu pas mal d'autres news
j'ai vu des améliorations
j'ai pu le détail
sur l'IAAM
les stations des rôles sur les pod
les pod Kubernetes
qui sont au run sur AWS
ce qui est quand même super intéressant
et super pratique au quotidien pour assigner
des droits directement à des petits pods
et au-delà de la AWS
il y a un acteur bien plus
local qui a aussi fait pas mal d'annoncer
OVH
que j'ai un peu mieux suivi
j'avoue ça tombe un peu mieux pour moi
donc de leur côté
il y a eu aussi beaucoup d'annonce dans l'IAAM
je vais pas rentrer dans les détails
mais ils ont pas mal insisté dessus
on sent que c'est vraiment un pendant
qu'ils veulent pas perdre en fait
et qu'ils veulent pas prendre autant de retard
qu'ils ont pris dans le cloud public si j'ose dire au début
ils ont je pense cette crainte là
à voir ce que ça va donner
mais en tout cas sur les choses qui sont un peu plus concrètes pour nous au quotidien
j'ai noté pas mal de choses
donc déjà OVH va multiplier
les régions
à la AWS si j'ose dire
donc c'est les régions avec 3 AZ
sachant que chaque AZ est un datacenter
qui est séparé de nos datacenter par 10 à moins de kilomètres
on
peut pas penser à ces annonces là
sans repenser à l'incidence Trasbourg
sans penser au fait que
typiquement toutes les régions grâchent
sur OVH en faisant dans un même métal datacenter
donc se dire qu'ils ont, ils commencent à prendre conscience
que ça c'est un réel problème pour leurs clients
et que la clarté aussi des nommages
des régions sur OVH est une horreur absolue
à l'utilisation
et du coup
ils veulent repousser ce modèle
ils avaient annoncé Paris, on a annoncé qu'il y aura d'autres régions
au-delà de ça ils avaient acheté une boîte qui fait de l'edge computing
et ils vont se lancer
dans la construction de mini datacenter
donc ça aide des datacenter
beaucoup moins dense, beaucoup moins gros
que les datacenter actuel mais leur but en gros
c'est de faire des implementations ultra localisées
avec plus d'une centaine en fait
d'ouverture sur toute la
sur toute la Terre
donc c'est super intéressant
notamment je pense aux dumbtoms
ou sur d'autres îles ou dans des coins comme ça
ça va être très intéressant pour mettre
des battleedge computing
ou plus près en fait des clients mais aussi
peut-être pourquoi pas pour leurs cdn
qui va pouvoir avoir vraiment beaucoup de points de présence
donc ça à voir comment ça va faire évoluer
c'est une annonce très commercial
mais le futur pourra peut-être
nous montrer de belles choses
il y a aussi des nouveaux services
mais ça on a déjà globalement entendu parler
sur le verité tech trip
il y a KMS qui arrive à la fin d'année
donc vous allez pouvoir chiffrer enfin vos instances
notamment avec des clés KMS
et ça c'est une chose qu'on attend depuis longtemps
du rancher
à service et du VPN
sur les réseaux vh nativement
donc c'était quand même des choses assez sympas
au-delà de ça on a aussi des annonces
sur le Secnum cloud
moi chose qui me fait un peu rire, un peu grincer des dents
c'est que Secnum cloud pour l'instant c'est OVH
globalement si vous vouliez en faire
c'était réservé à l'Europe vmware
donc quelque chose de très souverain
comme solution pour le coup
et là cette fois-ci ils ont annoncé qu'ils allaient
le globaliser à l'ensemble de leurs oeuvres
donc le bar metal devrait être sous Secnum cloud
en 2024
et toute la partie publique entre 2024 et 2025
donc à voir si ils arrivent à tenir cette deadline
mais là j'avoue que ça peut être intéressant
si vous avez des problèmes de législation
niveau Secnum cloud
donc globalement je sais tout ce que j'ai noté
ça me paraît déjà pas mal
il y a des choses qui vont être assez intéressantes
à voir comment ça se retransmets dans la réalité
je sais qu'OVH a souvent eu des promesses non tenues
d'un autre côté ils ont quand même sorti
la IAM qui s'avait promis au Véritèque Trip cette année
donc c'est assez cool qu'ils arrivent à tenir
cette promesse qui est quand même conséquente
donc on va dire que j'ai bon espoir pour le reste
vu que c'est un acteur que j'utilise quand même pas mal
même si je râle beaucoup après
et que j'ai beaucoup de problèmes dessus
parce que je ne sais pas comment ils ont foutu
ça et pourquoi ils ont eu certaines idées
un peu farfelues
et du coup vous, est-ce que vous avez suivi ça
est-ce que vous avez des annonces qui vous ont intéressé
toi du coup René
est-ce que tu as suivi
ou tu as eu des choses qui t'ont enchanté
non non je n'ai pas suivi
spécialement
et ouais
ça a l'air assez ambitieux
enfin je parle pour OVH
ça a l'air ambitieux, ce qu'ils veulent faire
c'est cool
et vraiment
ce que je retiens
c'est vraiment cette idée d'avoir 3 datacenters
un peu comme les grands
comme les grands acteurs
ouais je trouve ça super
donc j'espère que ça
ça va se concrétiser
et
ouais ça sera un gros pas en avant
je pense
R1
effectivement
en moi j'ai pas
j'avoue que j'avais pas trop suivi
ces annonces-là
donc merci pour le petit
petit brief
effectivement ce qui me parait
important c'est l'histoire
des datacenters, comme tu disais
ils sont souvent fait un peu taper dessus
sur les doigts pour le fameux
méga datacenter qui est en fait
qui correspond
à leurs différentes azides
qui est tout au même endroit
mais par contre
c'est ce que tu expliquais
sur les
le déploiement
de plus petits datacenter
je sais pas trop comment on dit
alors ça je trouve ça hyper ambitieux
mais alors ça me paraît
pour avoir un peu
travaillé sur ces sujets
c'est
sacrément ambitieux
et c'est pas facile
je sais pas s'ils ont donné des dates
associées à ces différents projets
ou en tout cas des projections
mais
c'est pas facile à faire
ils ont donné
alors j'ai plus les dates en tête mais j'avais écouté
ils avaient donné des dates assez chores
ça sera pas dans 15 ans
donc en tout ils en ont prévu 150
et c'est prévu sur
là je viens de trouver un date sur 3 ans
donc 150 sur 3 ans
j'avoue que beaucoup de choses me font peur
c'est un projet qui est ambitieux si il réussit c'est cool
il y aura surement plein de choses à en apprendre
mais moi globalement ce qui me fait peur c'est les interconnections
il faut trouver 150 points
qui ont une bonne interconnection
la supply chaine au niveau des serveurs
comment ils vont gérer la construction
parce qu'ils ont sait qu'ils construisent leurs serveurs eux-mêmes
c'est aussi pour ça qu'on a fini sur un truc très centralisé
il va falloir les expédier, gérer les remplacements
gérer tout ça
il y a beaucoup de problématiques comme ça
et même au niveau de la taille
en fait lors d'atacenter est-ce qu'ils vont pas se remplir trop vite
ou est-ce qu'ils misent d'or
tellement d'atacenter qu'au final
c'est un datacenter au coin de la rue
un autre derrière toi
si un est rempli tu vas sur l'autre
il y a beaucoup de questions que je me pose comme ça
donc on va voir ce que ça donne
et je pense que je suivrai ça vraiment par curiosité
plus que par besoin dans un premier temps
les que par ils veulent un peu concurrence et claude flair
en faisant ça c'est vrai que ça c'est
ambitieux effectivement
je sais pas, claude flair c'est le soft maintenant
et l'intégration
je pense plus que ça soit de temps
on verra bien
moi ces histoires de mini datacenter
ça m'intrigue pour avoir travaillé justement
en datacenter
je sais pas ce qu'on entend par mini
donc si tu es sur le podcast que tu me vois pas
j'ai fait des petites parrentées avec mes doigts
parce que ça peut être en effet
soit des datacenters de quelques dizaines
ou centaines de machines
soit ça peut être carrément
une salle complète mais juste une salle
moi je me pose des questions justement
sur la gestion
parce que dans les datacenters il y a des gens
qui gèrent, on a visité
un datacenter sqlw
dami, er1 il y a quelques années
et il y a souvent des gens qui gèrent
je me pose des questions sur est ce qu'il va y avoir
des employés au vh un peu de partout
ou est ce qu'ils vont faire appel à des techniciens tiers
parce que ça arrive
et moi je trouve que c'est
une superbe idée d'avoir
des datacenters plus localisés
et comme tu le disais
pour les domtoms et autres
pour ces endroits là où justement il y a très peu de datacenters
ça peut être une solution
parce que eux aussi ils ont des besoins
en cloud
bref je sais pas ce que ça va donner
j'ai hâte, j'ai aussi vu dans l'article
du nos partages que
ça y est, au vh fait
plus de 50% de son chiffre d'affaires
en dehors de France
ça veut dire que vraiment maintenant
la grande majorité de son chiffre d'affaires
n'est plus fait localement
donc c'est peut-être aussi pour ça
qu'ils veulent densifier
tout ça
mais je suis aussi inquiet que toi
sur les interconnections
parce que plus t'as des datacenters
plus il va falloir en faire
en tout cas sur 50 ici
3 ans ça fait beaucoup
oui oui il avait dit que le rythme était assez fou
on va voir après je pense que c'est aussi un défi pour eux
c'est un stress test de leur côté
c'est pour ça que je vais suivre
vraiment le côté là
par curiosité
et ben suivons
suivons si toi aussi
tu nous suis tu peux
partager le podcast sur les réseaux sociaux
mais surtout ce que j'ai à te dire
c'est que le podcast comme tous les contenus que je crée
sont en licence libre
ils sont en CC BAYESA
tu peux justement les utiliser
tu peux en découpler des bouts
et tu peux les utiliser
partout il suffit juste que tu nous
cites radio de DevOps
ou les compagnons de DevOps
en fonction de la plateforme que tu utilises
et puis tu peux en plus nous dire
que bah hey que coules les gars et les filles
j'ai utilisé votre podcast
j'ai utilisé votre vidéo pour faire ça
et ça nous fera tout
et tous super plaisir
et pour la dernière
news c'est moi qui m'y colle
alors on le sait
le DevOps a émergé à cause justement
d'objectifs divergents entre les devs
et les ops entre l'innovation
et la stabilité
et aujourd'hui je te propose de parler
de Kubernetes oui encore
et surtout du sujet qu'il anime en ce moment
a-t-il besoin d'une LTS
bon alors pour ceux qui ne chiffrent pas LTS
ça veut dire long terme support
c'est en gros de l'assurance d'avoir
un support utilisateur
de plusieurs années sur un produit informatique
Kubernetes donc
l'orchestrateur de conteneur que tu connais
certainement suit actuellement un cycle
de support d'en moins
2 ça veut dire que les
3 dernières versions mineurs
recevent des correctifs
et les autres que d'ailleurs
avec une sortie toutes les 15 semaines
environ chaque version
bénéficie
d'un an de support
à la louche alors est ce que c'est suffisant
et bah ça c'est la question
que se pose Mathieu Dugan
dans un article de blog
je te mets le lien justement en description
donc ce cycle de vie
là il correspond
enfin est ce que ce cycle de vie là correspond
à la réalité des déploiements surtout pour les grandes entreprises
ça c'est des questions qui se posent
ils se posent aussi les questions
sur le rythme rapide des mises à jour
et le volume des changements
qui posent justement un défi aux entreprises
et ils parlent même pas des coûts
de ressources et en temps associé à la création
de nouveaux agrégats pour faire les mises à jour
pour tout tester
il prend justement l'exemple
des fournisseurs de services cloud comme Azure
et Google Cloud qui ont déjà étendu
la fenêtre de support de leur version
de Kubernetes
Azure supporte
pendant deux ans
une version Kubernetes tandis que Google Cloud par exemple
a maintenu le support de Kubernetes 1.24
pendant
584 jours
il propose
que Kubernetes adopte un canal LTS
avec un cycle de vie de 2 ans
sans possibilité de mises à jour entre les versions
ça veut dire que si tu es dans une version 1.24
tu ne pourras pas passer vers une version 1.25
ça
pourquoi il propose ça parce que selon lui
ça va encourager la création régulière de nouveaux noeuds
et le rafraîchissement
de l'ensemble de la stack
en gros tu vas acheter des anciennes versions
et tu vas popper des nouvelles versions
des nouveaux serveurs avec des nouvelles versions
donc cette approche ça offrirait
un point de stabilité
tant pour la communauté des utilisateurs que pour les éditeurs tiers
puisqu'il y a plein de gens
qui font du business autour de Kubernetes
on a parlé d'Amazon tout à l'heure
et à OVH aussi qu'il y a une
off Kubernetes Managed
alors d'un autre côté
certains estiment que la flexibilité
est intrinsèquement liée à Kubernetes
ils pensent que
les mises à jour continuent sont essentielles
pour accompagner notre démarche DevOps
pour maintenir une stack à jour
c'est crucial et les mises à jour fréquentes
ça simplifie le process
et enfin il y a une troisième voie
qui prône l'amélioration du process
de mises à jour de Kubernetes
pour faciliter le saut entre les versions
parce que en effet pour eux
LTS ça signifie pas forcément
absence de mises à jour mais plutôt
des mises à jour qui sont plus simples
en tout cas ça fait débat
et ça fait fortement débat
sur Wacombinator, pareil je te mets
lien en description
tu verras il y a beaucoup de discussions
sur tout l'article
il a que 2 ou 3 jours au moment où on enregistre
cet épisode donc finalement
une des questions clés c'est
est-ce que le projet Kubernetes
est-ce au projet Kubernetes
de proposer une LTS
ou est-ce que c'est aux distributions
tiers parce qu'on le sait Kubernetes
il y a plein de distributions
il y a certains utilisateurs justement qui suggèrent
que ceux qui ont besoin d'une LTS
se tournent vers une off commerciale
par exemple il y a OpenStack
qui propose une LTS
en conclusion
est-ce que Kubernetes
doit continuer à être une plateforme
alors que Kubernetes continue
à être une plateforme incortournable
pour l'enquistration de ces conteneurs
le débat sur la nécessité d'une LTS
est en train de s'ouvrir
alors une LTS ça pourrait nous offrir
une stabilité n'est-ce pas les gars
tout en permettant une mise à jour régulière
de l'infrastructure
c'est quoi votre avis là dessus
alors je sais que Damir était très tatillon
alors je vais lui passer la parole tout de suite
moi j'ai un avis un peu mitigé là dessus
je comprends bien l'intérêt d'une LTS
c'est le point de vue derrière tout ça
ce que je constate
c'est que le plus souvent dans les faits
avoir une LTS
c'est surtout une excuse pour repousser
la deadline au dernier moment et attendre
depuis longtemps possible après être retrouvé
il y a beaucoup de changements qui est énorme
Kubernetes au-delà de l'histoire
des nombre de mises à jour extens
c'est un produit qui évolue pas mal au niveau des API
il y a beaucoup de chemins d'API qui changent
on a des changements assez conséquents
notamment des changements qui arrivent plus petit à petit
sur la partie des ingresses etc
c'est des choses qui sont
importantes
et si jamais on se retrouve à faire des LTS
j'ai peur de l'effet du
ah non mais je ne mets pas à jour parce que de ma LTS
à la nouvelle il y a beaucoup trop de changements
et au final on se retrouve
avec des trucs qui sont pu supporter
la deuxième chose
que je vois c'est que cube
la manière dont il est prévu
et ça j'en ai parlé dans un article
dernièrement sur Kubernetes et mon vécu avec
Kubernetes
est prévu pour globalement
ce qu'on porte avec
en mode Cattle
c'est à dire que vos nodes ce n'est pas censé être quelque chose
auquel vous tenez comme la prounelle de vos yeux
la bonne pratique ça reste quand même
de pouvoir en ajouter en supprimer et faire des rollouts
faire des rollouts de ces nodes
pour mettre à jour ça se fait
c'est même la bonne pratique
si vous êtes sur AWS je vous encourage
à utiliser des outils comme Carpenter
qui vont automatiquement trash et recréer des nodes
qui vont faire des choses très propres
et très cool là dessus
et qui vont faire économiser du pognon
donc ça c'est de ce point de vue là
après
oui il y a beaucoup de changements aussi au niveau
on va dire
au niveau des appels
comme je disais donc
le faire les mises à jour régulièrement
ça demande du taf là dessus
oui totalement
mettre une LTS comme je dis ça ne va pas le supprimer
ça va juste le mettre en un point et je trouve c'est pire
je pense c'est plus aux organisations
en fait d'évoluer et d'apprendre
en fait à gérer ça
à mieux gérer leur cycle de vie, à faire de la gestion
continue là dessus, à faire de la veille
mais ça
c'est un coût humain qui pour l'instant est caché
parce que quand c'est trop compliqué on ne met pas à jour
après la troisième point on va dire
et se dire si les entreprises ont vraiment
des besoins
on va dire de LTS pour des raisons X ou Y
j'ai peut-être des choses que je n'ai pas en tête
pourquoi pas
sous forme de
services payants ou supportés par les distributions
en tout cas
ça me dérangerait un peu moins mais dans la logique
j'ai peur vraiment de soit que ça brille
le développement soit qu'on se retrouve avec des LTS
qui sont tellement différentes que ça va juste tout casser
j'ai vraiment peur de ces effets
là quoi
ou pire que ça fasse comme piton
qu'on se retrouve pendant 10 ans avec d'un côté
une version 1 et une version 2 parce que
c'est trop compliqué à trop de différence entre les deux
dans l'état de maturité actuelle
je pense quand même que c'est une mauvaise idée
que cuban a été une LTS
peut-être dans 5-10 ans quand le produit sera entre guillemets
quand je dis mature c'est
choses évolueront un peu plus lentement ou soit un peu plus découpé
pourquoi pas
mais pour l'instant le produit évolue encore beaucoup
ce qui est une très bonne chose
il est dans un cycle de vie où il explose et il est plus en plus utilisé
et je pense que
cette LTS serait compoteur productif
et je sais que les gens vont dire
notamment dans les commentaires
et je sais que certains dans les auditeurs ils pensent
oui mais tu te rends pas compte on n'a pas tous les moyens
de faire du rolling update des instances etc
ça reste un problème
si vous ne pouvez pas mettre à jour vos outils
que ce soit cubernette que soit autre chose
il y a des LTS sur D&B
il y a des LTS sur Ubuntu
et j'en vois encore régulièrement
qui ont des versions qui sont dépassées au niveau des mises à jour
pourtant les LTS sont assez longues
il y a le temps de tour au build
il n'y a pas spécialement d'excuse
soit c'est un problème organisational soit c'est un problème humain soit c'est un problème de budget
mais dans tous les cas le vrai problème il est là
et c'est pas une LTS qui corrige ce problème de fond
Quelqu'un d'autre veut prendre la suite
moi je veux bien rebondir
sur ce que Damir a évoqué
et je comprends tous les arguments
que Damir a mis en avant
mais c'est rigolo
enfin c'est coca
parce que moi c'est justement
pour les globalement les mêmes arguments
que je me dis bah c'est pas une si mauvaise idée
d'avoir une LTS
parce que justement
on sait que
il y a toujours de l'inertie
sur les mises à jour
de systèmes de façon générale
et cube
c'est pas
c'est pas un simple système
donc on sait que
les projets de mettre à jour
ce type de plateforme
c'est toujours un peu complexe
et donc
moi je me disais peut-être un peu naïvement
mais que la LTS
a défaut
de
je suis d'accord que ça peut créer
une résistance au changement
mais je me dis au moins tu garantis
que les pages de sécu
ils sont toujours là etc etc
sur un temps
qui est acté
et ce temps qui est acté
et bah on peut imaginer
alors encore une fois je vais
prendre avec des pincettes et tout mais que c'est
le temps nécessaire pour qu'en gros
n'importe quelle boîte puisse préparer
ces migrations justement
et
en tout cas le temps qui a été estimé
pour faire ce type de migrations
et du coup
je suis d'accord avec toi
sur le fait qu'on doit se poser
la question si
mettre à jour ça c'est l'angoisse
il y a peut-être quelque chose
sur lesquels on n'est pas hyper fort
c'est vrai
mais j'ai le sentiment que
ça c'est le step
de maturité le plus avancé
moi je dirais déjà
que
toutes les infras
les personnes qui les managent
je serais déjà ravi de
avoir des trucs
full idopotant
qui se rebule de from scratch
et déjà si tu peux avoir cette garantie
là avec des versions qui sont certes figées
mais si tu perds ton infras
tu sais la reconstruire en lançant les bons trucs et tout
bah t'es déjà content
et donc
je suis désolé je dis
le step
de passer à je mets à jour plus régulièrement
bah il est
quand même pas si évident que ça
mais tu l'as bien résumé
c'est souvent un problème
de
plus de temps humain, d'organisation, de structure
mais du coup
justement
par les arguments que tu donnes
moi j'aurais plutôt tendance à me dire
bah en fait la etels
ça permettra probablement
de rassurer l'utilisation aussi
de ce genre d'outils
parce que probablement pas dans les structures
où nous sommes mais dans des structures peut-être plus rigides
t'as Jean Michel
du comité SQ qui va dire
tout là, qui va dire ah bah s'il n'y a pas de LTS
on n'est pas ça
enfin j'en sais rien mais je me dis que
c'est, enfin je vois pas
ça comme
un vrai frein comme tu le
définis mais peut-être que je suis hyper naïve sur le sujet
bah moi c'est vraiment un constat
que je vois avec les distributions
tant qu'on boune tout à augmenter la LTS et
bah on se rappelle tous de Windows XP
il est arrivé en fin de vie
tout le monde était habitué aux trucs, personne ne voulait migrer
ils ont fait qu'augmenter, augmenter, augmenter le support
et on a fini avec un truc qui avait
aucun sens en fait
et c'est un vrai souci
après je suis d'accord avec toi tout le monde n'est pas assez matur
pour faire tout ça automatiquement
et pour moi c'est là qu'on arrive
au point de
si tu n'as pas les ressources en interne, si tu n'as pas les compétences
ou si tu n'es pas encore assez mature pour maintenir un Kubernetes
tu prends du manager
soit tu mets les moyens pour le faire en interne
soit tu prends du manager et à un moment
c'est aussi le but du cloud c'est de te dire
je n'ai pas assez d'argent pour faire les choses tout en interne
je n'ai pas assez d'argent pour m'implimenter un IAM
je n'ai pas assez d'argent pour me faire
on va dire ma gestion des VM proprement etc
c'est le but du cloud c'est de te permettre ça
alors ok tu payes un peu plus cher
mais comparez au prix que tu devrais payer pour maintenir ton cube
peut-être en interne alors que tu es que 2 ou 3 personnes
bah oui
c'est largement rentable
René tu veux agir ?
ouais en fait je réfléchis
c'est un petit peu
par rapport aux situations qu'on vit aussi
sur Ponstack
et effectivement
parfois ce qui se peut se passer aussi c'est que
tu as des clients
qui dépendent d'applications
third party
donc si tu gères tout entièrement tes applications
effectivement tu peux peut-être beaucoup plus facilement
faire des
des mises à jour mais il y a quand même quelques cas
ou
tu dépend d'applications third party
qui sont certifiées sur certaines versions
certaines plateformes
et du coup c'est pas si simple
pour certains gros acteurs
totalement telco
de mettre à jour il y a parfois des contraintes
donc
dans ce cas-là ça peut être nécessaire
d'avoir une LTS
après est-ce qu'elle doit être upstream ?

je pense pas
parce que comme on voit pour
on voit que Linux a réduit
la période de sa LTS
et finalement il y a peut-être pas tant de gens qui utilisent ça
je pense pas que soit le rôle du projet upstream
mais ouais effectivement côté des distributions
oui je pense que
c'est une des plus values qui peut pour certains acteurs
être intéressante
alors t'as parlé
de la mise à jour de l'agrégat
t'as parlé des nœuds
je me pose une question quand même
qu'est-ce que tu fais des nœuds d'infrastructure
qui hébergent ton TCD et autres qui sont moins faciles
à mettre à jour
en effet les nœuds qui font tourner les applications
là il y a pas de problème
pour moi mais c'est vrai que
les nœuds-coeur de l'infrastructure
sont moins faciles
à mettre à jour et c'est ça
que soulève l'article je pense
et je fais partie des gens en tout cas moi
qui font partie de la troisième voie
qui aimerait bien un process
de mise à jour beaucoup plus facile
avec des LTS
sans forcément ralentir
le niveau de
le niveau de mise à jour
parce que tu peux avoir en effet
des gens qui veulent
mettre à jour régulièrement
leur Kubernetes et des gens qui veulent
moins mettre à jour pas forcément
parce qu'ils veulent pas mettre à jour l'infrastructure
ça peut être un cas mais je pense aussi à l'autre cas
c'est en a parlé
je l'ai pas dit mais l'article
il en parle aussi
il y a le fait qu'il y ait des breaking change
dans les API et dans
les outils de Kubernetes
et donc si tu as une LTS
toi en tant que développeur
t'as au moins l'assurance que
t'as une vision
sur deux ans
que tu vas pas devoir renouveler
tes trucs tous les trois mois
ou toutes les années, tu vois ce que je veux dire
et du coup
je comprends les deux points de vue
c'est pour ça que moi je fais partie de cette voie là
qui prenne une mise à jour facile
et une LTS dans les deux cas
et je te rejoins si on n'a pas
les moyens humains
de maintenir un Kubernetes
et c'est chaud
à maintenir
il faut prendre du manager
parce que...
ouais je suis d'accord
pour le control plane
ça dépend de la distribution que tu utilises
et si c'est sur le cloud
en général t'as pas le géré
mais dans tous les cas
oui ça se fait plus compliqué
si je te rejoins sur le fait que
si la douleur elle est vraiment là dessus
c'est qu'il faut bosser là dessus
faut bosser sur un système de upgrade en rolling
automatique ou autre chose
pourquoi pas
mais dans tous les cas
c'est important pour le coup
que ça soit moins
que ça ne se vienne plus une contrainte
je pense que c'est ça le vrai problème
tu vois là quand tu remontes que ça c'est un problème
pour moi on doit pas dire
faire une LTS pour le faire moins souvent
on doit dire on fixe ce problème
j'ai peur en fait que la LTS
c'est comme l'histoire des API des précieux
je suis d'accord ça va être
je pense le plus gros problème au quotidien
pour l'avoir le cas
sur beaucoup de clusters
dans ma boîte du coup à Waze on gère
des clusters pour des clients
on commence à en avoir pas mal
oui ça va être un chantier qui est assez gros
après il faut bien que
je pense que c'est une douleur mais qui est pas forcément mauvaise
dans le sens où ça a
forcé à suivre en fait ses applications
les parts de choses qui tournent un peu sur le tapis
sur le cluster cube
que personne c'est à qui ça appartient
ça n'évolue pas et ça ne bouge plus
il y a pas mal d'outils qui existent aujourd'hui
qui permettent de détecter les dépréciations
de l'API etc
moi je trouve que ça serait bien et c'est une bonne pratique pour moi
que moi j'ai un repo fluxidi dans lequel j'ai mes ressources
en
customise
customise et 2-3 Elm
mais moi ça me parait pas déconnande
en plus du github
qui va pool mes ressources
d'avoir une CI GitLab qui va me faire un audit
qui va m'envoyer je sais pas tous les mois à rapport
et me dire vous avez tous ces chemins d'API qui vont être dépréciés
dans telle version
il faut aller prendre en compte
et en vrai maintenant on est bien outillé
si on est un minimum organisé
ça prend pas si longtemps d'upgrade les versions
sauf qu'on y a vraiment un gros truc qui change
mais ça se calme quand même depuis quelques années
il y a beaucoup d'ajouts mais il y a beaucoup moins de choses
qui changent dans le fond
déjà jouent ou des changements de passe mais il y a beaucoup de
breaking change au sens propre du terme
donc je pense que c'est une charge qui est tout à fait
gérable en réalité
je me semble c'est cubaudite on peut faire
ce que je disais des rapports ou des choses comme ça
pour moi il faut d'abord réduire ces douleurs
après si y a besoin d'une LTS
pourquoi pas pour des cas spécifiques au cas que je ne l'ai pas pensé
mais pour moi ça doit passer par une distribution
c'est pas le rôle de Kubernetes
en soi de commencer à gérer des LTS
eux leur but c'est de développer une solution
de la faire évoluer et assurer
de la pérennité du truc au niveau
de développement
tu fais partie des gens qui prônent
une distribution avec une LTS
et pas l'obstrimme comme cube
c'est ça mais après
c'est plus dans le sens où tout le monde est libre
si quelqu'un veut faire une LTS
parce qu'il a des besoins de certification
comme Ronel disait ou si on a un environnement
un peu très spécifique
pourquoi pas mais il faut pas que ça
ça rend dans un philosophie du produit parce que j'ai très peur
des effets néfastes
vous voulez réagir
R1 et Ronae
moi je pense que je suis aligné
plus ou moins avec ce que Dynamir
donc voilà après
même si je vois le côté
de faire ce genre de choses
et qui vend dans l'LTS etc
de gérer un produit
qui fiche des versions
c'est un gros boulot
et puis un gros casse-tête par moment
mais justement c'est le
boulot des distributions
même c'est pas super rigolo parfois
mais je le répète
encore une fois je suis chiant là dessus
pour moi les LTS c'est bien
mais ça a trop tendance aujourd'hui
à être une excuse et surtout à cacher les problèmes de grade
et ça donc
sur tous les produits
oui et au final je suis
totalement d'accord avec cette conclusion
moi j'aimerais bien avoir une LTS
en plus d'une mise à jour facile
mais j'avoue que
en effet comme le dit
d'Amir je pense que c'est plus le rôle
d'une distribution
tierce d'avoir une LTS
un peu plus pro que Kubernetes
qui a un produit qui évolue
énormément même si
il commence à avoir
atteint une certaine maturité ça fait plus de 8 ans
maintenant qu'il est là donc
9 ans même
c'est bien mature maintenant
et puis c'est utilisé un peu de partout
donc
on n'a pas fini
d'en discuter
si toi tu débutes
dans le DevOps tu sais pas encore ce qui est Kubernetes
bah déjà tu peux aller voir
les autres podcasts qu'on a fait sur le sujet
mais si tu veux te forger
une culture DevOps pour justement
savoir pourquoi est-ce que les devs et les ops
doivent se rapprocher et coopérer ensemble
bah justement j'ai créé une formation
pour toi et elle s'appelle DevOps Mindset
DevOps Mindset
c'est une formation dont le premier lien
est en description et si tu écoutes
ce podcast au moment de Noël
parce qu'il va sortir à peu près à ce moment-là
et que tu es inscrit à la newsletter
et bah je t'ai envoyé
un code de réduction énorme
sur cette formation donc si tu vas en profiter
vas-y
on va passer
au moment que tout le monde attend
les outils et Damir
va commencer par parler d'un outil qu'on avait
brièvement abordé dans notre podcast
sur les secrets
oui on est rapidement parlé
mais je l'ai pas retrouvé dans la liste des outils sur le forum
que je vous invite à rejoindre d'ailleurs
dans le forum dans lequel on a un poste avec tous les outils
donc je vais reparler de SOPS
alors pourquoi j'en reparle pour Aethenette
parce que j'ai fait un article dessus et du coup ça m'a donné l'occasion
de le retester un peu surtout de le voir dans la vraie visque
ça donnait
SOPS c'est un peu obscur pour moi et je me rappelle
plus trop si on est des gens on avait
de l'expérience dans le podcast qu'on avait fait pour Aethenette
mais globalement
ça me paraissait un peu étrange comme placement
donc je l'ai testé, j'ai aussi vu comment ça marchait
dans la réalité c'est à dire dans la situation du quotidien
donc avec du terraforme et de l'antipole
donc toutes ces choses en fait
qui moi m'intéressent au quotidien
parce que gérer de secrets c'est bien marrant
mais moi ce que je veux faire c'est
récupérer mes secrets dans mon antipole
les poussets avec mon terraforme etc
donc j'ai testé ça
c'est quand même un outil que je trouve très
sympa et très cool dans l'idée
faut vraiment le voir
comme un outil
un peu couteau suisse du secret
qui est très simple de conception
qui est très efficace mais qui va vous demander
des fois de réfléchir un peu
ça va pas être quelque chose qui est intégré tout le temps
out of box partout donc ça c'est
peut-être un peu le truc où il faut prendre un gymnastique
mais c'est quelque chose qui est tellement simple que c'est
super plaisant
et ça peut s'intégrer dans beaucoup de choses
avec un peu d'efforts
le principe est très simple vous allez vous connecter
un KMS
donc un gestionard de clé
ça peut être du H.C.P.A.P.A.L.
ça peut être de la WSIAM mais ça peut aussi être
des choses décentralisées comme du EDGE
qui est un système de clé asymétrique
ou du PGP
d'ailleurs EDGE c'est vraiment génial
moi ça
j'aimerais bien sortir du PGP pour du EDGE
pour le coup pour certains besoins
et du coup cet outil là il va reposer
sur un de ses back-end donc c'est pas lui qui va le gérer
il va juste reposer dessus
pour chiffrer des fichiers
et ce qui est intéressant c'est qu'il va pas
vous chiffrer tout le fichier, je vais juste vous chiffrer
les champs de valeur
et vous mettre un métal d'attaque
les informations donc il va pas créer de base de données
ou quelque chose c'est totalement décentralisé
pour moi ça c'est la force du produit
c'est géré par les gens de chez Modzilla
donc ça c'est quand même assez cool on peut leur faire plutôt confiant
chez Modzilla je pense
en tout cas moi personnellement je leur fais confiance
et c'est totalement
c'est totalement
c'est un open source mais je n'ai pas d'outre si c'est libre
pour le coup je ne m'en bats plus de la licence
en tout cas je vous conseille de le tester
vous pouvez du coup chiffrer
des fichiers yamel, du jizon
vous pouvez chiffrer plein de choses
ça marche bien, c'est rapide, c'est décentralisé
c'est gratuit
pour moi c'est une bonne solution
surtout si vous avez du geek-crypt ou des choses comme ça
un peu lourdes et un peu pas optimales
ça peut être une bonne première
step si vous n'avez pas la possibilité
d'aller sur un système on va dire plus centralisé
qui a l'avantage
d'avoir des logs d'audit et des choses comme ça
ce n'est pas par contre Sops
mais en tout cas je vous le conseille
de mon côté et si jamais vous voulez plus d'infos
je mettra dans la description le lien du
GitHub de Sops
qui contient aussi une partie de la doc
et aussi mon article de blog
sur lequel je vous donne des exemples d'utilisation
et bien cool merci
pour info c'est
une Modzilla public licence 2 donc c'est
une licence libre
alors c'est bien que
t'en reparle parce que
à l'époque justement dans le podcast
on n'en a jamais parlé dans les outils
d'AQDevops
on en a parlé dans le podcast sur la gestion
des secrets d'infrastructures
en fait
à l'époque justement on s'était aperçu
que le projet
était figé
il ne bougeait pas et c'est vrai qu'il s'est relancé
il n'y a pas si longtemps que ça il y a quelques mois
j'ai vu ça et je pense que c'est pour ça que peut-être
que tu t'es réintéressé au projet
et c'est bien que le projet
soit à nouveau vivace
parce que nous on va pouvoir le tester
et voir si on y passe dessus
parce qu'aujourd'hui on utilise
pas de solution de gestion
des secrets centralisés
on est trop petit on utilise encore
AnsibleVault qui marche très bien
mais c'est vrai que quand on veut partager des secrets
entre Ansible et Terraform et autre
c'est un peu compliqué donc peut-être que
Sobs sera une solution
et notamment sur ce côté
il ne chiffre pas l'intégralité
de ton fichier
mais juste les valeurs
même si c'est possible de le faire
avec AnsibleVault mais ça demande un petit peu
de travail puisqu'il faut chiffrer
chaque ligne de texte avec la ligne de commande
ça commence à être lourd parfois
donc merci de rappeler Sobs
à notre chère auditrice et auditeur
vous voulez intervenir ?
et René ?
non
et ben René je te remis
à toi l'honneur
alors le petit outil
ou la suite d'outils en l'occurrence
donc c'est quelque chose qui s'appelle
IT Tools
c'est des outils
ou plus ou moins un web
qui sont pas un pratique
souvent on a des
choses à faire dans nos métiers
donc des conversions de
Tizen Varyamel
des conversions de date etc
et donc c'est un site qui
avec pas mal d'outils pour faciliter la vie
et faire ce genre de choses
rien de plus à dire
je trouve ça hyper pratique
parce que j'ai vu
quelques outils qui étaient proposés
dans ce truc là
et souvent il y a pour pas mal
de trucs
pour les UID
ou des choses comme ça
à chaque fois je cherche sur Google
je prends le premier lien et je me débrouille
avec ça, là j'aurais pu chercher
avec Google tout dedans
et en plus c'est pas mal
on peut mettre en favoris les trucs qui nous intéressent
c'est tout
c'est effectivement
c'est pas grand chose mais c'est pratique
il faut que je regarde un peu exactement ce qu'il y a
parce que dans le même genre d'outils
du coup je mettrai aussi en description
j'utilise un outil que je celles foss
qui est Cyber Chef
qui est un couteau suisse qui permet globalement plus
sur la partie
décodage, encodage, data analysis etc
de faire des choses rapide
mais en codé ou décodé de base 64
même si ça en ligne de commande ça se fait très vite
mais surtout
tout ce qui est token
quand on débug de l'open ID ou des choses comme ça
ça permet de le faire en ligne
donc c'est vachement cool aussi dans comme tool
je verrai si ça se complète bien ou si même ça remplace
du coup Cyber Chef
je vais l'explorer avec impatience
parce qu'on est fait il y a pas mal de choses
et
tu as
toute ma curiosité
tu l'as éveillé en tout cas avec tout ça
il y a pas mal de choses un peu aussi
côté réseau
j'irai de
faire des macadresses
des conversions de masques
des choses qui souvent
on a besoin
d'un petit truc pour le faire
et du coup c'est assez pratique
cool
merci
Damir, tu as un autre outil à nous présenter
oui je viens de voir que sur la titoule
il y a des conversions de dates
ça m'intéresse pour le coup
c'est toujours le truc un peu chiant
je vais vous parler de Metal LB
pour le coup c'est un outil assez connu
mais c'est vrai que je crois qu'on n'en a pas parlé non plus
c'est à part de cubes, on reste dans la thématique tout à l'heure
si vous suivez bien ça fait un petit fil rouge
c'est très simple
je pense que pas many de auditeurs
ont déjà fait du cube
mais si vous n'en avez pas fait
généralement quand vous créez un cube manager
pour avoir une entrée dans votre cube
parce qu'on évite de passer par des notes
pour et de faire du mot de note
ou des choses comme ça
on fait les choses proprement mais un load balancer
et pour ça on crée un service de type load balancer
qui va créer un load balancer manager
en général chez notes fournisseurs favoris
que ce soit vh, a w, h, gcp ou whatever
donc c'est beau c'est magnifique
ça marche très bien
c'est vraiment magique
par contre si on n'est pas chez un cloud provider
comme on fait on redeveloppe sa propre couche
ah bah non
il existe du coup un soft
c'est le metal lb qui permet de créer
en fait son load balancer directement dans le cube net
du bar metal
et ça c'est plutôt cool comme idée
et ça fonctionne bien
et ça vous permet d'avoir
on-prem des choses
plutôt propres et efficaces
et ça évite de faire des choses un peu dégueulasses
comme des sagouins
donc point j'aime beaucoup
alors attends que je comprenne bien
tu mets metal lb dans ton cube netis
tu dois lui renseigner
ton
comment dire
ton ou tes serveurs de load balancer
lui s'occupe de les configurer pour toi
et à chaque fois que tu ajoutes des notes dans ton agréga
oups il va changer la conf
c'est ça ?
alors il y a plusieurs modes de fonctionnement
principalement il va reposer sur du bgp
donc là
ça va faire peur à beaucoup de gens
mais il va avec du bgp
il va en du coup faire de la communication
pour annoncer les nouvelles zp etc
mais ça fait
ça repose
sur le service discovery pour aller configurer ton load balancer
c'était ça l'objet de ma question
du coup t'as pas besoin parce que
il y a plein de gens qui utilisent un achat proxy
et à chaque fois qu'ils rajoutent des notes
ils vont modifier la conf
ah oui non
là le but c'est de ne plus avoir à faire ça
c'est super cool comme outil
achat proxy
je suis en pour ça
je suis d'accord
je le fais aussi sur certains cas
parce que j'ai pas le choix
et je suis triste et malheureux
Erwan, René
ça vous évoque quelque chose mais t'as l'LB
ça fait briller
ça fait afficher des petites étoiles dans vos yeux
alors moi je
je travaille pas trop sur du cube
en ce moment mais effectivement je lisais
le
le Y est très explicite
de leur site
on comprend vite la peine
qui veut le résoudre
et effectivement si c'est aussi
bien implémenté
que ce que Damir vient d'évoquer
c'est assez séduisant
parce que ça retire pas mal de peine
non franchement
enfin
tous les outils qui vont dans ce sens là
moi je dis à chaque fois chapeau
mais qui prennent le temps
de développer des trucs pour ça
c'est top
faciliter l'accès
à toutes ces problématiques
fait que
l'adoption des solutions
est plus rapide etc
non franchement top
il n'y a pas que du BGP
c'est la solution entre guillemets la plus propre
mais il y a d'autres solutions pour le faire fonctionner
si vous avez peur du réseau
j'ai pas encore tout testé
ça me sent vraiment produit intéressant
si vous voulez faire de l'on-prem
et ben
moi je vais vous parler d'un petit outil
on a parlé de
github copilot et ben moi je vais vous parler
de Tabi ou Tabay
je ne sais pas comment ça se prononce
donc je vais le prononcer à l'anglais
Tabay
c'est une IAR en fait
une assistante de développement
qu'on peut auto héberger
c'est donc une alternative
open source
et on-prem à github copilot
puisqu'elle fournit
en plus de tout ça
une interface open api
qu'on peut intégrer facilement
à une infrastructure ou
à des IDE ou un cloud IDE
et ça prend en charge
en plus pas mal de GPU grand public
et ça va faire plaisir à René
c'est écrit en reste
l'avantage d'avoir un tel outil
en auto hébergement
ça permet pour des entreprises
d'une certaine taille par exemple
d'avoir leur propre assistant IA
de code chez eux
et de ne pas voir sortir
leurs codes qui est généré par IA
et aller chez Microsoft par exemple
ou d'autres parce qu'il y a d'autres fournisseurs
ça peut être une alternative
et moi je m'intéresse très fortement
à ce genre d'outils qui sont complètement libres
justement pour
les intégrer et les auto héberger
parce que je trouve que
c'est le coeur d'une société
quand on travaille sur du code
je sais pas ce que vous en pensez
de ce genre d'outils
ça récite à une problématique
qui est que certaines sociétés
enfin au niveau privacie
certaines sociétés ne vous utilisent pas
copilote ou toutes sortes de choses pour pas envoyer de data
c'est pas autorisé donc là
ils peuvent faire leur équivalent
in-house donc c'est pas mal
ça supporte déjà des
des IDE
j'ai l'impression oui
parce qu'il y a des plugins
notamment pour pas mal d'IDE
notamment j'avais vu qu'il y avait
VS Code
oui effectivement il y avait
VS Code
mais est-ce qu'il y a Neo Vim c'est ça la vraie question ?
je te laisse aller regarder
oui il y a Vim et Neo Vim
il y a aussi Intelligent Platform
donc il y a pas mal de choses à faire
en fait avec ce genre d'outils
pour l'instant je suis encore un peu perplex
sur ce type d'outils
c'est justices de l'IA
quasiment tous les jours
je l'utilise moins dans mon IDE
pour une raison très simple
c'est qu'il y a des problèmes de privacite
ça qui sont quand même pour l'instant
encore pas réglés facilement
donc ça peut être une alternative mais surtout
je trouve que quand on développe
régulièrement avec le même langage
qu'on a CLSP qui sont bien configurés
quand on a des snippets etc
qui sont propres
il y a pas forcément énormément
de gain entre guillemets
c'est pas aussi fou
entre guillemets que ce qu'on nous vend
j'ai l'impression après ça demande
de configurer CLSP
ça demande de configurer des snippets
mais ça c'est des choses
qui prennent du temps
et peut-être que les gens n'étaient pas habitués
donc du coup ils voient plus d'intérêt
ça marche hein
mais les 2-3 fois où j'ai vu des tests
ou en tout cas où j'ai essayé de tester
et c'est assez
c'est bien, ça avance
mais pas la révolution non plus pour l'instant
surtout que dès qu'on demande
des situations de code un peu précises
il fait des choses un peu crado
ou il va pas respecter
vos règles de codage
j'ai plus long
convention
c'est la fatigue
merci je te réponds
vos conventions de codage et autres
donc
j'ai pas encore les faits ou waouh on va dire
mais c'est intéressant de voir qu'en plus d'alternatives
on va dire non centraliser
ou en tout cas avec un meilleur contrôle
sur les data et c'est une bonne chose je pense
oui alors moi je l'utilise aussi
pas mal d'IA
on a notamment pris un abonnement
GPT plus
par contre on n'en voit pas de données
sensibles à GPT
on fait que
des questions globales moi par exemple
je m'en
j'utilise pour
pour des trucs publics
pour des documentations
des articles
ou pour m'aider
à faire des emails
et ce genre de trucs
par contre j'ai un cas d'usage
moi qui m'intéresserais
moi je n'utilise pas d'IA pour coder
et j'ai un cas d'usage qui me semble intéressant
c'est pour la l'écriture des tests
j'en fais encore assez peu
par manque de temps
et de connaissance et de compétences
et je me demande si ce genre d'outil peut pas m'aider
justement à écrire des tests
tout en me laissant à moi
le loisir d'écrire le code
tu vois le code d'infrastructure
par contre lui il me générait des tests
parce que je lui dirais bah voilà je veux
que t'ailles le truc face à ça
écriz moi des tests et puis
j'irai
j'irai peaufiner les tests qui m'écriraient
je sais pas ce que vous en pensez là dedans
en tout cas dans ce que tu as dit
d'Amir ça m'évoque ça
ça m'évoque l'écriture des tests
qui est souvent rébarbatif et qui est souvent laissé de côté
à cause de ça
ouais après en fait le vrai
problématique c'est de voir si il arrive à générer
des tests qui soient cohérents, utiles et pertinents
sans que tu fasses trop d'efforts
moi le problème c'est que
c'est cool quand tu génères des structures de choses
et tout mais tu peux déjà le faire avec d'autres solutions
et ce qui est rempli dedans tu dois repasser derrière
ou pire s'il y a des gens
qui comprennent pas du tout ce qu'ils font
et qu'ils laissent ça comme ça
ça m'inquiète un peu plus on va dire
mais moi j'utilise
pour du code ça dépend
des fois j'utilise quand j'ai besoin de générer
des conditions, des choses un peu
un peu rébarbatives
ou une structure vraiment précise
bah je vais des fois lui demander
de faire ça
et sinon moi j'utilise plus
comme un canard en fait
moi un chat de gpt c'est devenu mon canard au quotidien
c'est la personne que je vais voir
et justement pour pas envoyer de données sensibles
d'abord je retourne la question en ma tête et je me fais
comment je lui explique mon problème, mon contexte
et du coup je dois lui demander
sans lui donner aucune info privée
entre guillemets ou dangereuse
et au final rien que faire cet exercice
comme le système du canard quand t'expliques à quelqu'un
bah ça m'aide en fait donc c'est plus un moyen
de matériel de faire ça
et autrement là où je m'en sers énormément
c'est aussi pour des fois quand j'ai un nouveau produit
chercher un truc dans la doc
bah je passe le lien de la doc
vas-y, lis-moi la doc et quelle partie
parle de ça et du coup il me donne
ma réponse en même temps il me dit c'est dans
telle partie de la doc et je vais bah vas-y
et ça quand on connaît pas un produit
ou quand on cherche un truc précis d'une doc
qui est tentaculaire c'est plus cool
oui j'avoue ça
c'est vraiment un usage qui est
super bien
ou traduire des schémas quand on a perdu
le schéma xml de son schéma
de son schéma draw.io
n'importe quoi on lui file le draw.io
on dit tiens génère
faut pas que le schéma soit sensible pour les schémas de communication
et trucs comme ça ça marche bien
d'une mandée de regenerer derrière le xml
après il y a quand même parfois
lors du code il y a quand même
parfois du gain de temps sur certaines choses
comme t'as une structure un peu
c'est vrai qu'il propose

tu peux gagner du temps
surtout si la syntaxe elle est un peu relou
ouais
non c'est
ça dépend des cas
bref en tout cas maintenant on a
une alternative libre et auto héber jabin
ça c'est bien c'est la bonne nouvelle du jour
et bah merci encore une fois à vous 3
pour votre disponibilité et votre temps
moi je dis merci à notre
cher auditrice ou auditeur
de nous avoir suivi jusque là encore une
fois un épisode fort long
puisque on est à 1h30
1h32 au compteur
et je vais
vous laisser le mot de la fin
et cette fois-ci je vais surprendre renais
et c'est renais qui va donner le premier mot de la fin
oh
c'est pas ça c'est dur ça
et bah j'espère que
l'épisode vous
vous intéressera
vous vous intéresser si vous venez de l'écouter
et je vous donne rendez-vous
prochain épisode
et puis bah n'hésitez pas à venir nous dire
justement si la complétion de code avec
que vous
trouvez ça vraiment efficace ou pas
ça ça est intéressé pour savoir
voilà
faut faire passer le
faire passer la parole
allez erouane
pardon je vais la passer à nami
ah bah allez
non mais j'étais content de vous retrouver
moi ça je vais faire une petite pause
il y a quelques mois le temps de gérer un déménagement
de mon côté donc c'était cool de pouvoir discuter ensemble
j'espère aussi que l'épisode vous a plu
et je vous souhaite de très bonne fête de fin d'année
si le podcast est diffusé un peu avant
et une bonne année
2024 en avance
et bah
moi j'allais dire aussi la même chose
ça fait un peu la team OG
là du podcast
qui est pour cette session
et c'est cool
toujours un plaisir de partager
j'espère que ça sera ressenti
comme tel par les auditeurs
alors vous qui cherchez une bonne protection
je peux vous prêter mon armure
la gladiatoce
c'est sympa mais c'est pas un peu grand
pour un enfant de 4 ans
oui mais il va bien grandir
non ? oui
voilà
une seule protection pour tous
c'est la protection de la baleine




c'est du passé

Les infos glanées

Je suis une fonctionnalité encore en dévelopement

Signaler une erreur

RadioDevOps

Vous avez l’envie d’en connaitre plus sur le mouvement DevOps ?

Les problématiques liées au déploiement vous titillent…

Alors, vous êtes au bon endroit !


Radio DevOps est la Baladodiffusion des Compagnons du DevOps.

Le podcast en français dédié à notre mouvement.


Nos émissions :

  • 🗞 Actus Devops : est une émission animée par des membres de la communauté des Compagnons du DevOps. Dans chaque épisode nous étudierons l’actualité Cloud et DevOps.
  • 📻 Radio DevOps : est l'émission phare animée par des membres de la communauté des Compagnons du DevOps. Dans chaque épisode nous débattrons sur un sujet de fond.
  • 🛋️️ En aparté : est une émission où je m’entretiendrai avec un invité sur le mouvement DevOps en entreprise.
  • 🎙️ En Solo : est une émission où je serai seul pour vous parler de DevOps ou de Cloud. 


📩 Si tu n’es pas déjà abonné, alors abonne-toi pour ne pas rater ces émissions.


💖 Tu peu soutenir mon travail et la communauté sur :

https://soutenir.compagnons-devops.fr/


🎓 Développe tes compétences DevOps avec un mentor : http://devops-mentor.tech/


🎁 Télécharge mon antisèche git : http://froggit.fr

💬 Si tu as envie de discuter du mouvement, le plus simple est que tu nous rejoignes dans la communauté des compagnons du DevOps : https://www.compagnons-devops.fr


❓ Pose moi une question : http://question.compagnons-devops.fr


☁️ Suis-moi sur les autres réseaux sociaux : https://mtr.bio/compagnons-devops


🌐 Les Compagnons du DevOps est une initiative de Lydra. NOTRE SITE: https://www.lydra.fr


Chez Lydra, nous nous sentons seuls entre deux Meetups ou deux conférences. Nous n’avons pas trouvé de lieu où échanger et avoir des débats en français sur le sujet qui nous passionne.


Nous avons donc décidé de créer et d’animer une communauté qui partage nos valeurs :

  • La passion de l’infrastructure as code.
  • La conviction que les logiciels libres et open sources sont émancipateurs.
  • L’envie de partager des méthodes, bonnes pratiques ou retours d’expériences.
  • L’amélioration continue fait de nous des experts en devenir.


Rejoins les Compagnons du DevOps !


#DevOps #InfraAsCode #Ansible #OpenStack #OpenShift #K8S #Docker #Packer #Terraform #GitLab


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Tags
Card title

Lien du podcast

[{'term': 'DevOps', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Cloud', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'InfraAsCode', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Ansible', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'OpenStack', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'OpenShift', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'K8S', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Docker', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Packer', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Terraform', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'GitLab', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'learn', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'compagnonage', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Technology', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'News', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Tech News', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Education', 'label': None, 'scheme': 'http://www.itunes.com/'}]

Go somewhere