💻 Terraform enfin du vrai code d'infrastructure ! | Actus DevOps août 2022

Durée: 93m39s

Date de sortie: 24/08/2022

🗞 Actus DevOps est ton #podcast de veille #DevOps et #Cloud mensuel.

💬 Viens discuter avec nous et la communauté : https://www.compagnons-devops.fr


Retrouve les liens dans l'article de blog : https://lydra.fr/terraform-enfin-du-vrai-code-infrastructure-actus-devops/


00:00 Que se passe-t-il en ce moment dans le monde du DevOps ou du Cloud ?

💖 Tu peux soutenir mon travail et la communauté sur : https://liberapay.com/cchaudier

01:26 Vos messages

02:20 Le chat Matrix cartonne en Ukraine

14:45 Terraform avec du code !

29:41 Double authentification sur PyPI

35:58 Traefik Proxy 2.8

44:53 Partenariat entre CircleCI et GitLab

01:01:21 GitLab et les dépôts inactifs

01:15:47 Les outils

1:31:14 Rejoins les Compagnons du DevOps


Crédits

Les podcasteurs :

  • Christophe Chaudier : consultant indépendant au sein du collectif Lydra. Animateur du podcast de la communauté des Compagnons du DevOps. professeur vacataire à Télécom Saint-Étienne et au CFAI Loire. Découvre le : https://lydra.fr/ea-3-le-podcasteur-christophe | LinkedIn : https://www.linkedin.com/in/cchaudier | Froggit : https://froggit.fr/
  • DamyR : Productivity engineer / DevOps chez Le Bon Coin, passionné d'open source & de logicel libre, 👨‍🏫 professeur vacataire à l'université Léonard de Vinci. Son credo : "La connaissance n'a de valeur que si elle est partagée" ;-). Découvre le : https://lydra.fr/ea-1-le-podcasteur-damyr/ | Linkedin : linkedin.com/in/tgerardin/ | Twitter : https://twitter.com/damyr_fr | Blog : https://www.damyr.fr
  • Erwan Ben Soudien : DevOps chez Toucan Toco (ex Deezer, Antelink, Weborama - ex sysadmin) - professeur vacataire à Paris XIII / IUT Creteil. Découvre le : https://lydra.fr/ea-2-le-podcasteur-erwan/ | Linkedin : https://www.linkedin.com/in/erwan-ben-souiden-8b8084152
  • Nicolas Ledez : devops chez CGWire. Il travaille dans l'IT depuis 20 ans. Il est "Schizophréne" : adminsys et développeur suivant le moment de la journée. Il paraît que ça s'appelle "devops", même si il déteste mettre ce nom sur un poste. Découvre le : https://lydra.fr/ea-8-le-podcasteur-nicolas/ | LinkedIn : https://www.linkedin.com/in/nicolasledez | Twitter : https://twitter.com/nledez | Github : https://github.com/nledez | Le reste : https://nicolas.ledez.net


L'intro et la fin sont de :

  • Baptiste Gaillet : FullStack développeur avec une tendance DevOps au Centre Scientifique et Technique du Bâtiment, Fondateur de l'association Bed Food Coffee et développeur de l'application BedFoodCoffee pour aider les personnes en difficultés. Après des études dans le son et différents métiers, il a effectué une reconversion professionnelle en 2015 pour devenir développeur (Formation diplômante dans le cadre d’un CIF). LinkedIn : https://www.linkedin.com/in/baptiste-gaillet-223832b4 | Twitter : https://twitter.com/bat79a
  • La musique d'intro est "Tupac Lives" de John Bartmann : https://pixabay.com/fr/music
  • La musique de fin est "Passport" de Purple planet : https://www.purple-planet.com/passport

L'image est de Joshua Sortino : https://unsplash.com/photos/LqKhnDzSF-8

📜 Ce contenu est sous licence libre : CC BY-SA : https://creativecommons.org/licenses/by-sa/4.0/deed.fr

Si tu utilises ces contenus dans une publication, merci de nous le notifier dans les commentaires.

❓ Pose-nous une question : http://question.compagnons-devops.fr


☁️ Suis-moi sur les autres réseaux sociaux :

▶️ YOUTUBE entrepreneuriat : https://www.youtube.com/channel/UCvZFN6J1okCiIG4LKIXqSpg

🐥 TWITTER : https://twitter.com/MentorDevOps



Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Quels sont les news du plot ou du DevOps en ce mois d'août 2022 ?
On va parler aujourd'hui de Circle, CI et GitLab, Matrix, Element,
qui revient sur le devant de la scène, Trafic et Terraform.
Et on va voir tout ça dans cet épisode de podcast.
Bienvenue à toi cher compagnon, dans ce nouvel épisode d'Actu DevOps,
ton émission de veille cloud ou DevOps mensuelle.
Comme d'habitude, reste bien jusqu'à la fin parce qu'on a fait une petite sélection d'outils,
même si c'est l'été, elle est là.
Alors, c'est le moment de te rappeler que c'est un podcast,
un podcast, même si il est diffusé en vidéo sur YouTube,
c'est difficile à trouver, c'est pour ça que nous on t'encourage à le diffuser,
à le partager à ton réseau, à l'envoyer par mail si tu veux,
à faire des écoutes avec tes collègues, ça peut être pourquoi pas,
au petit-déjeuner, un épisode de podcast, une heure, pourquoi pas.
Avec moi pour parler Actu ce soir, j'ai Damir, bonsoir Damir.
Salutations à vous.
J'ai aussi Erwan, bonsoir Erwan.
Bonsoir.
Et enfin Nicolas, bonsoir Nicolas.
Salut tout le monde.
Oui alors je dis bonsoir, c'est vrai que le podcast est diffusé de matin,
mais nous on l'enregistre le soir.
On va commencer par la traditionnelle, enfin la nouvelle traditionnelle,
courrier des auditrices et auditeurs.
Alors j'ai un tout petit message qui nous a été envoyé par Pixautique
sur podcast Tadict qui a suivi mon appel à message,
puisque dans le dernier podcast j'ai fait un appel à message.
Je vous ai encouragé vous qui nous écoutez à nous envahir le message,
mais il y en a eu qu'un.
Donc du coup, Pixautique nous dit bon podcast concernant le DevOps.
Alors c'est un message court, mais en tout cas,
merci Pixautique pour tes cinq étoiles en espérant que tu continues
à apprécier le podcast et surtout que tu es un auditeur ou une auditrice réculier.
Toi aussi tu peux, si tu apprécies le podcast,
nous laisser un message sur Apple Podcast ou podcast Tadict
ou carrément sur les commentaires YouTube,
parce qu'on en a pas mal sur les commentaires YouTube.
Alors, trèfle de bavardage, on va commencer les news
et c'est Damir qui commence et qui s'y colle.
Oui et du coup je vais vous parler effectivement de Matrix et de Element.
Donc déjà un petit rappel sur le contexte de ce que c'est,
ce qu'on peut être que tout le monde ne connaît pas,
c'est tout simplement spirituellement,
c'est souvent décrit comme étant le futur de IRC,
IRC qu'on a tous, en tout cas 90% connus dans notre enfance,
du grand souvenir dessus.
Et du coup, l'IRC c'est un protocole qui est très pratique,
mais qui a aujourd'hui beaucoup de problèmes au niveau modernité,
notamment en termes de chiffrement et autres.
Et du coup, il y avait un protocole qui est venu un peu reprendre de flambeau,
si j'ose dire, qui est Matrix,
qui est un protocole décentralisé dans le sens où chacun peut avoir des serveurs,
l'héberger et aller sur les serveurs,
contrairement à des messageries on va dire plus traditionnelles,
où vous allez avoir une messagerie centralisée,
comme par exemple sur Telegram ou autre,
ce qui fait que vous n'êtes pas dépendant d'un fournisseur,
et surtout, elle est très axée vie privée et chiffrement.
Et il y a associé à ça, vu que c'est uniquement le protocole, en fait,
un client qui est le plus populaire, plus populaire qui s'appelle Element,
et qui en fait est l'évolution du,
le nouveau nom du client historique qui est Riott, si je me trompe pas.
Donc, c'est aujourd'hui en fait un problème qui est malheureusement,
je trouve, trop peu connu,
il a été utilisé notamment au Fosdem,
dans les deux années où ils ont s'est déroulé en remote,
et ça a très bien fonctionné, ça a scale,
il a un très grand nom d'utilisateur,
je trouve qu'ils ont atteint du 15 000 utilisateurs simultanés,
ce qui est pas mal avec de la vidéo,
je trouve que c'est intégré de la vidéo, etc.
On s'est plutôt cool.
Et là aujourd'hui, c'est une, je trouve,
c'était une bonne occasion d'en reparler, bon, un bon.
C'est intéressant de voir que ça revient sur le devant de la scène,
suite à la guerre en Ukraine,
pour des raisons assez simples,
au final, assez logiques techniquement.
C'est que pour l'instant, il y avait beaucoup d'appels
à utiliser des messageries chiffrées,
sur comme signal ou autre,
mais avec les avancées du front pendant la guerre,
il y a de plus en plus de craintes,
notamment de coupures de l'internet,
du pays de l'internet mondial, entre guillemets,
donc potentiellement des serveurs de signal
ou des serveurs d'autres applications de chiffrement,
ce qui poserait problème, surtout que télégramé et russe.
Donc on peut imaginer plein de soucis comme ça,
ou des coupures internet pour provoquer pas mal de soucis.
Et du coup, il y a eu une remontée, on va dire,
de popularité du côté de Matrix avec Edamon,
pour justement cet aspect décentralisé,
où dans tous les cas, ils peuvent installer
en fait des serveurs locales,
au plus proche et surtout sous un contrôle plus vérifié,
pour pouvoir se permettre d'échanger de manière plus sécurisée,
et surtout plus contrôlée.
Donc ça me paraît assez intéressant
qu'un événement d'importance comme ça remonte,
en fait, des choses qui étaient mises en avant,
on va dire, par le protocole de base,
et qui étaient parfois un peu balayées,
il n'y aura pas vraiment de besoin pour ce genre de choses.
Et du coup, je trouve que c'est intéressant de revenir un peu dessus,
aussi pour reparler un peu de ce projet qui est quand même bien cool.
Et bien sûr, il y aura un article,
un description pour en parler un peu plus,
et donner un peu plus de détails.
Alors, est-ce que vous avez déjà utilisé d'ailleurs Matrix avec Element
ou un autre client ?
Moi, je n'ai jamais utilisé,
mais je rebondis sur ce que tu citais à la fin,
c'est exactement ça.
Il y a des cas d'usage auxquels on dit,
« Ah, c'est vraiment extrême, ce n'est pas utile,
ce n'est pas passant ».
Et au final, on voit que le design du protocole
et de tout ce qui construit cette infra
fait qu'en fait, aujourd'hui, ça devient un mandatorie pour certains
d'avoir ce genre d'alternative.
Et c'est un peu triste que l'on parle de tout ça
via ce qui se passe actuellement,
mais au moins, c'est une démonstration hyper factuelle
et efficace de l'outil et du protocole.
Alors moi, j'ai déjà essayé Element,
même on voulait avoir un chat Element dans l'équipe il y a quelques années,
sauf que c'était un peu complexe à installer à l'époque,
on ne voulait pas maintenir ça.
Il me semble que ce qui est super intéressant,
en tout cas, c'est le multi-protocole et les connecteurs
qui y a avec d'autres solutions, on n'a pas parlé,
mais moi, j'ai étudié ça justement pour connecter le forum des compagnons à un chat
et pour pouvoir transférer des postes de discours au chat et vice-versa.
Pour les threads, par exemple, qui auraient lieu sur un chat Element,
les transformer en postes sur le forum.
Et le fait que ce soit d'être centralisé, évidemment,
ça ne peut être que bien.
En tout cas, moi, je suis assez fan de la décentralisation.
Ça nous amène justement au début d'internet,
on a tendance à l'oublier.
Et pourtant, il y a des technologies qui fonctionnent encore très bien en décentralisé.
On peut penser au mail.
Aujourd'hui, les mails, c'est toujours décentralisé,
même si beaucoup de gens sont sur Gmail,
mais tous les serveurs de mail parlent à tous les autres serveurs de mail.
Et je crois beaucoup en l'avenir du décentralisé.
Ne faites pas dire ce que je n'ai pas dit.
Je ne parle pas de blockchain là,
mais je parle vraiment de décentralisation
et notamment aussi avec tout ce qui est fait divers et autre.
On a entendu ton sponsoring envers le web 3.0.
Non, mais effectivement, je n'en avais pas parlé des connecteurs
et de plein d'autres choses.
Mais en tout cas, Matrix, c'est un élément,
on a quand même pas mal de points à faire valoir et davantage.
Là, ça sortait un peu de leur utilisation
et des points qui ont fait la popularité.
Mais je vous invite vraiment à vous renseigner à essayer.
C'est toujours sympa.
Malheureusement, je trouve qu'il y a beaucoup moins d'activités que sur IHRC,
mais ça reste quand même un bon outil.
Oui, j'avais rencontré les premiers développeurs
à maintenant 6, 7 ans, je crois.
Et à l'époque, déjà,
c'était déjà la volonté de faire quelque chose d'ouvert.
Leur business modèle, c'était de vendre ça
à des opérateurs en marque blanche.
Et en fait, ils développaient tout le côté backend.
Ils développaient la partie fronte
où le client Riot pouvait être intégré
dans un outil de communication totalement propriétaire.
Et en fait, ça permettait d'avoir une base commune
entre plein de clients totalement différents.
Et comme c'est dans une décentralisée,
tu pouvais effectivement faire communiquer deux entreprises
qui avaient deux installations totalement séparées.
Et déjà à l'époque, ils avaient intégré tout ce qui était WebRTC
pour rajouter l'audio et la vidéo
alors que les protocoles étaient tout juste sortis.
Donc j'imagine que ça doit être très, très mature.
En plus, mon ancien apprenti Brandeim travaille chez eux.
Donc je suis sûr que ça va être très, très bien développé.
Et sinon, j'ai vérifié par rapport à Telegram,
par rapport à ce qui s'est passé en Russie
et un petit peu avant, en fait, ils ont déménagé à Dubai.
Donc je ne sais pas si au niveau
côté dictature, c'est vraiment mieux d'avoir déménagé là-bas.
Mais au moins, il n'y a plus de risque par rapport à la Russie.
Oui, c'est vrai que moi, je ne suis pas étendu là-dessus.
Mais à la base, le créateur est russe de mémoire,
mais il n'a jamais vraiment été ami avec le gouvernement russe.
Le principal problème était le couper des serveurs ou des choses comme ça.
Mais effectivement, c'est intéressant de voir qu'ils ont déménagé.
Je pense que quand tu fais un outil comme ça en Russie,
c'est que tu as quelques soucis avec le gouvernement.
Mais en fait, ce déménagement, il a eu lieu bien avant les problèmes
qui a eu récemment.
Ils avaient déjà déménagé avant et là,
ils ont officiellement déménagé tous les statuts et ainsi de suite.
La Russie ne peut plus rien faire par rapport à ces personnes.
J'imagine que si elles retournent voir leur famille,
ils y auront en prison comme tout le monde.
Merci pour la fois, j'avais loupé ça, du coup.
Je viens de vérifier au moment où tu en parlais.
Moi, je vais parler d'un autre avantage, justement, de Lémont et de Matrix.
C'est comme tu dis, Matrix, tu peux avoir plein de clients.
Lémont en est un, mais il y en a plein d'autres.
Et notamment, je vois, il y a Geeter.im qui a un site qui permet de créer des communautés,
qui a justement rejoint Lémont et qui permet de se connecter maintenant à Matrix.
Je sais qu'on l'utilise, nous, pour les Geek Lab Heroes, on communique avec.
Et ça permet de ne pas avoir à installer d'applications, par exemple,
et de se connecter directement à Geeter.im,
créer des communautés sans avoir à se poser des questions.
Et c'est automatiquement du coup connecté à Matrix.
Et ça, justement, c'est écosystème où tu peux mettre,
finalement, le front que tu veux avec le serveur ou les serveurs,
parce qu'il y en a plusieurs.
Je trouve ça super intéressant.
Et j'aimerais beaucoup que ça puisse se connecter avec le fait divers
un jour pour pouvoir envoyer des proutes et puis les envoyer dans des salons,
les proutes pour ceux qui ne connaissent pas, c'est mastodon.
On envoie des proutes, on ne tweet pas en proutes.
Qu'est-ce que vous en pensez de cette idée, justement,
d'interconnecter toutes les plateformes comme ça ?
Je crois que, justement, leur plateforme centrale a été prévue pour ça.
A l'époque, ça me faisait vraiment penser au Protocol Jaber,
où, en fait, tu pouvais faire passer énormément de choses dedans.
Donc, ils ont standardisé un protocole de base
que tu peux étendre à volonté.
Après, il faut que ça soit supporté par tous les clients.
Mais tu peux très bien imaginer rajouter des trucs un petit peu spécifiques
par rapport à une application dans une entreprise.
Et après, si tu as une machine à proutes dans le bureau de tout le monde,
pas effectivement, on s'envoye des proutes dans les bureaux de tout le monde.
C'est vrai que l'interconnection, elle a un peu aujourd'hui manquant.
On a beaucoup de trucs de messagerie un peu dans tous les sens
qui ont chacun un peu leur solution propriétaire.
Au final, c'est un peu le gros souci depuis la entre guillemets fin,
d'HRC, on va dire, l'explosion de solution.
Mais ce serait intéressant si on arrive à faire un truc vraiment propre,
parce que souvent, le gros problème aussi,
c'est quand tu recentralises quelque part au-delà des connecteurs,
c'est que ce soit propre, qui est bon filtrage, etc.
Que ce soit affiché avec les bons formatages.
Aujourd'hui, on utilise beaucoup les émotions des formatages.
Je ne parle même pas des GIFs et des trucs comme ça.
Mais si un jour on a enfin une intégration en propre de ça,
ce serait vraiment un game changer.
Typiquement, je me limite et je dise beaucoup de télégrammes
avec un cercle proche et signal.
Je dise les deux en fonction de qui à quoi.
Mais à part ça, j'ai envie de me rajouter des messageries
où on a un matermost au travail,
mais je ne rajoute pas d'autres messageries.
Et typiquement avec un matric, si je pouvais fédérer les choses,
entre guillemets, ça me simplifierait, on va dire,
utilisation de tous ces outils.
À l'époque, Bremdan était encore apprenti chez nous
et on était passé d'IRC à Matermost.
Et comme il y avait quelques récales citrants,
il avait mis en place une passerelle entre IRC et Matermost.
Ça fonctionnait plutôt pas mal.
J'en ai vu aussi souvent dans les entreprises d'immigration,
les personnes de la texture IRC,
ils ont fini par mettre un pont parce qu'il y a des récales citrants.
Ça fait toujours un peu rire quand il y a deux personnes
en notre brisquie.
Mais étant nos positions finir par finir, ne passeraient les IRC.
C'est toujours très beau quand même.
Bon, on va parler de la suite.
Et du coup, c'est moi qui m'y colle.
Le mois dernier, on a déjà parlé d'Achicorp.
Si, si, souviens-toi qu'en Nicolas nous a fait un retour
sur l'Achicorp Europe 2022.
Si tu n'as pas écouté le podcast, vas-y,
c'est celui du mois précédent.
Donc, Achicorp nous annonce la mise à disposition générale
du kit de développement Cloud pour Terraform.
Ou Cloud Development Kit for Terraform,
abrégé CDKTF en bon anglais.
Alors, c'est la version 0.12 qui sort.
Mais dis-moi, Christophe, c'est quoi ce truc ?
Et bien, le développement kit,
s'il permet d'écrire en fait des config Terraform
dans le langage de ton choix.
TypeScript, Python, C-Sharp, Java ou encore Go.
Et en plus, on bénéficie de l'écosystème complet
des fournisseurs et modules qui sont déjà existants pour Terraform
parce que c'est compatible.
Alors, on nous promet, évidemment,
de pouvoir garder le même contexte que le langage
utilisé pour l'application qu'on va vouloir déployer avec Terraform.
Ça permet aussi d'uniformiser les outils
et les conventions de programmation.
Ça, c'est vraiment bien si tu as une CI avec des outils
portant l'application.
Du coup, ton Terraform, ça va être le même langage.
Et on va aussi pouvoir réutiliser plus facilement des boutes codes
grâce aux constructions ou les constructs en anglais
qui sont un nouveau truc que ramènent, justement,
le CDKTF.
Donc, c'est la fin, la duplication de codes.
Enfin, mais il y a pas mal de nouveautés avec cette version.
Notamment, il y a des tests unitaires
dans tous les langages.
Et pour développer du HCL,
je sais que c'est compliqué d'avoir des tests.
Là, du coup, comme c'est du PROG, la programmation,
on peut avoir des tests unitaires.
Il y a un convertisseur HCL vers le langage de notre choix
et des intégrations avec GitHub Action.
Bref, ça va probablement mettre du plomb dans l'aile de Pouloumi
et je voudrais avoir votre avis là-dessus.
Je peux commencer.
Moi, j'avais regardé à l'époque où ça s'était sorti en beta.
C'est vrai que c'était très intéressant.
Moi, j'y étais pas passé parce que j'avais pas trop de problèmes.
En fait, à l'époque, j'étais chez mon précédent employeur Squarespace
et en fait, on générait une partie du plan Terraform à la volée.
Et aujourd'hui, chez CDWire, mon employeur actuel,
j'utilise les modules.
En fait, je génère une partie du Terraform à la volée
avec mon code Python où en fait, je vais utiliser des modules
et mes modules sont paramétrables.
Par contre, pour faire du Terraform régulièrement,
ce qui est vraiment pénible, c'est les structures conditionnelles,
les boucles, etc.
Et là, ça va devenir très intéressant
quand on a des infrastructures bien complexes
où on veut pouvoir faire du vrai code.
Et ce que je le dis souvent par rapport à certains outils
de gestion de configuration, on va dire que c'est de l'infras code.
En réalité, c'est du lameul, à peine d'améliorer.
Et dès que tu veux faire des trucs un petit peu compliqués
où tu as des structures conditionnelles, des boucles vraiment complexes,
tu atteins vraiment les limites du truc.
À moins de t'arracher les cheveux,
tu reviens dans un langage que tu maîtrises
et tu génères ton Terraform à la volée.
Si on peut faire la même chose avec cet outil-là
et qu'on garde tous les avantages de Terraform,
donc je rappelle que Terraform,
c'est quel que soit l'état de l'infrastructure
au moment où on décide d'appliquer ce que l'on veut avoir,
Terraform va se débrouiller pour mettre l'infrastructure
dans l'état où elle doit être.
Et on est aussi capable d'afficher un delta
entre ce qu'on voudrait avoir et ce qu'on a réellement.
Par exemple, pour ceux qui veulent y aller progressivement,
ils peuvent mettre dans Versiag un Terraform plan toutes les nuits.
Et si un delta s'envoie un mail aux administrateurs
qui gèrent ce bout de code-là,
et une fois qu'au bout de quelques semaines, quelques mois,
on est assez sûrs, on met des appels en automatique,
et puis ça roule.
Je ne sais pas si, Damir, tu as vu passer ce projet-là ?
Moi, j'avais vu passer,
je serais sûrement pas en train de me faire des amis avec mon avis là-dessus.
Moi, je ne suis pas fan.
Moi, j'avais beaucoup discuté avec un collègue qui était assez fan de Plulomii,
qui est à peu près le refinance que Terraform propose dans l'idée
de vous créer votre code dans votre langage.
Je ne suis pas fan pour plusieurs raisons.
Je ne doute pas qu'il y a des cas où c'est super cool.
C'est le truc le plus merveilleux du monde.
Mais ma vision des choses, c'est de me dire,
Terraform, c'est limité au niveau algorithmiques,
quoique aujourd'hui, on ne va pas se le cacher,
avec tout ce qui a été acheté de version en version,
avec tous les possibilités de structure, etc.
Et avec les locals, et des modules, etc., on découpe en bien.
On peut quand même faire des choses relativement avancées.
Après, ce n'est pas d'une super complexité, etc.
On peut déjà faire des choses, je trouve, assez sympa.
Je n'ai pas de cas, en fait, dans ma vision des choses, en tout cas,
par exemple, de gérer des instances temporaires ou des choses comme ça.
Pour moi, ce n'est pas Terraform de gérer, c'est au cloud provider.
Moi, dans la manière dont j'aime bien faire des choses.
Ce qui fait que cette complexité, pour moi, n'a pas à être dans Terraform.
Terraform doit rester relativement lisible et compréhensible
pour ces raisons-là aussi, pour venir voir des évolutions d'infrastructure.
Et ça va un avantage aussi assez certain.
C'est qu'au final, chez elle, il y a un langage déclaratif
qui a plein de soucis, comme tous les langages, il y a des soucis.
Mais un gros avantage, c'est qu'il est très simple à comprendre.
Il est très simple de faire monter aujourd'hui quelqu'un de compétence
ou même de faire dire du code et de faire deviner un peu
ce que va faire le code une fois exécuté.
Là où de voir nouveau, et c'est point, c'est un gros avantage.
Parce que justement, on n'était pas dans ce cas.
C'est ce qui a fait, pour moi, l'avantage de Terraform.
C'est qu'on n'a pas été dans le cas où ils disent,
bah, poésie, le langage que vous voulez,
finalement, les équipes ne sont jamais vraiment mis d'accord sur le langage
et ont pesté à cause d'autres problèmes dans le langage.
Et au final, d'une étape en étape, elles ont fini par se prendre à tête.
Et chacun a fait un projet sur un autre langage.
Donc, pour l'instant, je n'ai pas de raison de continuer de cet éraform.
Il y a peut-être que j'ai loupé, il y a peut-être des usques à la con.
Mais dans mon cas, Terraform me suffit au pire des cas.
Je vais faire du yaml, du coup, qui va être parse dans les locals.
Et qui après va être envoyé sur des modules.
C'est quelque chose qui marche très bien et qui peut,
qui, moi en tout cas, gère la plupart des cas.
Après, ça peut être intéressant, pour des cas un peu spécifiques, etc.
Mais je préfère la manière dont c'est fait.
Maintenant, ça va mieux.
En tout cas, ma manière de voir la chose est surtout le cycle de vie.
Mais après, je loupe peut-être des use cases.
Alors, attention, le CDKTF ne va pas remplacer Terraform,
c'est un complément.
Et on peut utiliser les deux en parallèle.
Le bordel.
Donc, il n'y a pas vraiment de...
C'est un outil de plus que Terraform ajoute justement.
Et je pense que c'est pour Titillier, vraiment, Poulomi,
qui avait des aficionados.
C'est à mon avis, Terraform veut garder cette avance qui ont clairement la dessus.
Je pense que c'est pour ça qu'ils développent ça.
Erwan, tu as un avis là-dessus ?
Ouais, alors j'ai rejoint un peu la vie de Damir.
Et alors, je nous renvoie probablement un an et demi ou deux ans en arrière
quand on avait fait la news, quand on avait annoncé.
Et trop cool, dans Terraform.
Maintenant, on peut faire des boucles forts.
C'était, c'est trop bien.
On en avait parlé.
Et je me souviens que moi, c'était à ce moment-là
où j'avais regardé un peu Poulomi,
parce que justement, c'était un peu pénible de pas avoir cette possibilité de faire des boucles.
Et donc, je me t'ai dit, si on peut avoir une approche plus programmatique,
ça peut être intéressant.
Et au final, moi, j'ai trouvé ça un petit peu fastidieux.
Alors, je comprends ce que Nicolas mettais en avant,
avec des conditions un peu complexes ou autres.
Moi, j'ai jamais eu l'occasion de me retrouver dans des cas comme ça.
Donc, je suis un peu comme Damir.
Je fais le combo du Terraform avec du module et les settings dans des fichiers yaml qu'on load.
Et globalement, j'ai l'impression qu'on peut quand même pas trop mal se démerder avec ça.
Cependant, je sais que j'ai été que dans des cas, on va dire,
pas non plus hyper poussé là-dessus.
Donc, je comprends l'intérêt.
Puis, on peut imaginer aussi les tests unitaires.
Alors, je sais pas trop ce que tu test là-dessus,
qui pourraient être différents de ce que tu pourrais faire
avec justement des diffs que tu valides dans ta CIA ou pas.
Mais, donc, du coup, je ne suis pas hyper emballé.
Je comprends pourquoi ils font ça.
Parce que, effectivement, comme vous l'avez tous dit,
aujourd'hui, il y a un acteur qui est quand même...
Enfin, Poulmis, je ne vois pas trop d'autres alternatives sérieuses en tout cas.
Donc, je comprends qu'ils essaient d'aller là-dessus.
Maintenant, si demain je dois refaire du Terraform un peu avancé,
je pense que je resterai un peu dans les souliers déjà que j'ai indécris.
Alors, de mon côté, moi en plus, je ne développe pas.
Il faudrait que j'apprenne le piton.
Pourquoi pas, après tout.
Mais c'est vrai que moi non plus, je n'ai pas encore vraiment atteint les limites du Terraform,
et je ne fais pas non plus des infrastructures ultra complexes,
de moins en moins en plus,
puisque je change vraiment le métier,
donc je fais de moins en moins d'infrastructures, mais quand même.
Par contre, vous avez dit tous les deux un truc qui m'intéresse,
parce que je ne connaissais pas.
C'est les settings chargées avec un fichier AML.
Donc, si vous avez l'un ou l'autre un article qui explique ça,
moi ça m'intéresse, et je pourrai le mettre dans les notes de l'émission en plus,
parce que c'est un truc que je n'ai jamais fait.
Je dois te trouver ça, mais tu peux dans les locals,
rire des AML, et tu peux dire par exemple,
si tu ne configures pas des accounts AWS pour le SSO,
vu que je sais que tu es très fan d'AWS,
tu pourrais avoir un AML par utilisateur où tu définis les groupes,
et ça va être parcé en fait par ton locals,
ce qui va en faire des listes, et après tu pars ça à un module,
et ton module, il fait ce qu'il veut.
Ce qui fait qu'au final, tu as une complexité qui est quand même assez bien gérée aujourd'hui,
alors je ne dis pas que ça fait tous les cas, mais dans la plupart des cas,
tu peux t'arranger pour faire un truc un peu près propre,
ou tu les pars avec ton local, tu les renvoies dans un module, dans un book le fort,
et au final, tu n'as pas de répétition de code, et c'est assez propre,
mais tu dois trouver un article là-dessus.
Ben il faudrait que j'aille relire la doc du local,
alors parce qu'à l'époque, ça n'avait pas sauté aux yeux.
Mais c'est possible.
C'est comme ça qu'on faisait pas mal de choses chez Swarstein,
où en fait, on avait un seul plan terraforme pour tous les clients,
et en fait, le but c'est que tu déploies une infrastructure totalement variable,
et tu passes tout en vari...
totalement différente, et tu passes tout en variable,
en disant, je veux une base de données, de telle taille, de telle timp,
en telle version, etc.
Et quand tu faisais ton terraforme à play, il se déployait tout.
Alors justement, on tapait souvent dans les limites du terraforme déclaratif,
et en fait, les forts, four-hitch, c'est gentil,
mais quand tu commences à avoir des trucs,
encore une fois, vraiment compliqués,
quand tu veux y terrer sur toutes tes VM,
pour récupérer toutes leurs arrays de récipits pour les mettre dans un security group,
c'est faisable, mais des fois, tu as des trucs, c'est quand même assez compliqué
à écrire, et au final à lire,
alors que dans un langage de développement,
encore une fois, un bon développeur, il fait du code qui est visible aussi.
Donc si ton développeur fait un code qui est tiré par les chevaux en piton,
en nod ou je ne sais pas quoi, là tu vas perdre l'intérêt du truc.
Mais assez souvent, j'ai vu les limites de certains langages plus déclaratifs
par rapport à des langages qui étaient un petit peu plus codes.
Là, par exemple, je fais la différence en 36 bol et salstacks.
Je préfère un fichier salstack où il y a quelques lignes de piton,
ginga, pour mettre une structure conditionnelle plutôt que les wén et les loop en anti-bol,
où finalement, des fois, il faut se tirer les cheveux pour réussir à faire un truc qui marche.
Et l'autre truc, c'est ce que tu disais par rapport au test.
En fait, c'est quand tu vas vouloir fournir un plan terraform générique pour différentes équipes,
où tu t'imagines une boîte où t'as 4000 personnes,
t'as une équipe qu'on va appeler Platforms qui va préparer des plans terraforms pour tout le monde,
et dans les équipes, il y a un mec qu'on va appeler DevOps,
et en fait, tout ce qu'il va savoir faire, c'est un terraform apply.
Il n'y a pas de critique, mais du genre de mode valeur, mais lui, il sait plus faire du code et de la CIA.
Ce qu'il veut, c'est que je veux déployer tant de VM parce que j'ai tant de conteneurs à déployer,
puis dedans, je veux un console, un vault, un achat, une base de données redis, un PostgreSQL,
et puis je veux que ça soit en multi-régions, etc.
Mais en fait, ton équipe Platform, elle va t'écrire tout ton code et elle va te mettre des tests
en disant, si je mets tel fichier de configuration,
ce que je disais dans les locales, je vais avoir tel truc dans mon infrastructure.
Et de pouvoir le tester directement avec ton code, donc que ce soit du Python, du Node, du Go,
ça va te permettre d'y térer beaucoup plus vite plutôt que d'être obligé de déployer une infrastructure
et de regarder ce qui a été déployé.
Après, tu peux commencer à faire un peu d'automatisation pour tester avec TerraTest aussi,
mais je ne vais pas tester encore.
Mais je suis jamais tombé dans des cas et des structures compliquées,
ou sinon, on s'arrangait pour retrouver autrement, par exemple, tu parles de la liste des arrays IP,
tu essaies de les choper plus dans un console ou quelque chose comme ça, déjà formaté,
après, c'est comme tout, je n'ai pas connu, on va dire, le moment-là.
Mais je ne dis pas qu'il n'y a pas de DUSCA, je pense qu'il y a des moments où il n'a besoin,
mais moi en tout cas, dans ma situation, je pense que 90% du temps, je n'aurai pas nécessité,
il n'aura pas un apport suffisant pour justifier un switch.
Mais pour les 10%, tu seras content d'avoir ça ?
Tu sais ça, mais c'est pour ça. Je dis pour l'instant, je suis tombé dans les 90%.
Peut-être que je vais tomber sur les 10%.
Mais je dis juste que...
Et surtout, quand tu es avec les 10%, ça veut dire que tu n'es pas obligé de changer d'outil,
parce que s'il faut que tu bascules sur PULIMI, il faut que tu réapprennes, entre guillemets, tout.
Parce que tout ce que tu avais préparé avec Terraform, il va falloir tout reconvertir,
alors que là, tu as toutes les passerelles qui sont bonnes, tu as les providers qui existent et ainsi de suite.
Ouais, à tester.
Alors, on va passer à la news suivante,
ou news suivante puisque Nicolas nous en a préparé deux petites.
Nicolas, je vais te laisser la parole.
Oui, parce qu'en fait, à chaque fois, je parle de Terraform et de Terraform, des outils HECOR,
et puis là, tu me piques mon travail.
Du coup, je vais parler un petit peu de PIE-PIE.
Donc PIE-PIE, c'est quoi ?
C'est le système qui permet de stocker tous les pétales Python.
Et donc, dedans, il y a le versioning, le fait de pouvoir chercher une librairie en particulier.
Vous pouvez pousser une version un petit peu particulière pour faire des pré-releases,
ce qui fait que ce n'est pas ce pétage-là qui va être installé dans une version de prod
pour tous ceux qui l'utilisent dans une production.
Et en fait, il y a quelques personnes qui se sont rendus compte que c'était problématique
de pouvoir pousser un petit peu trop facilement dedans,
suite aux problèmes qu'il y avait eu avec NPM,
où finalement, on pouvait pousser une version si on n'était pas ma preneur du dépôt, des choses comme ça.
Donc PIE-PIE était assez protégé de ce côté-là,
mais récemment, ils ont rajouté une deuxième protection.
Donc maintenant, pour tous les projets les plus crédits qui entitent,
il faut une authentification d'EFA.
Donc, je n'ai pas creusé exactement comment ça se passait,
mais j'imagine que ça doit être un totem sur un téléphone,
ou un totem, matériel, comme une clé, un outil, ou je ne sais pas quoi d'autre.
Donc, c'est assez intéressant de voir que les écosystèmes,
comme on en sait, apprendront en compte ce risque-là.
Et c'est quoi le risque ?
C'est que je vais récupérer le login-mode pass d'un développeur,
parce qu'il a laissé traîner ses crédits dans le show de l'art, dans une CIA, je ne sais pas quoi.
Finalement, je ne vais pas pousser un petit paquet,
parce que finalement, ce petit paquet ne fait pas grand-chose,
c'est juste que dans certaines conditions, je vais aller récupérer des données en mémoire
pour les envoyer d'ailleurs, crypto-locale-disk et puis demander des bitcoin, etc.
Je ne sais pas ce que vous en pensez, R1,
est-ce que toi, t'es prêt à activer le DOFA pour être obligé de te connecter
à chaque fois que tu pousses un nouveau package ?
Alors, la seule fois où j'étais dans ce cas-là, surtout avec PaiPai,
c'était dans mon ancien job,
et en fait, à partir du moment où on peut intégrer ça facilement, quand même, dans la CIA,
je veux bien l'activer, mais sinon, il faut voir, effectivement,
nous, dans notre cas, c'est la seule interaction qu'il y avait avec PaiPai,
c'était dans notre contexte de CIA pour publier nos packages.
Et donc, du coup, j'imagine qu'il y a probablement ce qu'il faut pour ce contexte-là,
mais, enfin, s'il n'y a pas ça,
j'imagine que je ne serai pas le seul à dire que c'est compliqué de faire le mou,
mais sinon, en tout cas, quoi qu'il arrive,
on ne peut pas freiner ce genre d'initiative, parce que c'est quand même important,
il y a trop d'enjeux derrière, surtout avec ce que tu as cité,
et puis même toutes les autres histoires avec les packages qui sont déployées,
des fois sur les registries, avec des trucs à la con.
Bref, ça ne fait vraiment pas de mal d'avoir ce genre de protection supplémentaire
et d'avoir cette possibilité-là.
Damien, tu veux rajouter un truc ?
Non, mais je sais d'accord avec toi, après, il faut voir comment ça se passe avec la CIA.
La double d'inducation, ce soit un CIA, le souci, après, dans ce qui se passe,
mais à part ça, l'idée est bonne, de façon, il y a de plus en plus de cas,
notamment avec des bibliothèques ou des supply-chénataques, ou des choses comme ça.
Donc, forcer à avoir de la double authentification, ça ne me paraît pas déconnant.
Moi, j'active la double authentification dès que je peux,
mais en effet, j'ai pensé tout de suite à la CIA,
puisque quand tu crées une release, tu veux que tu aies la release qui va la pousser.
Donc, j'imagine qu'il y a des tokens,
et que c'est un truc supplémentaire pour pouvoir pousser à la main,
parce que s'il n'y a pas de token, en effet, je rejoint Air One et Demir,
ça risque d'être compliqué pour généraliser ça.
Je pense que c'est plutôt dans l'autre sens,
où en fait, toute la CIA, il va faire toute la partie automatisation,
tous les tests, ainsi de suite, et après, la release pour pousser sur PiPi,
je pense qu'il y a forcément une action manuelle d'un développeur
qui va rentrer ses UBiki,
ou le code qui va avoir sur son autre device,
donc ça va être la deuxième authentification,
parce que sinon, je ne vois pas trop l'intérêt,
parce que si tu peux rentrer dans la CIA,
tu peux pousser tout ce code que tu veux.
Donc, je pense qu'il y a une action manuelle à un moment donné.
Et là, j'ai eu une pensée très émue pour mes anciens collègues,
parce qu'il y a vu le nombre de releases qu'ils font des fois de certains paquets,
ils vont perdre du temps.
Oui, mais si tu regardes bien dans tout ce qu'il y a,
donc c'est ce qu'on disait, c'est les projets critiques.
Donc t'imagines une librairie pour Redis, Posga, SQL, des releases,
il n'y en a pas tous les jours.
Donc, ce qu'on t'a une release une fois par mois,
c'était obligé d'aller cliquer sur un bouton
pour rentrer ton Tontoken, double authentification,
ça ne paraît pas déconnant et pas hyper risqué non plus.
Oui, mais c'était un troll.
Oui, oui, non, mais le truc, c'est que les gens ne voient pas.
Et puis moi, je t'ai pris au premier degré,
parce que effectivement, c'est ce que j'ai imaginé.
Et il faut comprendre que tout ce qui est critique comme ça,
en fait, t'as d'autres mécanismes pour pouvoir tester et faire du dev.
Et finalement, tu ne pousses pas ces trucs-là en prod
toutes les deux minutes non plus.
Et tu avais une deuxième nouvelle, je crois, pour nous.
Eh ben oui, parce que, comme je ne voulais absolument pas parler d'Achille Corp,
je me suis dit que j'allais vous parler de Trifix.
Donc Trifix est sorti en version 2.8 en début d'été.
Et comme ils m'aiment bien, Trifix, ils ont décidé
qu'ils allaient rajouter plein de trucs,
notamment par rapport à consul et nomades.
Donc, du coup, Achille Corp m'a un petit peu rattrapé.
Donc, ils ont rajouté le support des Namespace,
les Namespace de consul, pardon.
Alors, c'est une fonctionnalité qui est disponible
que pour les clients Enterprise de consul.
Donc, ce n'est pas donné à tout le monde.
Et donc, j'ai pas creusé beaucoup plus que ça,
mais c'est intéressant de voir que Trifix
s'intéresse aussi à l'écosystème Achille Corp.
Alors, je sais pas si c'est pour grappiller quelque part de marché
ou si ils ont la demande est tellement énorme,
parce que finalement, le monde va en train de basculer
sur consul nomades plutôt que de Kubernetes.
J'ai un petit espoir.
Et du coup, ce qui a d'intéressant aussi,
c'est qu'ils ont rajouté le support de nomades.
Et ça, c'est encore plus intéressant
parce que ça permet de pouvoir rajouter
tous les jobs nomades.
Donc, un job nomade, c'est quoi ?
C'est un binaire qu'on va faire tourner
et qu'on va vouloir déclarer.
Et la différence par rapport à d'autres écosystèmes,
c'est que nomades peuvent faire tourner autant du conteneur,
mais aussi des binaire.
Des binaire s'est achetouté,
des conteneurs dans plein de systèmes.
Donc, on peut obtenir du container D, du docker,
et puis je sais plus quoi.
Mais on peut aussi mettre carrément une VM
alors je crois que c'est...
On peut démarrer du QMU, donc du KVM et ainsi de suite.
Donc, c'est assez versatile.
Mais surtout, ça permet de rajouter un plugin.
Donc, un petit peu comme avec Terraform,
on peut faire ces plugins nomades
pour rajouter un autre driver
et pouvoir démarrer des jobs dans autre chose.
Donc, vous avez un truc totalement exotique,
je ne sais pas, pour décroiller des trucs
sur des Arduino, vous pouvez le rajouter
et ça sera supporté.
Et comme nomade peut permettre maintenant
d'être découvert automatiquement par Trifix,
comme nomade a la connaissance
de l'adresse IP du port de votre service,
il va automatiquement pouvoir être exposé
dans Trifix sans passer par d'autres mécanismes
de services Discovery.
Donc, si vous voulez, juste un nomade
sans avoir conçu pour pouvoir mettre des trucs
à disposition du réseau,
que ce soit internet ou un réseau interne,
vous pouvez maintenant utiliser Trifix pour ça.
Et la dernière intégration qui sont rajoutées,
ce n'est pas du tout de la Chikorps, c'est le Trifix Pub.
Alors, j'essaie de comprendre un petit peu ce que c'était,
un petit peu austère, mais en gros,
vous rajoutez un token après vous être enregistré
sur le Trifix Pub.
Donc, c'est un service, ça, ce qui est proposé
par la société qui développe Trifix.
Et à partir de là, vous pouvez mettre directement
sur internet vos services beaucoup plus facilement
sans être obligé d'exposer votre Trifix directement
sur internet.
Donc, je n'ai pas tout compris comment ça fonctionnait,
et quand j'ai vu que ça ouvrait des flux
à partir d'une plateforme non maîtrisée,
j'ai commencé à avoir peur, et du coup,
je suis revenu à mes trucs que je maîtrise bien,
ou c'est moi qui règle toutes mes trucs de Firewall.
Par contre, j'ai l'impression que c'est très intéressant
pour des développeurs qui veulent faire du service mesh
un petit peu plus facilement,
et si vous faites déjà confiance à une plateforme tierce
comme AWS, je pense que vous pouvez y aller,
vous risquez pas grand chose de plus.
Ok, Rwatch, te vois bien rigoler,
donc j'imagine que t'as plein de trucs à dire là-dessus.
Alors, bon, heureusement,
j'avais eu trop l'occasion d'utiliser trafic,
même si on en a quand même parlé plusieurs fois
dans les news sur ce podcast.
Mais je rigolais parce que j'ai bien aimé
ton troll très discret,
mais pas tant que ça sur AWS et les confiance.
Mais en tout cas, ce que tu as décrit ces profiteurs,
maintenant, je suis tellement loin
d'utiliser ça actuellement
que je me sens pas hyper concerné,
mais peut-être que mes petits camarades
auront des choses sur lesquelles rebondir là-dessus.
Moi, j'ai l'impression que le Traffic Hub,
c'est une sorte de load balancer multi-cloud
que te propose Traffic,
et très certainement ça utilise Traffic,
enfin, je vois ça comme ça, d'après le schéma
que je vois sur leur site.
Et c'est le deuxième, du coup,
load balancer multi-cloud que je connais,
puisque jusqu'à présent,
je ne connaissais que celui de Skelway.
Donc du coup, je me dis que bon, pourquoi pas.
Par contre, il faut que ce Traffic Hub,
tu ailles connecter des trucs qui soient Traffic,
puisque derrière, tu as un Traffic Hub agent
d'après ce que je vois, donc c'est pas n'importe quoi non plus.
Oui, en fait, il faut que tu déploies
à côté de ton Traffic,
il faut que tu déploies un agent,
et donc cet agent va dialoguer avec ton Traffic
pour aller chercher la configuration
sur le Traffic Hub
et configurer ton Traffic au cas.
Et toi, Damir, qu'est-ce que tu en penses ?
C'est cool qu'il traîne notamment avec aficionautique
qui est une boîte
où j'aime beaucoup les produits, je dois avouer.
Et Traffic, c'est un peu comme Air One.
Je suis un peu de loin, on l'utilise
de temps en temps, mais j'ai jamais eu
trop le temps de poser dessus,
mais c'est quelque chose de solide.
J'ai toujours eu des bons retours,
et je crois que c'est français aussi,
donc c'est toujours un peu heureux
de voir des produits français bien fonctionner.
C'est signe quand c'est faire des choses.
Et du coup, non, c'est une bonne chose
après pour ce qu'il nommate,
tout ça, c'est quelque chose que je n'ai pas utilisé.
Pareil, j'ai eu de bons retours, moi, je n'ai pas utilisé.
Et pour le Traffic Hub,
j'avoue que moi, j'ai un peu de...
L'autre bansard MultiCloud,
je suis encore assez perplexe,
mais ensuite de Skylwage,
j'ai jamais trouvé de use case,
j'ai cherché, j'ai jamais trouvé.
Et là, pour le coup,
il faut voir ce que ça donne,
où il est hébergé par rapport
à nous, comment ça se passe
pour la bascule, etc.
Ça peut être intéressant, c'est à suivre.
Mais ça, avec MultiCloud, c'est un sujet aussi assez...
On va dire, assez compliqué
à traiter, qui
a une définition différente
pour plein de gens, j'ai l'impression.
Ça fera limite un bon sujet d'épisode,
ça aussi.
Mais voilà, je n'ai rien de spécial, sinon,
à part que c'est toujours cool de voir
de nouvelles intégrations et des choses marchands.
Mais ça donne aussi, peut-être,
plus de force anomale
qui pourrait être utilisée plus facilement.
Nous, on utilise Traffic chez nous,
que ce soit
sur Kubernetes ou
sur des serveurs avec du Docker Compose,
par exemple.
On envisage même de créer des stacks
avec Portenheur.
Et ça marche très, très bien,
en fait, Traffic dans le monde des conteneurs.
Moi, je préfère utiliser Traffic
N'Jinks, que je connais aussi très bien.
Dans le monde du conteneur, je préfère utiliser ça.
Et en effet,
c'est bien créé par des Français, ils sont à Lyon.
En tout cas, une partie de l'équipe est à Lyon.
J'avais rencontré Emile justement
à Lyon.
Emile qui a créé Traffic il y a longtemps.
Et donc, c'est Coco Rico.
C'est un bon produit
qui marche très bien.
Et en plus,
à chaque nouvelle version, ça a un nom
de fromage français.
Oui, et d'ailleurs, je suis étonné que tu ne nous ai pas donné le nom
de cette version-là.
Eh bien, je dois avouer que je n'ai pas regardé,
mais c'est parce que je n'ai pas envie d'être déçu.
La dernière que j'ai en tête, c'est Artiflette.
Et là, déjà, ça me donne fin.
Donc, je préfère rester sur ce nom-là.
Et si vous avez des questions
sur Traffic et comment ça peut tourner en prod,
puisque visiblement,
il y a assez peu de monde qui l'utilisent.
Je suis un petit peu dans mon écosystème fermé,
on va dire.
Moi, je l'utilise depuis 4-5 ans
en production,
avec des charges plus en plus importantes.
Effectivement, en partie,
parce que j'utilise de plus en plus
de conteneurs, mais pas que.
Et donc, si vous avez des questions,
n'hésitez pas à venir me plinguer
sur le forum des compagnons du DevOps.
Et j'y répondrai avec plaisir.
Merci de faire cet appel
à s'inscrire au compagnon du DevOps.
Et en effet,
moi aussi, je pourrais essayer de répondre.
Parce que c'est un produit que j'aime beaucoup,
que je trouve assez simple.
Je pourrais pas répondre,
mais au pire, je l'ai créé votre question.
Et bien, on va parler de
GitLab, que j'adore, tout le monde le sait.
Et c'est Erwan, du coup, qui va en parler.
Oui.
Parce que là,
tout fin juillet,
il y a eu une annonce qui a été faite,
comme quoi, CircleCI,
intégrée
GitLab, de façon
native,
dans les
plateformes
de
gestion de code, pardon, j'ai arrivé,
que ça s'est géré.
Et en fait,
je trouve ça assez...
On va en discuter.
Pour ceux qui ne savent pas, CircleCI, c'est quoi ?
C'est
juste un...
C'est une CI CD en sas,
mais qui fait que ça.
Parce qu'aujourd'hui, on est quand même
très habitué
d'avoir le couple
avec GitLab ou même GitHub, avec les GitHub Action.
Donc d'avoir le couple, gestion de code
et
CI CD, qui sont embarqués ensemble.
CircleCI s'occupe
que de la CI CD. Et en fait, leur
tagline, c'est de
mettre en avant le fait de dire
nous, on s'est géré tout un tas
d'environnements très divers, que ce soit
du docker, de la RM,
des GPU, du Windows, on a tout ça
en stock, on sait faire.
C'est beaucoup plus rapide que n'importe
quelle autre CI CD.
Encore une fois,
on peut en rediscuter, mais voilà.
Et surtout, ils savent
fournir tout un tas de stats, et ça,
c'est vrai que souvent, les
managers aiment bien ça, tout un tas
de stats sur la qualité des builds,
leur durée, les projections, etc.
Et donc,
CircleCI, c'est ça. Et c'est une
plateforme qui est payante, même si
je crois qu'il y a
de y avoir 5000 ou 6000 minutes
qui sont gratuites
pour se faire la main.
Et donc maintenant,
jusqu'à présent, ils savaient
gérer que Bitbucket
d'Atlassian et
GitHub
et donc depuis
fin juillet, ça va gérer aussi GitLab.

en fait, je trouve que
l'argument qui est mis en avant
pardon, pour
de CircleCI, c'est de dire,
mais en fait,
ils cherchent pas à remplacer
forcément
les GitLab CI ou les GitLab Action.
En gros, ils expliquent
que pour
énormément de personnes,
c'est
largement suffisant, souvent pour
faire des tests en continue ou des choses comme ça.
Eux, ils voient ça plutôt comme
la couche au-dessus
qui va permettre de centraliser
et d'organiser
les RIPOs, mais dans
le déploiement
des projets, mais au niveau
très macro
de l'entreprise. En gros,
le message qui est derrière, c'est
gérer
les permissions dans GitLab, GitHub,
Bitbucket, pour que
ça déploie sur votre CI CD.
C'est quand même toujours un peu compliqué.
Nous, on vous offre cette couche supplémentaire
où vous allez pouvoir
gérer de façon plus fine les droits
et surtout, justement, de donner
les droits aux personnes
qui y doinent.
Et en rajoutant
cette petite complexité
supérieure, vous allez pouvoir
fédérer
en fait, déjà si jamais vous êtes
sur plusieurs plateformes
et fédérer votre gestion
des utilisateurs, etc.
Et en bénéficiant
donc des quelques
avantages de CircleCI
qui est en plus,
avec un, d'ailleurs j'en profite,
un des avantages que moi je trouve très pratique
c'est le debugging via SSH.
En fait, quand vous
avez un build qui fail
et que vous dites, ah merde, j'ai été con,
j'ai pas rajouté telle option
ou j'aurais bien aimé pouvoir
juste lancer telle commande.
C'est vrai qu'il y a un truc sympa dans CircleCI
c'est que vous cliquez sur le bouton
ça vous file
une sorte de endpoint SSH,
vous vous logez dedans et puis pendant
je ne sais plus si c'est toujours le cas
mais genre pendant 20 minutes, vous pouvez faire un peu ce que vous voulez
dans le container
tout casser, faire des tests, relancer des trucs
sans avoir à relancer votre pipeline par exemple.
Donc voilà,
moi
et c'est plus là-dessus que
je reste un peu perplexe
c'est que je comprends ce côté
de CircleCI de dire voilà
on a un outil neutre, vous pouvez l'utiliser
en
plus de votre
CI d'aujourd'hui en ajoutant
donc toute cette complexité
sur les
sur les permissions
etc.
Mais
je ne sais pas si c'est parce que je suis un vieux con
mais je me dis YET AN OTHER TOOL
j'ai pas le sentiment que
parce que mine de rien c'est aussi payant, c'est cher
CircleCI
bon après cher mettez le trigger
enfin le curseur que vous souhaitez
mais c'est quand même pas donné
et en fait
à part
enfin
je trouve que
je vois vraiment pas
l'intérêt aujourd'hui
de
faire un move sur ce genre de plateformes
en se disant
les personnes qui sont sur GitLab
qui ont vu passer la news, qui se disent
ah mais c'est super, bah vas-y je passe sur un GitLab
enfin sur CircleCI
il y a un truc
que je trouve que ça rajoute
une complexité qui est non justifiée
et
et ça rajoute des outils
et ça rajoute des coups etc
et malgré toutes les bonnes promesses
qui sont sympas de CircleCI
moi j'ai eu l'occasion d'utiliser
un peu plus d'un an et demi
et je trouvais que c'était pas trop mal
et même la frustration que je peux avoir
parfois avec GitLab
surtout en ce moment
bah
je reste hyper perplexe
sur ce genre d'annonce
qui sont clairement CircleCI
je sais pas si vous avez vu l'orcom
mais là c'est depuis fin juillet
ils ne parlent que de ça
donc voilà je voulais avoir
votre avis
alors juste pour rappel
le configurer CircleCI
c'est à peu près le même niveau que pour un GitLab
par exemple c'est un fichier yaml
que vous mettez à la racine de votre truc
et puis vous décrivez
vous décrivez les actions etc
ça ressemble beaucoup à ce qu'on fait
avec GitLab
c'est juste qu'il y a tout un tas de petites intégrations
en plus qui sont assez agréables
à écrire mais du coup qui sont très
orientés CircleCI
et encore une fois
moi j'ai l'impression que
voilà je dis bag
mais Damien
est-ce que c'est
une plateforme qui
déjà tu connaissais et t'as eu l'occasion d'utiliser
et ce genre de news
est-ce que tu te dis chouette
ou tu te dis on s'en fout
alors je connaissais
effectivement j'en avais entendu que c'était
cool mais c'était cher
pour donner un ordidé c'était d'un niveau
sur une échelle de 0
qui commence à c'est totalement gratuit
à une échelle de Datadog
c'était
sur un bien 7,8
donc du coup non c'était
assez cher mais c'était d'expérience
c'était plutôt cool de ce que j'ai entendu
après j'ai entendu beaucoup de retours étrangement
de développeurs et moins de personnes
qui étaient un peu
entre guillemets, DevOps
donc côté tooling et infra
j'ai beaucoup moins entendu du retour de ce côté-là
est-ce que ça
est-ce que ça vraiment
moi c'est pas un produit qui m'intéresse
je fais que c'est en sas pour de la CIA
ça m'embête un petit peu
j'aime bien pouvoir faire tourner les workflows
de CIA localement
parce que la CIA
a quand même un petit pouvoir
elle a quand même en contact avec des secrets
des choses comme ça donc toujours un peu plus rassurés
de pouvoir contrôler ça localement
si encore une fois c'est une question
de confiance envers
son fournisseur
et ce genre d'annonce
ben
je pense ça montre qu'ils ont
besoin de débloquer des nouveaux marchés pour moi
et c'est ce qu'ils essayent de faire
après est-ce que ça va leur permettre
vraiment
de run the world
j'ai un doute
avec tous les produits qui existent maintenant
je pense qu'ils...
j'ai l'impression pas mal le vent en poupe
à l'époque où GitHub n'avait pas vraiment de solution
après GitHub a sorti
du coup sa solution qui a bien marché
qui a pris beaucoup de marché
et là je pense qu'il essaye de récupérer un bon marché
en se disant on s'est fait bouffer côté GitHub
on va essayer d'en prendre d'autre part
mais
GitHub est bien installé, la CI et GitHub est bien installé aussi
donc j'ai vraiment de très gros doutes
sur le fait que
ce soit un move qui leur permette
on va dire d'amasser d'une grosse part de marché
en tout cas moi c'est pas forcément un produit
qui m'intéresse personnellement
je vais prendre la suite du coup
parce que je vais réagir
à ce que dit Damir et puis un truc
qui a dit ah ouais je te laisse la parole
moi je suis un ancien utilisateur
de CircleCI et puis je découverts
de faire un GitHub CI
et depuis je suis un peu comme Erwan
je ne me vois pas retourner sur CircleCI
et je partage son habit
sur le debug SSH
qui est une très bonne fonctionnalité
pour le coup de CircleCI
je l'ai usé et abusé cette fonctionnalité
et quand je me suis retrouvé sur
GitLab CI
je l'espérais pouvoir la retrouver mais jamais
jamais, peut-être qu'il faudrait ouvrir un ticket
mais bon
en l'occurrence c'est pas le cas
mais on peut pas ouvrir de tunnel SSH
sur notre petit job
pour répondre
à Damir a priori
bon j'ai pas testé mais
CircleCI te propose
une version self-hosted
où tu peux le mettre sur tes propres serveurs
par contre le coup je ne le connais pas
puisque c'est marqué cool plus Tom
donc voilà et tu parlais du coup en effet
alors c'est bon de rappeler que la version
a jusqu'à 6000
jusqu'à 5 utilisateurs
et 6000 minutes de CI
c'est 15 $
excusez-moi par mois mais
si vous voulez plus, si vous voulez tout
customiser c'est à partir de
2000 $ par mois
donc ça fait une grosse
marche quand même
mais n'oublions pas aussi et comme tu le disais
c'est hyper facile de rajouter
un runner GitLab
sur un projet, je veux dire c'est un conteneur
de coeur à lancer sur ton serveur
sur ton laptop n'importe où
ça c'est un des gros avantages
de GitLab je trouve par rapport à Circle
mais sinon les deux solutions
je trouve
se valent toutes les deux
CircleCI permet
de faire cette partie-là aussi
ouais mais c'est pas gratos
ah oui voilà ça
qu'est-ce qui est gratuit dans la vie
si c'est gratuit c'est toi le produit
voilà
ouais en fait
c'est ce que je voulais dire
c'est à peu près
toutes les CI tu peux lancer un runner
dans ton infrastructure
et du coup ça te permet de gérer plus
facilement la partie CD
et pour trouver un petit peu
ça s'appelle CircleCI pas CircleCID
donc ça explique peut-être
pourquoi c'est principalement les développeurs
qui en parlent plus sérieusement
moi je
j'ai pas trop confiance dans tous ces outils
là qui pourraient accéder à mon infrastructure
mais tout récemment
j'ai rajouté dans un GitHub Actions
un SSH qui fait
une mise à jour sur mon serveur
à la fin du build
oh
gros score
là il y a trop de sécurité
mais bien sûr je vous rappelle
que quand vous faites ça c'est un utilisateur non privilégié
vous faites du sud ou
et vous pouvez même rajouter
des commandes SSH autorisées
pour filtrer les quelques commandes
que vous voulez pouvoir lancer
donc c'est comme ça que vous pouvez
sécuriser un compte
qui sera accédé
via une plateforme extérieure
donc le méchant pirate qui va
prendre le contrôle de l'ACA
le seul truc qui pourra faire c'est
restaire votre service ou faire la mise à jour
de votre paquet
c'est une partie un peu
plus limitée que
pouvoir être route
sur tout un environnement
et après sur l'autre partie
moi je vois ça d'un très bon oeil
que l'écosystème de la CIA
grossisse un petit peu
parce que je trouve qu'on a pas énormément
de choix
qu'est-ce qu'on a comme choix
donc on a d'un côté githlab
ciay
mais ça implique d'avoir githlab
vous avez les github actions
qui impliquent d'avoir du github
dans les deux cas
vous avez un nombre de run
qui est ici en unité
après vous pouvez faire les papiers
et installer un gemtits
avec tous les problèmes
qui peuvent venir avec
mais au final
des fois je me dis que
finalement c'est peut-être la solution la plus simple
moi j'ai essayé
cds cdh cdh cdh cdh cdh
la dernière fois j'en ai discuté
avec
yvonic qui est un des corps
développeurs de cds il me dit
ouais alors pour une boîte de 3-4 personnes
c'est peut-être un petit peu le charle clair
pour aller tuer une petite puce
sur le dos d'un chien
donc moi je suis un petit peu embêté
parce qu'il y a plus grand chose
alors y avait travis ciay
j'ai l'impression que c'est
franchement en train de mourir
nous on paye la version Enterprise
et quand on lance un huile
il est traité plusieurs heures après
donc ça commence à
magasser sérieusement
pour être politiquement correct
et donc le fait
que Circle propose
quelque chose
malheureusement c'est peut-être un petit peu cher
mais d'un autre côté je préfère payer
cher un produit et avoir
un service qui va être
et pour tous les services
que j'ai pas émergé moi-même
ça me fait sa bon affaire
donc je peux passer du temps
à faire autre chose
finalement de 1000 euros par mois
c'est quoi par rapport à un salaire
d'un DevOps que de toute façon
je vous arriverai pas à recruter
et encore moins à ce prix là
finalement vous aurez peut-être mieux de 1 000 balles
en Circle ciay
et quelques personnes de l'équipe
puissent rajouter les jobs
et les mettre dedans
et oui et pourquoi je dis tout ça
c'est parce qu'en fait
j'aime pas trop avoir de l'adurance
entre les produits
parce que GitLab
si vous voulez migrer
de l'un à l'autre
si vous avez GitLab ciay ou si vous avez GitObaction
vous êtes coincé sur votre
repository Git
et si jamais un jour
vous vous faites éjecter
dans des deux vous pouvez aller pleurer
chez l'autre
mais si vous êtes dans un pays
qui n'est pas copain avec les deux
vous pouvez vous héberger vous-même
comme GitObC est décentralisé c'est bien
mais si vous perdez votre ciay au passage
vous avez plus qu'à pleurer
alors que si vous avez un système de ciay
qui est totalement agnostic
de votre fournisseur de Git
déjà vous avez ça moins à faire
voilà
donc la ciay c'est bien
si il y a des startups qui veulent se lancer
pour faire une autre ciay
c'est cool si elle est à open source
c'est encore mieux
et si vous voulez
une ciay open source
française qui s'installe facilement
et rapidement
elle est contribue à l'SDS
parce qu'il fournit déjà les bonnes bases
il me semble qu'il y a d'autres solutions de ciay
notamment il y a Droneio
qui était open source
je sais plus s'ils le sont restés
et il y en a d'autres il me semble
bon faut les chercher mais il y en a quand même pas mal
j'en avais essayé pas mal
il y a 5-6 ans
et au final j'ai été retourné sur Jenkins
mais c'est très bien Jenkins
il faut aimer le gros vie
il faut aimer le gros vie et c'est moche
Damir tu voulais ajouter quelque chose
j'avais justement demandé si il y avait testé Droneio
mais tu m'as enlevé les mots de la bouche
bon bah désolé
puisqu'on parle de Geek Lab on va rester dans le sujet
alors Damir je crois
oui
vous avez sûrement entendu parler
ça a été un des dramas sur les réseaux sociaux
de ces derniers temps
pour le coup qu'est ce qui s'est passé
Geek Lab.com
du coup qui est à l'instant ce public de Geek Lab
et gratuite par défaut
entre guillemets mais vous pouvez payer pour avoir des versions
un peu premium
bah ils ont simplement annoncé que sur les projets
du coup qui étaient gratuits
donc les projets dont tout le monde peut bénéficier
ils allaient supprimer
les projets où il y avait de l'inactivité
pendant une certaine période
j'ai plus la période en tête mais c'était un an
il me semble mais il faudra vérifier
il y aura un lien dans la description
ils avaient annoncé que tous ces projets où il y avait plus de l'activité
ils seraient tout simplement supprimés
pour économiser notamment au niveau du stockage
je me souviens que vu le nombre de projets
ça doit coûter quelques billets
donc du coup
très vite la communauté
a un peu commencé
à faire une levée de boucliers
à rappeler que des projets qui s'étaient
qui étaient quand même une chose importante
qui était plus forcément actif
ce qui a forcé un peu Geek Lab à faire marche arrière
et au final ils vont annoncer que avant
de réfléchir
des solutions aussi radicales
ils allaient passer à une solution intermédiaire
qui allait être pour l'instant la solution
et la plus extrême
à la terme on va voir
qui va être le stockage à froid
donc ils vont stocker en fait
les projets en mode objet
à froid pour essayer de gagner de l'espace
et du coup
ça sera activé sur tous les comptes gratuits
je mis cette activité aussi
parce que j'ai remarqué que beaucoup de personnes
ont vu la news passer
ce qui a fait beaucoup de bruit que les projets aient été supprimés
mais moins de gens ont vu
la news comme quoi ça avait été
annulé pour l'instant en tout cas
ce qui est toujours un peu dommage avec ces genres de news
c'est que la news un peu catastrophe
a une grande répercussion
mais la news qui annonce la réalité
est toujours moins vue
donc est-ce que vous aussi vous avez été
choqués par cette
news qui a traumatisé plus d'invisiblement
Nicolas est-ce que t'as été traumatisé
est-ce que tu fais preuve de traumatisme là-dessus
alors je suis absolument pas traumatisé
mais je crois qu'ils ont migré leurs stockages
sur Azure donc peut-être que ça marche bien
à haute échelle et du coup
ils ont voulu réduire le stockage
qui est leur côté trop cher
bah c'est encore une fois
quand c'est gratuit
il faut aussi penser aux entreprises
qui vont
aider à gérer votre service gratuit
et alors je ne veux même pas imaginer
l'infract qu'ils ont avec
les milliers de dépôts
les milliers de clones et ainsi de suite
en moi mes pet projects
je les mets plutôt sur E-Tub
mais je sais que Christophe
va commencer à me regarder avec des gros yeux
donc c'est aussi pour ça
que je n'y grepe pas forcément
sur E-Tub
parce qu'à l'époque les repository privées
étaient quand même unités
mais il faut toujours penser
qu'à un moment donné les entreprises
elles ont besoin de faire de l'argent
qu'ils clavent
moins de pognon que d'E-Tub
ils ont peut-être aussi
des financeurs moins gros derrière
donc à un moment donné il faut trouver
des solutions pour réduire les coûts
mais c'est un petit peu la même chose
que ce qui a été fait côté
Dockers
où finalement ils ont réduit
la possibilité de pouvoir faire
des G-Pool à outrance
moi ça ne me choque pas qu'une entreprise
dise bon bah voilà on a besoin
de pognon donc on va désactiver
les trucs les plus inactifs
moi un projet qui n'a pas été
G-Pool depuis un an
alors effectivement la suppression c'est peut-être
un petit peu dangereux du coup la solution
stockage à froid et si quand tu fais
ton G-Pool ça prend 5 minutes
le temps de leur sortir du stockage à froid
ça me fait une chaleur, une froid
c'est trop Erwin
justement
t'as fini par derrière
ce que j'avais en tête c'est que
l'approche qu'ils ont finalement
je sais pas c'est vraiment acté
ou pas le truc
du stockage à froid
c'est la solution
qui a été pour l'instant acté
en tout cas la suppression
pour l'instant a été mise de côté
et du coup
il part là dessus pour l'instant
mais après est-ce que techniquement
ils vont se dire il y a un logo ou pas
peut-être aussi c'est un peu un truc
à des sorties en mode pompier
donc à voir
c'est le CEO donc le président
directeur général qui a annoncé qu'il y aura
un stockage à froid, objet
et je vois ça a été mis
dans une épique donc a priori
c'est plus son effet là dessus
que ça va aller
et du coup
ce qui est important de retenir
c'est que ça veut pas dire que
c'est pas comme quand tu fais
tu récupères un backup
au fin fond de ton S3
enfin de ton glacier
qui peut mettre quelques heures
parfois à être dispo, là
je me souviens d'avoir lu
dans un des threads qui a expliqué
que ça va juste perturber un petit peu
le temps de clone par exemple ou de poule
mais ça va
on n'est pas sur des 6h
on est plutôt de l'ordre de plusieurs minutes
et donc du coup
je trouve que c'est assez rassurant pour tout ceux
qui s'imaginent un truc de la mort
et après comme dit Nicolas
il faut un moment avec GitLab
il faut qu'il mange aussi
donc si pour manger il faut qu'il fasse des réduction
de coups
mais par contre c'est vrai que
je pense qu'on est tous d'accord pour dire
que le fait d'avoir proposé
le RM
c'est quand même quelque chose
qui est assez surprenant
je crois que Dottur avait fait la même chose
à l'époque
ça a un peu réveillé des gens
mais ils sont dans une situation
ils ont proposé ça
ils ont aussi attendu peut-être de voir les retours
de la communauté derrière
et comme tu le disais
niveau financement
c'est un peu compliqué et je pense qu'on ne va pas se mentir
la communauté open source en général
aurait été
préfère cette solution là au fond
que demain GitLab vienne dise on a été racheté
par papy microsoft
ou papy google
donc au final c'est peut-être
aussi bien comme ça
oui alors tu disais
d'au coeur moi ça m'agène moins
que d'au coeur purge les images
parce que les images ne sont que des images
c'est le résultat d'un code qui a été bildé
là on parle plus du code
Réjin qui aurait supprimé
j'ai été passé à côté de cette news vous voyez merci
je suis assez surpris
que GitLab
est imaginé ce genre de choses
et en effet je pense que
au vu de la réponse de la communauté
ils ont bien fait de changer leur fusil d'épaule
on se rappelle
il y a quelques temps en fait ils avaient réduit
le nombre d'utilisateurs gratuits
à 5
pour les groupes
parce que justement ils cherchent
enfin ils cherchent pas une rentabilité ils ont
mais ils cherchent à maintenir leur rentabilité je pense
et étant donné leur entrée en bourse
de l'an dernier
ou de début d'année je sais plus
c'est tout aussi important
pour d'être rentable et comme vous le dites
il n'y a pas Microsoft derrière
GitLab c'est certes une grosse entreprise
mais ça reste une entreprise
seule qui est dite un gros projet
libre
enfin en tout cas le coeur est libre
et à l'issence
donc bon moi ça me choque pas
par contre
faites des miroirs
moi je vous encourage à faire des miroirs
si vous êtes sur GitHub
faites des miroirs sur GitLab
faites des miroirs sur Framagit
allez sur Frogit
allez sur Git.a je ne sais pas
mais faites des miroirs un peu de partout
parce que ces Git
nous
proposent de faire cette possibilité là
donc autant le faire
comme ça vous perdrez pas vos
vos dépôts
et puis si vous pouvez fait des sauvegarde
de vos dépôts puisque GitLab permet aussi
de faire des sauvegarde de dépôts c'est une possibilité
j'ai développé un script
qui vous permet de faire des sauvegarde donc faites-le
vous pouvez même le mettre dans une C.I
aller l'envoyer sur du stockage d'objet
ça c'est pas encore inclus dans mon script
mais ça le sera à l'avenir
en tout cas c'est mon idée
donc faites des sauvegarde aussi de vos dépôts
surtout si jamais le jour
où GitHub ou GitLab
disparaît d'internet pendant une journée
vous serez pas au chômage technique
vous pourrez continuer à travailler un petit peu
moi je l'ai mis dans un job run deck
quand il y a eu
l'invasion en Ukraine parce qu'on commençait
à parler de cyber
attaques et notamment des russes
qui pouvaient couper des câbles transatlantiques
et de l'autre côté de la scientifique
GitLab et
dans ma boîte on travaille beaucoup avec
GitLab et une partie GitLab
donc toutes les heures
ou toutes les 4 heures chez pure on a un backup
de tous les repository avec un GitClone
qui tombe dans un run deck
et sinon je voulais
dire sur deux trois trucs c'est
le meilleur moyen de faire passer
et accepter
quelque chose d'inacceptable c'est
proposer quelque chose de pire
donc c'est peut-être un choix politique
qui avait été fait d'abord proposer la suppression
pour après proposer
l'archive
ça c'est mon côté un petit peu synique
ce qui me fait penser ça
après j'imagine que
ce qui pourrait rajouter
c'est avant d'archiver le repo c'est
d'envoyer un mail au propriétaire en disant
voilà on va archiver tous ces repository
là si vous les utilisez
pinguet
faites un Git push dessus
et ils ne seront pas archivés
et par contre ce qui m'inquiète avec cet archive
c'est que moi
je cherche beaucoup
des moteurs de recherche pour aller chercher
des bugs en particulier sur des libraries
machin etc et c'est vrai
qu'on tombe certaines fois sur
des repository GitLab mais là du coup
potentiellement c'est du code
qui va disparaître
entre guillemets disparaître de l'internet
et c'est quand même un petit peu dommage
et par contre
effectivement je viens de penser
que dans mes scripts de backup
je ne me backup pas
tout ce qui est extra-git
parce que vous avez aussi
tous vos issues, tous vos abilities et ainsi de suite
ça aussi c'est des choses qui sont importantes
et si on perça
au passage ça sera vraiment
dommage aussi
ça cligne le backlog
exactement
c'est pour ça que j'ai développé mon script
pour sauvegarder tout ce que je permette
à GitLab de sauvegarder
les issues, les groupes etc
je voulais
réagir à un truc que t'as dit
je ne sais pas comment ça va être fait
mais
ça dépend quelle est la profondeur
justement qui est envoyée dans cet
usage d'objet parce qu'on sait que Git il peut avoir
une profondeur et on peut avoir une profondeur de 1
par exemple et avoir juste la dernière version
en ligne et tout le reste
dans le stockage d'objet ça pourrait être un truc
comme ça et du coup
ce que tu évoques sur la recherche
on pourrait quand même continuer à rechercher mais dès qu'on voudrait aller
chercher dans l'historique
ce serait dans le stockage d'objet
et à ce moment là
peut-être que justement en allant faire la recherche
ou en changeant de branche ou en allant vers un comite
GitLab ramenera
ça et considère que le dépôt
n'est plus inactive je ne sais pas
bref
ça me fait penser tout ça que j'avais fait une vidéo
sur ma chaîne youtube secondaire
pour ceux qui ne le savent pas j'ai une chaîne youtube secondaire
sur l'entrepreneuriat
où j'expliquais justement qu'on devait payer
les produits quand on était une entreprise
et que faire fonctionner
une entreprise sur des services gratuits
ce n'est pas périn
y compris pour nous
alors certes ça coûte moins cher
mais par contre ça ne donne pas du chiffre
d'affaires à nos
à nos prestataires, nos fournisseurs
et du coup le meilleur moyen de s'assurer
de leur viabilité c'est quand même de leur filer de la tune
je vois que tu as hoge
dans la tête Nicolas tu t'es d'accord avec moi
ben oui
en fait j'allais dire
pour en être convaincu elle est travaillée pour une entreprise
qui développe un produit open source
et vous comprendrez pourquoi le business model
c'est important
j'ai travaillé chez Kozikloud
le business
le principal produit était en termes open source
aujourd'hui je travaille chez ICDWire
notre produit open source
et d'une certaine manière on est notre plus gros concurrent
quand on discute avec les studios
on leur dit
oui vous pouvez vous héberger en gratuit
mais si vous nous donnez de l'argent
on vous pourra développer
pour plus longtemps et ainsi de suite
donc c'est un message qui passe bien avec nos clients
mais effectivement c'est
quand vous utilisez un produit
regardez comment le payer
alors il y a certains produits
je pense notamment à Shikor
ça coûte une blinde
et c'est pas accessible
à ma boîte par contre on a certains produits
qu'on utilise en sas
et ça permet de financer
aussi les boîtes
et si vous voulez pouvoir continuer
d'utiliser du gratuit c'est paradoxal
mais injecter de l'argent de droits
je suis assez d'accord
nous typiquement on file de l'argent
à Bitwarden pour nous héberger
non pas qu'on ne pourrait pas le faire
mais comme ça au moins
ils ont de l'argent
et
chez nous on est plus enclins
à payer
pour du service sur les logiciels libres
que de payer pour des services sur
des logiciels privateurs
parce que quoi qu'il arrive comme vous l'avez dit
si il y a un problème on peut
au pire héberger notre propre instance
du logiciel libre
ça peut être une solution
et du coup l'interropérabilité
on paye aussi pour l'interropérabilité
et je trouve que c'est un bon truc
je rajoute une petite chose aussi
j'ai fait ça il y a pas longtemps
je suis d'accord pour la partie entreprise
et tout c'est important de payer
c'est gratuit que vous ne devez pas contribuer
que ce soit financièrement ou même par du développement
ça peut on oublie aussi
mais du développement, de la doc
des choses qui peuvent aider et qui peuvent être bénéfiques
à votre entreprise et à la communauté
c'est bien de le faire
et pensez aussi
petite perso moi typiquement j'utilise néo vim
tous les jours et en permanence
pour faire mon code etc
je fais une grosse donation mensuelle
et ça permet toujours
d'aider des projets comme ça aussi
à titre personnel
ça peut être une bonne chose à faire aussi
et bien on va passer
à la section des outils
et je vais commencer
du coup je vais vous parler
alors c'est pas vraiment un outil
c'est une carte
de la consommation des data centers
donc c'est le site
codascore.scaldynamics.cite
vous avez le lien
en description
c'est justement
une carte des data centers
et leur consommation
qui est classée avec des chiffres
enfin des lettres plutôt
qui vont de A++AD
je crois
et moi en tout cas j'ai pu constater
que les data centers et moins énergivores
étaient en Europe donc ça c'est bien
mais bon
ce qui est un petit peu embêtant c'est que sur cette carte
il n'y a pour l'instant que Amazon Web Services
Google Cloud Platform Azure
Escalway il n'y a pas le reste
des cloud c'est bien dommage
mais je pense que c'est le début
parce que j'avais jamais entendu parler de ça
avant il y a deux semaines je crois
donc je pense que ça va se
répondre
en tout cas j'espère
on voit aussi que Azure est
un mauvais élève
mais pour le coup
c'est grandement dépendant des fournisseurs
d'énergie tout simplement de la source d'énergie
et c'est vrai qu'en France on est
quand même très aidé par le nucléaire
et on voit que ça va être bien pour le rejet
de CO2 donc c'est
plutôt une bonne chose je pense
et ça va jusqu'à F
il y a des endroits
où des data centers sont classés F
pour information
ouais
en effet en Afrique du Sud
en Australie je vois que c'est classé F
peut-être parce qu'il fait très chaud aussi
je ne sais pas
la clé de mon petit tournafron
alimenté au charbon effectivement
ça doit pas être terrible
mais je sais pas si c'est celle-là
mais on avait entendu parler
et je crois que OVH
travaille un petit peu à se rajouter
dans des trucs comme ça
et je crois que Scalway
ils en auraient un petit peu parlé aussi
Scalway sont dessus
ouais Scalway sont dessus ils sont très proactifs
parce que justement eux ils prônent
des data centers plus propres
et on sait qu'ils ont un data center
qui tourne sans climatisation
le fameux DC5
exactement
comme ils sont un petit peu en retard par rapport au OVH
ils essayent de se retraper comme ils peuvent
je sais pas
il n'y a pas que le CO2
il y a aussi la consommation d'eau
donc là en l'occurrence on n'a pas la consommation d'eau
mais la consommation d'eau est aussi importante
il y a plein de trucs
qui rentrent dans les trucs
de data centers mais ce serait bien qu'en effet OVH
y soit
d'ailleurs j'en profite je sais pas si
c'est la diffusion de l'épisode ça sera le cas
mais on peut s'inscrire pour visiter DC5
en septembre pour les journées du patrimoine
donc si vous avez encore des places de libre
je vous invite à le faire et vous me croiserez peut-être
moi je suis déjà inscrit
oui l'épisode il sera sorti vous pourrez aller vous s'inscrire
ils le font régulièrement d'ailleurs
moi je suis trop loin pour y aller
mais un jour ou je serai à Paris je m'arrangerai
pour aller visiter le DC5
je sais qu'on avait visité le DC2
ensemble avec Erwin et Danire
le 3
c'était le 3
il y a un épisode de podcast où on parle justement
hors série
Erwin va nous parler
d'un petit
d'un petit outil
oui alors c'est
très vite fait mais j'ai trouvé
l'idée hyper sympa
donc pour tous les étudiants
qui vont démarrer leur coeur sur sa formatique
en octobre septembre octobre
et bien si vous voulez
commencer
comme on appelle ça les cahiers de vacances
et apprendre à utiliser un shell
il y a un outil
qui est disponible sur github qui s'appelle Game Shell
qui est en fait
un espèce de jeu
de jeu dont vous êtes le héros
où il faut faire des commandes shell
pour avancer dans le jeu
et donc c'est sur fond de château
et tout ça
et j'ai trouvé l'idée hyper sympa
le jeu il est traduit
dans plein de langues
on peut le faire fonctionner dans un container
de coeur
c'est hyper cool
c'est fait par des français en plus
et du coup
pour se mettre un peu dans le bain
pour ceux qui appréhendent le fait
de devoir utiliser un shell
machin c'est un petit
truc un peu ludique
pour apprendre ça
alors attention il n'y a pas de sauvegarde
donc si vous avancez dans le jeu
aller au bout
ou pas
et donc je trouvais l'initiative sympa
et du coup
je voulais en parler
rapido dans le podcast
ça vous parle
ce genre de petit truc
Christophe, toi qui aime bien le shell
ouais c'est trop bien d'ailleurs
je vais l'essayer et puis je vais le filer
à mon nouvel alternant qui arrive
puisqu'on embauche un alternant qui est développeur
et pour l'instant il n'a pas encore
beaucoup touché à Linux
et donc je pense que je vais lui le mettre dans les pattes
je vais dire tiens vas-y
fais ça, apprend un petit peu
et puis en plus je vois que c'est fait en shell
oui c'est ce que je voulais rajouter
c'est qu'à défaut de faire
l'exercice pour ceux qui sont plus
à l'aise avec tout
cet environnement
en fait regardez comment c'est fait et en fait il y a plein de trucs qui sont vraiment
vraiment malents
et donc encore une fois bravo
au mec qu'on fait ça
pour pouvoir créer des DLC et tout
ça va être formidable
pour le coup
pour le coup ces genres d'outils qui sont assez cool
moi je sais que je suis pas très gamification
je sais que des personnes, j'ai des étudiants qui apprécieaient ça
et que ça les aidait beaucoup
donc c'est vraiment un truc qui est pas mal
après pour donner une petite astuce dans le même genre
j'ai vraiment progressé en Linux
pour un moment très con
en fait j'en faisais pas assez tout simplement
quand j'étais étudiant au tout début
on faisait beaucoup de Windows et on découpait ça
on se dit à partir d'aujourd'hui
j'écrase tout mon dual boot je mets tout sous Linux
et puis je vais suer des plate
je vous ment pas, j'ai passé des nuits blanches
surtout quand les profs vous donnent un truc qui
n'a jamais été testé sous Linux et ça marche pas
donc au début vous passez des nuits blanches
vous comprenez pas trop ce que vous faites puis vous creusez un peu
vous refléchissez et vous finissez par progresser comme ça
perso c'est vraiment ce qui m'a fait
progresser en Linux et ça c'est de me forcer
en migré dessus pour
pour mon PC on va dire scolaire quoi
je suis assez d'accord
moi j'avais migré
sur Linux bien avant
de rentrer en BTS
et ça m'avait aidé parce que
en BTS nous on par contre
on mangeait du Unix Linux
à tout va c'était
ce que je fais du temps réel
donc c'était que du Linux
et donc avoir une machine personnelle
sous Linux ça vous aidera
en plus et ça vous permettra d'être plus productif
parce que MinDora la ligne de commande
sous Linux la trouva c'est efficace
vous pourrez faire plein de choses
oui c'est simple et rare quand
tu dis tu reinstall ta machine et plus une fois que
t'es sous Linux t'as pas le choix
effectivement moi j'ai fait ça en 1995
et ma carte graphique
n'avait pas assez de mémoire pour
des marais X11 donc j'ai dû me débrouiller
d'abord avec la ligne de commande
et c'est là
où j'ai énormément appris
et quand je suis arrivé effectivement
lisser après
j'étais le seul à bien maitriser
les lignes de commande bizarrement
et sinon pour le côté
jeu donc Airwan
beaucoup de langues c'est traduit
il y a en plus de langues les en italien
et en français
donc je vois que t'arrives à te contenter
de peu
mais en tout cas c'est cool
que ça soit traduit en français moi je vais filer ça
à mon devue qui vient de me dire
qu'il veut apprendre le code
je vais déjà filer des cours de Python
et qu'est-ce que c'est que le web
donc il va passer là-dessus
et moi j'avais joué un petit peu
un équivalent pour
vieille
pour apprendre à s'en servir
j'ai vécu rapidement arrêter
parce que ça m'a
un petit peu soulé de
redécouvrir vieille et le revenir
20 ans en arrière mais pour des débutants
c'est toujours super sympa d'apprendre ça
en jouant un petit peu
alors en plus
c'était 4 jeux
qu'on avait dans les années 80
où les titules ne terminaient pas, il fallait tout recommencer de zéro
ça rappellera quelques souvenirs
pour les anciens comme moi
et pas que toi
moi aussi
je vais vous parler du dernier outil
Rene n'est pas là, ça va lui faire plaisir
quand il écoutera le podcast
Rene spéciale dédicace à toi, je vais vous parler de
starship.rs
donc Starship c'est un prompt
qui est customisable
pour tout l'échelle
et pas uniquement pour zdsh
puisque on connaissait omai zdsh
moi je suis un grand utilisateur de omai zdsh
bah là c'est un prompt
je vais pas y arriver, un prompt customisable
mais pour absolument tout l'échelle
je l'ai installé tout à l'heure sur une VM
j'ai pu customiser mon prompt
basche sans aucun problème
et pourquoi ça va faire plaisir à Rene
parce que c'est écrit en Rust
donc vous pouvez l'installer
configurer votre shell préféré
et c'est en Rust, ça va vite
bon moi je vais rester adept
de omai zdsh
mais si vous voulez
vous pouvez
utiliser Starship
donc en plus, maîtriser l'échelle
c'est un bon moyen de s'élever
joli geste technique
c'est la shelleur
ça vous évoque pas trop de trucs
apparemment
si, bah moi j'utilise depuis
depuis plus de 6 mois maintenant
j'en ai fait un tweet il y a quelques temps
et j'en avais parlé rapidement
dans un article, ça marche plutôt bien
moi j'utilisais Power 10K
et c'était très lourd
ça m'était trop de temps
à charger, c'est déjà un peu plus rapide
même si c'est encore un peu lent
mais c'est rapide et surtout
c'est assez de base
il est assez
comment dire, il vient
bien configuré, bien complet
et il sait, on va dire afficher
ce qu'il faut dans la plupart des situations
et c'est vrai que
j'ai craqué dessus parce qu'il est assez minimaliste
j'étais à un moment où au début
je mettais trop d'infos dans mon shell
et là c'est très contextuel et c'est assez simple
et ça me suffit
dans 90% des cas et la configuration
se fait assez facilement
je n'ai pas une configuration très complexe
pour le coup et ça me suffit largement
tu parles de l'antheur
n'oublions pas, à chaque fois qu'on rajoute des choses
dans le programme, c'est des programmes qui vont s'exécuter
à chaque fois que votre ligne de comment s'affiche
et donc ça peut être
en effet très lent, surtout si vous mettez beaucoup de choses
c'est surtout que
en fait ça dépend
de la du programme
ça dépend de la complexité du programme
dans le sens où Power 10K par exemple
check beaucoup de choses
il peut afficher beaucoup de choses que ce soit du guide
que ce soit par rapport aux environnements piton
et tout ça et c'est ça qui est surtout très lourd
et si on commence à désactiver tout
il y a un certain moins, après c'est très empirique
de débugger et de voir ce qui progue
vraiment des lenteurs au fond
Starship pour le coup je trouve que je dirais un peu mieux
cette complexité et au quotidien
en fait si on a un ordi qui est pas
non plus
trop vieux, c'est sûr si vous êtes sur un pain de thème 3
ça risque d'être compliqué
si vous êtes sur un ordi relativement suffisant
pour Linux
vous avez pas de douleur
on va dire au quotidien
moi je suis le mauvais élève
de tout ça je custom très très peu
mon chel
j'ai vraiment un truc
hyper minimal
juste un truc qui est lié à Geet
mais c'est tout
que j'ai fait il y a 7-8 ans
et je touche plus trop
et qui marche et qui me convient
mais je suis toujours impressionné par tous ces outils
mais je suis clairement pas
la signe
moi du coup je suis un petit peu entre les deux
je change
régulièrement
c'est à dire à peu près tous les 5 ans
la dernière fois que j'ai changé
c'est que mon prompt n'était plus 30 secondes
à démarrer dans un nouveau chel
un jour ça m'a vraiment énervé
et du coup
j'ai tout désactivé en réactivant petit à petit
pour essayer de trouver ce qui ralentissait
et en fait c'était un ensemble de petits trucs
d'utiliser
paillants, verbeillants
nôtre, danse, je sais plus quoi
pour tous les langages
donc j'étais passé sur ASDF
qui est en équivalent pour tous les langages
et tous les outils
parce que tous les outils HECORP
se supportaient aussi et on peut switcher
de l'un à l'autre
mais comme c'est évalué à chaque fois
qu'on réaffiche le prompt
du coup ça ralentit et comme c'est du chel
c'est pas aussi efficace que du rust
et j'avais pas regardé
mais René on avait parlé
d'un équivalent qui avait été écrit
en rust aussi
et du coup je vais peut-être profiter
de la fin de mes vacances pour regarder ça
et commencer à me dire un petit peu
sur un motif un peu plus rust
le bâche
j'espère que René
n'avait pas déjà parlé de Starship, tu me fais peur du coup
ça me dit rien, c'était
je pense que ça en était un autre
c'est possible, en même temps
les prompt customisables il y en a des tonnes
l'avantage c'est vrai
que quand tu
customises bien mais sans mettre trop de choses
ça te permet d'être assez productif
alors c'est plus facile à dire pour moi qui fait
que du ans cible et du terraform
du coup je ne configure que ça
avec un pionve
parce que je ne fais que ça et je rajoute pas
le reste, le reste pas tant que je m'en fous
mais c'est vrai quand on switch
de contexte
ça peut vite être très lourd
par contre, l'avantage d'avoir un prompt customisé
pour ceux qui se poseraient la question
c'est que ça nous permet d'avoir
énormément d'infos rapidement
sans taper de ligne de commande
et donc nous on est plus productifs du coup
il faut bien poser le pour et le contre
c'est vrai
pour les trucs qui sont affichés pour donner un exemple
pour ceux qui ne voient pas
c'est dans quelle branche on peut être
est-ce qu'il y a des modifications
par rapport à la branche dans laquelle on est
dans quelle répertoire on est
avec quel utilisateur on est
est-ce qu'on a un environnement
du type Python, Ruby etc
notamment les virtuales
dans Python
et nous dit quel c est et ainsi de suite
et du coup ça permet de gagner du temps
quand vous utilisez plein de terminaux
j'imagine comme nous
quand vous passez de l'un à l'autre
vous avez directement la bonne information
et pour ceux qui passent du temps
dans la ligne de commande c'est presque aussi important
que de configurer son IDE
avec tous ces petits plugins
par rapport à son langage
et c'est ça qui va vous permettre
de gagner du temps
comme les alias
on en avait parlé une fois par rapport aux alias
notamment les alias Git
c'est des choses qui vont gagner du temps
et juste je rajoute un dernier truc
ce qui est très pratique c'est que ça vous affichie potentiellement
vos profils dans vos cloud
dans vos Kubernetes où vous êtes connecté
ça peut paraître con mais ça m'est déjà arrivé
en fait de vouloir d'avoir deux fenêtres
d'avoir inversé prod et préprod
et je m'en suis rendu compte
en fait grâce à l'informations en chaîne
je vous dis je suis pas sur le bon chaîne
je pense que sinon ça aurait donné une réaction très marrante
mais
ce qui était pas ce qui était désiré
dans un cas là c'est toujours assez pratique
ça vous évite de vérifier à chaque fois
tout à fait
du coup cet épisode de vacances
est quand même minité en rien beaucoup plus long que ce qu'on avait prévu
on était en mode
à la cool mais filavel ça fait déjà plus d'une heure 30 qu'on parle
du coup il est temps de clôturer
je rappelle à toi
chers auditeurs que si tu apprécies le podcast
et si tu veux discuter avec nous
on l'a déjà fait dans le podcast
mais je le répète tu peux venir
t'inscrire à la communauté des compagnons du devap
si je précise que c'est gratuit c'est pas payant du tout
on est déjà plus de 1000
et on discute tous les jours de plein de sujets
et on pourra parler
de customisation de prompt
pourquoi pas
en tout cas on t'attend rejoint nous
et vient discuter avec nous
et je vais laisser le mot de la fin
à mes chers co-animateurs
et on va commencer par Damir
ben écoutez profitez bien
de la fin de vos vacances
et pressez soyez très enfants pour la rentrée
et ça sera tout pour moi
allez Nicolas ton petit mot de la fin
comme René n'est pas là je vais le remplacer
donc j'espère que cet épisode vous intéressait
et si vous avez des questions ou des choses à apporter
hésitez pas à venir nous pinguer
sur twitter ou sur le forum
des compagnons du devap
et on sera très heureux de pouvoir échanger
avec vous parce que comme vous voyez
quand on n'avait pas grand chose à dire
ça dure plus d'une heure et demi
donc n'hésitez pas à venir discuter avec nous
et Roine c'est toi qui a le mot de la fin de la fin
et ben c'était
toujours aussi agréable de discuter avec vous
de toutes ces news
bonne fin de vacances
bonne vacances à ceux qui vont en prendre
et puis ben à très vite à la rentrée
pour les actus mais aussi
un nouveau sujet
à débattre
pour la rentrée
si tu as envie de discuter du mouvement
alors rejoins nous dans la communauté
des compagnons du DevOps
à bientôt

Les infos glanées

Je suis une fonctionnalité encore en dévelopement

Signaler une erreur

RadioDevOps

Vous avez l’envie d’en connaitre plus sur le mouvement DevOps ?

Les problématiques liées au déploiement vous titillent…

Alors, vous êtes au bon endroit !


Radio DevOps est la Baladodiffusion des Compagnons du DevOps.

Le podcast en français dédié à notre mouvement.


Nos émissions :

  • 🗞 Actus Devops : est une émission animée par des membres de la communauté des Compagnons du DevOps. Dans chaque épisode nous étudierons l’actualité Cloud et DevOps.
  • 📻 Radio DevOps : est l'émission phare animée par des membres de la communauté des Compagnons du DevOps. Dans chaque épisode nous débattrons sur un sujet de fond.
  • 🛋️️ En aparté : est une émission où je m’entretiendrai avec un invité sur le mouvement DevOps en entreprise.
  • 🎙️ En Solo : est une émission où je serai seul pour vous parler de DevOps ou de Cloud. 


📩 Si tu n’es pas déjà abonné, alors abonne-toi pour ne pas rater ces émissions.


💖 Tu peu soutenir mon travail et la communauté sur :

https://soutenir.compagnons-devops.fr/


🎓 Développe tes compétences DevOps avec un mentor : http://devops-mentor.tech/


🎁 Télécharge mon antisèche git : http://froggit.fr

💬 Si tu as envie de discuter du mouvement, le plus simple est que tu nous rejoignes dans la communauté des compagnons du DevOps : https://www.compagnons-devops.fr


❓ Pose moi une question : http://question.compagnons-devops.fr


☁️ Suis-moi sur les autres réseaux sociaux : https://mtr.bio/compagnons-devops


🌐 Les Compagnons du DevOps est une initiative de Lydra. NOTRE SITE: https://www.lydra.fr


Chez Lydra, nous nous sentons seuls entre deux Meetups ou deux conférences. Nous n’avons pas trouvé de lieu où échanger et avoir des débats en français sur le sujet qui nous passionne.


Nous avons donc décidé de créer et d’animer une communauté qui partage nos valeurs :

  • La passion de l’infrastructure as code.
  • La conviction que les logiciels libres et open sources sont émancipateurs.
  • L’envie de partager des méthodes, bonnes pratiques ou retours d’expériences.
  • L’amélioration continue fait de nous des experts en devenir.


Rejoins les Compagnons du DevOps !


#DevOps #InfraAsCode #Ansible #OpenStack #OpenShift #K8S #Docker #Packer #Terraform #GitLab


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Tags
Card title

Lien du podcast

[{'term': 'DevOps', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Cloud', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'InfraAsCode', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Ansible', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'OpenStack', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'OpenShift', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'K8S', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Docker', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Packer', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Terraform', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'GitLab', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'learn', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'compagnonage', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Technology', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'News', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Tech News', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Education', 'label': None, 'scheme': 'http://www.itunes.com/'}]

Go somewhere