🐋 Docker fait l'acquisition de Mutagen ! | Actus DevOps Juillet 2023

Durée: 95m12s

Date de sortie: 26/07/2023

🗞 Actus DevOps est ton #podcast de veille #DevOps et #Cloud mensuel.

💬 Inscris toi au forum : https://www.compagnons-devops.fr

00:00 Intro

01:08 Vos messages

❓ Pose-nous une question : http://question.compagnons-devops.fr

05:50 Drama Red Hat

22:36 Linux early days

31:44 💖 Tu peux soutenir mon travail et la communauté sur : https://soutenir.compagnons-devops.fr

32:15 Proxmox VE 8.0

51:12 Concours CloudAlpes

54:49 Ansible lightspeed

01:09:37 Docker rachète Mutagen

01:15:08 Nos outils

📩 Si tu n'es pas déjà abonné, alors abonnes-toi pour ne pas rater les prochaines vidéos.

L'intégralité des liens son sur l'article de blog : https://lydra.fr/docker-fait-lacquisition-de-mutagen-actus-devops-juillet-2023




Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Quels sont les news du cloud et du DevOps ? En ce mois de juillet 2023 et c'est chaud,
on croule sous l'actu tellement y en avait, j'ai dû en écarté certaines.
Aujourd'hui on va parler de Red Hat qui sème le trouble, un nouveau rachat de Docker,
de Proxmox version 8 et une préviewe de Ansible Lightspeed.
Tout ça on va le voir dans cet épisode de podcast.
Abonne toi pour ne pas rater les futurs épisodes, c'est parti !
Bienvenue à toi chers compagnons, dans ces nouvelles épisodes de Actu DevOps,
ton émission de veille cloud DevOps mensuelle. Comme d'habitude,
reste bien jusqu'à la fin pour découvrir notre petite sélection d'outils et tu vas
voir cette fois ci on va revenir au base. Avec moi ce soir pour parler actu,
j'ai Nicolas, bonsoir Nicolas.
Salut tout le monde.
Et enfin, non des moindres, renez, bonsoir renez.
Bonsoir à toutes et tous.
Et c'est pas parce que nous sommes trois qu'on va traiter moins d'actu,
tu vas le voir justement dans cet épisode.
Alors on va commencer par le traditionnel courrier des auditrices et auditeurs.
Et j'aimerais te lire ce soir un message de Raymond2683.
Raymond nous a laissé un message sur YouTube,
sur le dernier actu DevOps qui est sorti il y a une semaine au monde,
on enregistre cet épisode mais au moment où tu le regardes il y a un mois.
Alors il nous dit merci pour l'info sur paddock.techradar qui permet avec les rapports
Gartner et de la CNCF de voir les outils qui pourraient être testés et
ceux sur lesquels on pourrait mieux maîtriser et y mettre deux pouces en l'air.
Alors ben écoute Raymond je vais te répondre sur YouTube mais voilà ma réponse en live,
enfin en live différé, c'est avec plaisir qu'on fait ce genre de choses et puis c'est vrai que
dans le dernier actu DevOps on n'a pas vraiment parlé des autres rapports que sont les rapports
Gartner, la carte CNCF ou tout un tas d'autres rapports parce qu'en fait il y a beaucoup de
ressources de STIP et je voulais parler du tech radar déjà parce que c'était
nouveau que c'était aussi une ressource en français et même si je sais qu'on est tous
censé lire l'anglais j'avoue que je fais partie de ceux qui pensent qu'on manque vraiment de contenu
français. Je sais pas ce que vous en pensez tous les deux mais je trouve qu'il n'y a pas
cette création française autour de l'atec. Oui mais malheureusement on est aussi dans un
domaine où l'anglais est quand même extrêmement important et si on n'est pas suffisamment fluente
je pense que pour pas mal de trucs on doit bien souffrir. Je pense que c'est vraiment
fait vraiment partie des indispensables et par exemple moi c'est ce qui me sert plus de des
études en fait. Il y a plein de choses qu'on a appris dont on sert très très peu mais l'anglais
c'est vraiment le fondamental. Je pense que c'est bien d'avoir l'anglais mais comme je le dis
toujours quand on apprend des techno qui sont déjà complexes dans une langue qui n'est pas la
nôtre qui n'est pas notre langue natale ça rajoute une surcouche de complexité c'est pour ça que je
milite pour avoir du contenu francophone pour qu'on puisse comprendre dans notre langue natale les
concepts parfois avancés je pense notamment à des concepts comme Kubernetes qu'est ce que j'ai pu
en chier avec la documentation de Kubernetes à l'époque je me suis mis. Après avoir du contenu
français c'est sûr que c'est super possible et je suis d'accord avec toi que ça manque un peu.
C'est pour ça qu'une des excellentes contributions Open Source c'est de traduire les
documentations des projets que vous pouvez avoir. Moi pendant quelques années j'ai traduit la news
etter Game 2 donc ça permettait alors en plus ça m'a fait progresser en anglais parce que moi j'étais
pas très très bon à l'école là dessus et c'est entreguillimé à cause de l'attaque que j'ai progressé
en anglais et le fait de traduire toutes les semaines des news ça m'a obligé à avoir un meilleur niveau
en anglais accessoirement un meilleur niveau en français aussi puisque on écrit en français et si
vous maîtriser une techno essayez de regarder voir si vous pouvez pas donner des coups de main sur
la traduction et si vous avez du mal à commencer pour faire de la traduction il y a Julien dont j'ai
perdu le nom donc désolé Julien mais qui anime des ateliers de traduction de piton et comme il dit
régulièrement c'est même si vous maîtriser la doc en anglais regardez la doc en français pour
trouver les coquilles et les corriger ouais c'est ça on peut en effet traduire des articles ou la
documentation je sais que nous on traduit régulièrement des articles anglophones en langue
française et on se permet de le faire parce qu'il y a beaucoup d'articles qui sont en licence libre
et donc on peut bah on peut le faire parce qu'on a le droit de le faire et du coup ils se retrouvent
en français en licence libre et les auteurs seront extrêmement contents que ça soit traduit dans
d'autres langages et donc Julien Palar vous aidera à faire de la traduction de piton bon tu l'as
compris si tu nous écoutes tu peux toi aussi nous laisser un message alors tu peux le faire sur
apple podcast on en a toujours pas j'en ai pas trouvé sur podcast addict on en a quelques uns
sur youtube on commence en avoir beaucoup mais aussi sur le forum puisque les compagnons de
bivops y a aussi un forum alors on va passer dans le coeur du sujet et c'est moi qui vais
commencer je vais vous parler du drama redacte car oui c'est un nouveau drama qui secoue la sphère
linux en ce moment il y a plus de deux ans redacte a remplacé centos par centos stream et
centos stream c'est en fait la distribution maintenant upstream de redacte entreprise linux
ou rhel ou encore redacte linux alors ça veut dire que les développements se font sur centos
stream puis quand ils sont stables ils basculent sur redacte linux alors que ce feu centos était
une distribution clone complète et libre de redacte linux alors j'avais d'ailleurs fait une émission
de trouvaille où je parlais déjà de ce big bang si tu n'as pas vu la vidéo elle est en description
de ce podcast est situé sur youtube une fiche d'information va apparaître en haut à droite
de ton écran depuis on a vu apparaît de nombreuses distributions qui ont voulu lui succéder comme
rocky et alma linux pour nos sites et quels redacte souhaite aujourd'hui se concentrer sur centos
stream comme justement pilier de l'innovation linux d'entreprise centos stream sera désormais le seul
référentiel public du code source lié à redacte linux oui oui tu as bien entendu redacte linux redacte
entreprise linux ferme son code néanmoins pour les clients et partenaire redacte linux le code
source restera disponible via le portail client donc il faut savoir qu'avant redacte diffusait les
sources public sur guide.centos.org et lorsque le projet centos est devenu centos stream redacte a
maintenu les référentiels même si centos linux n'était plus construit à partir de redacte linux
bon alors c'est quoi les conséquences aujourd'hui les développeurs d'alma linux ont été les
premiers à réagir et ils disent je cite étant donné que tous les clones redacte linux s'appuient
sur les sources publiées cette situation perturbe une fois de plus l'ensemble de l'écosystème
redacte ils estiment en fait que trouver une solution pour poursuivre le développement de la
distribution linux telle qu'il était envisagé est essentiel sachant que partir de centos stream
c'est pas vraiment une option parce que en fait ça tient à la nature même de cette distribution
puisque centos stream comme je viens de l'expliquer c'est une distribution R&D et donc pas assez
stable pour les entreprises la rocky enterprise software foundation derrière la distribution
rocky linux publie un appel à redacte pour garder sa solution libre puis suite à ça la
communauté s'enflamme la confiance se perd petit à petit jeff gerling qui est très connu de la
communauté en cible ne mâche pas ces mots chers redactes avez vous perdu la tête en ce moment je
suis en train de décider si je dois continuer à soutenir uniquement fedora ou simplement abandonner
tout soutien à redacte linux et aux distributions similaires pour mes projets open source alors
c'est vrai que pour toute personne qui développe des rôles en cible mais pas que je pense à toi
nicola il sera difficile de tester son code car la distribution redacte linux sera maintenant
payante au moins un peu compliqué à obtenir on va le voir après alors pourquoi ce changement
quelques jours plus tard un communiqué a communiqué de mike mac garth j'espère que je prononce bien
son nom le vice-président des plate-formes corps de chier redacte clarifie les choses il insiste
tout d'abord sur le fait qu'il faut rémunérer les personnes qui développent pour leur distribution
qu'elle soit open source libre ou sous licence il rappelle aussi que redacte propose un abonnement
gratuit pour les devs et les organisations open source il insiste enfin sur le fait que redacte
fait systématiquement un rétroportage des bugs et du code de redacte linux vers la distribution
libre upstream centOS trim alors quel que soit ton avis à toi sur cette histoire je rappelle qu'il
est important en effet de soutenir le développement libre financièrement et pas uniquement en termes
de contribution alors renais est ce que toi tu veux t'exprimer sur ce sujet en sachant que je
précise à nos auditeurs et l'îtrise que tu travailles pour redacte mais pour le projet open
stack oui bah après je peux je peux m'exprimer sur le sujet en mon propre donc ça engage
aucun mort et là tu veux dire si à vous que j'ai un peu du mal à me positionner parce que je
comprends d'un côté ce qu'il y a ce que ce que la direction cherche à faire ça ressemble beaucoup
un petit peu à ce que ce qu'on a vu aussi dans les d'autres affaires type elastic et AWS ou
entre guillemets bah certains acteurs voilà contribuent pas énormément entre guillemets et
profitent beaucoup de ce qui est fait en amont donc je pense qu'il y a une partie des volontés c'était
d'arrêter ça je pense pas forcément que ce soit Alma et Rocky qui était spécialement visé c'est
plus un autre acteur plus gros que je n'auraient pas après ce que j'en pense personnellement
bah je trouve ça un petit peu dommage parce que surtout dans la manière dont c'est amené je
pense qu'ils auraient enfin ils auraient pu essayer de plus communiquer justement sur le travail que
ça engende le travail qui est fait je pense que ça c'est c'est très peu enfin ils visibilisent
pas très bien c'est cette partie là je pense qu'il y aurait à communiquer sur le sujet pour que les
gens se rendent plus compte du travail qui est fait et qui est quand même assez considérable
Radat ça reste un des très très gros contributeurs à plein de projets upstream et pour la distribution
il y a pas mal de boulot qui est fait de validation avec les constructeurs et voilà il y a un certain
nombre de choses je pense que peu de gens connaissent et qui serait bon de rappeler mais après voilà je
trouve que le mouvement il est un peu brutage je pense que voilà ils auraient dû communiquer
expliquer le problème et pas tout de suite restreindre l'accès à ces sources là
voilà je trouve ça dommage en plus je pense que ça a nuillé globalement je trouve que enfin voilà
je suis pas persuadé que le mouvement est forcément très bon dans le sens où où les gens qui de
toute façon se cherchent à utiliser de la cento est ne souhaitaient pas forcément payer pour
une RHL je suis pas sûr que c'est des clients qu'on va forcément récupérer et puis bah quelque part
en termes d'image de marque je pense que c'est pas super vu un petit peu la entre guillemets
shitstorm qui assure les réseaux c'est pas super voilà un petit peu mon sentiment mais c'est un peu
voilà je vais laisser un peu la main Nicolas pour s'il veut s'exprimer oui moi mon point de vue
en déjà je ne suis pas utilisateur de redat je l'ai utilisé il ya très longtemps mais maintenant
je fais plutôt de la débianne et de l'ubuntu après je reste conscient que redat est un acteur
énorme du marché après ils sont réputés pour être un petit peu cher aussi et c'est peut-être ce
des entreprises plus modestes mais c'est toujours le problème dans le business model de l'open
source c'est que en général on tape sur les gros pour qui paye mais les gros ils commencent à
avoir un petit peu marre d'avoir des coûts de l'essence énorme et finalement si ça fonctionne
autrement avec un équivalent un peu plus open source et surtout beaucoup plus gratuit bon bah
c'est des parts de marché qui vont être perdu par redat et tous les autres puisque tous les acteurs
sont concernés et finalement c'est comment est-ce qu'on peut continuer à remunérer ces entreprises
qui font de l'open source je l'aide de ce côté là je me sens très concerné parce que je suis dans
une entreprise qui développe un produit open source et régulièrement on se pose la question de comment
traiter nos utilisateurs correctement tout en gardant un business économique viable c'est
on a des globalement nous on fait payer la gestion des de notre produit sur nos infrastructures
ou sur les infrastructures des clients mais des fois on a des clients qui enfin on a des gens qui
viennent nous voir pour la partie du port et qui nous posent des questions et malheureusement on
est obligé de leur expliquer que ça c'est une question à laquelle on ne répondra pas parce que
ça fait partie des choses où on fait du support dessus par exemple la question du jour c'est
j'arrive pas à configurer la partie mail en fait ça fait partie des choses qui sont compliquées à
configurer les serveurs de mail faire des tests là dessus c'est toujours un petit peu galère et si
on maîtrise pas cette partie là bah c'est faut payer une entreprise pour pour gérer le truc et en
fait c'est plein de petits trucs qui vont se mettre bout à bout ou finalement il faut trouver le
juste milieu entre je fais payer un petit peu les tout petits et je fais payer beaucoup plus les
beaucoup plus gros et pour que ça soit équitable pour tout le monde en bref je me suis peut-être
perdu dans mes explications mais c'est encore une fois c'est l'open source c'est contribuer quand
vous le pouvez de manière technique et technique ça peut être de la documentation ou juste la
promotion des produits mais quand vous pouvez payer une une licence ou un support bah essayez de
le payer parce que on le voit le move qu'il y a sur pas mal de l'entreprise récemment on a eu un
drama avec l'histoire qu'on a eu sur docker on l'avait déjà traité dans un autre épisode de radio
devops finalement ils sont un petit peu revenus en arrière mais mais on voit bien que aujourd'hui
les beaucoup d'entreprises ont du mal à valider un vrai business model et en plus c'est des
entreprises qui sont potentiellement cotés en bourse et ce marché là ça fait ils n'ont pas beaucoup
de pitié il faut qu'il y ait du rendement donc il faut faire payer les utilisateurs il faut
continuer à grossir et malheureusement c'est un système capitaliste qui donne pas trop part à l'open
source où en fait ce qui font du business qu'on prenne pas que l'open source c'est aussi des
utilisateurs qui payent pas et qui utilisent le produit gratuitement certains dirais que l'open
source est la version capitaliste des logiciels libres et je reprends la parole en fait tu fais
bien de rappeler certaines choses parce que en anglais c'est les fris software fris qui veut aussi
dire gratuit en anglais alors que chez nous c'est le logiciel libre ou open source qui du coup ne
sont pas gratuit enfin ça veut pas dire gratuit et c'est bien de rappeler qu'un logiciel libre même
si le code est accessible bah ça veut pas dire que c'est gratuit parce qu'on a besoin de compétences
pour l'installer de mettre en place l'exploiter et c'est dans ces moments là où on fait appel
des gens comme nous puisque nous on a faut gère aussi des solutions libres comme comme alors nous
on les dit pas mais comme vous on vend à notre prestation et le service moi ce que je constate
c'est qu'en fait on voit une une lente évolution de redact je trouve depuis le rachat d'ibm en 2018
et je pense que ce move il est aussi lié au fait que bah ça a coûté cher à ibm parce que rappelons
je crois que c'était 35 ou 38 milliards c'était 34 milliards de dollars donc ibm cherche peut-être
à demander à redact de rentabiliser tout ça même outre le fait que on doit payer les développeurs
assez sûr mais jusqu'à présent redact n'avait pas de problème à payer les gens ce que tu as
dit aussi moi ça me fait penser à mon propre vécu alors moi ce que j'ai remarqué dans mon
vécu c'est que dans les grands groupes on trouvait plutôt du redact inux sur les environnements
critiques avec licence et on trouvait du cent os justement pour avoir une uniformité de
distribut sur l'inux chez ces gens là alors je sais pas ce qu'ils ont maintenant parce que j'ai
volu plus dans les grands groupes comme ça par contre j'ai vu que dans les petites entreprises
et les entreprises modèles tous les startups c'était plutôt du débit en buntu comme tu dis comme
chez nous puis nous on préfère la philosophie des biens au buntu de toute façon de manière
générale je préfère moi la distribution des biens au buntu que la distribution redact inux
que j'ai jamais pu me faire au gestionnaire de paquet voilà ce que je pouvais dire moi là dessus
ça te fait rire Nicolas oui je connais des gens où le système du paquet c'est l'extrême inverse
mais bon c'est là où vous pouvez voir aussi la grosse différence entre redact qui a plus
puiller sur une entreprise commerciale qui fait de l'open source et des biens qui est une fondation
et finalement la partie commerciale c'est au buntu qui s'appuie sur l'infrastructure qui a été
mis en place par des biens à l'origine et en fait même si au buntu fait le même move pour passer
sur du modèle totalement payant vous aurez toujours des biens mais c'est là où c'est important
aussi c'est des biens est totalement gratuit et totalement open source libre gratuit dans tous
les sens du terme mais si vous délaissez cette distribution et que vous n'aidez pas un petit
peu à contribuer aussi elle va disparaître et je pense que vous n'avez pas envie que des biens
disparaissent parce que ça va impliquer beaucoup de choses ouais et des biens c'est quand même une
une source à tout un tas de distribution mais je vais mettre dans les notes de l'épisode le
fameux schéma en fait on voit les dépendances de toutes les distributions vers toutes les
distributions parce que c'est hyper important de l'avoir en tête je trouve que l'équilibre des
biens au buntu a été trouvé et j'ai l'impression qu'il est gagnant gagnant par rapport à redacted linux
centos stream en plus je vous avoue que je me suis pas vraiment porché là dessus mais entre centos
stream et fedora j'avoue que c'est un peu fou dans ma tête pourtant je l'ai traité deux fois et
il faudrait que je demande à mon collègue de chez l'hydra qui lui est très fedora quel est le lien
entre les deux je peux un petit peu te dire vas-y tignou en fait fedora c'est presque alors
c'est distribution communautaire qui va servir de base en principe à la centos stream d'accord donc
c'est vraiment le pur lab mais là ça évolue un petit peu de manière communautaire etc pas mal de
gens côté redacted travaillent aussi sur fedora après ça à un moment il y a une espèce de plus
ou moins frise ça part quand même de fedora ça arrive dans stream et dans stream là c'est donc
là c'est vraiment ce qui va être la préversion de redacted enterprise linux et là oui c'est un peu
de la bêta les paquets sont en avance donc là il y a du travail il y a des fixe qui vont être fait
etc sur un périmètre un peu plus figé et une fois que c'est prêt ça part en redacted enterprise
linux avec le support commercial et compagnie voilà et voilà ce qui a vraiment changé c'est qu'autre
fois les centos donc pas les centos stream les centos classiques elles étaient vraiment
reconstruites à partir de redacted enterprise linux sans les sans le sans la traite marque et
à partir des sources et ouais centos stream a cassé un petit peu ce mécanisme là parce que voilà
là c'est plus une version un peu bêta de ce que ce que va être la redacted enterprise linux
en tout cas merci renais pour ses précisions je te mets à toi chez l'auditeur et aux
dittrices plein de liens pour suivre ça et puisque on aime bien linux dans actu develop puisque
linux est la base de la plupart nos environnements cloud sauf pour ceux qui font du windows mais
malheure à eux et ben renais va nous parler de linux justement et va continuer sur le sujet
de parler d'autre chose ouais petite nouvelle un peu plus légère qui est que j'ai trouvé très
sympa c'est une nouvelle qui apparaît apparu dans la linux weekly news du 12 avril donc c'est pas
tout tout tout frais mais mais alors ce qui va être difficile c'est que je ne veux pas spoiler un
petit peu le le contenu de cette news donc je vais encourager les gens à aller voir le lien qu'on
mettra sur sur les notes de l'épisode mais en fait c'est un collègue ami de linux qui s'appelle
l'ars wierzenius excuse j'ai corchonant qui explique un petit peu comment un petit peu comment
tout ça a démarré comment linux a démarré et donc voilà il a côtoyé linux torval quand il était
vraiment au début du projet et bah il y a quelques anecdotes assez assez rigolote et voilà je
encore je veux pas spoiler le truc donc je veux pas dire la fin mais mais voilà il y a un truc assez
assez rigolo de savoir quel est le point de démarrage de linux et et c'est dévoilé dans
dans cette dans cet article et voilà je vais je vais dire pour pas spoiler que que parfois
le démarrage d'un projet majeur commun comme celui là c'est partie de vraiment d'un truc un peu
tout bête un peu d'une expérimentation et puis ça a grossi de manière assez impressionnante voilà
je sais pas si vous avez lu l'article et ce que vous en avez pensé mais mais voilà je vous laisse
vous exprimer et ben non je rassure que tu ne parlerais pas plus que ça de l'article je l'aurais
lu pour avoir des choses à dire mais du coup je vais juste parler de mon expérience de linux
parce que moi ça fait longtemps que j'utilise linux puisque je crois que dès mon adolescence
ça fait plus de 30 ans du coup j'ai eu à linux entre les mains puisque j'ai commencé à installer
linux en version slackware avec une une ou deux disquettes sur les 30 ou 40 jeux de cp qui avait
foiré donc mon grand désert voire c'était mon premier mon premier rapport avec linux et après en
cours on avait des uniques en fait et j'avoue que j'étais bien content d'avoir des linux chez moi
sur mon pc pour justement pouvoir travailler alors quand je dis en cours je fais un bts j'étais bien
content d'avoir des linux pour travailler et compiler en c parce que sinon si j'avais eu les
windows comme mes potes et ben je pense que j'aurais pas j'avais un double boot à l'époque
parce que je jouais mais j'avais mon linux aussi pour faire des expériences voilà ma petite
expérimentation de linux dans les années 90 plutôt vers la fin des années 90 et toi nicola alors je
crois qu'on a eu à peu près la même expérience mais moi le lycée où j'étais on n'avait pas
du nix donc c'était que du linux et comme j'en faisais déjà depuis un petit moment bah ça m'a
permis de d'être un petit peu plus à l'aise dans ces cours là et en fait quand j'ai commencé à
travailler en 2001 sur du solaris alors j'ai trouvé ça un petit peu archaïque mais j'étais pas
totalement perdu ce qui m'a permis d'apprendre vieille au passage mais comme je faisais déjà du
7 du haut comment ça m'a permis de me perfectionner donc ce qui me permet aujourd'hui d'être extrêmement
à l'aise dans des environnements où il y a des versions un petit peu trop anciennes de tous
ces outils là mais oui c'est l'histoire de linux ça l'est assez incroyable et une fois que vous
aurez lu l'article comme je m'impressionnerai de le faire donc a priori je l'aurais lu avant vous
mais je vous encourage aussi à regarder toute l'histoire qu'il ya derrière GNU c'est Richard
Stalman on peut apprécier ou pas le personnage mais en tout cas ce qu'il a fait c'est assez incroyable
et tout ça c'est parti pour une histoire d'imprimante donc je trouve ça assez génial aussi
bah là ce qui est aussi rigolo c'est qu'en fait quelque part linux c'est aussi le besoin que
t'as eu christophe en fait c'est linux qui voulait pouvoir avoir un unique perso qui
puisse utiliser sur son ordinateur personnel et puis ben voilà il s'est décidé à le coder lui-même
donc c'est assez rigolo et puis pour rebondir sur ce que tu disais il y a l'histoire de nous mais
moi j'encourage aussi les gens à aller voir l'histoire bsd parce qu'il y a aussi des sacrés
pépites notamment bah comment comment la stack tcp s'est développée etc et donc ouais c'est
bien de connaître un petit fin je trouve que c'est bien de connaître un petit peu l'histoire et de
savoir de d'où tous ces produits peuvent venir et comment ça s'est façonné ouais alors on peut
préciser parce que je sais qu'il y a des jeunes qui nous suivent qui ont peut-être pas forcément
l'histoire mais à l'époque donc les uniques qui sont des systèmes auxquels ressemble beaucoup
linux d'où le nom etc sont des systèmes propriétaires sous licence qui coûtait assez cher et
qui tournaient sur des stations de travail qui elles-mêmes n'étaient pas accessibles déjà
avoir un pc c'était cher c'est bien ça qu'il faut dire une station de travail unique c'était
très très cher et seul les écoles ou les entreprises pouvaient se les payer et donc avoir
linux qui arrive c'était vraiment ben waouh et moi je fais partie de ceux qui pensent que si on a
internet à ce niveau aujourd'hui c'est uniquement grâce à linux parce que si on n'avait pas eu linux
et bah on n'aurait pas l'internet qu'on a aujourd'hui ce sera un autre internet complètement
différent je sais que t'es pas d'accord nicola mais je pense que le fait d'avoir un système libre
et ouvert et disponible gratuitement à accélérer très fortement les choses on aurait des serveurs
web sous windows 95 c'est tout moi je vais très juste un petit un petit béball c'est pas que linux
je pense c'est vraiment toute la famille bsd et linux c'est les deux en fait parce que y'a
à voilà je pense qu'il y a des nul qui amène beaucoup de choses mais aussi au côté bsd qui
amener plein de trucs je pense que ça surtout apporté c'est la démocratisation de du côté
administrations systèmes pour être pour travailler dans une entreprise pour être des vops aujourd'hui
c'est n'importe qui peut le faire à l'époque il fallait forcément passer par l'université pour
avoir accès à des machines solaris machin etc aujourd'hui n'importe qui peut prendre
n'importe quel matériel installé un bsd un guignolinux n'importe quoi il va trouver suffisamment
de ressources en ligne et ça par contre je pense que c'est plus le côté éducation que le internet
en tant que tel après ça dépend de quelle partie d'internet tu parles moi quand tu me parles
internet grande public je pense aux réseaux sociaux et aux côtés un petit peu à brutisation c'est
donc du coup je suis pas sûr que ça vienne absolument de cette partie là et que ça soit
totalement une bonne chose moi j'ai une vision hop je parle des infrastructures qui soutiennent
internet tu vois aujourd'hui on aura beau dire ce qu'on veut mais internet est soutenu en très très
grande majorité par linux et la plupart des applications tout le sous linux on aura beau dire
ce qu'on veut c'est un fait et quand j'ai commencé à travailler en 2001 j'étais le bidouilleur qui
faisait du linux donc personne ne me prenait au sérieux et quelques années après j'ai repris
mais j'avais pu prendre ma revanche parce que maintenant ce sont ceux qui font du solaris c'est
des dinosaures qui sont en train de disparaître vas-y redélu oui je voudrais juste ajouter deux
choses la première chose c'est que la news la tiens quand même de quelqu'un qui l'a posté sur le
forum donc tu dominiques du monde pour pas le nommer que je salue sous ce qu'on est et voilà et
une autre petite un petit rappel pour ceux qui veulent connaître un petit peu ce qui s'est passé
dans les bsd il ya email donc email et tord qui qui qui a un peu un vieux de la vieille de tout ce
qui est bsd fait dire ça je sais pas si il va apprécier mais bon et il a fait dans il a une chaîne
youtube je pense qu'on mettra le lien et il a fait deux épisodes je crois deux ou trois épisodes je
me souviens plus sur justement un petit peu l'historique de tout tout ce qui est bsd et compagnie et
il a un certain talent pour raconter ces histoires là et je vous encourage à écouter c'est vraiment
sympa merci renais du coup si tu aimes ce podcast et que tu apprécies de nous écouter tous les mois
à déblatterer de plein de choses et que tu veux t'assurer qu'on continue à parler longtemps longtemps
et longtemps le meilleur moyen de nous soutenir c'est grâce à un don tu trouveras le lien pour nous
soutenir sur le site soit le site compagnon tiré devops font et faire il ya un lien vers la
page de soutenir soit tu peux directement taper soutenir point compagnon tiré devops point et
là tu trouveras les plateformes de don pour l'instant il n'y en a qu'une mais un jour peut-être
qu'il y en aura d'autres je ne sais pas alors nicolas tu vas nous parler d'une nouvelle news tu vas
nous parler de la nouvelle version de proxmox et est ce que tu peux s'il te plaît dire un petit
peu ce que c'est proxmox avant d'entamer ta news pour les gens qui ne connaitrait pas ouais alors
bah proxmox c'est un hypervisor un petit peu à la mode donc les hyperviseurs c'est ce qui
vont vous permettre de faire tourner tout deux machines virtuel quand vous récupérez un énorme
serveur dédié que vous voulez faire tourner 50 systèmes dessus on parlait de bsd tout à l'heure
c'est avec le même linux que son peu faire tourner des bsd dessus il a été très à la mode pendant
un moment parce que ovh le fournissait prinscalé sur les machines et son énorme avantage et qu'il
permet de gérer très facilement plusieurs types de virtualisation donc à l'époque c'était des
une ancienne techno de containerisation dont j'ai oublié le nom qui a été remplacé par l'xc
vous avez du tu m u pour faire du kvm donc ces deux technologies de virtualisation qui sont un petit
peu différentes qui permettent de d'en capsuler et de séparer plus ou moins les différentes ressources
de vos systèmes donc en gros lxc va vous permettre de partager le même noyau et du
coup économiser un petit peu de rames là où qmux qui avait aim vont vous permettre d'isoler
totalement vos systèmes d'exploitation et pas juste un csh route dans un coin et proxmox
proxmox ce qu'il a porté c'était à la fois l'intégration de toutes ces techniques de
virtualisation mais aussi une api et une gui qui permettent de gérer cvm donc si on aime les
clics odromes on a une jolie interface dans laquelle on peut aller cliquer pour créer supprimer
modifier les vm et si on aime les api et ben on a une api qui permet de de faire toutes ces
manipulations là en automatique je crois même que maintenant il y a un provider terraform donc
c'est encore plus cool c'est pas forcément le hyperviseur qui fait totalement consensus dans le
parmi nos confrères devops mais je trouve que c'est une bonne alternative qu'on n'a pas trop envie de
se prendre la tête après ceux qui veulent de la perte ils vont utiliser d'autres choses bref tout ça
pour dire que proxmox c'est aussi basé sur des biens donc comme quoi encore un des trucs qui est
basé sur des biens ils sont donc dans la version 8 ils ont fait plusieurs mises à jour donc ils sont
passés à des biens 12 ils sont passés à qm u en version 8 0 2 en version elixé 5 0 2 en zs
2 1 12 et maintenant ils s'intègrent scef dans sa version quincey en 17 2 6 donc ça fait
beaucoup de versions je vous avoue que moi ça me perturbe pas trop de voir ces nouvelles versions
mais ce qu'on peut noter c'est les deux trucs qui sont intéressants ces zfs donc zfs ça vous permet
de gérer vos disques de manière un petit peu différente et on va dire que c'est un file système
moderne qui est vraiment super intéressant et d'autant plus pour faire de la virtualisation parce
que vous allez pouvoir créer des volumes les étendre à la volée faire des snapshots dessus
vous pouvez faire de la synchronisation entre machines de volume de snapshot etc donc pour
de la virtualisation c'est vraiment génial et si vous voulez monter en gamme vous pouvez héberger
vos vm donc la partie bloc storage donc les disques sur du sef donc sef c'est quoi c'est un
bloc storage distribué donc en gros pour vos vm vous avez besoin d'un disque dur pour stocker les
données soit vous pouvez les stocker en local sur un ex c4 classique soit sur du zfs qui peut être
synchronisé avec d'autres machines mais dans ce cas là il va falloir arrêter la vm la synchroniser
la relancer etc c'est pratique pour faire du disaster recovery zfs par exemple par contre
sef ça va vous permettre de faire de la haute dispo puisque votre bloc storage va pouvoir être
disponible sur plusieurs machines en même temps alors quand on dit plusieurs machines en même temps
c'est une très mauvaise idée de vouloir ouvrir le même fichier sur deux machines en même temps par
contre ça vous permet de faire des choses du type live migration donc vous voulez vider un
hypervisor pour faire une maintenance dessus avec du sef vous êtes plus obligé d'arrêter
la vm de transférer les fichiers de redémarrer la vm et ainsi de suite donc sef va vous permettre de
faire tout ça alors sef est utilisé depuis très longtemps dans proxmox la grosse nouveauté de
cette version là c'est que sur votre hypervisor vous pouvez installer un cluster sef donc si vous
avez deux trois cinq hypervisor mais que vous n'avez pas les moyens de prendre un cluster dédié
au stockage sef vous pouvez utiliser vos hyperviseurs pour installer ce cluster sef
ensuite dans les nouvelles fonctionnalités il y a aussi la synchronisation ldap pour les utilisateurs
et les groupes donc c'est une bonne nouvelle parce que quand on commence à voir des installations
un petit peu sérieuses on va vouloir faire une authentification utilisateur par utilisateur
et de pouvoir révoquer les utilisateurs une bonne fois pour toutes vous avez des nouveautés aussi
sur les ressources réseaux donc c'est type sdn donc software define network donc vous pouvez
faire en sorte que toutes les ressources réseaux que vous utilisez sont définies via une api donc
ça a été encore plus simplifié je dirais à ce qui vous permet de créer vos bridge vos interfaces
face réseau les mettre dans des velanes les toutes les règles de sécurité au type firewall et ainsi
d'une autre truc super intéressant c'est du mapping type pc express usb donc ça va surtout vous
intéresser si vous avez du hardware qui vous appartient ou si vous avez des périphériques un
petit peu spéciaux dans vos machines donc au hasard vous avez des cartes nvidia et vous voulez
pouvoir y accéder avec ce mapping pc express vous pourrez y avoir accès si vous avez des dongueux
usb pour des logiciels un petit peu spéciaux vous pourrez mapper l usb directement dedans alors
je n'ai pas tout compris mais visiblement ça permet aussi de simplifier la migration quand vous
migrez votre vm d'une d'un hypervisor à un autre au moment où vous redémarrez votre vm il va vous
afficher des warnings s'il ya des mappings qui ne correspondent pas là où avant il refusait de
démarrer la vm et ainsi un autre truc très intéressant pour la partie sécurité c'est l'anti
brute force puisque quand vous laissez votre appai votre fin le l'interface de votre proxmox ouvert
sur internet mais il y a toujours un petit méchant pirate qui va venir essayer de récupérer vos
credentials pour pouvoir déployer une vm pour pouvoir miner du bitcoin ou faire d'autres trucs
pas très sympa et c'était une une grosse faille donc ils ont amélioré deux parties c'est déjà
quand vous essayez de faire du brute force sur un compte il va verrouiller le compte mais si
vous avez activé d'une authentification double facteur ils vont rajouter le fait de bloquer le
compte s'il ya plusieurs tentatives une fois que vous avez réussi à passer le guide mode passe
donc activer d'authentification double facteur dès que vous pouvez c'est la meilleure protection que
vous pourrez mettre et pour ceux qui installent les proxmox eux-mêmes ils ont rajouté un autre truc
c'est le un installer texte avant tout se faisait forcément avec l'installer graphique ce qui était
pas forcément pratique pour ceux qui avaient des cartes graphiques pas très bien supportés
par l'installeur d'hébian et en général quand on a un hyper-viseur avoir une carte graphique c'est pas
franchement la priorité donc c'est une bonne nouvelle d'avoir cette cette partie là et la
dernière nouvelle c'est que ils ont mis comme processeur par défaut de l'x86 en 64 bits en
version 2 et surtout avec du support de la us donc pour tous ceux qui font du chiffrement dans leur
VM je pense qu'ils vont pouvoir apprécier ça et il ya deux nouvelles qui sont un petit peu associées
à ça c'est proxmox backup server qui passe en version 3 alors vous allez retrouver à peu près les
mêmes types de nouvelles qui vont être attachées sur la synchronisation LDAP et le fait de pouvoir
mettre du cf et globalement ça vous permet de sauvegarder toutes vos VM et ainsi de suite mais je
pense qu'il y a un peu plus et dans le même train des mises à jour l'entreprise qui développe
proxmox pardon a aussi un produit qui vous permet de faire une passerelle pour les mails donc ils
l'ont passé en version 3 j'ai pas trop regardé la news parce que c'est un produit que j'utilise
pas mais si vous l'utilisez à regarder les nouveautés doivent être à peu près aussi intéressantes
voilà je sais pas si vous avez des réactions Christophe l'utilise toi alors malheureusement
je vais pas pouvoir répondre tu m'as filé la patate chaude mais pour proxmox backup server je
pas encore lu la news à nous on l'utilise puisque notre laboratoire est en proxmox puisqu'on a une
machine physique dans nos locaux arène on l'utilise mais mais du coup très succinctement on prévoit
de l'utiliser un peu plus comment dire en profondeur dans les années à venir pour pour des
systèmes qui nécessitent pas forcément un provider cloud puisque non on utilise calouette
pour certains de nos services mais on a de la fois gérance et on imagine tout migrer sur du proxmox
justement avec cette version 8 et tout ce que tu nous a annoncé c'est une bonne nouvelle pour nous
et du coup j'en profite pour te demander si j'ai bien compris est ce que donc on peut faire de
l'hyperconvergence et utiliser toutes les ressources de nos machines c'est à dire le cpu l'arame
et le disque avec cette nouvelle version et notamment cède avant tu pouvais pas et ben avant tu
pouvais mettre un cluster cède comme tu l'as dit à s'aller à côté et tu profiter pas forcément
bien du disque en tout cas c'est l'attention que j'avais moi que c'était un peu c'était moins
facile de faire tout migrer facilement et d'utiliser toutes les ressources en tout cas moi si j'avais
à l'utiliser avant j'aurais plutôt mis un agréga cède à côté que sur le que sur le proxmox
mais là du coup c'est tout facilité c'est ça alors de c'est ce que j'ai compris mais je comprends
pas totalement ta question puisque moi j'arrive toujours à utiliser toutes les ressources et
alors c'est que je suis même mauvais et tout simplement et que je n'ai pas réussi avant en tout
cas pas correctement moi je l'utilise en fait j'ai quelques proxmox en production et jusqu'à
récemment j'utilisais exclusivement du lx c alors j'ai eu plein de problèmes de performance qui sont
peut-être réglés avec cette nouvelle version de lx c mais je suis en train de migrer sur du kvm et
moi la grosse inquiétude c'était de ne pas pouvoir faire de surbooking de ressources et en
fait même avec des versions assez anciennes on peut surbooker les ressources entre problème
le cp alors le cpu va être partagé entre différentes vm la mémoire aussi il faut laisser un petit peu
de place à l'hyperviseur parce que si on commence à quiler l'hyperviseur on va avoir quelques soucis
et pour le disque ça dépend du partitionnement que tu vas mettre mais je fais toujours une
partition qui est dédiée à la partie stockage dvm et ça s'est toujours bien passé alors moi j'ai
découvert proxmox backup server mais j'ai pas encore eu l'occasion de l'utiliser puisque ce que
je fais c'est que j'utilise la technologie enfin le système de backup dvm donc il fait un export
du fichier et après je fais un hercing sur mon serveur de backup mais a priori backup server permet
de faire style des snapshots régulièrement donc c'est beaucoup plus léger pour pour les ressources
et ce qui est encore plus intéressant c'est qu'en cas de disaster pour faire la partie
recovery c'est que bah vous dites mes backups sont là bas et en fait il va tout rapatrier en
automatique et ça a l'air plutôt bien foutu après pour la partie cèfle le petit bémol que je
mettrai c'est que je crois que pour faire du live migration et des choses comme ça il faut quand même
payer la version enterprise parce que c'est encore une entreprise qui développe un produit en open
source et ils ont un business model donc c'est pour les entreprises un petit peu plus grosses qui
veulent avoir un hypervisor pour professionnels donc le live migration en fait partie il faut payer
une licence et encore une fois c'est un peu cher c'est un peu cher c'est combien une licence
proxmox je sais plus mais l'époque où j'avais regardé c'était pas abordable pour l'entreprise
où j'étais donc c'est et puis en plus c'est toujours du pricing en fonction du cpu de la mémoire
etc et voilà et toi renais je ne veux pas forcément rajouter grand chose je connais pas très très
bien proxmox mais mais de ce que j'en connais de ce que j'en ai vu ça a l'air d'être une solution
vraiment très sympa voilà je sais que c'est fait par une boîte qui est en allemagne et voilà pas
forcément plus à dire en fait d'après mon expérience proxmox pour moi c'est vraiment la porte
d'entrée pour créer un simile cloud personnel c'est plus facile à installer que open stack par
exemple qui demande quand même des compétences assez assez élevés puis open stack fait beaucoup
de choses aussi que ne fait pas proxmox mais proxmox permet de faire beaucoup de choses
déjà pour des petites équipes qui n'ont pas forcément de très très gros besoin et je crois
qu'on atteint les limites de proxmox je sais pas quand on les atteint mais nous on les a pas atteints
pour notre cas d'usage en tout cas mais c'est plus une solution de virtualisation un peu comme
pas le concurrent commercial c'est vraiment vmware quoi exactement c'est souvent comparé à vmware
oui je voulais juste dire qu'il y avait une alternative aussi qui est xcp ng qui est par contre
pas basé sur le même hyper visor on en a déjà parlé plutôt basé sur xen et qui est supportée par
une boîte française qui s'appelle vates qui est gros noblase exactement mais qu'elle est moins
simple à installer d'après ce que j'ai vu c'est un système pour les professionnels donc c'est même
si c'est pas hyper simple à installer si on n'arrive pas à l'installer je pense que c'est pas
forcément bon signe non plus il est peut-être temps de retourner voir un cloud provider
proxmox j'ai dû l'installer une ou deux fois pour jouer avec en local plutôt qu'avec mes serveurs
de prod effectivement je crois que c'est du clic clic clic xp ng j'ai pas encore eu le temps de l'essayer
nos histoires de planning bien se chargé tout ça et après sinon je viens de comprendre la question
sur l'hyper convergence ou en fait ce que tu voudrais c'est mutualiser les serveurs fin les ressources
de tes trois serveurs pour pouvoir faire une grosse vm oui en fait c'est l'idée de quand un pool
proxmox de pouvoir en effet utiliser tout tcpu tout taram et toutes et toutes tes et toutes tes disques
alors pas forcément pour faire une grosse vm et pour mutualiser dans ton data center dans ton 6
mini data center déjà faire une vm sur plusieurs host c'est toujours une très mauvaise idée j'ai
connu des boîtes qui faisait ça c'est très joli sur le papier mais ça nécessite des ressources
techniques et notamment réseaux qui sont tellement pas abordables que ça coûte moins cher d'acheter
des plus grosses machines et de les mettre en cluster après c'est est-ce que ça gère bien le fait
de dire je veux une vm mais là où tu veux je m'en fous ça j'en ai aucune idée je pense que ça
fait partie des choses où quand tu commences à avoir ces besoins là je pense qu'il est nécessaire de
passer sur sur du cloud provider proxmox c'est quand tu as un ou deux serveurs tu sais où tu veux
mettre tes vm et quand tu commences à avoir un besoin de je veux pouvoir provisioner mes vm sans me
soucier de où elles sont et de qu'elles soient toujours disponibles je pense qu'il est temps de basculer
sur un cloud provider et si t'en as vraiment les besoins sur une infrastructure je pense qu'il
vaut mieux déployer de l'open stack parce que alors c'est le marte au pylon pour écraser une mouche
mais j'ai déployé de l'open stack c'est faisable ça prend du temps mais mais ça va vous rendre
service si vous avez un parc conséquent de machine physique et que vous voulez déployer plein de vm
avec une API et justement pas vous vous préoccuper de où est ce que ça va ce que proxmox en gros
c'est moi je l'utilise dans un seul cas c'est j'ai un serveur dédié j'ai pas envie de me prendre
la tête avec la partie hypervisor j'ai essayé de faire du du kvm géré avec de la libvirt ou des
choses comme ça et en fait c'est on est très vite limité là où proxmox maintenant un provider
terraforme en plus donc il ya plus à s'embêter mais c'est une machine qui est isolée salut c'est le
christophe du futur et avant de faire le montage on s'est aperçu que j'avais oublié un message
important lors de l'enregistrement justement de cet acte de dévots donc je l'enregistre après
coup pour t'en faire profiter alors j'ai été contacté par claudalp claudalp c'est une conférence
qui aura lieu à lyon le 6 septembre et du coup on a décidé d'être partenaire pour justement que
moi je puisse te parler de cette conférence alors pour que ce soit plus parlant je vais te montrer
mon écran parce que c'est plus simple alors comme tu le vois claudalp ça a lieu le 6 septembre 2023
à l'inça de lyon et ça commence à 8h à 19h je crois on n'a pas encore le programme mais ça devrait
être là et comme tu le vois il ya déjà deux intervenants qui sont annoncés aujourd'hui c'est
cantin adan le CEO de claire claude que je salue au passage qui va faire la keynote d'ouverture et en
keynote de clôture on a laurent de la clergerie qui est le CEO de ldlc donc comme tu le vois ce sont
deux personnes importantes dans le milieu de la tech qui vont venir nous parler de claude
alors il ya aussi quelques sponsors et nous on est partenaire on va faire des choses et à ce
je l'ai on va essayer de faire des choses avec douno la chaîne youtube douno mais je t'en parle
aussi parce que la billetterie est ouverte ils attendent 200 personnes et que tu peux aller justement
prendre ton billet mais en plus ils font une ingeste pour notre communauté donc c'est là que
c'est vraiment important ils vont offert cinq billets puisque tu vois les billets ils seront
entre 20 et 40 euros c'est déjà pas cher mais ils vont offert cinq billets donc pour tenter de
gagner un de ces cinq billets c'est très simple tu vas sur le message twitter que j'ai posté
que j'ai posté milieu juillet je sais pas encore quel jour je vais le poster au moment où je
enregistre mais la clôture du concours sera le 15 août pour participer au concours c'est hyper
simple tu prends ce tweet tu t'abonnes évidemment au compte twitter mentor devops qui m'ont compte
twitter dédié au compagnon de devops et au compte twitter de claude underscore alp tu retweet
le tweet en question le tweet du concours et surtout tu commandes le concours avec le hashtag
devops on fire et une fois que tu as fait ces trois choses là qui sont bien évidemment écrits dans
le tweet du concours t'attends le 15 août et le cas ou je ferai un tirage au sort parmi tous les gens
qui ont participé et je contacterai les cinq gagnants pour leur envoyer le coupon qui qu'ils
auront gagné et donc la place qu'ils auront gagné j'y serai physiquement le 6 septembre justement
à claud alp donc si tu veux qu'on discute à ce moment là bah tu pourras venir me voir si je
suis pas trop occupé à un moment puisque j'aurais très certainement des choses à faire puisque
lion c'est à côté de chez moi si tu ne sais pas j'habite ça t'étienne et c'est pas très loin du
coup j'irai faire un tour toute la journée là bas donc tu l'auras compris tu réserves ton 6 septembre
tu participes au concours et on se voit très bientôt et tu peux reprendre ton épisode ok et
bah je propose qu'on passe à la suite et pour la suite c'est renais qui va nous parler d'un
logiciel que j'adore enfin en tout cas d'une d'un autre produit de cette série de logiciels puisque
tu vas nous parler de ansible light speed oui alors en fait il ya le produit en cible
le ansible automation plateforme 2 4 qui est sorti et il y a on va dire je sais pas si on peut
appeler ça comme ça une extension qui s'appelle l'ice speed donc rapidement juste pour donner un
petit peu les idées de ce qu'il ya de nouveau un petit peu dans ce produit cible il ya alors il
y a beaucoup de choses qui seront technologie preview et notamment il commence à avoir une
notion de even driven en cible donc pour pouvoir réagir sur alors je sais pas exactement comment
ça marche mais voilà pouvoir réagir sur des événements et traiter donc voilà en fonction
des événements qu'on reçoit de différents j'imagine provider de déclencher un certain nombre
d'actions automatisées donc ça c'est quelque chose qui vient dans cette nouvelle suite il ya eu l'introduction
aussi de de on va dire je vais probablement pas le bon terme mais de module un peu certifié qui
permet pour pas mal de de type de choses un peu courante d'avoir des pas des choses très stable
et prouvée voilà et un support de de armes aussi donc on peut faire tourner en cible et toutes les
toutes l'applicatif qui tourne autour sur sur plateforme armes et donc pour parler un peu plus
précisement de l'expit que je n'ai pas essayé mais voilà il ya eu ben c'est un travail
avec ibm en particulier et plateforme qui s'appelle what's on what's on code donc c'est de c'est de
c'est de lia donc pareil c'est aussi en technologie preview et donc l'idée c'est d'avoir une ya qui va
aider à la conception des des rôles ou des playbook etc dans cible et et alors je n'ai pas essayé
mais on a quelqu'un qu'on connaît et donc tonton parle souvent sur le dans le podcast qui est
stéphane robert qui lui a commencé à un petit peu expérimenter la solution donc ça se matérialise
sous la forme d'un plugin vs code pour le moment qui faut installer une certaine on va dire une
partie un peu de configuration pour que ça ait discuté avec probablement la pi à il de côté
what's on donc serveur d'ia héberge chez ibm et et à première vue de ses premiers autour
semble assez assez bon ça a l'air de pas mal fonctionner notamment parce que dans le moteur
d'ia il ya il ya eu l'introduction d'un peu toutes les baisse practice de de ce qu'il faut faire
avec en cible et donc ça a l'air de sortir des des des rôles fin ce qui est ce qui est généré par
le moteur au niveau du diamètre en cible et à l'air vraiment de d'assez bonne qualité donc
voilà c'est à suivre mais c'est un produit qui a l'air qui a l'air assez intéressant il reste des
questions ouvertes sur comment ça va à ce qu'il est en fonction du nombre d'utilisateurs etc mais
voilà c'est ça l'air ça a l'air assez chouette et bah je vous laisse la main si vous voulez un petit
peu si vous connaissez ou si j'ai pu oublier des choses n'hésitez pas à compléter
Nicolas tu veux commencer je peux commencer par troller c'est parce que l'ight speed sur le
coup je me suis dit ils ont enfin réussi à faire en sorte que on cible soit rapide mais j'ai
l'impression que c'est plus pour écrire du code plus rapidement mais c'est marrant parce que dans le
or troll c'est on est d'accord que c'est pour générer du code dans dans vs code d'accord parce que
dans le dans la présentation de l'article t'as envoyé je vois aussi beaucoup de capture d'écran
d'un portail d'administration et ça me faisait penser en cible tower c'est que les deux sont
intégrés l'un à l'autre non je pense que tu as cliqué sur le premier article et pas le second
qui parle de ans cible platform automation voilà c'est vraiment il ya il ya platform automation
qui en va dire un peu une nouvelle version d'ancible avec plein de nouveautés et l'ight speed qui est
je sais pas un addon entre guillemets ou un produit différent en complémentaire qui vient amener ce
côté ya pour effectivement écrire du du code plus rapidement à noter qu'il y a même que dans
automation ils ont quand même l'air d'avoir un peu travaillé justement sur la rapidité d'exécution
il a l'air d'avoir un engine qui a été amélioré mais à creuser sachant oui effectivement je suis
pas sûr que c'est ça reste un des soucis en cible c'est que c'est pas extrêmement rapide non mais
autant pour moi mais du coup la partie automation est intéressante a priori il rajoute aussi tout ce
qui est évente driven pour pouvoir réagir à des événements dans vos infrastructures pour pouvoir
déclencher des actions en cible et ça c'est un des trucs qui a dans sa sac qui est assez
intéressante alors ceux qui en font depuis longtemps vous diront peut-être que c'est pas
forcément hyper stable mais par contre ça existe depuis très longtemps et moi j'ai utilisé pour
certains trucs c'est c'est plutôt pratique et bah c'est ça permet notamment de faire de la
remédiation quand vous avez des services qui tombent donc votre monitoring vous dit le service est
tombé vous pouvez mettre votre ansi bolt over qui va surveiller ça et ça va redéclencher le
playbook pour redépouiller le service donc si c'est un service qui est tombé bah il va simplement
redémarrer le service si un développeur un admin 6 qui a fait une erreur et un rm-rf sur des trucs
ça va le repositionner automatiquement et puis voilà donc c'est c'est cool que ça bouge et
bah c'est bien que redat et racheter ce produit et continue à le faire vivre parce que je bon
on est déjà parlé de redat donc on espérant qu'ils vont pas fermer les sources d'antipole mais
d'un autre côté c'est celle-ci qui a été racheté par vmr et j'ai la désagréable
impression qu'ils sont en train de plomber le projet mais bon bref à suivre bah écoute tu
passeras sur ansible de mon côté mon msd v sont toujours les mêmes comme c'est à base d'illas
c'est comment a été entraîné cet il ya qu'est-ce qu'elle peut ressortir du code sous licence et
est-ce qu'on le sait a priori j'ai pas l'impression qu'on s'en fait qu'on sache s'il y a du code
sous licence en tout cas c'est pas explicitement dit faudrait voir les conditions générales d'utilisation
et surtout j'ai cru comprendre que pour l'instant c'est annoncé comme gratuit pendant les prévues ça
veut dire que c'est potentiellement un futur un futur service payant ce qui se comprendrait
puisque ça fait appel à des serveurs et que ça tourne pour le local sur nos machines
moi je me pose des questions aussi et de plus en plus écologique sur toutes ces a z d'écriture
code à base d'illas est-ce que ça assure qu'on somme pas par rapport au temps de cerveau qu'on
n'y passerait pas je veux dire je me pose de plus en plus de questions sur ça sur l'utilisation des
ressources et en effet ça nous fait gagner du temps mais ce que ça vaut vraiment au coup
ça je ne sais pas je ne saurais pas dire ouais mais finalement tu utilises ton pc moins longtemps
tu fais tourner ta ciaye moins souvent parce que t'écris directement le bon code beaucoup plus
rapidement et donc tu éteins ta machine plus rapidement pour pouvoir aller faire du sport
donc tu contribues à améliorer la planète ou entretenir ton jardin bio voilà bien sûr c'était
un troll ok merci d'hico là pour ce troll non même il y a à quel point ça va sauver l'humanité
où nous pousser au fond du précipice ben ça on verra bien mais je pense qu'il faut pas non plus
être totalement réfractaire et il faut continuer à surveiller ces trucs là ça va faire partie des
choses où ben si tu es réfractaire tu ne vas pas rester compétitif longtemps parce que d'autres vont
continuer à l'utiliser ou alors en ne l'utilisant pas tu vas rester compétitif parce que tu ne vas pas
écrire des trucs qui vont être plein de bugs parce que il y a un petit peu et j'ai perdu le nom
bon elle a été un petit peu trop euphorie qui est elle a inventé des trucs qui n'existe pas qui
fonctionne pas donc intéressant faut regarder quoi ouais alors pour moi c'est un peu comme tout il y a
c'est un outil et comme tous les outils en fait c'est l'usage qu'on va en faire qui est important
néanmoins quand tu utilises un marteau tu n'as pas de surprise quand tu utilises du code généré par
une IA tu t'es potentiellement soumis comme je le disais et quand on l'a déjà traité à du code
qui est soumis à une licence et c'est ça en fait le vrai le vrai problème pour moi si je
génère si tu vois tous ces outils générer du code et qui te disent bah voilà il y a une partie de ce
code potentiellement il vient de là potentiellement il vient de là potentiellement c'était de licence
toi qui est responsable de ton code tu dis ok je l'utilisais ok la licence elle est compatible
avec mon produit bah tu vois c'est tous ces trucs là je suis d'accord avec toi sur le fait qu'il faut
potentiellement on va vers une plus grande utilisation de l'IA mais il faut l'utiliser
correctement selon moi il faut vraiment l'encadrer correctement. Ouais mais au final quand tu écris de
l'on de cibol qu'est ce que tu fais c'est tu vas d'abord lire dans la doc et tu vas t'inspirer de
la doc qui est GPL ou une licence libre équivalente est-ce que tes playbooks le sont aussi alors que
finalement tu as repliqué du code tu vas sur des problématiques un petit peu spécifiques tu vas
aller chercher du stack overflow sur des blogs est-ce que tu respectes bien la licence donc
ouais mais quand tu fais ça toi tu le sais que tu as pris un bout de code sous licence et tu le fais
à dessin tu dis ok je prends le risque quand tu utilises une IA que tu ne sais pas tu ne sais pas
c'est ça que je veux dire c'est vraiment ça le truc oui vas-y Roné
pour répondre à ça je sais plus où je l'ai vu mais je crois que justement dans tibol l'ice pill
il te donne quelle est la source qui a servi à ils ont travaillé sur le sujet en fait de savoir
qui a produit la snippet en fait comment dire ça mais de call et donc à première vue tu peux
savoir qui est l'auteur et on tué le mont j'imagine potentiellement la licence associée il a eu
du travail dans ce sens là je l'ai lu quelque part je sais plus aussi c'est dans l'article que j'ai
que j'ai donné ou pas mais mais voilà il y a il y a qui a même une prise en compte de ce problème
là ça c'est une bonne nouvelle renais si t'as la source moi je la veux bien pour la mettre dans
les notes je voudrais juste rajouter un dernier truc moi j'ai une petite crainte toute légère
qu'on a traité justement dans en cible attend le podcast je sais plus comment il s'appelait mais
c'était soit de tout redevelopper soi même soit utiliser des briques libres moi je suis
ass vous l'avez compris je suis assez utilisateur de rôle et de collection libre quitte à les faire
évoluer je me pose la question de quelle est-ce que ça va justement pas devenir tellement facile de
faire marcher son nia qu'on ne va plus utiliser des codes communs et donc participer à ces codes
communs et donc on va avoir une implémentation un peu différente à chaque fois de pas mal de choses
et donc du fait redevelopper à nouveau la roue à chaque fois moi c'est une question que je me pose
ouais alors les snippettes peuvent être traduits comme extrait ou fragment de code je sais pas comment
le traduire et moi mais mais en fait ça ne suffit pas ça ne suffit pas pour écrire un rôle
complet parce que en réalité derrière un rôle c'est taille plus chez toute la doc de ton produit
tu as traité les cas de redactes débian like tu as plein de paramètres qui vont venir être
paramétrables parce que bah suivant ce que tu as comme mémoire combien tu as d'utilisateurs qui vont
se connecter etc. il y a plein de trucs comme ça qui viennent avec le rôle et en fait c'est pas le
fait d'écrire ce que tu vas mettre dans un playbook un rôle c'est l'expérience que tu as eu dans
différents contextes des gens qui t'ont dit ah bah tiens moi je voudrais l'utiliser dans ce cas
là est-ce que tu peux rajouter ce paramètre et ainsi de suite c'est on parlait de jeve garling qui
fait des des rôles qui sont exceptionnels quand tu regardes ces rôles t'apprends énormément et
tu te rends compte qu'ils sont utilisés par plein de monde et qui permettent de prendre en compte
plein de cas d'utilisation et on va pas refaire l'épisode qu'on avait fait à l'époque mais c'est
là où la différence entre un bon rôle qui est bien écrit où finalement tu vas pouvoir coller à
plein de cas d'usage à un truc qui est tellement bateau que ça va assaillera plus vite pour pour
toi de l'écrire bon bah effectivement avec un petit peu d'IA tu iras un petit peu plus vite pour
l'écrire et puis c'est tout mais c'est je pense pas que ça soit écrire le playbook je pense pas
que ça soit l'écriture des différentes actions qui soient silentes que ça je sais pas on sait pas
comment vont évoluer les IA à l'avenir ça c'est aussi je me je me projette dans l'avenir
mais du coup je pense qu'en conclusion sur ce sujet là on pourrait dire que l'IA c'est comme un
marteau si tu fermes les yeux ça peut fermer le doigt merci Nicolas pour cette conclusion je
l'apprend et je l'apprécie bah justement vu que tu avais la parole on va te laisser la parole
tu vas nous parler de docker puisqu'il y a de nouvelles news autour de docker ouais et c'est
même une super nouvelle parce que docker a annoncé qu'il rachetait une une entreprise qui s'appelle
mutagen donc bon mutagen c'est quoi c'est globalement c'est un produit qui est un plugin docker qui
vous permet de synchroniser votre file system avec votre target docker on va dire et de faire la
même chose pour les ressources réseaux et moi je l'ai découvert il y a quelques mois je l'avais
essayé parce que c'était une des solutions pour résoudre le problème de tu as un mac 1 tu
es très content ta machine va très vite mais tous tes conteneurs dockers sont hyper longs parce
que bah il y a la transpilation arm amd 64 etc et en fait une mutagen était une des solutions
et alors j'ai pas creusé jusqu'à tester ça mais j'ai l'impression que quand ça ne tourne plus
sur le poste du développeur on peut avoir un serveur de coeur distant on peut développer le code
dans le local sur sa machine et le code va être automatiquement synchronisé sur le dans le
conteneur docker donc pour les développeurs qui qui vont relancer régulièrement leur leur
conteneur pour voir des mises à jour ça ça simplifie énormément le le workflow le flow
de du développement et c'est c'est cool que docker continue à investir côté côté
développement puisqu'on s'était posé la question au moment où ils ont splité l'activité entreprise
où ils ont revendu ça je sais plus quelle entreprise et où la partie des stops finalement était
ils voulaient se recentrer là dessus voilà je pense que c'est on voit bien l'orientation qui sont
en train de prendre c'est on fait le focus sur les développeurs et on fait tout pour leur simplifier
la vie et je pense que mutagen fait partie des outils qui peuvent simplifier la vie des développeurs
on est je sais pas si toi tu as déjà essayé ou si tu connaissais ou pas non non non je ne connaissais
pas donc attester moi non plus j'avoue je connaissais pas j'ai vu la news passer parce que comme je
m'intéresse à docker je me suis dit ce serait intéressant de la traiter et puis merci de l'avoir
traité ça a l'air assez intéressant je pense que c'est un truc à tester parce que je ne vois pas
pour l'instant je vois pas trop les cas de usage mais j'en imagine certains comme tu l'as dit avec le
développement sur une machine distante et genre de choses mais je ne sais pas ce que ça va donner
en tout cas c'est une c'est une belle news et toi Nicolas t'en penses quoi finalement de ça
que c'est super cool et justement on parlait de d'écologie tout à l'heure et de de pouvoir
faire tourner les ressources ailleurs moi le problème que j'ai c'est que en tank devops
ben finalement ma machine je m'en sert principalement pour faire du ssh mais il y a des fois j'ai besoin
de lancer des conteneurs de coeur des choses comme ça et pour développer en local et je me
retrouve à avoir une machine pour éviter d'avoir en racheter une tous les deux ans j'ai demandé à
une entreprise de mon htune avec 64 giga de ram mais bon c'est hors de prix écologiquement
bah ça fait plus de ram à fabriquer etc et je me dis qu'une qu'une alternative à ça c'est c'est
des outils comme mutagène où finalement je développe sur ma machine en local et dès que je
sauvegarde mon fichier il envoyer sur le contenu en deux coeurs qui est sur un serveur dans le cloud
quel que soit le provider et quand je rafraîchis ma page j'ai l'impression que tout est en local
mais finalement tout est en distant et que ça soit en distant dans un serveur dans mon entreprise
en premise sur une machine qui est sous mon bureau peu importe et et finalement on va peut-être
pouvoir réussir à transformer nos pc portables en entre guillemets mini tel dans le sens où c'est
une machine avec du cpu un petit peu de mémoire un petit peu un beaucoup de mémoire pour slack
encore une autre histoire mais avec des ressources raisonnables et finalement quand j'ai besoin de plus
de ressources j'ai une machine distante sur laquelle je peux consommer plus de ressources mais c'est
une machine que je peux me permettre d'éteindre quand j'en ai pas besoin je vais totalement
d'accord avec toi parce que c'est ma vision de l'avenir ce genre de truc et je pense que à l'avenir
on va de plus en plus développer dans le cloud et moins sur nos machines et on aura des machines
plus légères en tout cas c'est ce vers quoi moi j'ai envie d'investir notre rd avec notre signe
logiciel en plus on aura des casques de vr apple avec des clavier virtuel juste au bout des doigts
et du coup on aura même plus besoin de se trimballer des machines on va pouvoir prendre le métro le
train et conduire en voiture avec le casque vissé sur la tête toute la journée bon tu l'as
compris nicolai aime bien trop les du coup je te propose qu'on passe à un autre sujet et du
coup je te rappelle aussi que ce podcast est en licence libre puisqu'il est en cc baïe ça tu
peux le découper le refaire tu peux utiliser des bouts si tu veux n'importe où n'importe comment
ce qu'il faut c'est citer la source et puis en plus accessoirement si tu peux nous envoyer un petit
message pour nous dire et j'ai réutilisé une partie de votre podcast c'est vachement bien donc
je t'encourage à le faire et surtout à le partager sur les réseaux sociaux à tes amis
à tes collègues surtout qui ne connaissent pas encore radio dévops ni actus dévops ça leur fera
connaître ce super podcast puisque je suis sûr que tout le monde devrait connaître ce super podcast
alors on va passer à la section des outils celles que tout le monde attend et comme on a parlé de
mutagènes plutôt et d'environnement de développement en ligne renait tu vas nous parler de dev pod et si tu
n'en avais pas parlé j'en aurais parlé oui alors c'est ça fait quoi est ce que vous disiez
juste avant dev pod c'est à première vue je n'ai pas testé mais une alternative libre à code
spécis ou guide pod donc qui sont des solutions propriétaires pour avoir un environnement de
développement dans le cloud et en ligne donc du coup il ya un conteneur qui va stocker un petit
peu tout l'environnement enfin l'éditeur de code les sources sur lesquelles on travaille etc et
donc ça permet de travailler quasiment comment local alors que la solution est distante et voilà
c'est des solutions assez agréables mais qui voilà code spécis ou guide pod reste reste
propriétaire et à première vue dev pod permet de bas une alternative libre qui que j'imagine on
peut aussi ou c'était soi même si on est créé du service autour voilà c'est développé en grande
partie en go et ça l'air de ce que j'en ai vu ça l'air assez sympa et toi donc christophe tu
connaissais ces solutions ouais alors j'ai dit non quand t'as dit hosté toi même parce qu'il
y a quand même une petite différence entre code spécis guide pod et dev pod alors guide pod il faut
savoir que avant c'était libre ils ont fait un petit move je crois que je sais pas si ils continuent
à dire qu'ils sont libre mais en tout cas l'installation de guide pod n'est plus maintenue
et n'est plus libre ce qui fait que bah du coup tu peux pas instailler guide pod sur tes machines
dev pod c'est une autre philosophie c'est un client que t'as sur ta machine qui va les provisioner
ton environnement de développement en ligne c'est d'ailleurs il le présente dans leur site c'est
client only et tu peux t'interfacez avec plein de types de clients et notamment ce qu'elle
ouais que tu peux aller créer tes environnement de développement en ligne avec ce qu'elle ouais donc
ça veut dire que t'as soit une interface graphique soit un client en ligne de commande qui te permet
de créer ton environnement de développement en ligne et après il accepte depuis depuis internet via
ton navigateur donc ça c'est une belle promesse et quand je l'ai vu je me suis dit bah super je
vais pouvoir j'ai pouvoir avoir une nouvelle brick libre sur freguide parce que guide pod j'avais
fait un traitu mais malheureusement non ce ne sera pas encore le cas puisque dev pod c'est plutôt pour
les clients ce qui est bien parce que ça permet aussi aux entreprises de gérer leur propre
environnement de développement sur leurs propres infrastructures ou en tout cas sur leurs projets
sur leur comment dire sur leur cloud provider ou en local parce que je crois que dev pod te fournit
aussi des événements des environnements locaux sur ta machine je n'ai pas regardé encore mais il
a l'air d'avoir quand même pas mal de provider pour les différents cloud donc potentiellement
tu peux aussi le faire en privé j'imagine qu'il doit avoir un provider au point stack ou quelque
chose comme ça à creuser ouais alors il ya une petite liste de provider faudra aller voir sur
leur site nicola qu'est ce que tu en penses toi à mes clients avait demandé ce que je pensais
de guide pod pardon et j'ai découvert ça et sur le principe ça paraît super bien par contre
bon moi j'ai trouvé que c'était relativement cher par rapport à certains usages mais bon pourquoi
pas par contre je pense que ça fait partie de notre avenir parce que ça ça résout plein de problèmes
surtout pour des entreprises qui ont des des setups assez particuliers avec des renouvelies
longues comme le bras pour setup ne serait-ce que l'environnement de développement et là
c'est vraiment bien foutu parce que en trois clics on a le on est prêt à démarrer sur le projet
pour développer sur le produit et à priori en gardant son environnement de développement
favoris et ça c'est vraiment important moi je suis pas hyper fan des trucs qui tournent dans le
navigateur mais bon de toute façon je pense que dans quelques années on aura pu le trop le choix
peut-être que lui que ce serait meilleur rat et du coup on aura plus ces problèmes là et en tout cas
c'est super bien qu'il y ait une alternative open source qui arrive et je suis impatient de voir
ça arriver sur freguite parce que je pense que ça fait partie des trucs qui vont simplifier la vie
des développeurs et des entreprises à avancer oui alors je précise un petit truc c'est quand
fait dans le dépôt déberger un fichier qui s'appelle devcontainer.gizone qui décrit en fait
l'environnement de développement là où guide pod c'est a yabl on n'a perdu comme quelque chose
puisque là on a un gizone mais gizone vers sucyamel voilà tu peux nicola si tu veux ouvrir ton
environnement dans ton vs code local c'est à dire que tu peux popper soit ton environnement dans le
cloud et le connecter avec ton vs code local soit dans un conteneur sur ta machine et dans
votre vs code local etc etc etc il y a pas mal de possibilités ça reste je dis vs code mais
il n'y a pas que vs code il y a plein d'éditeurs en fait et du coup ça a l'air d'être une sorte
de boîte à outils glu magique entre plein de trucs il faut vraiment tester je pense. Encore
bon moi je vais te parler d'un petit outil je vais revenir au basique puisque je vais pas parler
du dernier outil à la mode non je vais te parler de dig dig tu sais c'est ce petit utilitaire qui est
inclus dans dans certains paquets alors je vais pas te donner le nom des paquets parce ça change
en fonction des distributions mais en tout cas dig ça permet de faire quoi c'est l'outil magique
qui te permet d'aller interroger les serveurs dns et donc de faire des recherches dns tu fais dig je
sais pas moi compagnons tirer devops.fr et tu vas avoir dans ton terminal le retour de ok le dns
il renvoie vers ça puis puis vers ça puis vers ça puis vers ça et t'as la liste de toutes les
redirections des dns par lequel passe ton nom de domaine et ça c'est vachement bien et tu peux même
faire des recherches à verre sans donnant des IP etc mais là je te laisserai aller voir l'article que
je mets en commentaire je voulais parler de dig parce que bon on a parlé avec nicolai et renais
mais moi à chaque fois que je parle des novices ils connaissent pas forcément et du coup quand on a
des problèmes réseau souvent c'est lié à des réseaux dns et pour savoir ce qui se passe dig c'est
un outil quand même essentiel et je vois que nicolas se marre j'espère que c'est ce que je
raconte qui fait qui se barre en tout cas nicolas tu vas le dire pourquoi tu te bars et ben je me marre
parce que je suivais un gars sur twitter dont le handle était c'est toujours un problème dns
parce que effectivement dans nos infrastructures on s'appuie tellement sur le dns que ça devient
indispensable et je compte pas le nombre de fois où j'aide des clients ou des collègues à débuguer
la partie dns et effectivement on en parlait un tout petit peu avant j'ai commencé avec
ns lookup comme beaucoup j'ai sauté les tapes dig parce qu'à l'époque c'était un petit peu
obscur pour moi et du coup j'ai utilisé host pendant des années et en fait maintenant de plus en
plus genre pas sa dig parce que c'est devenu la boîte outil vraiment indispensable parce que c'est
la seule commande que je connais qui qui ne bride pas l'utilisation y compris pour des trucs très
avancés et j'ai regardé l'article qui va être en lien et je vous invite à regarder très sérieusement
cet article là parce que ça va vous sauver dans pas mal de cas parce que je me suis retrouvé avec
des trucs tellement compliqués où j'avais des dns qui étaient désynchronisés j'avais des dns qui
étaient déclarés côté route server qui n'étaient pas les mêmes que les entrées enfin que les
serveurs qui étaient réellement interrogés et le fait d'avoir dig ça m'a permis de bien mettre le
doigt sur le fait que regardez quand je demande au route server j'ai ces serveurs là quand je
demande ouise j'ai ces serveurs là et quand j'interroge tous les serveurs en un à un j'ai des
réponses différentes vous allez pouvoir détecter des dessins croix zone parce que vous pouvez
interroger le le so à de la zone donc en gros c'est numéro de série pour pour simplifier et
quand vous faites du du mail vous aurez besoin des informations des marques spf machin etc et en
fait tout ça vous l'aurez avec dig donc dig ouais et si vous ne connaissez pas c'est le premier
truc que vous allez regarder après avoir fini d'écouter l'épisode ouais et puis je précise avant
de passer la parole à renait que dig on peut même lui spécifier un serveur de nom particulier
parce que si on n'arrive pas à avoir une résolution dns on peut dire à dig ben attend
interroge ce serveur de nom particulier on voit s'il y a une différence par rapport à ce que
nous répondons dig et donc on peut estimer qu'il y a une problème de configuration sur notre machine
oui Nicolas je vais même dire plus on peut spécifier le port du dns que l'on veut interroger
parce que moi dans mes infrastructures j'ai du note j'ai du un bound et du l'autre qui fait le
cache local et en fait j'ai trois ports différents et pour debug c'est le seul que j'ai trouvé qui
permettait d'interroger une adresse IP spécifique mais surtout un port et ça j'ai trouvé aucun autre
qui permettait de le faire donc ouais c'est dig c'est vraiment génial et surtout on peut le choisir
vraiment ce qu'on veut en sortie machin etc est ce qu'on veut tous les détails juste le juste la
réponse franchement c'est top et du couronnet je peux qu'abandonner abandon dans votre sens c'est
un super outil après le revers un petit peu de la médaille il faut un petit défaut c'est que
ben il est très puissant donc il faut faut apprendre à l'utiliser il y a beaucoup de commandes etc
pas forcément l'outil plus trivial à utiliser et parfois la lecture de la sortie au début est
un peu difficile parfois à interpréter ce qui répond donc il faut prendre voilà ça nous dit qu'il
faut apprendre à prendre un sens servir donc moi c'est vrai que j'ai eu une tendance à utiliser
peut-être des fois peut-être plus en vieux de la vie des fois un petit coup d'anestou cup si
je veux juste voir une résolution voir ce que ça donne mais après oui dès qu'il faut creuser un peu
plus digue c'est sûr c'est plus efficace j'aurais tendance à dire que pour bien maîtriser digue
il faut prendre sa pioche et creuser du coup reddit tu vas le parler d'un autre outil
oui dernier petit outil que j'ai trouvé sympa comme d'habitude je manie pas mal de
de chez zone etc et c'est un petit outil qui s'appelle curl converter et donc ça amène sur
une page assez sympa qui permet de qui donne des infos à la fois pour par exemple la partie
de firefox alors c'est pour firefraichement si je suis pas sûr qu'il est chrome mais de récupérer
par exemple pour quand quand une droguette est faite de récupérer l'équivalent en curl et ensuite
l'outil curl converter permet aussi à partir d'une commande curl de donner le code équivalent
dans différents langages que ce soit au piton en reste voilà il y a un certain nombre de langages
et donc c'est c'est vraiment super pratique et je trouve la page bien foutue voilà petit outil
sympa je pense à avoir dans ses liens bookmarker parce que ça rend une fière service
et ben moi je ne connaissais pas j'irai le tester nicolas à avis là dessus
ben je suis en train de le rajouter dans mes bookmarks parce que effectivement il a l'air
vraiment très très pratique j'utilise pas mal l'extension firefox développeur pour récupérer
les commandes cur et j'utilise un équivalent payant postman qui lui permet justement de
avec un clic droit on peut récupérer un curl ou n'importe quelle langage et ça fait partie des trucs
quand quand vous manipulez des appuies des appays très régulièrement ça devient très rapidement
indispensable d'avoir des trucs comme ça faire garder rapidement les quelques tests que j'ai
fait dans les différents langages ça va vous faire gagner du temps c'est à mettre dans les
bookmarks merci renais et ben écoute nicolas tu viens de rajouter deux outils alors je te laisse
le premier ouais parce que comme à chaque fois c'est en vous en content parler d'outils que je
me dis ah mais oui c'est vrai en fait c'est un outil dont damir avait parlé dans l'épisode où
on parlait de nos configurations logiciels respectives il nous avait parlé de multi
account container dans firefox et j'avais dit que je l'essayerai et ben non seulement je l'ai
essayé mais je l'ai adopté et j'utilise plus que ça parce que j'ai j'ai plein de compte ovh
j'ai plein de console horizon avec plein de comptes différents en fait maintenant j'ai plus besoin
de switcher d'un navigateur à un autre de m'a déconnecté de me reconnecter et c'est vraiment
génial vous avez des couleurs par conteneurs vous pouvez tous séparer cet hop et il a son petit
frère container proxy qui permet de mettre un proxy spécifiquement dans un groupe de
conteneurs et alors ça c'est encore mieux parce qu'avant j'avais foxy proxy qui me permettait de
basculer d'un conteneur d'un proxy à un autre et du coup je démarrais un navigateur spécifique
pour avoir ce truc là machin etc et en fait là j'ai même plus besoin c'est je l'ouvre à
Nouvelle-onglet et automatiquement sur ce proxy là donc j'ai plus qu'un seul navigateur pour tout
c'est génial et ben merci nicolas alors non très cher auditeur tu n'as pas raté un épisode de
radio dévops puisque l'épisode dont vient de parler de nicolas est prévu pour sortir le 2
novembre donc on a de l'avance sur les radio dévops donc il sortira après cet actus dévops
malheureusement les pas malheureusement les actus dévops doivent sortir le moins où ils sont
enregistrés on n'a pas le choix par contre les radio dévops on a un peu d'avance et comme j'alterne
avec des interviews bah ça nous permet donc tu sais tu sauras qu'on parlera de nos setup bientôt
je je enfin je chez nous on utilise firefox multi account container et c'est vrai que c'est vraiment
très bien je l'utilise dans mes dans mes tutos parce que ça permet d'avoir plusieurs contextes et
quand tu fais bah de la pédagogie ou que tu veux tester des trucs c'est vachement bien d'avoir
plusieurs contextes plutôt que ah attend faut que je démarre en fait de navigation privée mais tu
perds tout en fait c'est nul alors que là tu as vraiment plusieurs identités dans ton navigateur
moi j'adore ce truc renais que penses tu de ces petits trucs est ce que tu les utilise non je les
utilise pas mais ouais c'est je pense très très pratique moi j'utilise il ya pas mal de petites
extensions comme ça firefox qui sont parfois pas mal notamment j'en utilise une là c'est plutôt
les multitables donc ça permet de faire par exemple des groupes de de tabs sur différents sujets ça
évite d'avoir je sais pas 200 200 200 tab ouverts pas forcément classé là ça permet d'un peu plus
classer les choses donc oui il ya des fois il ya des extensions firefox qui valent le coup de
voilà de gratter un petit peu parce que il ya des trucs vraiment sympa cool merci alors tu leur a
compris nous sommes des passionnés et tu peux revenir venir discuter avec nous dans la communauté
des compagnons du devops le lien est en description mais tu peux aller sur compagnons-devops.fr
pour t'inscrire et tu nous rejoindras puis tu pourras discuter avec nous si tu le fais pas déjà
parce que il ya de nombreuses personnes qui discutent déjà sur les épisodes ou sur d'autres d'autres
émissions encore une fois merci à tous les deux de votre participation à cet épisode et moi je vous
laisse à tous les deux le mot de la fin et pour ne pas surprendre renais je vais commencer par Nicolas
ensuite du coup j'ai rien prévu on a déjà parlé beaucoup d'open source de contribution et
notamment financière c'est si vous aimez tant l'open source essayez de décider vos entreprises
à y consacrer un budget parce que c'est la seule solution de financer l'open source et si vous
avez pas les moyens on l'a dit vous avez de la doc vous avez de la promotion du produit vous avez
fait des issues quand vous avez un bug ainsi de suite bref contribuer et renais quel est ton
mot de la fin mon mot de la fin c'est je pense que malheureusement c'est pas forcément bien rendu
bien mis en valeur l'article sur linux parce que je voulais pas trop en dire de je voulais pas le
polier donc je m'en excuse c'est peut-être pas très vendeur mais voilà je vous encourage
vraiment à aller le consulter parce qu'il est vraiment c'est vraiment sympa c'est une belle
histoire c'est pas très long donc voilà c'était mon petit adhéjou et puis ben sinon pour faire
dans le classique j'espère que cet épisode vous aura intéressé et je vous donne rendez-vous à une
prochaine épisode

Les infos glanées

Je suis une fonctionnalité encore en dévelopement

Signaler une erreur

RadioDevOps

Vous avez l’envie d’en connaitre plus sur le mouvement DevOps ?

Les problématiques liées au déploiement vous titillent…

Alors, vous êtes au bon endroit !


Radio DevOps est la Baladodiffusion des Compagnons du DevOps.

Le podcast en français dédié à notre mouvement.


Nos émissions :

  • 🗞 Actus Devops : est une émission animée par des membres de la communauté des Compagnons du DevOps. Dans chaque épisode nous étudierons l’actualité Cloud et DevOps.
  • 📻 Radio DevOps : est l'émission phare animée par des membres de la communauté des Compagnons du DevOps. Dans chaque épisode nous débattrons sur un sujet de fond.
  • 🛋️️ En aparté : est une émission où je m’entretiendrai avec un invité sur le mouvement DevOps en entreprise.
  • 🎙️ En Solo : est une émission où je serai seul pour vous parler de DevOps ou de Cloud. 


📩 Si tu n’es pas déjà abonné, alors abonne-toi pour ne pas rater ces émissions.


💖 Tu peu soutenir mon travail et la communauté sur :

https://soutenir.compagnons-devops.fr/


🎓 Développe tes compétences DevOps avec un mentor : http://devops-mentor.tech/


🎁 Télécharge mon antisèche git : http://froggit.fr

💬 Si tu as envie de discuter du mouvement, le plus simple est que tu nous rejoignes dans la communauté des compagnons du DevOps : https://www.compagnons-devops.fr


❓ Pose moi une question : http://question.compagnons-devops.fr


☁️ Suis-moi sur les autres réseaux sociaux : https://mtr.bio/compagnons-devops


🌐 Les Compagnons du DevOps est une initiative de Lydra. NOTRE SITE: https://www.lydra.fr


Chez Lydra, nous nous sentons seuls entre deux Meetups ou deux conférences. Nous n’avons pas trouvé de lieu où échanger et avoir des débats en français sur le sujet qui nous passionne.


Nous avons donc décidé de créer et d’animer une communauté qui partage nos valeurs :

  • La passion de l’infrastructure as code.
  • La conviction que les logiciels libres et open sources sont émancipateurs.
  • L’envie de partager des méthodes, bonnes pratiques ou retours d’expériences.
  • L’amélioration continue fait de nous des experts en devenir.


Rejoins les Compagnons du DevOps !


#DevOps #InfraAsCode #Ansible #OpenStack #OpenShift #K8S #Docker #Packer #Terraform #GitLab


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Tags
Card title

Lien du podcast

[{'term': 'DevOps', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Cloud', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'InfraAsCode', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Ansible', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'OpenStack', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'OpenShift', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'K8S', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Docker', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Packer', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Terraform', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'GitLab', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'learn', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'compagnonage', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Technology', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'News', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Tech News', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Education', 'label': None, 'scheme': 'http://www.itunes.com/'}]

Go somewhere