🤔 Quitter le cloud ou accélérer son adoption ? | Actus DevOps Novembre 2022

Durée: 89m20s

Date de sortie: 23/11/2022

🗞 Actus DevOps est ton #podcast de veille #DevOps et #Cloud mensuel.

💬 Viens discuter avec nous et rejoins gratuitement la communauté : https://www.compagnons-devops.fr



Retrouve tous les liens sur l'article de blog :

https://lydra.fr/quitter-le-cloud-ou-accelerer-son-adoption-actus-devops-novembre-2022


00:00 : Intro : Que se passe-t-il en ce moment dans le monde du DevOps ou du Cloud ?

💖 Tu peux soutenir mon travail et la communauté sur : https://liberapay.com/cchaudier


01:11 Vos messages

❓ Pose-nous une question : http://question.compagnons-devops.fr 


08:10 Python 3.11

19:28 Accélération de l'adoption cloud

35:19 Recommandation de sécurité

55:47 Pourquoi quitter le cloud ?

01:19:17 Les outils

01:26:22 Partage et abonne-toi 📩



Crédits

Les podcasteurs :

- Christophe Chaudier : consultant indépendant au sein du collectif Lydra. Animateur du podcast de la communauté des Compagnons du DevOps. professeur vacataire à Télécom Saint-Étienne et au CFAI Loire. Découvre le : https://lydra.fr/ea-3-le-podcasteur-christophe | LinkedIn : https://www.linkedin.com/in/cchaudier | Froggit : https://froggit.fr/

- Erwan Ben Soudien : DevOps chez Toucan Toco (ex Deezer, Antelink, Weborama - ex sysadmin ) - professeur vacataire à Paris XIII / IUT Creteil. Découvre le : https://lydra.fr/ea-2-le-podcasteur-erwan/ | Linkedin : https://www.linkedin.com/in/erwan-ben-souiden-8b8084152

- René Ribaud : Software Engineer chez RedHat. J'aime apprendre et transmettre des connaissances sur le logiciel libre et le DevOps. Découvre le : https://lydra.fr/ea-6-le-podcasteur-rene/ | Linkedin : https://www.linkedin.com/in/ren%C3%A9-ribaud-44145137/ | Twitter : https://twitter.com/Uggla_ | Github : https://github.com/uggla | Sa présentation : https://forum.compagnons-devops.fr/t/uggla-floss-addict-architecte-si/

- Nicolas Ledez : devops chez CGWire. Il travaille dans l'IT depuis 20 ans. Il est "Schizophréne" : adminsys et développeur suivant le moment de la journée. Il paraît que ça s'appelle "devops", même si il déteste mettre ce nom sur un poste. Découvre le : https://lydra.fr/ea-8-le-podcasteur-nicolas/ | LinkedIn : https://www.linkedin.com/in/nicolasledez | Twitter : https://twitter.com/nledez | Github : https://github.com/nledez | Le reste : https://nicolas.ledez.net



L'intro et la fin sont de :


- Baptiste Gaillet : FullStack développeur avec une tendance DevOps au Centre Scientifique et Technique du Bâtiment, Fondateur de l'association [Bed Food Coffee](https://www.bedfoodcoffee.com/) et développeur de l'application BedFoodCoffee pour aider les personnes en difficultés. Après des études dans le son et différents métiers, il a effectué une reconversion professionnelle en 2015 pour devenir développeur (Formation diplômante dans le cadre d’un CIF). LinkedIn : https://www.linkedin.com/in/baptiste-gaillet-223832b4 | Twitter : https://twitter.com/bat79a

- La musique d'intro est *"Tupac Lives"* de John Bartmann : https://pixabay.com/fr/music

- La musique de fin est *"Passport"* de Purple planet : https://www.purple-planet.com/passport


L'image est de kjpargeter : https://www.freepik.com/free-photo/concept-online-storage_918267.htm


Montage : Louna Ho https://www.linkedin.com/in/louna-ho-0656801b1/


📜 Ce contenu est sous licence libre : CC BY-SA : https://creativecommons.org/licenses/by-sa/4.0/deed.fr

Si tu utilises ces contenus dans une publication, merci de nous le notifier dans les commentaires.


🌐 Les Compagnons du DevOps est une initiative de Lydra : https://www.lydra.fr



Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Quand on commence Moisantaba, on se lance dans la première journée sans fumée.
Les premiers conseils de l'appli Taba Info Service, les premières difficultés,
et comment les surmonter, les premières économies qui s'affichent,
les premiers effets positifs sur sa santé,
et avec l'aide de l'appli Taba Info Service, le premier.
Non merci, j'ai arrêté.
Participer à Moisantaba, auparavant vos chances de devenir ex-fumeur.
Pour être aidé, téléchargez l'appli Question Taba Info Service.
Ceci est un message du ministère chargé de la santé,
de l'assurance maladie et de santé publique France.
Quand on est parents, on protège ses enfants contre le froid, les dangers,
ou même contre les chagrins.
Et contre les HPV, est-ce qu'on peut les protéger ?
Les HPV sont des virus humains appelés papilloma virus.
Ils sont responsables de plusieurs milliers de cancers chaque année.
80% des femmes et des hommes seront exposés à ces virus au cours de leur vie.
La bonne nouvelle, c'est qu'il existe une vaccination sûre et efficace
pour protéger ses enfants, les filles comme les garçons des 11 ans.
Contre les cancers de demain, c'est aujourd'hui qu'il faut agir.
Ceci est un message du ministère chargé de la santé et de l'Institut national du cancer.
Quels sont les news du cloud ou du DevOps en ce mois de novembre 2022 ?
Aujourd'hui, on va parler de Python 3.11, de l'accélération, de l'adoption du cloud,
de recommandation de sécurité et pourquoi est-ce qu'on doit quitter le cloud ?
Du coup, c'est bien de faire ça dans la même émission.
Alors, tout ça, on va le voir dans cet épisode de podcast.
Bienvenue sur Radio DevOps, la balade aux diffusions des compagnons du DevOps.
Si c'est la première fois que tu nous écoutes, abonne-toi pour ne pas rater les futurs épisodes.
C'est parti !
Bienvenue à toi, chers compagnons, dans Actu DevOps, ton émission de veille cloud DevOps mensuelle.
Et comme d'habitude, reste bien jusqu'à la fin parce qu'on t'a réservé une petite sélection d'outils.
Avec moi ce soir, j'ai pour parler d'Actu, René, bonsoir René.
J'ai aussi Erwan, bonsoir Erwan.
Bonsoir.
Et enfin, Nicolas, ça faisait un petit moment quand on n'avait pas vu Nicolas.
Bonsoir Nicolas.
Salut tout le monde.
Alors, on va commencer par la traditionnelle maintenant rubrique de courrier des auditrices et auditeurs.
Et justement, aujourd'hui, j'aimerais te lire un message de Didier.
Didier, il a laissé un message sur le blog de Lidra.
Donc, il faut savoir que chaque épisode de podcast ou vidéo qui sort à un article sur le blog de Lidra,
c'est pour ça qu'il a trouvé cet endroit-là pour nous laisser un petit message.
Il nous a laissé un message sur l'article d'Actu DevOps d'août 2022.
Alors, il nous dit salut les gars parce qu'il n'y a que des gars pour l'instant.
On espère avoir des podcastos un jour.
Bref, il nous dit salut les gars.
Merci, merci, merci pour votre travail.
Benévola, c'est une question en fait.
Il me demande si c'est un travail ou un travail Benévola qu'on fait.
Bref, 2 mètres de votre passion et de votre savoir à porter de tous.
Une petite remarque si je peux me permettre.
Récouter ce podcast et vous vous apercevrez sans doute que le niveau sonore est très inégal entre les participants,
ce qui nous oblige à batailler avec le volume pour monter ou descendre le son en fonction de qui s'exprime.
Encore merci, je vais continuer d'écouter et je peux dire que vous venez de gagner un auditeur de plus.
Eh ben, merci Didier.
Déjà, je peux te dire que notre travail il est bénévole,
même si à titre personnel, ça représente presque un mi-temps parce que je crée tout un tas de contenus.
Il n'y a pas que le podcast.
Il y a plein d'autres choses.
Il y a les live et la chaîne YouTube.
Il y a parfois les posts que je fais sur les réseaux sociaux.
Je parle aussi parfois du business model des compagnons du DevOps dans les live
où je fais ça chaque vendredi, tous les premiers vendredis de chaque mois,
en alternance avec une émission avec René qui est là avec nous aujourd'hui.
Je mets le lien de tous ces live-là en description.
Tu pourras aller voir si tu connais pas.
Alors pour le moment, le business model ça vive hôte.
Bon, j'espère que ça va décoller parce que sinon, je risque de devoir arrêter un jour
parce que à deux jours et demi par semaine, ça va plus être vivable longtemps.
Mais je travaille dessus.
Alors si tu aimes le podcast, toi, chère auditeur,
et si tu veux t'assurer qu'il continue longtemps,
le meilleur moyen c'est de pouvoir nous soutenir grâce à un don sur Libérapé.
Tu trouveras justement le lien en description.
Et j'en profite de parler de Libérapé parce que je parle souvent parce que j'aime beaucoup.
Libérapé, c'est une plateforme libre et open source de gestion de dons.
Donc c'est vachement bien.
Il y a plein de logiciels open source dessus et de créateurs
qui font des contenus libres comme nous justement.
Donc tu trouveras le lien en description.
Pour le niveau sonore, je suis désolé.
On essaie de faire notre mieux.
C'est vrai qu'on essaie d'améliorer ça.
C'est quelque chose qu'on a remarqué, mais c'est compliqué.
C'est vrai qu'on est tous à distance.
On n'a pas forcément tous le même matos.
On en parle justement.
On a un trou avec Nicolas qui a changé de micro il n'y a pas longtemps.
Mais pour le moment, on n'a pas encore vraiment trouvé le bon rapport,
tant de montage, qualité,
qui fait qu'on passe pas énormément de temps à monter les épisodes
et à faire l'édition sonore.
Bon, on essaie de trouver un truc.
Pour l'instant, ce n'est pas encore le cas.
On espère que cet épisode sera mieux.
En tout cas, merci pour ton soutien.
Si tu es nouveau et que tu nous rejoint.
J'espère que le podcast va continuer à te plaire encore longtemps.
Qu'est-ce que vous en pensez, ces petits messages d'encouragement
que je vous fais passer régulièrement ?
On va commencer par Nicolas.
Je crois que ça va manquer.
C'est pas exprimé là-dessus.
C'est super sympa.
Je vais alors moi, j'écoute les podcasts régulièrement aussi.
Il compris ce où je parle pour me remémorer un petit peu ce que j'ai raconté.
Puisque pour ceux qui ne savent pas, les épisodes sont enregistrés quand même
au moins plusieurs semaines avant.
Donc quand on vient m'en reparler, l'histoire que j'ai la mémoire
un petit peu plus fraîche,
et je l'écoute dans des conditions totalement différentes
en faisant la vaisselle, en conduisant ou en faisant du sport.
Alors moi, j'avais jamais vraiment remarqué cette différence de niveau sonore.
Pourtant, je suis assez sensible des oreilles,
mais visiblement, il y en a qui sont encore plus que moi.
Et j'ai aussi découvert ces petits messages des auditeurs.
Et je trouve que c'est super sympa.
Et comme l'a dit René, des derniers épisodes,
ça nous encourage à continuer.
Donc continuer à nous envoyer des petits messages plein d'amour,
ça nous fait plaisir.
Merci.
R1 peut-être, est-ce que ça t'évoque quelque chose ?
Ou est-ce que tu as envie de dire quelque chose ?
Non, ça fait plaisir.
Et ça donne de la force pour continuer.
Donc c'est cool.
Merci.
De la force.
René, tu nous donnes de la force ou ?
Je ne sais pas mieux à dire.
Je crois que tout a été dit.
Après, les dons sont les bienvenus aussi.
Bon, ne serait-ce que...
Je pense que pour Christophe, c'est important,
parce que tu passes effectivement beaucoup de temps.
Et donc, tu investis aussi pour cette machine.
Et voilà, un petit quelque chose, des fois, ça aide toujours.
Comme pour le logiciel.
Exactement.
Alors je précise qu'évidemment, les dons ne vont pas pouvoir payer mon salaire,
mais en tout cas vont aider à payer les infrastructures,
notamment le logiciel qu'on utilise.
Aujourd'hui, on enregistre sur Riverside FM,
qui est un logiciel payant.
On héberge le podcast sur un hébergeur payant.
On a aussi le nom de domaine d'écompagnons du DevOps.
On a le forum qui est hébergé aussi.
Tout ça, ça a des coûts.
Et moi, ce que j'espère, en tout cas, c'est que les dons et les pubs
qui sont dans le podcast ou dans la vidéo puissent au moins payer tout ça.
C'est-à-dire que j'en ai pas de ma poche.
Pour l'instant, j'en suis de ma poche, mais bon, c'est pas grave.
Du coup, tu leur as compris.
Si tu veux nous laisser un message, tu peux le faire sur le blog de Lydra.
Tu peux le faire dans les commentaires YouTube.
Tu peux le faire dans tes applications de podcast,
puisque il y a quand même quelques messages sur podcast addict.
J'en ai pas trouvé sur Apple Podcast, mais j'ai compris pourquoi je ne le voyais pas.
Parce que Apple Podcast classe les messages en fonction de l'origine.
Donc il faut passer sur tous les pays pour voir si on a des commentaires.
Super ergonomique.
Merci Apple.
Tu peux évidemment aller nous laisser un message sur le forum d'écompagnons
puisque dans chaque épisode que tu regardes sur YouTube ou que t'écoutes dans le podcast,
dans la description, il y a le lien vers le forum, puisqu'il y a un sujet à chaque émission.
Alors, René, tu vas nous parler de Python 311, n'est-ce pas ?
Oui.
Alors, une petite nouvelle dans le lien sera dans les notes du podcast,
avec tous les détails.
Je ne vais pas parler de tout ce qui change dans cette version-là,
parce qu'il y a beaucoup de choses, mais quelques changements importants à mon sens.
Je crois qu'on n'avait jamais trop parlé de Python, donc c'est l'occasion d'en parler un petit peu.
Sachant qu'il y a d'autres personnes dans le podcast qui en font pas mal, ici, de Spani Cola.
Du coup, Python 311 est sorti il y a quelques temps,
mois d'octobre, fin octobre.
C'est la version 311, comme tu l'as dit, et qu'est-ce qui a un petit peu de nouveau dans cette version-là ?
C'est déjà des améliorations de performance, parce que c'est vrai que Python n'est pas forcément le langage le plus vélo, ce qui existe.
Mais il y a quand même beaucoup de travail qui est fait sur l'interprèteur par standard, qui s'appelle Cepiton,
pour essayer de l'améliorer et qu'il soit plus performant et plus rapide.
Il y a eu pas mal de travail engagé et ça commence à payer,
avec donc là une des améliorations de performance de l'ordre de 10%,
voire plus suivant les use-cases, mais voilà, c'est donner une ordre d'idée, c'est dans les 10%.
Donc c'est toujours bon à prendre.
Qu'est-ce qu'il y a d'autres intéressants, enfin que j'ai trouvé intéressants ?
Au niveau de la gestion des exceptions, ça c'est pas mal, parce qu'avant pour gérer les exceptions,
souvent il fallait souvent les décrire une par une,
et là maintenant on va pouvoir créer des groupes autour de ces exceptions-là,
et donc faire des catégories d'erreurs par exemple,
et donc ça va permettre d'être un peu plus soupe sur la gestion des erreurs,
et ce qu'on peut faire aussi, c'est pouvoir y ararchiser un petit peu ces différents groupes entre eux,
donc ça annonce une meilleure gestion d'erreur et quelque chose de plus facile à écrire à mon avis.
Une autre chose assez importante, c'est l'introduction de la tomelle libre,
qui va permettre de sérialiser et desserréliser du fichier tomelle.
Voilà, ça c'est pas mal.
Alors il y a d'autres améliorations au niveau Async.io,
comme ça je maîtrise pas trop, je vais pas trop en parler,
des améliorations aussi au niveau des ennoms,
et ce que j'ai trouvé aussi intéressant c'est,
depuis pas si longtemps que ça, on peut typer Python maintenant,
alors c'est optionnel,
et donc on peut définir dans la signature des fonctions,
on peut définir les différents types qui sont attendus pour les paramètres,
donc ça permet de rebustifier,
et pour vérifier, voilà, prendre un outil qui s'appelle MyPy,
qui permet de vérifier si les types sont corrects,
et si les appels se font avec des bons types,
donc du coup ça permet de rendre plus robuste le code Python.
Et parmi les choses qui ont été améliorées,
c'est l'introduction du type self,
et donc le type self c'est quand on veut par exemple
se renvoyer un objet qui est soi-même,
voilà, donc ça permet de, c'est un peu du sucre syntaxique,
pour simplifier un petit peu cette gestion là,
donc après il y a pas mal d'autres choses au niveau de
justement de ce type age pour rendre les choses plus faciles,
ou du moins plus performantes,
et voilà, donc c'était, voilà,
je pense que c'était bien mentionné que depuis pas si longtemps que ça,
on peut typer Python,
et bon, moi personnellement je conseille aux gens d'éventuellement le faire,
parce que ça évite pas mal de problématiques,
et ça permet d'avoir du code qui a mon sens plus solide.
Voilà, je pense, c'est un très rapide résumé,
je vous laisse aller voir la news pour avoir plus de détails,
mais voilà, un petit aperçu de ce qui arrive avec cette nouvelle version,
et ça s'améliore de version en version, donc vivement les prochaines,
et je vous laisse réagir si vous le souhaitez.
Ouais, je vais commencer,
ça m'étonne qu'il n'y ait pas, qu'il n'y avait pas de type avant cette version-là,
j'étais persuadé qu'il y avait des types dans Python,
alors moi je ne développe pas en Python,
c'est un langage qui m'attire,
mais j'ai malheureusement plus le temps pour apprendre de nouveaux langages,
peut-être un jour, mais pour l'instant c'est pas le cas.
Mais ça me surprend beaucoup.
Tu dis qu'il y a des gains en performance,
c'est vrai que Python n'est pas connu pour être le plus veloce,
mais c'est pas non plus là où il est le plus utilisé,
c'est pas dans les trucs en réel poussé,
et c'est pas non plus celui qui est le plus utilisé pour faire des servers web,
même s'il y a beaucoup de servers web de Django,
j'ai beaucoup travaillé dans l'écosystème Django.
C'est pas forcément ça qu'on lui demande de manière globale.
Moi, le rapport que j'ai avec Python,
c'est que la plupart des outils DevOps que j'utilise aujourd'hui sont codés en Python,
ou en Go pour une partie,
mais si je parle d'enciv, il est codé en Python,
il y en a plein.
En fait, dans l'écosystème DevOps, il y a beaucoup de trucs Python,
alors toutes ces nouveautés, je pense que ça va ne faire qu'améliorer nos petits outils préférés,
comme en cible, n'est-ce pas ?
Je sais pas qui va rebondir.
Je vais rebondir.
Déjà, en réalité, il y avait déjà des types.
Là, ce que ça permet, c'est au moment où tu déclars ta fonction,
tu vas pouvoir forcer les types qu'il va y avoir en entrée,
et forcer les types qu'il y aura en sortie.
C'est un petit peu comme en Go où tu peux plus sortir du cadre,
donc ça rend ton code beaucoup plus robuste.
Alors après, je n'ai pas creusé, mais j'imagine qu'on doit pouvoir faire un petit peu de programmation fonctionnelle derrière
et avoir des méthodes qui vont avoir à peu près le même nom,
mais en fonction du type qu'on va lui donner,
qui va pouvoir avoir un comportement un petit peu différent.
Par exemple, si on envoie une liste ou un dictionnaire,
ça peut avoir un comportement différent,
dans le sens où itérer sur un dictionnaire et sur une liste,
ce n'est pas exactement la même chose,
mais ce qu'on veut à la fin, c'est itérer sur un type d'objet.
Après, moi, ça me fait marrer,
parce que quand j'ai commencé, le Python 3 était sorti relativement rapidement,
et on est restés sur Python 2 pendant une bonne dizaine d'années,
et maintenant, le rythme est en train de s'accélérer.
Ça me perturbe un petit peu de voir du typing.
La première fois que j'en ai vu,
j'ai rien compris au code pendant un petit moment,
avant de comprendre quelle était la syntaxe.
Je pense que c'est pour le bien de l'écosystème.
Après, vu tant qu'on a mis pour passer de Python 2 à Python 3,
je pense que les libys qui vont utiliser les dernières fonctionnalités,
on n'est pas près de les voir en prod.
C'est cool de voir que le langage évolue,
et je suis très content que les performances évoluent,
puisque dans ma boîte, on fait tout en Python, quasiment.
Effectivement, je fais du Python toute la journée,
y compris le soir et le week-end,
parce que j'ai quelques petits path projects en Python aussi.
Et toi, Erwin, du Python ?
Un petit peu.
Après, je ne suis pas forcément le plus assis de sur le sujet,
mais par contre, je viens de regarder un petit peu le détail des exceptionn groupes.
Et en fait, c'est trop cool,
parce que ça évite de s'arrêter à la première erreur,
de pouvoir faire un truc pas mal pour avoir un ensemble de validation.
Par exemple, qui est chaud, on a l'ensemble des soucis.
Et ça ne va pas rien que ça, je pense que ça va changer la vie
de pas mal de gens qui doivent gérer des exceptions, etc.
C'est plutôt cool.
Moi, j'allais plus rebondir sur ce que tu viens de dire.
C'est rigolo de voir qu'un moment,
il y avait quand même une belle inertie sur les nouvelles versions de Python,
et que là, ça, ça y va.
Mais c'est le signe que c'est plus populaire,
que la communauté est grosse,
que les gens s'impliquent plus, c'est tout.
C'est quand même plutôt bon signe.
Peut-être juste pour ajouter un petit truc,
parce que Nicolas a dit bien complété,
c'est que le typeage, comme il l'a dit, reste optionnel.
Donc, ce n'est pas obligatoire.
Alors, c'est à la fois, je ne sais pas si c'est une force ou une faiblesse.
Mais voilà, peut-être plus,
moi, je pense que c'est peut-être plus une faiblesse,
parce que on a tendance quand ce n'est pas obligatoire à pas le faire.
Et c'est un peu dommage.
Moi, je trouve que c'est pas mal,
parce que ça permet d'avancer progressivement.
Python, c'est aussi un langage
où tu peux faire un script ou bête qui se lit du haut vers le bas.
Tu peux faire du procédural avec des fonctions, des scopes, etc.
et tu peux faire de l'objet.
Je crois même que tu peux faire un petit peu de fonctionnel.
Alors, ce n'est pas forcément le langage le plus adapté.
Mais quand tu veux traiter des streams,
tu peux le faire.
Pour ceux qui ne connaissent pas les streams,
le principe, c'est que quand vous avez une quantité énorme de données
qui ne peuvent pas tenir au mémoire,
quand vous voulez traiter,
ce qui rentre dans le stream est traité au fil de l'eau.
On libère la mémoire au fil de l'eau.
Si vous avez plusieurs pétats à traiter,
vous pouvez le faire avec un seul programme Python
qui va gérer ce stream.
Et à la fin, vous aurez votre truc qui aura été traité
avec une consommation au mémoire assez réduite.
C'est un langage qui est très intéressant pour pas mal de trucs.
Ce n'est pas pour rien que beaucoup de scientifiques s'y intéressent.
C'est un langage qui est aussi assez facile à appréhender
et très puissant.
En fonctionnel, il y a quasiment tout.
Parce que tu as les comprehension lists,
qui sont les débuts.
Puis après, il y a toutes les fonctions MAP, Preduce, les compagnies.
C'est peut-être un peu moins élégant que des pures langages fonctionnels.
Mais c'est quand même très puissant.
Puis après, il y a pas mal de choses assez intéressantes,
les générateurs, etc.
Et des choses qui sont pas mal en piton.
Et c'est très utilisé en machine learning.
Donc pour ceux pour qui ça intéresse,
je pense que c'est vraiment ce qui a fait exploser
dans ces dernières années.
C'est que c'est beaucoup utilisé dans le domaine de l'IA.
Oui, dans le domaine de la data, de manière globale même.
Merci René pour cette news.
Et du coup, c'est moi qui me colle à la suivante.
Alors, les plus attentifs d'entre vous
ont pu remarquer que dans les projets GitLab,
un menu Google Cloud est apparu dans l'onglet Infrastructure.
Si tu as vu ma vidéo sur GitLab 15.5,
qui est une vidéo de travail et de veille,
tu as déjà une petite idée de ce qu'est Cloudseed.
GitLab veut tout simplement accélérer l'adoption du cloud
en partenariat avec Google Cloud.
Juste ça.
L'objectif est de simplifier, d'automatiser
et d'accélérer le déploiement et la configuration
des ressources Cloud pour les utilisateurs de GitLab.
La simplicité des recours, dopés par la flexibilité
et l'élasticité du cloud.
La promesse est belle.
Mais derrière la magie, la tuyauterie se base
sur Oute, 2 terraformes et bien sûr, GitLab CI.
Alors, le responsable du programme Cloudseed,
qui se nomme SriRang chez GitLab,
explique dans un billet de blogs très intéressant
comment ils ont procédé justement pour développer ça.
Ils ont d'abord commencé par sonder les besoins
avec des entrevues clients.
Ils ont alors identifié 2 des services de Google Cloud
les plus utilisés par les applications web
que sont Cloud Run et Cloud SQL.
Alors, Cloud Run, c'est quoi ?
Ça permet de créer et déployer des applications
containerisées écrite dans n'importe quelle langage.
Sur une plateforme de Cloud Managed par Google.
Et Cloud SQL, bon ben, vous devenez ce que c'est,
c'est un service de base de données relationnelle
Managed avec du mail SQL, du postgreSQL,
ou pour les plus, comment dire, masodes entre vous,
SQL Server.
Cloudseed vous permet pour le moment de générer
les services à compte, déployer dans Cloud Run
et provisionner une base de données Cloud SQL.
On peut donc avoir des environnements jetables
pour les mergers request.
Et d'ailleurs, si tu veux voir ce que c'est qu'une review app
et si tu ne sais pas ce que c'est,
j'ai fait des live coding sur le sujet.
Je te mets le lien dans les notes de l'épisode
et si tu es sur YouTube,
tu as une fiche qui va s'afficher.
Alors, pourquoi je vous en parle alors
qu'à l'évidence, Google Cloud, c'est clairement pas ma cam.
Et ben tout simplement parce que Cloudseed,
c'est un projet open source et libre
qui cherche des contributeurs.
Et je me dis que Cloudseed,
sur Sqlway ou OpenStack,
ça aurait quand même pas mal de gueule.
Donc, si ça te dit qu'on monte un petit groupe
de contributeurs pour Cloudseed, Sqlway,
alors viens en discuter sur le forum
des compagnons du DevOps, je te mets le lien en description.
Et vous trois, alors, vous en pensez quoi de cette news ?
Et je vais commencer à donner la parole par Aronée, du coup.
Alors, j'avais pas vraiment suffisant
ce nouveau produit.
Ben, je sais pas trop quoi dire en fait.
Oui, ça a l'air pas mal.
Et puis ben,
je pense que c'est aussi peut-être un bon deal pour GitLab
de pouvoir travailler, je pense avec Google.
Donc, je trouve pas ça mal.
Après, oui, ce serait génial si ça pouvait s'ouvrir
à être un peu plus agnostique.
Et puis, ce que je pourrais ajouter,
c'est peut-être aussi pour les gens,
enfin, pour certains qui sont intéressés dans ce domaine-là,
contribuer sur ce projet-là, c'est aussi peut-être se rendre visible
par vis-à-vis de GitLab.
Et ça peut parfois aussi ouvrir des poursuites de carrière.
Voilà, faut pas voir les choses.
Contribuer un projet de style plat,
ça peut, des fois, on peut finalement être opéré
peut-être par GitLab et finir par être travail pour eux.
Ou par Google.
Par Google.
Si, Nicolas, t'as pris la parole.
Dis-nous ce que tu en penses.
Alors moi, j'ai totalement découvert le truc.
J'ai pas encore totalement compris
à quoi ça servait.
Après, c'est bien que les écosystèmes
puissent interopérer les uns avec les autres
parce que ça simplifie notre boulot quand même.
Après, moi, je suis plus à vouloir
décorrer un petit peu les choses.
GitLab, je l'utilise pour tout ce qui est repository
totalement privé.
Pour de la contribution open source,
c'est quand même plus facile d'aller sur GitHub.
Donc, ne me tape pas de sucre, Christophe, s'il te plaît.
Par contre, pour tout ce qui est CI,
j'essaye toujours de faire en sorte qu'il n'y ait pas
trop d'adhérence avec le repository Git.
Que ça soit du GitLab ou du GitHub,
j'essaye de faire en sorte que,
surtout la partie CIDI,
la partie CI pour tout ce qui est build d'artefact,
que ça soit fait au plus proche du repository,
peu m'importe.
Par contre, toute la partie CIDI,
je ne fais pas confiance à ces différents providers
pour leur filer mes crédents de choses de ma prod.
Après, je suis peut-être un petit peu trop chauvin,
un petit peu trop parano, un petit peu trop je ne sais pas quoi,
mais je préfère piloter tout ça par moi-même.
Erwan, est-ce que tu prends moins de cachet que moi ?
Non, mais moi, j'aime bien aussi ce que tu dis.
J'aime bien ne pas me sentir très lié
entre là où je gère mon Merypo et ma CI-CIDI.
Et à peu près pour les mêmes raisons que toi.
Après, pour tout un tas de raisons, je comprends aussi
pourquoi ce genre d'approche existe.
C'est quand même bien pratique, quand tu n'as pas forcément
du temps, etc., de l'argent ou des ressources.
C'est quand même pratique de pouvoir faire tout ça.
Je n'avais pas suivi cette news, c'est top.
Ça a l'air d'aller dans le sens de l'histoire
où GitLab avait pas mal de partenariats.
On avait déjà parlé du truc avec CircleCIA,
c'est un peu le même délire.
On voit qu'il y a des convergences
avec tout un tas de partenaires
pour toujours automatiser plus de choses.
Là, c'est quand même top, effectivement,
d'avoir ça avec Google.
On est chevants, on aimerait avoir la même chose
sur un cloud provider français ou européen.
Mais si c'est interfacé avec CloudSeed,
a priori, il n'y a pas de raison que ça puisse pas se faire.
C'est de l'implemme, donc du temps.
Donc un peu de l'énergie, de la contribution.
Mais rien n'est possible.
Tout de façon, tout ce qui va aider
à plus d'automatisation,
ça va dans le bon sens,
même si on n'adhère pas toujours aux approches.
Il y a des providers européens qui ne sont pas français ?
Oui, c'est un proyeut.
Il y a des providers suisses, bien sûr.
Le truc, en fait, c'est que tous les quatre,
tous les quatre, c'est parce que je vois tous les trois,
tous les quatre, on est des ops.
Donc évidemment, on a un peu tous la même philosophie.
Je suis d'accord avec vous,
d'accorder le déploiement de l'outil.
Néanmoins, GeekLab,
si on se place à sa place, dans son point de vue,
c'est de fournir un outil qui fait tout
et qui couvre tout le cycle de vie des ops d'une application.
Et donc déployer une application,
c'est quelque chose qui faisait déjà avec l'agent Kubernetes.
Et là, il s'attaque au cloud,
puisque on peut déployer dans Kubernetes,
mais ça ne couvre pas tous les cas.
Il y a les cas du cloud, et là, il s'attaque au cas du cloud.
Et il veut, justement, à mon avis,
séduire les développeurs et les développeuses
ou les petites entreprises,
ou les entreprises qui n'ont pas forcément les compétences
comme les nôtres, qui peuvent se débrouiller tout seul dans le cloud,
comme des grands.
Là, ce que je sens,
c'est vraiment, quand j'ai lu la news et que je suis regardé un petit peu,
ils veulent vraiment se rapprocher de ce que fait Heroku,
ou Clevercloud en France,
avec, tu mets ton dépôt,
et puis tu pousses,
et puis pouf, ça s'occupe de tout créer pour toi,
tes ressources cloud,
et puis ton application est disponible avec une URL à la ralonge,
mais ça, c'est un autre sujet.
Et voilà.
Donc, moi, je trouve que c'est une bonne chose,
ça va accélérer les choses,
parce que Heroku est un peu,
comme on dirait, un peu en perte de vitesse.
Clevercloud, ça marche super bien.
Et donc, si on peut avoir de l'agnosticité
avec Glitlab vers d'autres pod-provider,
ce serait vraiment bien.
Bon, là, il va falloir travailler un petit peu.
C'est pour ça que je lance cette petite appelle.
Moi, j'ai un intérêt aussi avec Frogit,
puisque si mes clients,
quand ils sont sur Frogit,
ils veulent très certainement pouvoir développer
sur des pod-provider français,
parce qu'ils sont sur Frogit,
c'est quand même qu'il y a un truc.
Donc, je me dis, si la fonctionnalité arrive
chez Skylwesh et OpenStack,
qui couvrent déjà une grosse partie des pod-provider français,
on n'a d'aucasion pas,
puisqu'il y en a au moins 4 qui tournent là-dessus.
Ce serait pas mal.
Si je peux ajouter un petit peu de choses.
Ce que je trouve intéressant,
c'est que, si j'ai bien compris,
c'est qu'on se dirige vers une solution
plus ou moins de passe Open Source,
en ce parti.
Donc, ça, c'est intéressant.
Et, c'est plutôt pas mal.
Il y a d'autres sociétés,
comme Covery, qui fait déjà ça.
Qui fait un pass au-dessus de AWS,
et je crois qu'ils ont Skylwesh aussi.
Ils ont pas mal de pod-provider aussi
qu'on peut utiliser.
Tout à fait.
Je crois même...
Vas-y, Nicolas.
Je voulais rajouter de choses,
mais je vais peut-être te laisser terminer avant.
Je disais, je crois même qu'ils sont chez Open.
Je me suis pas sûr, en fait.
Mais en tout cas, Covery,
c'est un produit qui est assez prometteur
que je aimerais bien tester.
Pour compléter un petit peu,
HeroCOO a beaucoup changé depuis les débuts.
Effectivement, c'est un pass.
Mais maintenant, c'est devenu un système à plug-in
où, effectivement, tu déploies des bouts d'infrastructures
chez ton cloud provider.
J'ai HeroCOO, ils sont chez AWS, je crois.
Mais, finalement, ce qui essaye de faire GitLab avec Cloudseed,
c'est à peu près le même principe.
Oui, c'est bien qu'il y ait des alternatives à HeroCOO.
Surtout qu'ils ont peut-être moyen de se démarquer
avec une solution un petit peu moins chère,
parce que là, HeroCOO est passé en modèle totalement payant.
Il n'y a plus du tout de gratuit,
ce qui est bien aussi,
parce qu'il faut que les gens comprennent
qu'il n'y a rien de gratuit dans l'infrastructure
et que le cloud, c'est des vraies machines qui tournent,
qui consomment des ressources, qui polluent et ainsi de suite.
Donc, ce n'est pas gratuit.
Et le deuxième truc, c'est que tu insites que les gens
allaient contribuer, mais c'est développé dans quel langage
il faut quelle compétence pour contribuer.
C'est une bonne question.
Alors, il y a plusieurs choses.
Soit les gens ont des compétences en Ruby,
parce qu'il y a une partie Ruby on Rails,
puisque tout le monde le sait,
si vous ne le savez pas,
GitLab s'est développée en Ruby on Rails,
à grands désarrois et aux grands désarrois de plein de gens,
parce que ça a un impact sur les performances de GitLab,
même s'il y a quand même pas mal de choses qui sont redevopées en Go.
Donc, Ruby on Rails pour la partie
interfassage avec GitLab.
Et sinon, le gros du gros, c'est du GitLab CI.
Donc là, c'est tout ce qu'on veut en fait.
On peut mettre tout ce qu'on veut.
Et notamment, ce que j'ai vu dans le dépôt,
c'est du Bache avec une image de container,
avec de la cli Google Cloud,
et évidemment du GitLab CI pour faire tourner tout ça,
pour faire la queue.
Puisque en fait, quand tu es dans ton projet,
tu fais un include d'un fichier que tu fournis GitLab,
que tu peux toi-même utiliser,
que tu peux toi-même y développer si tu veux,
et il est interfacé avec des trucs
qui sont hébergés dans le GitLab,
notamment les services à compte et autres.
Ça, c'est le GitLab qui va aller les créer.
Donc je ne sais pas comment il se fait l'intégration,
j'imagine que c'est leur système d'intégration qui est fait,
mais pour moi, il y a du rubis et du GitLab CI,
et puis il y a aussi écharges des testeurs, je crois.
Donc là, c'est l'idée qu'il y a là derrière.
Alors par contre, je vais juste réagir sur le truc du pass.
J'ai l'impression que c'est pas encore au niveau du pass,
parce que d'après ce que j'ai vu et ce que j'ai compris,
il faut quand même fournir un docker file
ou ton image de container,
parce que Cloud Run, ça ne fait tourner qu'un container.
Donc c'est vraiment du serverless,
tu fournis un container, une image et il te le fait tourner.
C'est pour ça que je pense que ça peut s'adapter à Scalway,
parce que Scalway a à peu près les mêmes choses.
Là, il y a mais pas encore totalement disponibles,
mais ils sont en bonne voie, j'espère,
mais tout ce qui est base de données manager et container as a service,
ça y est, c'est disponible.
Et sur OpenStack, je ne sais pas si c'est disponible.
Par contre, je ne crois pas que le container as a service soit disponible,
mais il y a peut-être d'autres solutions.
Si, il y a une solution, je l'ai plus en tête,
mais si, il y a un module pour faire du container au-dessus de...
ça va me revenir, je n'ai plus le nom, mais...
Globalement, les différents providers européens
ont tous des solutions de container as a service.
L'idée, c'est ça.
Évidemment, ça reste des applications simples.
Ce n'est pas des applications avec pléthore de microservice,
des bases de données, etc.
Mais pour une grande partie des applications web,
ça peut largement suffire.
Et bien, je vous propose qu'on passe à la suite.
Et donc, toi, si tu me l'aues écoute, si tu apprécies cet épisode de podcast,
ça, jusqu'à un épisode de podcast, c'est dur à faire découvrir.
Parce que si tu ne le regardes pas sur YouTube,
tu sais que tu es dans ton application de podcast
et que tu as dû rentrer Radio Dev Ops dans ton application de podcast.
Donc, c'est important de nous faire découvrir.
Donc, prends ton épisode, tu peux le diffuser, tu l'envoies par mail,
tu prends le fichier audio.
Ce n'est peut-être pas une bonne idée.
Mais tu envoies le lien à tes collègues.
Tu peux aussi partager les postes que l'on fait sur les réseaux sociaux
pour nous aider à faire découvrir le podcast.
Puis pourquoi pas la chaîne YouTube, c'est bien aussi.
Mais elle se découvre toute seule.
Mais le podcast, c'est plus compliqué.
Et puis aussi, le truc, c'est que comme c'est un podcast libre,
tu peux en prendre des bouts,
tu peux les mettre dans tes contenus,
dans tes articles de blog, dans tes formations.
C'est diffusé en CC Baies A.
Donc, le lien de la licence est dans chaque épisode.
Il faut que tu nous crédites pour réutiliser les épisodes de podcasts.
Donc, tu crédites Radio Dev Ops.
Et puis, si tu nous envoies un petit message en disant,
« Hey, j'ai utilisé votre épisode de podcast
dans telle formation, dans telle vidéo,
ou dans tel podcast,
eh ben, ça nous fera plaisir en tout cas.
Nicolas, tu vas nous parler de sécurité, je crois.
Oui, et de principalement des passes de manière générale.
Alors, « pass » dans le sens « mot de passe »,
« phrase de passe ».
Le mot de passe, c'est quelque chose
que j'ai toujours détesté comme terme,
puisque un mot, c'est trop court
pour sécuriser une application.
Bref.
Et en fait, là, dernièrement,
il y a deux choses qui ont changé.
La première, c'est la CNI,
la MIAJOUR, ces recommandations.
Et c'est très intéressant,
parce que ce qui m'a le plus marqué,
c'est qu'ils ont enfin annoncé
que le renouvellement régulier
d'un mot de passe pour un utilisateur lambda
ça servait à rien,
et c'était même contre-productif.
Donc, dans une entreprise,
quand vous obligiez un utilisateur
à changer son mot de passe tous les deux mois
avec une complexité quand même
minimum pour que ça soit pas
Nicolas 2-3
pour un exclamation,
ne faites pas ça,
c'est pas bien comme passe.
Et si vous stockiez
les dix derniers mots de passe,
donc les utilisateurs,
au bout d'un moment, ce qu'ils font,
c'est qu'ils prennent le mot de passe,
ils changent en rajoutant un,
ils le rechange en mettant un deux,
ils le rechange en mettant un trois,
puis ils tournent jusqu'à retomber
sur le mot de passe d'origine.
Donc le mot de passe n'a pas changé,
donc la sécurité n'a pas été augmentée.
Ou alors,
pour contrer
cette méthode pour retomber
sur le même mot de passe,
on m'a empêché de changer mon mot de passe
avant quinze jours.
Donc j'avais donné un mot de passe
bidon à la IT, parce que je voulais qu'il me
redonne accès
à ma messagerie après mon retour de vacances
en me disant, c'est pas grave,
si ils ont mon mot de passe, je vais le changer dans la foulée.
Et bah non, il fallait attendre
quinze jours pour pouvoir changer mon mot de passe.
Donc arrêter de mettre
des règles, passez-moi l'expression,
mais vraiment à la con, parce que
le seul truc que vous allez réussir à faire,
c'est que vos utilisateurs
vont stocker leurs passes sur un post-it
et le mettre sous le clavier.
Et comme on a tous des ordinateurs
portables, le sous le clavier
c'est sur l'écran qui sera visite
par tous vos colleagues dans l'open space.
Donc c'est vraiment une très mauvaise idée.
Par contre,
ce qui est une bonne idée,
c'est d'expliquer à vos utilisateurs
comment construire un bon mot de passe.
Vous voyez, j'ai utilisé
des mots de passe aussi.
Donc vous avez la possibilité
d'utiliser une phrase en mettant
des mots complets qui
sont faciles à mémoriser pour vous,
mais difficiles à retrouver pour un attaquant.
Vous pouvez
reconstruire une phrase complète
en prenant les premières lettres
de chaque mot, etc.
Il y a plein de méthodes
et tout ça, c'est justement expliqué
dans la note que j'ai mis
pour l'épisode.
La mise à jour des recommandations
de McNeil.
Ils insistent bien
sur le fait que le plus gros
danger, c'est qu'on puisse
découvrir votre mot de passe.
Donc quelque chose
qui soit facile à deviner.
Ils insistent bien sur le fait
que, alors je ne sais plus
le terme, c'est la devinabilité,
un truc comme ça.
C'est le fait qu'on puisse
retrouver votre mot de passe à partir
des informations qu'on connaît
sur vous. Si on sait que votre
chien s'appelle Bernard,
on va d'abord essayer Bernard
comme passe.
Et après, il y a aussi l'anthropie
du mot de passe. Donc l'anthropie, c'est
quoi ? C'est le hasard que vous allez
mettre dans votre passe.
Parce que du coup, on va essayer
de faire du brut de force
sur votre passe.
Et plus votre mot de passe est aléatoire,
plus il sera difficile à découvrir.
Et donc, il y a
une dernière recommandation,
c'est
aussi éviter des passes
qui sont réputées comme étant
sécurisés, mais qui ont déjà
fuité une fois dans un leak
parce que, il faut savoir
que vos passes leakent très régulièrement
sur les différents sites.
Dropbox, c'est fait pirater,
Facebook, c'est fait pirater.
Et en fait, à chaque fois, les passes
sortent. Donc il y a
aussi les associations email passent,
mais on est capable de construire
des dictionnaires de passes, parce que
le QRT,
le 123456, on sait
combien de fois ils sont utilisés dans
chaque leak. Donc quand on va faire
une attaque, on va essayer en priorité
ces passes-là. Donc même un
passe qui est hyper sécurisé
avec une entropie très élevée,
avec plein de
chiffres, de caractères alphanémériques
majuscules, minuscules, caractères spéciaux,
vous pouvez même vous amuser avec
des emoji dedans, c'est une très mauvaise idée,
mais ça améliore l'entropie.
Si ce mot de pass à leaker,
vous prenez un risque
que votre
compte puisse s'attaquer
un petit peu plus tard.
Et il y a
une dernière chose, ils insistent
bien sur le fait que
les
comptes d'utilisateurs normaux,
il faut
avoir un minimum de sécurité. Par contre
les comptes à privilège
qui ne voulaient plus nous concerner
nous, ils peuvent avoir
accès sur des composants de l'infrastructure
critique, ils peuvent avoir
accès à tous les composants de gestion
d'identité, gestion des droits d'accès.
Alors là, par contre, il faut changer
les passes régulièrement, il faut rajouter
de l'authentification double facteur, etc.
pour vraiment améliorer
la sécurité d'une manière
globale. Et pour finir
sur la CNIL, ils ont rajouté un petit outil
qui permet de définir la
qualité du mot de passe.
Alors je vous avoue que je l'ai pas essayé,
mais a priori quand on rentre son passe dedans
il va vous dire si il est bien, pas bien
à quel point il peut être deviné
et ainsi de suite.
Alors ça c'était par rapport
aux recommandations de la CNIL
et il y a une deuxième nouvelle
qui arrivait, alors c'était
courant d'été. Alors
c'est très intéressant, c'est
Microsoft, Google et Apple
qui ont décidé de travailler ensemble
donc c'est quand même assez rare pour me noter
ils ont aussi travaillé
avec la Fido Alliance. Donc Fido
c'est ceux qui vous font des petites clés
pour d'autres l'authentification
double facteur, donc c'est des petites clés
comme ça pour ceux qui sont sur Youtube
pour ceux qui sont en audio, c'est
une clé que vous allez mettre dans votre machine
elle va se mettre à clignoter quand vous
connectez sur un site internet
vous mettez votre doigt sur la clé
ça va envoyer un mot de passe
qui est
à comment dire
géré en fonction de la temporalité
donc vous synchronisez votre clé
une bonne fois pour toutes
avec votre site internet
et après ça va utiliser le temps
comme étant un sel
pour générer un nouveau mot de passe
et enfin un nouveau mot de passe
une nouvelle clé d'authentification
et en fait il n'y a que cette clé
qui peut générer
une clé d'authentification pour votre site
si vous êtes parano comme moi
vous en mettez partout et comme vous êtes
parano vous mettez aussi
vous avez plusieurs clés de secours
donc là je vous ai montré ma clé de secours
qui reste chez moi dans mon coffre fort
mais j'ai aussi
deux clés, une USB A, une USB C
pour paraître à toute éventualité
mais tout ça c'est
des choses un petit peu compliquées
et donc
comme je vous l'ai disais
Apple, Google, Microsoft ont développé
avec la fidèle alliance et le W3C
W3C pour tout ce qui est standard
du web, ils ont développé
tous ensemble une nouvelle norme
pour de l'authentification
et pour faire disparaître ces fameux
passes qui sont problématiques
parce que le qui dame de la rue
ne sait pas générer un passe correct
il va le mettre
le même partout et ainsi de suite
il va le noter sur son post-it
là le principe c'est
plutôt que d'avoir une clé on a tous un téléphone
dans la poche
vous avez tous une application
sur votre périphérique
qui va être compatible
alors je vous avoue que j'ai essayé que ce midi
mais c'est impressionnant de faciliter
vous cliquez sur le site
ça vous demande votre empreinte
alors que ça soit digital
sur les Macs
ou sur les différentes tablettes
que vous avez et sur les iPhone
qui sont compatibles avec la reconnaissance
faciale ça va vous demander
de vous mettre devant et donc
c'est totalement infalsifiable
puisque vous pouvez pas vous faire passer
par notre site
tout est stocké dans les enclaves
sécurisés des différents périphériques
alors je sais pas comment on font
Google et Microsoft
mais j'imagine
qu'ils savent stocker les choses
de manière sécurisée
le seul inconvénient de tout ça
c'est que c'est compatible
à l'intérieur d'un écosystème
donc moi je suis enfermé chez Apple
dans ma jolie cache d'oreille
donc tous mes passes
se transmettent d'un périphérique à un autre
c'est génial ça marche tout seul
par contre j'ai essayé avec Google Chrome
qui est mon navigateur de tous les jours
et là par contre
ça fonctionne pas
donc je vais pas l'utiliser
parce que je préfère continuer
à utiliser mes
gestionnaires de mots de passe
qui sont bien synchronisés entre toutes mes machines
et mes
tokens d'authentification
physique
mais par contre pour les utilisateurs lambda
qui ont l'habitude de cliquer
Authentification, Facebook, Google, Twitter
je pense que ça sera un réel plus
parce que ça sera beaucoup plus sécurisé
que de s'authentifier sur un réseau social
quelconque
parce que c'est simple mais alors
qu'est ce que c'est moche
voilà je sais pas ce que t'en penses
René toi tu trouves ça intéressant
ouais bah globalement
en phase avec un peu tout ce que t'as dit
je suis totalement d'accord
avec les faits contre productifs
de certaines règles de sécurité
alors pas forcément que sur les mots de passe
mais parfois quand on veut être trop contraignant
bah on a des dérives comme tu le dis
les gens finissent pas en avoir marre
et font des choses qui sont
largement plus
négatives que
de renouveler
enfin de
mettre leur mot de passe sur un post-it
ils vont faire du
shadow-it dans certains carres
enfin bon peu importe
ça je suis totalement d'accord
moi aussi j'ai une newbieki aussi
alors c'est un des fabricants
mais qui fait le type de clé physique
que
comme tu as montré
alors pour ceux qui sont un peu de cassé
c'est un peu
ils sont pas forcément vus
mais voilà c'est une clé physique
et euh
moi je trouve que c'est très pratique
et effectivement ça rajoute pas mal de sécurité
il y a beaucoup de possibilités
et j'avoue que
j'ai manqué de temps un petit peu pour creuser tout ce qu'on peut faire avec
mais c'est assez sympa
et puis ben
ouais effectivement
le mot de passe c'est vrai que c'est quand même
c'est un peu galère donc si on arrivait
à
sortir de avoir un méthode un peu plus
efficace
ça serait vraiment super mais effectivement la grosse difficulté
c'est que c'est trouvé un standard
et que tout le monde s'accorde
dessus et que ce soit implémenté partout
mais ça c'est
malheureusement pas si évident
je vais laisser mes camarades
en dire un peu plus
je vais prendre la suite du coup
moi il y a quelque chose qui m'interpelle
j'ai une question à poser à Nicolas
est-ce que tu penses que la CNIN récupère les motes de passe
avec son outil
alors je sais pas mais du coup par défaut
je vais certainement pas mettre mes motes de passe
dedans pour vérifier à quel point
ils sont critiques
j'imagine que vu leurs positions
ils vont sûrement pas s'amuser
à faire ça et je pense que c'est
ça reste totalement du côté
du navigateur
mais personnellement je rentre jamais
mes motes de passe dans des outils
comme ça parce que je suis tellement
parano que je le fais pas
pour la petite histoire
si mes informations
leak c'est pas très gênant
puisque j'ai des adresses email
différentes
aussi sur tous les sites internet
donc il faut qu'ils réussissent
à trouver la combinaison
parfaite de l'adresse email et du passe
pour réussir à se connecter sur un site
comment général les sites sont
protégés contre les attaques
de brute force ils vont
détecter qu'une seule adresse IP
essaye de se connecter plusieurs fois avec des contes
des passes différents
je pense que je suis assez
protégé de ce côté là mais
tout le monde n'est pas aussi frappé que moi
à vouloir mettre des
emails et des passes différents
je parlais du quinname de la rue
tout à l'heure
ne serait-ce que ma compagne
elle met même mot de passe partout alors
vous imaginez bien
quand je la vois tapé
son mot de passe et elle me dit
oui non mais ça c'est ce mot de passe
j'en fais des cauchemars la nuit
et malheureusement
c'est pas la seule
ah oui c'est pas la seule
c'est pour ça que je vais conseiller à toutes les personnes
qui nous écoutent si
vous êtes du genre à utiliser un seul mot de passe
et ben utiliser ce mot de passe
sur un gestulaire de mot de passe
il y en a d'être très bien des libres
nous on utilise bitwardon mais il y a aussi
la se passe dont on a parlé dans l'épisode de podcast
sur les secrets justement
vous pouvez aller le voir
et ça vous permettra
vous rappeler d'un seul mot de passe
si vous trouvez un mot de passe qui est quand même assez compliqué
ou au moins une
phrase de passe
dont tu nous as parlé et du coup
ce gestulaire de mot de passe qui va vous permettre de générer
des mots de passe
à la volée voire
de générer des noms d'utilisateurs aussi
qui sont complètement illisibles
et je pense que
je vais commencer à faire comme toi
j'ai commencé mais je suis encore assez
frileux mais il faut que je le fasse
à avoir des adresses email
par service
surtout qu'avec la gestion des alias
email donc vous savez ce fameux email
où vous mettez un plus et vous mettez ce que vous voulez derrière
et ben ça nous permet d'avoir une infinité d'emails
avec le même email
je mets aussi la double
en tautification de partout et je commence
en avoir marre parce que à chaque fois
je dois sortir mon smartphone
mettre mon truc
pour dévier mon smartphone
puis lancer mon application
FreeoTP, puis mettre mon mot de passe FreeoTP
puis aller chercher et ça commence à devenir long
et donc je vais faire comme toi
je vais m'acheter une newbique et je vais la tester
et si ça marche
je vais en fournir à tout le monde
chez Lidra parce que
nous on force l'utilisation
des double facteurs de partout
à tout le monde donc
bon
ça y a vite un peu pénible
je dois rentrer à une double authentification
je sais pas
au moins une dizaine de fois par jour
à chaque fois je vais sur Twitter, à chaque fois je vais sur LinkedIn
à chaque fois que je vais sur le cloud provider
à chaque fois je vais sur Frogit
ah c'est horrible
voilà donc c'est vraiment bien tout ça
ça m'étonne
que je continue un petit peu
je suis un peu long
ça m'étonne qu'il n'y ait pas
de recommandations
de l'ANCI
je sais pas si c'est qu'il y en a pas eu
ou c'est qu'on n'a pas trouvé
ça m'étonne que c'est la CNIL qui le fasse
on a aussi
un côté ANSI
je pourrais les retrouver pour mettre dans les notes de l'épisode
mais
globalement ils disent tous la même chose
de toute façon
essayer de pas mettre les mêmes passes partout
utiliser des gestionnaires de mot de passe
utiliser du double facteur
pour les trucs critiques
je vais rebondir un petit peu sur ce que tu dis
sur le double facteur
moi mon malubité
je la sors très rarement
elle est configurée sur tous les trucs critiques
parce que
c'est un compte
de forum quelconque
sur
sur lequel je me suis inscrit parce que
je voulais une info sur mon drone
pendant mes vacances
c'est pas critique donc je vais sûrement pas
mettre du but double facteur là dessus
j'ai pas envie de m'embêter avec ça
par contre sur mon compte Twitter
mon compte GitLab
mon compte GitHub tout ça
je mets bien du double facteur
par contre
moi il me demande très rarement
de me réauthentifier
avec mon double facteur
parce que il te demande
de très authentifier avec ton double facteur
que quand c'est réellement important
par exemple quand tu vas te connecter
dans les options de sécurité
pour changer des trucs
quand tu vas sur un repository Git
pour aller changer des paramètres de sécurité
là il te le demande mais pour une pool merge request
là tu n'as pas besoin de toi authentifier
tu es déjà authentifié dans ton navigateur
tout à fait
c'est vrai que moi j'admiste une instance GitLab
donc dès que je passe sur l'interface
à 1000 on a bloqué
qui ne demande le mot de passe tout ça
on a plein d'outils
core business
sur lesquels on a la double authentification
là gestion des factures
tout ça là on met la double authentification
et Juan alors toi qu'est ce que t'en penses de tout ça ?
j'ai pas grand chose à rajouter
vous avez dit pas mal de points
non je pense
double
tout est fa, voilà c'est plus simple
avec un passe-forward manager
c'est déjà très bien
privilégier les passe-forward long
sans forcément
12 milliards de caractères
spéciaux mais déjà rien que
si c'est long
c'est suffisamment pénible à casser
en bruit de force
il y a tellement d'histoires
on pourrait faire un podcast
sur les contraintes de sécurité
qui poussent les gens à trouver
des feintes pour se simplifier la vie
là le
le coup
du reset du passe-forward
c'est quand même
un cas tellement
fréquent, je pense
tellement de boîtes où il s'est passé des trucs un peu chelou
là dessus
c'est hyper pénible
vraiment
j'ai eu une UBiki
je trouvais ça un peu pénible
à utiliser
parce que j'ai plus facilement mon téléphone
toujours sur moi que ma UBiki
du coup
c'est pour ça que j'ai eu un peu plus de mal
à faire le move
elle traîne dans un coin
mais non non
enfin utiliser déjà un passe-forward manager
un truc sérieux
comme ce qui a été cité
il y a vraiment plein d'alternatives
sérieuses
ça sera déjà
un très bon
un très bon début
et donc voilà
j'ai rien d'autre
à ajouter
j'ai un dernier truc
à ajouter par rapport au UBiki
double factor etc
si c'est obligatoire
pour vous connecter sur votre compte
pensez qu'un jour
vous allez perdre ce double factor
en début de semaine
mon téléphone a refusé de démarrer
et là je me suis dit comment je vais me faire
pour me connecter aux trucs
qui ont du double factor que sur ce téléphone
mes UBiki
je les utilise de plus en plus fréquemment
mais qu'est-ce qui va se passer
le jour où je vais les oublier
qu'elles vont passer à la machine à laver
parce que j'en ai deux
que j'utilise au quotidien
mais les deux sont configurés sur le compte
mais elles sont attachées sur le même porte-clé
donc elles vont passer toutes les deux
en même temps dans la machine à laver
si je les oublie que je les perds etc
c'est pas bon
donc pensez que
de votre double factor
vous devez en avoir un deuxième de secours
pour les trucs vraiment critiques
c'est bien d'avoir un backup
et bien Erwan va nous expliquer
et nous dire pourquoi est-ce qu'on devrait quitter le cloud
alors on va parler d'un article
qui a fait pas mal de débats
sur les différents réseaux
ces derniers temps
l'article
ce nom donc Why We Are Leaving The Cloud
et il est proposé par David
alors pendant si j'ai corche
Ken Mayer Hansen
qui est associé
et cité au de 37 Signals
qui est aujourd'hui plus connu
sous le nom de Bess Camp
et donc qui est aussi à la tête
de Hay
qui est un service
d'envoi de mail
de campagne de mail etc
et ce garçon est aussi
le créateur
du framework Ruby on Rails
donc
qu'on a déjà évoqué un peu plus tôt
donc dans son blog post
il explique pourquoi il quitte le cloud
et l'accroche de son article
elle est assez
elle est assez direct
et tout de suite il veut remettre les choses à plat
pour expliquer qu'ils ont une certaine connaissance
en disant
on a fait tourner notre infrastructure
sur du GCP, sur du AWS
on a utilisé de la VM
on a utilisé du Kubernetes Managed
on a
hyper bien étudié les offres
Managed, Cloud
on a fait beaucoup de R&D dessus
on a essayé beaucoup de choses
et aujourd'hui on est venu
à la conclusion
que louer des serveurs
au sens large du terme
chez un provider quelconque
pour une boîte
de taille moyenne avec une croissance
stable, ce qui est le cas
de Biscamp et de Hay
c'est pas intéressant
ça nous coûte trop cher
et donc il élabore
un petit peu son point de vue
et
si le article a beaucoup fait parler
je me pendrais votre avis après
mais c'est parce que ça frise
des fois entre le troll et le bon sens
en gros il explique qu'aujourd'hui
les solutions Cloud de façon
générale
ils trouvent que ça répond très bien
à deux cas d'usage
à deux cas principaux
qui forcément aujourd'hui ne concernent
plus
le premier c'est quand on démarre un service
qu'on va aller vivre, qu'on n'a pas une complexité
incroyable, que le trafic il est
relativement bas
il dit que
les plateformes
de Cloud Application Hosting
type HeroCook, on a évoqué
ou Render
ça fait plutôt le job parce que
c'est pas trop cher, ça permet de démarrer relativement vite
et ça marche bien
et effectivement
c'est aussi
un point qui est important
c'est aussi relativement simple à mettre en place
et il explique que le jour
où ces plateformes
c'est plus suffisant
c'est souvent un bon
problème parce que ça veut dire que le business
il
devient suffisamment conséquent pour aller
vers d'autres ambitions et donc voir plus haut
et il estime que l'autre cas
intéressant pour les Cloud Providers
c'est
des cas où on a des trafics
qui sont pas toujours prédictibles
avec de fourpics
et du coup
une activité qui demande
une certaine élasticité
le fameux est-ce que j'ai besoin de 10 serveurs
ou de 100
et sur combien de temps
comment dire, comment je les provisionne etc.
et donc du coup effectivement
pour ce genre
de solution
c'est vrai que
les Cloud Providers typiquement
des cubes manager
permettent de pas mal répondre
à ce genre de besoin sans
non plus avoir une trop grosse
complexité
et surtout ça permet de
bien gérer sa facture
parce que forcément si vous avez besoin que
de 1000 serveurs pendant 3 minutes
c'est toujours mieux
que de voir vous-même
les provisionner
ça pour pouvoir encaisser le
truc par vos propres moyens
et donc pour lui aujourd'hui
pour dans
encore une fois c'est par rapport à son contexte
il estime que
si
il reste sur le Cloud
il aurait l'impression
donc sa mon analogie elle est là-dessus
c'est de prendre une assurance habitation
contre l'étramblement de terre
alors qu'il vit pas à côté d'une faille
et donc du coup n'étant pas dans une zone à risque
il paye pour rien et il explique que
pour la boîte Hay
donc le
l'outil de campagne d'email
bah son infra
excusez-moi
son excusez-moi le chat
son infra coûte
500 000 dollars
par an et en gros il explique que
pour ce prix là
finalement il utilise juste
des grosses bases de données
des gros services
elastic surge AWS
et c'est tout
et en fait c'est là où on peut dire que c'est un peu du troll
c'est qu'il fait
la comparaison disons
mais pour 500 000 dollars
moi vous savez je peux
acheter des machines du futur
et faire tourner des trucs bien mieux
que ça
alors je schématise vachement mais c'est un peu l'idée
qui a derrière le propos
et en fait
le comment dire
à partir
à partir d'une fois du moment où il a expliqué ça
dans son article
il y a plusieurs choses
qui met en avant sur lequel
le débat peut prendre
c'est qu'en gros
il réfute qu'à partir
d'une certaine taille
gérer une infrasse sur le cloud
c'est nettement plus simple
que gérer son infrasse soi-même
donc il explique
que quand on commence à avoir pas mal d'équipe
de voir gérer
tous les droits
les flux
faire ça
en plus en infrasse de code
etc
ça peut vite devenir
un petit peu pénible à gérer
il estime aussi que
pendant très longtemps les gens ont
c'tait même leur service
avec leurs propres serveurs etc
et que ça marchait quand même bien
donc lui il estime que
comme dans ses équipes
il a des gens qui ont ses compétences
autant le faire soi-même
il remet pas mal aussi
en effet
il remet pas mal en cause
le côté comme et marketing
des tous les cloud provider
qui explique que
grâce à eux tout va être plus simple
plus rapide et qu'on peut se concentrer
sur son business
c'est alors ça je pense
qu'on est tous bien placés pour savoir
que c'est juste une autre forme de tâche
mais il y a quand même du taf là-dessus
et aussi le dernier élément
qui met un peu en avant
et qui est aussi
sujet à débat
c'est qu'il explique que
si tout le monde aussi va chez
les cloud provider et donc en particulier
si tout le monde va chez AWS
mais en fait on
casse un petit peu
le design même de ce que
le web était censé être
avec une approche décentralisée etc
vu que tout serait chez AWS
et comme aujourd'hui il y a la moitié du web
qui est chez AWS
bon bah vous voyez le truc
et donc en gros
long story short, une fois qu'il y a dit tout ça
on comprend bien que suivant les contextes de chacun
et c'est pas une question
de tout le monde doit quitter le cloud
où tout le monde doit y aller
c'est chacun fait suivant ce qui correspond
plus à son besoin
mais que lui
avec ses équipes ils ont décidé
de passer le pas et de revenir en premie
en gros parce que
ils estiment
qu'ils gagneront nettement plus
de sous
en faisant ainsi et que
ils s'enlèveront une certaine complexité
dans la gestion
de leur infra
maintenant qu'on a dit tout ça
et que ça a aussi
entre le troll
le bon sens et puis des arguments
qui sont plutôt intéressants
je voulais savoir ce que vous vous en pensiez
Nicolas est-ce que tu as
des choses sur lesquelles tu souhaiterais rebondir
sur ce sujet ?
Ouais alors déjà merci beaucoup
d'avoir résumé l'article
parce que j'avais pas pris le temps de le lire
et bah en fait
je suis plutôt d'accord avec tout ça
alors déjà effectivement
les cloud provider
vont vous promettre de vous concentrer
sur autre chose alors AWS
c'est surtout se concentrer sur la facture
mais bon c'est une autre histoire
j'ai commencé par faire le troll
donc maintenant on peut passer à la suite
mais effectivement
c'est marrant parce que DHH
je le connais plus un petit bout de temps
parce que j'ai fait du rubis
et surtout du rubis de rails pendant un temps
donc c'est une personne assez
connue dans l'écosystème
créateur de rubis de rails
sa boîte
qui la créé c'est Basecamp
donc c'est pas non plus
un petit rigolo
il a réussi à faire une boîte qui est toujours là
qui tourne toujours
donc effectivement s'il a 500 000 dollars
d'infrastructures
par an
c'est pas 3-4 VM
qui se battent en duel sur AWS
et effectivement
moi j'ai une manière
un petit peu différente
de gérer les infrastructures
et je m'écharpe
un petit peu avec certaines personnes
parce que je fais encore partie
de ceux qui
prennent des VM et installent tout à la main dessus
alors à la main entre guillemets
j'ai quand même des outils de gestion
de conf, j'ai quand même du terraform
j'automatise tout
mais c'est moi qui vais gérer les middleware
sur les différentes VM
donc si j'ai du MySQL
à faire tourner c'est moi qui vais installer
Tunnel MySQL, si j'ai du Postgre
pareil, si j'ai du Rabbit Time Queue
pareil, si j'ai du Piton, du Rubik, du machin
et donc effectivement
il faut que je sois suffisamment souple
pour connaître et maîtriser
toute la stack
là où en prenant un cloud provider
on prend du RDS et on a la base
de données que l'on veut
que l'on peut plus ou moins
ce qu'il est
et que en fonction de ce qu'on veut
moyennant
une grosse facture
à la fin du mois
là je préfère prendre des petites VM
et gérer le truc moi-même
et faire grossir la VM
en fonction de ce que j'ai besoin
et en fait le plus gros
problème que j'ai constaté sur les performances
c'est souvent des problèmes de tuning
côté client
donc il serait mieux
de payer un DBA
pour faire
la partie tuning
du moteur SQL
plutôt que de vouloir absolument
avoir quelque chose d'élastique
après je ne suis pas totalement
réfractaire au cloud non plus
parce que moi au quotidien
ça me simplifie quand même beaucoup la vie
pour créer des environnements
à la demande
pour faire grossir des VM
parce que aujourd'hui
j'ai des...
pour rappeler
j'ai une activité de salarié
mais aussi une activité de freelance
et donc j'ai à la fois
dans mon entreprise cgwire
on crée des instances à la volée
puisque chaque client a une instance
qui lui est dédiée donc on crée des instances
à la volée donc c'est du terraform
tout se fait en automatique
le jour où un client veut une instance plus grande
il nous paye
un petit peu plus cher et nous on va lui créer
une VM plus grosse, ce qui lui permet
d'avoir
de ressources à disposition
et donc du coup
on utilise bien l'élasticité
du cloud
et pour mes autres clients
ils commencent tout petit
je commence avec des startups
qui ont un besoin de juste faire tourner
leur MVP
donc on commence avec entre 3
et 6 VM parce que j'aime bien leur mettre
des environnements de staging pour qu'ils puissent tester
et après, je leur en mesure
ou la boîte grossie, on rajoute des environnements
parce qu'ils ont besoin de tester encore
plus de trucs, ils ont plus
d'étapes dans leur cycle de développement
et puis heureusement leur business
grandit donc il y a plus en plus
de charges donc on prend des VM de plus en plus
grosses et en fait
là je parle de VM depuis tout à l'heure
mais aujourd'hui tout est chez OVH
mais si un jour je me fâche avec OVH
je peux très bien aller chez Sqallway
ici j'en ai marre du cloud européen
je peux très bien aller chez AWS
il va falloir que je me fâche
sacrément avec les européens
pour aller chez AWS
mais comme c'est de la VM, je peux le faire partout
et
comme c'est de la VM que j'ai à moi-même
je peux aussi prendre
des machines en barre métal et
réinstaller en hypervisor moi-même
René m'aidera à installer
un open stack sur
mes 50 machines que j'achèterai
sur le bon coin et je me ferai un cluster
open stack
bref je pense que
faut pas oublier qu'effectivement
il y a 10 ans, il y a 20 ans
on hébergait des sites
sur des Raspberry Pi
chez nous et on peut très bien
continuer à le faire
et ça veut pas dire qu'en faisant comme ça
qu'on ait des petits rigolos qui bricolons dans notre garage
c'est juste que on a une manière
différente de gérer une infrastructure
je sais pas comment tu faisais il y a 20 ans
pour avoir des Raspberry Pi dans ton garage
mais je serais que de savoir
peut-être que tu as une info pour moi
c'était juste un gros
serveur Intel qui consommait beaucoup plus
mais c'était juste une image
oui mais je vois bien l'image
du coup j'ai pris l'appareil
je vais la garder alors
tout ce que tu dis
c'est vachement bien
mais modulo le fait que tu as les compétences
et le temps
parce que tout ça ça a un coût
humain non négligeable pour une entreprise
parce que si tu fais des choses
forcément ça va te prendre du temps
si c'est ton cloud provider qui fait des choses
forcément ça va te prendre de l'argent
au final pour toi
entreprise c'est pareil
sauf que t'as internalisé
ou pas la connaissance de ton cloud
ça peut être vraiment intéressant
pour certaines boîtes
justement d'internaliser les connaissances cloud
si ça fait partie du coeur de métier
je pense qu'une start up qui démarre
en effet comme tu l'as dit
elle va plutôt utiliser le cloud
et puis y aller
moi je trouve
qu'il y a beaucoup de choses intéressantes
dans l'article
qui je tiens à le dire est aussi un podcast
puisque j'ai vu en allant voir l'article
à la fin qu'il faisait un lien
vers un podcast donc si vous préférez écouter
en anglais vous pouvez aller écouter le podcast
ou alors écouter R1
nous raconter tout ce qu'il nous a dit
c'est très bien aussi
je me suis perdu
néanmoins
je trouve qu'il y a un truc
que nous a apporté le cloud
ou alors soit j'ai été distrait
soit je l'ai pas vu
c'est la répétabilité des environnements
et le fait de pouvoir
monter un environnement à la volée
typiquement nous on utilise le cloud comme ça
on a notre code terraforme
si on veut remonter
un nouvel environnement
on lance notre code terraforme
et ça nous pop nos VM
derrière on a notre code en cible
qui va nous provisioner
mais ça tu peux difficilement le faire si t'es pas dans le cloud
oui Nicolas
oui et non parce qu'en réalité
qui va utiliser des machines physiques directement
tu vas monter un hyperviseur
tu vas le faire du KVM
ou je sais pas quel autre technologie de virtualisation
et ça ça marche très bien
avec du terraforme
tu peux faire du packer
tu peux faire tes images qui vont tourner dans le cloud
ou sur tes machines physiques
globalement
je pense que c'est pas trop un argument
de se dire que la répétabilité
bref tu peux pas répéter
tes environnements à la volée avec du physique
oui alors dans ce cas là
je devrais préciser
le cloud public
parce que là ce dont tu parles c'est de faire un cloud privé
et donc là tu ne quittes pas le cloud
puisque tu es en plein dedans
et on revient
à ce que je disais au début
ça te prend du temps et de l'argent
oui mais à l'échelle d'une boîte
comme la sienne
s'il a 500 000€ de budget
et qu'il a les compétences en interne
il peut très bien se remonter
un cloud privé et en réalité
c'est probablement ce qu'il a fait
il a pas réinstallé
des machines en barre métal pour
installer ses stacks rubitu
il a remonté un cloud privé
d'ailleurs c'est un des
des trucs qui met à la fin de son article
c'est qu'il explique
les outils pour
ce qu'il appelle le cloud
on peut les utiliser en une
prémisse aussi
et donc du coup que la permabilité entre
les environnements
finalement elle est
assez légère
et ça rejoint ce que disait Nicolas
c'est que la façon dont il écrit le truc
tu comprends qu'il s'est fait son cluster
dans son côté et que le terraform
qui est utilisé à gauche il le réutilise
à droite
on est parfaitement d'accord que
c'est une question de masse critique
quand tu as atteint une certaine masse critique
de toute façon tu as tendance à gérer tes
propres data centers
moi j'ai des clients qui ont leurs propres
data centers et qui ont des cloud privés
et qui
envisage d'aller sur le cloud public
pour certaines applications
et pour d'autres raisons
parce qu'il y a
ce qu'on dit pas aussi c'est qu'à un moment donné
tu n'as peut-être pas forcément
la capacité de recruter des gens qui savent
faire parce qu'il y a une tension
ou ça prend du temps
donc tu vois
comme dit Zer 1 c'est toute une question
d'équilibre, nous je sais que vu notre taille
on est
4 techs chez Lidra
on va aller plutôt vers le cloud public
même si on a notre Proxmox
chez nous pour notre laboratoire
mais c'est pas pour ça qu'on va exploiter
à Proxmox de Proxmox
je vais laisser la parole à Rony
je crois qu'il s'est pas exprimé sur le sujet
on va vous dire
pas quasiment tout dit et après moi oui
il est intéressant cet article
ça c'est
un peu à contre courant et moi j'aime bien
et puis il montre 2 choses
c'est qu'effectivement
désolé pour l'expression anglaise
mais la silver bullet ou la solution
qui fait tout elle existe pas
il y a plein de manière de faire des choses
et quelque chose que j'aime bien c'est aussi de dire
que des choses qu'on faisait avant
et c'est ce qu'a dit Nicolas
elle n'était pas forcément pourrie
on a fait des choses qui étaient très bien
c'est pas parce que c'est un peu ancien
que c'est forcément mauvais
donc c'est pour ça que j'aime assez cet article
après
oui
suivant le contexte
c'est parfois plus intéressant
de sous-traiter une partie
comme je le dis pour gagner du temps
etc
je pense que vraiment
ça dépend beaucoup du contexte
de l'application de ce qu'on en fait
et
après
avoir aussi
des connaissances
et des capacités en interne
c'est pas forcément mal
dans certains cas
ouais
c'est
une non réponse
ou une non position
mais
moi j'aime bien
justement c'est pour ça que j'aime le logiciel livre
c'est la diversité des solutions
la diversité
des manières de répondre aux problématiques
et bien sûr
le cloud ça a plein d'avantage
notamment quand on a des applications variables
avec beaucoup de variabilité
ce qui était un des cas mentionnés
là effectivement c'est super bien
mais après il y a plein d'applications
qui ne nécessitent pas forcément ça
et on peut se poser la question
si c'est toujours justifié d'aller
sur du cloud
ou pas
ouais je vais bien rajouter un truc
c'est que ça va
cet article m'a fait penser
vous avez vu il n'y a pas très longtemps
aussi il y a eu pas mal de débats
autour de l'architecture de Stack Overflow
avec
ce que les gens imaginent
de l'architecture de Stack Overflow
avec des trucs
très microservice dans tous les sens
et ce qui est en fait l'architecture
de Stack Overflow alors je sais pas
à quel point c'est vrai ou quoi que ce soit
mais en gros
on voit que ça tourne sur 8 machines
avec quand même une bonne partie monolithes
et que ça fait le jaboussi
ok encore une fois
je pense qu'il faut retenir
de l'article c'est quand on fait un choix
d'aller sur le cloud, un premise ou whatever
il faut que ce soit motivé et drivé
par ses besoins et par sa projection
et non pas par
j'ai vu les copains faire
ou je suis attiré
par le truc marketing
ou alors il faut qu'on fasse
du Kubernetes pour pouvoir embaucher
pourquoi pas
ça c'est peut-être justement une des problématiques
c'est que
j'ai entendu ça
dans un podcast ou je sais plus
exactement mais il y a parfois certaines
sociétés
qui ont absolument pas pour pouvoir c'est mon besoin
de solution de ce type là
parce que leur stack marche très bien
tel qu'elle est aujourd'hui mais c'est aussi un problème
pour garder les gens etc
parce que les gens ont envie de
aussi connaître ces environnements
et du coup
c'était une problématique pour garder les gens
sur une techno qui est un peu plus légacique
et ça peut aussi être
un problème
oui mais tu peux faire des trucs modernes
en restant sur des stacks
un petit peu plus anciennes
dans le sens où
tu gardes du matériel et tu vas pas dans le cloud
par exemple
moi j'ai aidé mes clients
à recruter un nouveau DevOps
et la question c'était
pourquoi vous faites pas de Kubernetes
parce qu'on fait du nomade oui mais pourquoi
parce que c'était plus simple et ça marche
et on peut monter progressivement
le coût d'entrée pour un Kubernetes

dernièrement j'ai entendu quelques personnes
qui disaient si vous êtes pas une boîte énorme
et que vous n'avez pas absolument besoin
de Kubernetes
repartez sur des trucs simples
oui c'est super c'est sexy vous pouvez faire plein de trucs
mais est-ce que vous en avez vraiment besoin
et si vous en avez pas vraiment besoin
prenez d'autres trucs qui sont beaucoup plus simples
et alors bah oui
les sirenes du Kubernetes
pour rajouter sur son CV
c'est peut-être pas forcément les bonnes personnes à recruter
tout à fait alors je prends la parole
parce que je suis gardé à du temps
ça fait déjà une heure vingt que ce podcast a commencé
et que si vous voulez
si tu veux en savoir plus sur Kubernetes
on a fait un épisode de podcast entier dessus donc on va
parole en ce sujet
surtout qu'on aura l'occasion de reparler de Kubernetes
et on va passer à la section suivante
qui est la section des outils
et donc René je sens que tu voulais parler
mais là tu vas avoir la parole
puisque c'est toi qui nous a dégoûté
les deux outils
du podcast d'aujourd'hui
oui alors
deux outils
assez sympathiques
le premier c'est
un outil qui s'appelle
Gum
qui écrit en go
et qui vient en fait
de
je vais essayer de pas me tromper
mais je crois que c'est une boîte qui s'appelle
charm.sh
si je dis pas de bêtises
et en fait
ça c'est pas mal
donc ça s'appuie sur des librairies qui sont en go
mais ça permet de rajouter
des widgets
je sais pas si c'est un peu dur d'expliquer
mais des widgets
directement
qu'on peut directement appeler
depuis des shell scripts
donc ça permet par exemple de faire
un peu de l'interactivité
en faisant une espèce de pop-up
avec un choix multiple
et d'avoir
un widget qui permet de sélectionner
et de récupérer la sortie
pour faire quelque chose
par exemple on peut imaginer qu'on peut
récupérer
les branches qu'on a dans un
repo
et faire une petite interface
pour pouvoir sélectionner la bonne branche etc
donc il y a tout un ensemble de widgets
qui sont assez sympas
c'est assez joli
et
voilà c'est assez pratique
pour faire ce type de choses
donc j'ai pas mal aimé ce touti
je sais pas si vous connaissez
ou si vous en avez déjà eu l'usage
mais c'est un truc qui est assez sympa
si moi je connais bien
mon ancien
mon ancien partenaire
dans mon ancienne boîte
il était complètement fan de ça
parce qu'il y a Gumball
mais il y a plein d'autres
outils qui ont fait un peu
dans le même style
pour améliorer
l'expérience
de ton chel
vraiment il y a des trucs
super
oui tout à fait il y a d'autres outils
il faut que j'en garde un peu
je peux tout donner d'un coup
sinon après
et le deuxième outil
pardon c'est pas si Nicolas tu voulais rajouter
quelque chose ou Christophe
je voulais juste dire que c'était
effectivement super sympa
et pour ceux qui veulent rester sur du chel
c'est vraiment top
parce que ça rajoute plein de fonctionnalités
qui seront hyper galères à faire en bâche
et en plus c'est joli
bon après il faut aimer les couleurs psychédéliques
mais
ça ajoute une dépendance
mais c'est assez chouette
je crois qu'on avait parlé de Charme SH
dans un précédent épisode je ne sais plus
mais
ça vaudrait le coup en effet
de développer
des chels avec ça
pour améliorer l'interface utilisateur
vraiment
il y a moyen de faire des choses vraiment sympa
ça peut aussi se mettre dans les alias
pour certaines commandes
je pense que c'est
c'est plutôt pas mal
et donc
un des outils qui ont sorti
je pense que c'est parmi les plus récents
c'est un autre outil qui s'appelle VHS
et
ça c'est pas mal aussi
alors pour le coup là je n'ai pas essayé
mais
l'idée c'est à première vue
de
faire des tutos, vidéos etc
ou on peut encore...
c'est assez difficile à expliquer mais apparemment on script
en fait ce qu'on veut faire
donc par exemple je fais un echo
pour afficher
mon message sur ma command line
j'attends un moment
après je fais une autre action
et tout ça en fait
on peut rentrer ça dans un espèce de script
et en fait ce truc là va se jouer
et va être filmé et ça permet de sortir
voilà une petite vidéo
qui montre comment
l'utilisation de la CLI
comment ça fonctionne
pour illustrer, pour faire des guides etc
j'ai trouvé ça assez sympa
alors il y a plein de moyens de faire autrement
mais j'ai trouvé
le système
plutôt
futé et je pense que c'est pas mal
ça je suis turbo chaud à essayer
je viens de regarder un petit peu
le GitHub
du projet
et effectivement pour éviter
les effets des mots où on sait jamais comment
taper le truc, ou que ce soit
faire un petit gif
qui fait le truc de façon dynamique
c'est chouette
à tester
il y a un peu de ça
j'ai l'impression
j'ai pas creusé beaucoup
je peux dire des bêtises
si il y a des gens
qui ont utilisé
n'hésitez pas à commenter
j'ai vu ça
ça avait l'air très sympa
je me suis dit ça peut être sympa de le faire connaître
au début
je ne voyais pas trop comment utiliser
je suis assez adept des live coding
mais en fait
je vois l'intérêt
flagrant comme une maison
c'est quand tu développes
des documentations
en pleine documentation pour Fraguit
et que tu dois faire des animations
ça va générer des belles animations
qui sont toutes les mêmes
pour ton site documentaire
ça va être très terrible et tu vas pouvoir
versionner
le source de ta vidéo
dans ton propre dépôt
Fraguit
si tu utilises decuserus comme nous
et faire de la docas code
voire même
pourquoi pas intégrer ça dans ta ci
pour que ça te génère les vidéos
à la volée
je vais loin
il est parti
c'est marrant
dans mon projet de bouquin
j'ai automatisé les screenshots
pour chaque mise à jour
je vais regarder ça
voir si je peux pas automatiser
les output du terminal
merci René
pour ces 2 petits outils
en tout cas
on espère que
toi cher auditeur
tu vas pouvoir les utiliser
si d'ailleurs c'est des outils
à nous faire passer
tu peux nous notifier sur twitter
incudine le forum
peut-être qu'on ouvre un sujet sur le forum
avec les outils présentés dans Radio DevOps
tu l'auras compris
j'en ai parlé régulièrement
mais tu peux nous rejoindre sur le forum
de la communauté des compagnons de DevOps
c'est là où on est tous les 4
tous les podcasteurs
donc tu peux nous rejoindre et discuter
avec d'autres pros
parce qu'on est plus de 1000
j'espère qu'on va passer les 2000 l'an prochain
on discute de cloud de DevOps
et de tout un tas d'autres choses
puisqu'on a aussi ouvert
il n'y a pas si longtemps que ça
il y a moins d'un an
une section sur le développement
donc pourquoi pas venir en discuter
il suffit de t'inscrire
le lien est en description
alors mes chers co-animateurs
je vais vous laisser le mot de la fin
et
c'est le moment aussi pour vous
de dire à notre cher auditeur
ou auditrice comment est-ce qu'on vous retrouve
sur les réseaux si vous voulez être retrouvés
sur les réseaux
alors pour ne pas
que René soit surpris je vais commencer par Nicolas
du coup c'est moi qui suis surpris
ça fait plaisir
de revenir discuter avec vous
et du coup si vous voulez
discuter avec moi c'est
nledes
n-l-e-t-e-z
pour Nicolas Lodès
sur beaucoup de réseaux sociaux
Twitter, GitHub
et compagnie
et voilà est-ce que tu veux prendre la suite
oui toujours un plaisir d'échanger avec vous
je sais ce que je vais faire de la soirée
à faire de la vidéo à Scott
ça m'intrigue
moi je suis essentiellement
sur Twitter
au nom de
Labinocle avec un Y
et voilà
et j'espère que cet épisode aura plu
René je te laisse le mot de la fin
de la fin
alors comment on a explosé la timebox
je vais aller vite
j'espère que vous apprécierez cet épisode
et pour me retrouver
c'est à peu près sur tous les réseaux sociaux
et c'est Ougla avec des petites variations
donc Aroba Ougla underscore sur Twitter
par exemple
mais sur GitHub ce sera Ougla tout court
en effet on a explosé la timebox
on va s'arrêter là
moi pour me retrouver sur les réseaux sociaux
vous n'aurez aucun problème de toute façon
tous les liens sont dans la description
du podcast pour me retrouver
la balade au diffusion des compagnons du DevOps
est produite par Lydra
alors tes journées
super
tu sais dans ma classe de CE1
l'élève qui a du mal avec l'écriture
ce matin il a terminé sa dictée dans les temps
et avec une seule faute
je crois qu'il a eu le déclic
il était super fier
bah toi aussi tu dois être fier
plus que quelques jours pour vous inscrire au concours
pour devenir professeur
sur devenirenseignant.gov.fr
les concours sont désormais accessibles aux étudiants
de licence 3 qui suivront un master rémunéré
pendant 2 ans
ceci est un message du gouvernement

Les infos glanées

Je suis une fonctionnalité encore en dévelopement

Signaler une erreur

RadioDevOps

Vous avez l’envie d’en connaitre plus sur le mouvement DevOps ?

Les problématiques liées au déploiement vous titillent…

Alors, vous êtes au bon endroit !


Radio DevOps est la Baladodiffusion des Compagnons du DevOps.

Le podcast en français dédié à notre mouvement.


Nos émissions :

  • 🗞 Actus Devops : est une émission animée par des membres de la communauté des Compagnons du DevOps. Dans chaque épisode nous étudierons l’actualité Cloud et DevOps.
  • 📻 Radio DevOps : est l'émission phare animée par des membres de la communauté des Compagnons du DevOps. Dans chaque épisode nous débattrons sur un sujet de fond.
  • 🛋️️ En aparté : est une émission où je m’entretiendrai avec un invité sur le mouvement DevOps en entreprise.
  • 🎙️ En Solo : est une émission où je serai seul pour vous parler de DevOps ou de Cloud. 


📩 Si tu n’es pas déjà abonné, alors abonne-toi pour ne pas rater ces émissions.


💖 Tu peu soutenir mon travail et la communauté sur :

https://soutenir.compagnons-devops.fr/


🎓 Développe tes compétences DevOps avec un mentor : http://devops-mentor.tech/


🎁 Télécharge mon antisèche git : http://froggit.fr

💬 Si tu as envie de discuter du mouvement, le plus simple est que tu nous rejoignes dans la communauté des compagnons du DevOps : https://www.compagnons-devops.fr


❓ Pose moi une question : http://question.compagnons-devops.fr


☁️ Suis-moi sur les autres réseaux sociaux : https://mtr.bio/compagnons-devops


🌐 Les Compagnons du DevOps est une initiative de Lydra. NOTRE SITE: https://www.lydra.fr


Chez Lydra, nous nous sentons seuls entre deux Meetups ou deux conférences. Nous n’avons pas trouvé de lieu où échanger et avoir des débats en français sur le sujet qui nous passionne.


Nous avons donc décidé de créer et d’animer une communauté qui partage nos valeurs :

  • La passion de l’infrastructure as code.
  • La conviction que les logiciels libres et open sources sont émancipateurs.
  • L’envie de partager des méthodes, bonnes pratiques ou retours d’expériences.
  • L’amélioration continue fait de nous des experts en devenir.


Rejoins les Compagnons du DevOps !


#DevOps #InfraAsCode #Ansible #OpenStack #OpenShift #K8S #Docker #Packer #Terraform #GitLab


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Tags
Card title

Lien du podcast

[{'term': 'DevOps', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Cloud', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'InfraAsCode', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Ansible', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'OpenStack', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'OpenShift', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'K8S', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Docker', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Packer', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Terraform', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'GitLab', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'learn', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'compagnonage', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Technology', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'News', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Tech News', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Education', 'label': None, 'scheme': 'http://www.itunes.com/'}]

Go somewhere