🗞 M3O concurrent Open-Source à AWS ? | Actus DevOps Novembre 2021

Durée: 42m40s

Date de sortie: 24/11/2021

On va beaucoup parler de Linux dans cet épisode, mais en même temps c'est une brique essentielle du net.

💬 Viens discuter avec nous et la communauté : https://www.compagnons-devops.fr


Que se passe t'il en ce moment dans le monde du DevOps ou du Cloud ?


00:00 Intro

01:15 Linux Ubuntu LTS maintenu 10 ans

09:29 De meilleurs performances disques dans Linux

22:29 M3O propose une alternative à AWS

31:46 Outils à connaître

40:18 Rejoins-nous chez les Compagnons du DevOps


💖 Tu peux soutenir mon travail et la communauté sur : https://liberapay.com/cchaudier


Les liens sont dans notre article de blog :

https://lydra.fr/ado-14-m3o-concurrent-open-source-a-aws-actus-devops


📩 Si tu n'es pas déjà abonné, alors **abonne-toi** pour ne pas rater ces émissions.

🎁 Télécharge mon antisèche git : http://froggit.fr



---


Crédits


Les podcasteurs :

  • Christophe Chaudier : consultant indépendant au sein du collectif Lydra. Animateur du podcast de la communauté des Compagnons du DevOps. Découvre le : https://lydra.fr/ea-3-le-podcasteur-christophe - LinkedIn : https://www.linkedin.com/in/cchaudier
  • Erwan Ben Soudien : DevOps chez Toucan Toco (ex Deezer, Antelink, Weborama - ex sysadmin 🙂 ) - professeur vacataire à Paris XIII / IUT Créteil. Découvrez-le : https://lydra.fr/ea-2-le-podcasteur-erwan/ - Linkedin : https://www.linkedin.com/in/erwan-ben-souiden-8b8084152
  • René Ribaud : architecte DevOps chez CGI. Il aime apprendre et transmettre des connaissances sur le logiciel libre et le DevOps. Découvre le : https://lydra.fr/ea-6-le-podcasteur-rene/ | Linkedin : https://www.linkedin.com/in/ren%C3%A9-ribaud-44145137 | Twitter : https://twitter.com/Uggla_ | Github : https://github.com/uggla


  • L'intro et la fin sont de : Baptiste Gaillet : FullStack développeur avec une tendance DevOps au Centre Scientifique et Technique du Bâtiment. Après des études dans le son et différents métiers, il a effectué une reconversion professionnelle en 2015 pour devenir développeur (Formation diplômante dans le cadre d’un CIF). Son LinkedIn : https://www.linkedin.com/in/baptiste-gaillet-223832b4


  • La musique d'intro est *"Tupac Lives"* de John Bartmann : https://pixabay.com/fr/music
  • La musique de fin est *"Passport"* de Purple planet : https://www.purple-planet.com/passport


  • Le montage est de Claudie Dellinger : https://www.linkedin.com/in/claudie-dellinger-4b9a43184/
  • L'image est de 4Diego Gennaro : https://unsplash.com/photos/RSvJQ-IP_pk


  • Le podcast est sous licence libre : CC BY-SA : https://creativecommons.org/licenses/by-sa/4.0/deed.fr
  • Si tu utilises ces contenus dans une publication, merci de nous le notifier dans les commentaires.


---


❓ Pose-nous une question : http://question.compagnons-devops.fr

💬 Rejoins la communauté : https://www.compagnons-devops.fr



☁️ Suis-nous sur les autres réseaux sociaux :

▶️ YOUTUBE : https://youtu.be/ObmFdQCOt3k

➡️ LINKEDIN : https://linkedin.com/in/cchaudier/ & https://www.linkedin.com/company/lydrafr/

➡️ FACEBOOK : https://www.facebook.com/cchaudier

🐥 TWITTER : https://twitter.com/art_devops


🌐 Les Compagnons du DevOps est une initiative de Lydra : https://www.lydra.fr


#DevOps #Actualité #Cloud #Linux #Ubuntu #AWS



Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Qu'est-ce qui nous a interpellé dans les actualités Cloud ou DevOps en ce mois de novembre 2021 ?
C'est ce qu'on va voir dans ce nouvel épisode de Actu DevOps.
Bienvenue sur Radio DevOps, la balade aux diffusions des compagnons du DevOps.
Si c'est la première fois que tu nous écoutes, abonne-toi pour ne pas rater les futurs épisodes.
C'est parti !
Bienvenue à toi chers compagnons ! Et dans ce nouvel épisode de Actu DevOps,
qui est ton émission de veille mensuelle sur le DevOps et le Cloud, j'ai avec moi René,
bonsoir René, bonsoir Christophe et R1, bonsoir R1, bonsoir. Et je tiens à te dire que ça va
devenir une habitude mais reste bien jusqu'à la fin pour découvrir les petits outils que René
t'a dégoté. Tu vas voir, il y en a, il y en a des pas mal. Alors une petite chose aussi en discutant,
si tu apprécies le podcast, si tu es déjà un auditeur ou une auditrice de long terme, tu peux nous
aider et nous soutenir en faisant un petit don si tu es en vie sur Libérapay qui est une plateforme
de gestion de dons libres puisque c'est basé sur la logicielle libre aussi, c'est pour ça que je l'ai
choisi. Et on va commencer tout de suite par une petite news de R1. R1 va nous parler de quelque
chose dont on n'a pas parlé pourtant c'est un petit moment mais mais R1 va nous en dire un peu plus.
Alors oui, je voulais revenir sur une annonce qui a eu lieu fin septembre, une annonce faite par
Canonical, donc Canonical qui est la boîte qui est derrière Ubuntu, qui est annoncée qu'elle allait
étendre le support de ces LTS historiques. Alors pour ceux qui ne savent pas les LTS,
ce que ce sont les versions sur lesquelles le long time support est assuré. Pendant cette
période, l'éditeur va assurer une continuité des patchs de sécurité pour sa réalisation.
On parle de ESM pour Extended Security Maintenance Phase. L'idée qui était derrière cette extension
c'est qu'à la base c'était cinq ans de support à partir de la publication de la
release. Ça a été rallongé il y a quelques temps, il y a trois ans à huit ans. Et donc maintenant
c'est passé à plus de donc à dix ans. Ça signifie que les releases historiques Ubuntu 1404 et 1604
ont donc un support de sécurité jusqu'en avril 2024 et avril 2026. Donc une durée de vie qui est
quand même clairement conséquente. Au passage, les LTS plus récentes, à savoir la 1804 et la 2004,
bénéficiaient déjà de ce support de dix ans. Alors la grosse question c'est pourquoi se prendre
la tête, pourquoi Canonical se prend la tête à rajouter du support sur des trucs legacy etc qui
peuvent être vraiment pénibles en termes soft. Mais après avoir consulté tout un tas d'études
sur la gestion de l'infra, ils sont aperçus, ça peut paraître un peu coca, mais ils sont aperçus
qu'une bonne partie des coûts d'infra c'était les coûts de migration des ES. Et donc du coup
effectivement si on revient au tout début quand il y avait une durée de vie de cinq ans, forcément
changer le parc d'une infrastructure tous les cinq ans, en gros, dès qu'on a un parc vraiment
conséquent, ça peut être à la fois très coûteux, mais aussi très compliqué et surtout très long.
Et donc du coup pour permettre l'idée qui est derrière cette extension, c'est vraiment pour donner
du temps en fait aux équipes et économiser du coup aussi de l'argent pour faire les migrations de la
façon la plus sereine possible et donc du coup aussi diluer le temps de migration sur une plage
de temps plus étendu. Il est évident que c'est pas une invitation à garder une des Ubuntu 14 partout
sur votre infrastructure, mais c'est pour vous donner encore une fois une espèce de ceinture de
sécurité en plus si malheureusement vous avez encore des versions aussi vieilles que ça. Alors ça
concerne aussi bien les versions serveurs que desktop et pour finir la petite news sur un troll,
sachez que pour Windows 10 Enterprise par exemple le cycle de vie est de cinq ans. Donc je sais pas
si ça vous parle, René, est-ce que tu savais déjà que ça avait été étendu comme ça et qu'est-ce
que ça t'évoque ? Non, je savais pas forcément que c'était aussi long. Effectivement en principe
on utilise plutôt des LTS. Dans mon travail moi par contre je suis plutôt chez la concurrence,
plutôt côté Radar de CentOS, donc parce que principalement les clients utilisent plutôt ces
distributions là, après ça dépend vraiment de nos clients. Après je trouve que c'est plutôt une
bonne chose, effectivement ça laisse un peu du temps pour migrer, effectivement comme tu l'as
dit c'est peut-être pas une très bonne idée de garder des distributions aussi vieilles mais
à minima au moins il y a des pages de sécurité qui arrivent donc ça c'est plutôt une bonne chose.
Voilà, c'est un petit peu le retour que j'ai et je trouve ça plutôt bien en fait.
Et ben moi je trouve que c'est une bonne chose, après moi c'est vrai que dans mes mémoires c'était
6 ans mais comme quoi c'est 8 ans, 10 ans c'est bien. Faut savoir que chez nous on a plutôt des
nos infrastructures sont basées sur du débiant, pas sur du buntu, faudrait peut-être qu'un jour on
se pose la question d'aller sur le buntu mais côté infrastructure ça nous semble plus logique d'avoir
un système plutôt plus libre que buntu. Par contre toutes nos machines sont sur du
ubuntu, pour pas s'embêter parce qu'au buntu il y a une communauté énorme donc côté post de
travail et c'est là où on a le plus de problèmes avec les périphériques. On va pas aller se mettre
des débiants et s'embêter mais par contre on met des ubuntu et typiquement là le pc sur
lequel je registre c'est un pc que j'ai pas réinstallé depuis son achat donc il est sur une
ubuntu 18 donc ça commence à faire, j'ai pas encore migré vers la 20 et je sais pas si je vais
le faire sur la 22, peut-être que si quand même parce que 4 ans ça commence à faire mais du
coup avoir c'est pas de cela c'est bien après je sais pas si avoir une un post de travail en 14-4
ce soit une bonne chose pour nous mais l'idée est là, l'idée est là c'est qu'on puisse avoir des LTS et
pas trop s'embêter sur mettre à jour tout le temps les machines parce que qui dit mettre à jour
mettre à jour si tout se casse dessus ça peut quand même être très long comme le dit Erwan et
encore on n'est pas beaucoup chez Lidra. Et Erwan toi alors dans ta boîte comment vous faites ?
Alors nous une bonne partie est sur ubuntu 18 donc on a un peu de temps mais ce que
moi ce que je trouvais assez surprenant c'est que je sais pas s'il y a beaucoup d'éditeurs comme ça
qui étendent ce genre de support sur des trucs aussi vieux puisque généralement les gens ont plutôt
tendance à pousser à l'upgrade d'une façon plus ou moins contraignante et là du coup moi je trouve
que c'est quand même plutôt bien et donc non mais enfin je trouve que c'est des initiatives à
saluer ça j'aimerais juste pas être le gars qui doit maintenir ça parce que ça doit être quand même
pas hyper hyper funky quoi mais donc voilà. Justement je suis en train de penser ça ça doit être
une bonne nouvelle pour toutes les personnes qui gèrent des parcs de travail immenses comme je pense
aux écoles ou à l'éducation nationale toutes les administrations qui ont une quantité de parcs
immenses qui sont à priori toutes standardisées et ça ça peut être très intéressant justement de
pas migrer tous les 14 ou tous les 16 tous les 5 matins parce que j'espère que dans ce genre de cas
quand ils ont des machines ubuntu ils ont des plébous consibles pour mettre à jour tout
leur poste de travail c'est un truc je pense ça devrait être pas facile mais intéressant de
mettre en place pour les parcs machines on y pense pas souvent mais les parcs postes de travail ça
peut être mis à jour par ansible aussi. Et bien on va passer à la nous suivante et c'est René qui
s'y colle pour le coup il va nous parler de performance je crois. Ouais absolument je vais vous
parler un petit peu de nouveautés qui arrivent dans le carnel alors c'est des choses qui ont déjà
été évoquées par exemple dans un autre podcast qui est message à caractère informatique où ils
font des épisodes un peu sur le carnel et ils ont déjà parlé de ce qu'on pose en là qui se
appelle Ayo ring et en fait c'est une nouvelle façon de gérer les Ayo et les gérer de manière
à synchrone et donc en fait je m'excuse par avant je vais certainement simplifier et dire peut-être
des bêtises par rapport à ce que c'est mais c'est pour rester le plus simple possible mais voilà
donc c'est un composant qui est dans le noyau c'est un composant qui est développé par quelqu'un
qui s'appelle Jens Aksbo qui est financé par Facebook. Je profite pour faire une petite parenthèse
on est beaucoup pas aimé forcément Facebook mais il faut quand même leur reconnaître qu'ils font
des choses au niveau noyaux qui sont assez intéressants notamment le financement de cette
personne pour développer toute la couche d'un nouvel futur couche on va dire de Dio très
performante et aussi ils font des choses aussi pas mal de choses autour des cartes de management
enfin pour des projets assez intéressants au niveau baird métal bon forcément ils ont leur
intérêt mais voilà on peut quand même saluer ces efforts là voilà donc qu'est ce qui s'est passé
au niveau de Iowin ? Bah en fait ce qui est assez intéressant c'est que ce nouveau composant
donc c'est en face de développement c'est des choses qui vont nous arriver dans peut-être on va
dire un à deux ans et qui risque de pas mal révolutionner un petit peu les performances
de nos machines au niveau de l'Iowin et en fait ce qui est assez rigolo c'est que depuis quelques
mois donc c'est un composant qui est arrivé dans le noyau 5.1 et il y a eu un gros travail et c'était
assez rigolo un petit peu comme une série à suivre où il y a eu énormément d'optimisation sur ce
composant là et en gros grâce aux multiples allers-retours et au travail qui a été fait par
le par le maintenance en gros il a quasiment doublé la capacité d'Iow alors on parle de non
d'Iow par seconde et par corps donc sur un corps sur sa machine donc en faisant des tests
toujours les mêmes sur sa machine avec deux SSD en gros il est parti d'à peu près cinq millions d'Iow
avec la dernière configuration qu'il avait il a fait d'autres essais avant où il était un peu en dessous
mais avec une autre configuration et grâce à du travail logiciel ce qui est intéressant de voir
c'est qu'aujourd'hui il a à peu près à 10 millions d'Iow par seconde et par corps voilà donc
c'est un gros travail qui a qui a qui a salué l'autre aspect intéressant c'est que cette personne
là a aussi fait le logiciel qui s'appelle F.I.O qui permet de justement de faire des bends sur
niveau I.O des machines je vous encourage à regarder ce touti parce qu'il est vraiment très
intéressant permettre bien un ben chez sa machine et on a un français qui est passé aussi à un message
à caractère informatique que je connais un peu qui s'appelle Arwen Vellu qui travaille aussi en
de concert et qui lui cherche à automatiser et à scripter ses benches et aussi à les reproduire
de son côté donc c'est une personne qui travaille chez Criteo et chez Criteo ils ont aussi beaucoup
d'infrastructures baird métal donc c'est des solutions qui les intéressent et donc ce qui est
intéressant c'est qu'on a un contributeur français qui participe à cet effort là en faisant
des tests et en essayant de reproduire pour valider qu'il voit en voilà sur ses configs à lui qui
arrive à obtenir le même niveau de performance voilà à noter aussi que Arwen c'est la personne
qui co-organise le carnel RICIP qui est sur Paris une je veux dire je pense c'est le plus gros
rassemblement pour les les mainteneurs du carnel enfin dire ou les gens qui s'intéressent au carnel
sur Paris une grosse convention très intéressante voilà et concrètement qu'est ce que ça veut dire
pour nous parce que quand même j'ai beaucoup parlé qu'est ce que qu'est ce que va nous apporter
ces nouvelles aillots et ben c'est en gros des deux bien meilleures performances pour tout ce
qui est ailleux dépendant et donc ce qu'on voit c'est que les premiers logiciels qui vont
bénéficier donc dans l'eau par exemple y a post-gresse tout ce qui est base de données
y a rox db et puis ben aussi seph qui devrait bénéficier de assez rapidement de ces avancées
là donc petit à petit les logiciels vont finir par par migrer en utilisant cette couche
de qui est donnée par le par le noyau et voilà donc je pense que dans l'avenir on va avoir des
machines bien plus performantes sur l'aio et et et ça montre encore une fois qu'il y a des gains
à gaine il y a beaucoup de gains qui peuvent être gagnés en optimissant nos logiciels et voilà c'était
une news que je trouvais intéressante et vous trouverez tous les liens sur le sujet dans les notes
du podcast désolé pour ce nom non monologue je vous laisse un peu la main si vous voulez réagir
sur le sujet juste renais ce que tu peux préciser ce que c'est un aio pour les gens qui ne connaitraient
pas ça alors aio c'est une poute à out poute en gros c'est c'est quand vous veux faire une demande
d'accès à un fichier par exemple quand on va prendre des données d'un fichier ou sur le réseau
bon fait ce qu'on appelle une entrée sorti et donc on fait une demande notre application va
faire une demande au noyau au carnel avec un système call et donc le noyau lui va donc prendre
faire va va demander ensuite au device à travers la couche de driver va demander entre guillemets au
périphérique renvoie moi le bloc en question le bloc de d'entrée sorti et va le retransmettre à
l'application voilà donc c'est ça une c'est une entrée sorti je sais pas si c'est très clair mais
c'est l'idée bah écoute on demandera au jour dans les commentaires de le dire si c'est clair
bah je vais commencer vu que j'ai la parole je vais créer la priorité r1 moi je trouve que c'est une
bonne nouvelle parce que ça veut dire qu'en termes de logiciels on va accélérer en fait les
performances machines sans changer les disques durs ça c'est plutôt pas val parce que du
coup si on peut garder nos disques durs plus longtemps ne pas les renouveler trop trop rapidement
c'est bien aussi ma crainte c'est est ce qu'on va pas les les épuiser plus vite du coup vu qu'on
va écrire et lire plus rapidement dessus alors je sais rien pas forcément après ce qu'il faut
voir c'est que en gros alors ça s'applique c'est quand même des cas d'usage qui s'applique pas
forcément au desktop ou aux machines qui sont peu sollicités en aillot c'est vraiment pour des
voies là ça on va dire centaines d'aillots une par seconde jusqu'à des milliers d'aillots par
seconde il n'y a pas tellement de différence entre des aillots à synchrone et des aillots
synchrone ça commence à être intéressant quand on commence à arriver vers le million d'aillots
ou alors quand des machines très très sollicité et on sait par exemple que les bases de données
c'est énormément sollicité et là ça devient intéressant parce que ça permet de ben entre guillemets
oui avec la même machine de pouvoir encaisser beaucoup plus de charge donc ça donc c'est
effectivement les faire durer peut-être plus longtemps et aussi avoir de moins de machines
pour le même le même workload entre guillemets oui je pensais à ça je pensais aussi aux disques
réseaux qui pouvaient prendre plein d'entrée sorti enfin plein de demandes de tous les côtés ou
au genre de choses du coup ça va éviter qu'on puisse les changer tous les cinq matins je vais
laisser la parole à Juan. Moi donc du coup je découvre la news je trouve ça ouf parce que
je me rappelle encore du super levier qui a été le passage du SATA à du SSD on disait
c'est incroyable et c'est vrai que c'est incroyable ça clairement les aillots c'est
était nettement moins enfin on était qu'on pouvait encaisser nettement plus et du coup on était
beaucoup plus serein et du coup on faisait probablement un peu moins attention sur la
façon dont on géré tout ça et là se dire que juste avec du soft on peut faire donc là si
j'ai bien tout suivi on peut faire fois deux c'est quand même c'est quand même assez ouf et puis
effectivement pour je pense pas que pour le commun des mortels ça va changer grand chose mais
les gens qui font du traitement temps réel sur des volumétries incroyables etc là enfin vu
que les micros secondes est importante c'est game changer pour pour ces gens là donc c'est c'est
bon je trouve ça je trouve ça vrai vraiment vraiment ouf et et je suis surpris du coup que ça
qui est pas plus d'énergie et mis là dessus enfin peut-être je suis moi je n'en avais pas spécialement
trop entendu parler alors après je suis moins ce genre de sujet qui sont proches du kernel etc mais
mais mais ça me paraît être un levier incroyable quoi c'est justement ce à quoi j'étais en
train de penser je me dis si on peut faire ça sur les disques on pourrait en théorie faire
ça surtout la mémoire le processeur la gestion aussi comment ça s'appelle des périphériques
enfin on pourrait améliorer un petit peu tout oui c'est ça je poursais au réseau on pourrait améliorer
plein de choses et je me dis que en investissant dans le soft et proche du kernel ça pourrait être
quand même très très intéressant plutôt qu'à chaque fois aller changer des machines encore et
encore et encore peut-être tirer parti des machines qu'on a déjà pour encore une décennie
supplémentaire je parle des machines en data center et même local pourquoi pas je voulais juste
apporter peut-être un tout petit bémol faut faire attention parce que ça reste du benchmark donc
les benchmarks sont très bons après les benchmarks ne sont pas toujours représentatives de tous
les cas d'utilisation c'est sûr que c'est intéressant c'est certainement une très bonne
progression attention ce n'est pas forcément un foie d'eux sur toutes les aillots c'est déjà
faut déjà avoir le sous système 10 qui est capable de fournir toutes ces aillots voilà mais
effectivement pour les gens qui font du adou par exemple je pense que ça va être assez intéressant
bien sûr il faut aussi que les logiciels s'adaptent pour utiliser cette couche logicielle là parce que
jusqu'à maintenant j'en ai pas parlé je me permet de rajouter ce petit truc il y avait une couche
qui s'appelait async un driver qui s'appelait async aillot et donc c'est peut-être des choses
que les gens ont pu manipuler si on installait de l'oracle parce que rake pouvait utiliser ça par
exemple et en fait ça c'est c'est une ancienne méthode et aillot ring en fait c'est le renouveau
un petit peu de cette couche logicielle là qui est pour tout un tas de raisons n'était pas suffisamment
performant donc voilà c'est un renouveau avec beaucoup de meilleures algorithmes certainement
une méthode meilleur l'autre avantage c'est que ça plaît beaucoup à linux à linux par
non donc ça va ça risque de rentrer assez vite dans le noyau voilà donc c'est un plus c'est sûr
après voilà ça peut peut-être pas pareil on peut pas généraliser à tous les composants logiciels
là il y avait effectivement un manque ou des un certain des défauts sur cet aspect là c'est
peut-être pas vrai pour la probablement pas vrai pour la gestion mémoire etc voilà il y a des
choses qui sont déjà très optimisés dans le noyau juste pour voilà petit bémol pour dire qu'on
peut pas forcément gagner partout mais en l'occurrence là sur sur les aillots l'avenir risque
d'être assez prometteur pour pour linux parce que ça risque d'être une avancée assez majeure
justement l'avenir nous le dira et en plus on a parlé beaucoup de logiciels libres on continuera
avec manu mais avant ça puisqu'on parle de libre je permets à rappeler à notre auditeur qui
nous écoute que ce podcast il est en cc baï essa qui est une licence libre de contenu et donc si tu
veux cher auditeur tu peux prendre le podcast le découper le partager prendre des petits boules
le mettre dans tes présentations etc si tenter que tu nous notifie et que tu mets la source évidemment
dans chaque production dans laquelle tu inclus ton podcast un autre podcast du coup la prochaine
news c'est la mienne et moi je vais vous parler de m3 alors m3 o c'est un service qui propose
en fait une alternative open source à amazon web services en fait il nous promet des micro api pour
les usages du quotidien alors les caractéristiques qui sont mises en avant sont une expérience
développeur qui est la priorité de m3 o un jeton unique pour accéder à toutes les api on va en
parler plus plus plus longuement des api une rapidité à le prendre en main parce que toutes les api
proposent une expérience unique avec une url très simple qui est api point m3 o point com slash
v1 slash service slash end point donc c'est plutôt cohérent un paiement à la demande c'est à dire on
va payer à chaque fois qu'on fait une demande à une api et il y a même une cli bon le parti prix en
fait il est simple dans m3 o c'est il n'y a pas d'infra c'est basé sur des services que la application
consomme et il y a déjà plus de 35 services et on peut citer pel mêle la gestion du cache les
bases de données l'hébergement de fichiers les fonctions à ce service les emails les sms la
gestion des images la gestion de l'identification les mots de passe à usage unique etc etc en gros
c'est du ass à pays à ce service comme je l'ai appelé ce service là il est proposé par micro
service y nc la bien nommée société londonienne qui nous propose une tarification transparente
parce que à la requête c'est à dire chaque requête qu'on va faire on va payer pour chaque requête
d'apii qu'on va consommer alors ce que j'ai pas trouvé et pourtant j'ai cherché j'ai épluché les
conditions générales l'éman sur les gars les autres c'est où est ce que c'est héberger à part
que la société londonienne je sais pas trop où c'est héberger bon alors qu'est ce qu'il y a sous
le capot et pourquoi j'ai parlé d'open source tout à l'heure parce que là je viens de vous parler
d'un service en ligne et ben en fait ce service en ligne là il est basé sur le logiciel micro et
ces services micro il est c'est une base qui est codée en go désolé redesser pas du russe mais
c'est du go on peut l'installer soit avec le binaire vient un conteneur ou même avec une
charte elme dans coubernet ease il ya plein de projets annexes donc je vais pas rentrer dans les
détails vous pouvez utiliser tout ça pour faire votre propre service aussi mais pourquoi je vous
l'a en parler parce que ou de le fait que c'est pas vraiment une alternative amazon web services
c'est par contre une nouvelle manière de penser les applications pour moi qu'on voit émerger
depuis pas mal de temps et d'après ce que j'ai compris il prône plutôt les applications
avec un front statique une application statique qui va consommer une multitude d'applics il faut
référence souvent à la jam stack donc ça je vous renvoie vers les liens du podcast et tous les
autres modèles de développement dit moderne tous les autres c'est que du note js là dedans ou du
javascript puisque il ya très peu d'appel au serveur je vais pas rentrer dans les détails mais
pour le coup on est vraiment dans le monde des microservice et je vous renvoie à l'épisode de
podcast qu'on a fait sur les microservice et donc je voulais vous en parler et savoir ce que ça vous
évoquait cette news cette cette news là et on va donner la parole à erwin je voulais pas couper
la parole et en fait ça a l'air très ambitieux et j'ai l'impression que c'est aussi un peu dans
la mouvance de tous ces services qui se pop pour où en gros ça abstrait vraiment tout et effectivement
tout est dispo via des api alors le bon fin franchement on envoie de plus en plus des des
des projets comme ça là par contre c'est ce qui ce qui je pense en dénote c'est la quantité de
services justement que ça propose par rapport à ce que en tout cas moi j'ai pu voir un côté
je moi je sais pas je reste pas sceptique mais je me demande toujours qui utilise vraiment ça à des
grandes échelles c'est peut-être très naïf il y a peut-être plein de champs mais je sais j'ai moi
j'ai pas assez de recul sur sur ce sur ce genre d'usage mais mais toi tu as tu as eu l'occasion de
tester enfin je veux dire où tu t'es dit tiens ça pourrait mettre utile pour tel ou tel sujet
quand tu dis toi tu parles de moi
oui oui en fait breur 1 le micro est coupé
je disais oui enfin toi christophe pardon ou renais si vous avez utilisé ce genre de services
vas-y renais je finirai à la fin alors moi non je ne connaissais pas je ne sais pas utiliser
sur service par contre nous on utilise local stack donc je sais pas si vous connaissez c'est un projet
pareil une source et local stack l'idée c'est de faire c'est donc c'est des c'est complètement
alors c'est des API complètement compatible ou du moins très compatible avec AWS et l'avantage
de cet outil là c'est pouvoir développer quasi comme avec AWS en étant local et donc pas à se
prendre les coups AWS pour la mise au point donc voilà je connaissais local stack et donc
non je connaissais pas l'outil donc Christophe parle ça a l'air intéressant à regarder en
détails parce que effectivement un des problèmes de local stack c'est que comme je disais c'est
quasi enfin voilà la compatibilité est pas mal mais il n'y a pas tous les services nous on l'a
utilisé par exemple pour tout ce qui est lambda et oui il y a des petits manques des petites
choses qui sont pas tout à fait exactement comme c'est AWS mais bon ça permet quand même de bien
défricher avant de passer on va dire plus à la réalité avec une en allant apprécier AWS
voilà Christophe je te laisse la main. Oui alors quand j'ai découvert ça avant de rentrer dans
le détail je me suis ah ouais super un autre un autre logiciel de gestion de data center libre
comme open stack mais pas du tout en fait c'est une autre philosophie qui est là derrière c'est
il s'appuie sur des briques manager comme on a vu ça peut aller sur du Kubernetes manager donc du
coup il s'appuie sur ce genre de choses qui est déjà disponible dans plein de data center et par
contre ils offrent une couche d'attraction d'abstraction supplémentaire qui n'est pas du tout
compatible Amazon Web Services mais qui offre une expérience développeur d'après ce que j'ai compris
beaucoup plus facile et moi je pense que ça t'adresse vraiment au développeur pour le coup et en
plus on peut développer nos propres API et les inclurent dans les services micro parce que en fait
micro l'organisation micro a plein de dépôts github et en fait il y a plein de services et on
peut créer nos propres services les lancer en fait dans l'infrastructure micro puisque micro
est une sorte de métat gestionnaire d'API et puis à l'intérieur on va lancer des morceaux d'API et
puis on peut imaginer tout ce qu'on veut j'ai vu des API qui permettent de faire de la géolocalisation
j'imagine qu'il peut y avoir des API qui permettent de récupérer le temps enfin à chaque cas on peut
développer son API et donc du coup ce que moi j'y vois c'est des API déportés qui sont peut-être
mutualisés avec d'autres applications et par contre des applications très légères puisque
elles sont hébergées sur du stockage objet du coup puisque c'est du statique stockage objet et puis
peu de serveurs moi je pense que c'est très bien pour démarrer des petites applications ou des
applications assez légères mais dès qu'on va aller sur du truc un peu spécifique ou un peu un peu
costaud je sais je vais pas prendre d'exemple parce que sinon je citerai un dégoreau mais sur
quand on a des cas un peu spécifique je pense qu'on pourra pas aller dans ce cas là mais par
contre ça peut peut-être aider plein d'applications à se développer en tout cas j'ai trouvé le
truc assez intéressant et assez pensé et mature pour être une vraie alternative et une autre
manière d'envisager le développement des applications c'est pour ça je me suis dit on va
essayer de plaire aux développeuses et développeurs qui nous écoutent parce que je sais qu'il y en a
je viens de regarder vite fait en parallèle du coup le détail mais ça fait le... ça fait tout
je sais pas c'est fou il y a vraiment un scope qui est hyper large c'est vraiment très ambitieux
oui puis on peut l'héberger soi-même c'est ça qui est bien aussi et je suis presque sûr qu'un
jour on aura une API qui fait le café et ça ce sera pas mal bon trèfle de plaisanteries on va
passer au passage que tout le monde attend que notre cher auditeur attend avec impatience ce sont
les petits outils à renais puisque ça y est renais tu vas bientôt avoir ta comment dire ta
rubrique à toi donc renais je t'en prie je te laisse la parole merci ouais alors comme d'habitude
j'ai essayé de dénicher des petits outils sympas mais là pour le coup c'est des outils je pense
qui sont enfin pour le moins le premier dont je vais parler je pense qu'il est bien connu aujourd'hui
mais je voulais quand même quand même le mentionner parce que pour ceux qui le connaissent pas c'est
un peu dommage c'est rib grep en fait donc c'est des outils qui sont proposés par un auteur qui
est dont le pseudo est bern sushi derrière c'est un monsieur qui s'appelle andrew gallant qui est
très active dans la communauté rust alors oui c'est des outils en rust je suis ça de manière
assez voilà c'est mon dada et en fait c'est donc un grep une alternative à grep mais le gros
avantage si vous si vous l'avez jamais essayé c'est qu'il est extrêmement rapide mais déjà
grep c'est rapide mais rib grep fait du récursif par défaut et c'est vraiment bluffant la rapidité
à laquelle il va trouver la chaîne de caractère vous cherchez dans un ensemble de fichiers c'est
vraiment bluffant c'est très très optimisé la ligne de commande ressemble est quasi calqué
sur le grep initial donc il n'y a pas un effort de très très important pour pour se familiariser
entre guillemets avec ces outils là et moi personnellement par exemple je commence à avoir
pour un de mes clients j'ai commencé à avoir une infrastructure à squad assez importante et
voilà je fais beaucoup de rig grep de nom pour pour retrouver ma des chaînes voilà je fais même
plus des fois l'effort de me rappeler dans quelle fichier c'est voilà je me mets à la racine du
projet je mets un coup de grep et je finis par trouver où c'est exactement voilà je vais déjà vous
laisser la main pour savoir si vous connaissiez si vous utilisez alors moi je je connaissais pas mais
c'est enfin je vu ce que ce que tu en dis si ça supporte aussi bien les les reggaebes etc que
ce qu'on peut faire avec avec le grep c'est vrai que c'est pas mal mais je ça me fait penser
juste à un truc idiot mais moi je vois j'ai joué beaucoup de gens faire des espèces de grep
récursif dans leur dans leur ripot et github alors que guide grep ça marche très bien aussi et
pareil l'efficacité est nettement nettement supérieur aux grep normal mais en tout cas ça c'est cool
je me suis mis le bookmark dessus je vais regarder merci et moi je ne connaissais pas non plus et
je suis sur sur la l'orhythmie du dépôt github et si les si les temps qui sont annoncé sont vrais
c'est en effet très très rapide et ça permet d'aller beaucoup plus vite alors je vais essayer
parce que gagner du temps là dessus sur des grep c'est quand même vachement bien parce qu'on fout
des grep de partout mine de rien en attendant ça l'oublie mais dès qu'on cote du bâche on met
des grep un peu partout donc si on peut gagner quelques millisecondes quelques secondes ça peut
être pas mal fallu c'est plutôt des millisecondes ou des centaines de centaines de secondes je sais
pas si ça dit alors après tu le vois comme voilà c'est un outil qui va utilise beaucoup le parallèle
et etc donc quand il tourne en voilà il sollicite la machine c'est pas un truc qui est à nos dents
voilà ça va quand même mettre un bon coup de pression sur sur les cpu de disque c'est aussi
assez intelligent parce que par défaut par exemple si vous avez un point githignore il va il va pas aller
chercher dans les fichiers qui sont censés être ignorés voilà donc il a des comportements par
défaut un peu un peu futé voilà donc je vous encourage à vraiment essayer parce que c'est vraiment
un super outil et dans le bon dans un prochain épisode je vous parlez aussi peut-être de fd et
là le deuxième outil qui est proposé par le le même auteur c'est xsv donc xsv si vous avez à
faire de la manipulation de fichiers csv voilà pareil c'est donc depuis un shell command line on
peut faire tout un tas de choses sur sur un fichier csv le retri et voilà il y a une possibilité je
vous engage à aller lire la page le rythmie de l'outil c'est très très riche on peut faire
énormément de choses et aussi de la même manière c'est extrêmement rapide voilà donc il y a peu
de temps j'ai eu un peu à manipuler du faire quelques manipulations sur du csv et voilà c'est
franchement ça marche super bien voilà deuxième outil assez assez sympathique oui puis je vois
il peut présenter ça sous forme de table c'est c'est quand même vachement pratique je trouve
tu peux afficher directement ton csv dans ton terminal sans que ce soit imbitable
ouais ouais ouais il fait du formatage il fait fait énormément de choses et la liste est écolloçale
c'est le gq du csv c'est ouais c'est le dq du csv ouais c'est ça parce que on peut faire des requêtes
du coup il faut faire que j'aille tester ça alors ouais ouais testé ça ouais je je je alors très
honnêtement je mène je je je maîtrise pas tout ce qui est tout ce qui est toutes les possibilités
mais moi j'ai fait des choses assez basiques mais il y a moyen de voilà de de s'affranchir par exemple
de ne pas utiliser du panda pour en piton pour pour faire un peu d'une manipuler du csv et d'utiliser
ça ça marche très très bien alors pas pendant pas pour faire peut-être du machine learning des choses
comme ça mais mais pour des usages un peu plus basiques comme j'ai eu à faire voilà c'était
c'était vraiment très efficace et puis je vais vous parler du dernier bonus alors c'est pas un outil
c'est un site un site qui a beaucoup d'étoiles sur github je pense que j'en ai peut-être déjà
parlé mais je vais quand même en reparler ça s'appelle the art of command line et c'est un site
qui ressentent énormément de d'astuce mais pas que en fait il y a des one liner il ya il ya des bonnes
pratiques pour pour le shell en fait et donc pour moi c'est vraiment une page de de référence et
donc bon forcément on mettra le lien dans dans les notes de l'épisode mais voilà je pense que
il ya plein de choses à découvrir sur sur cette page et donc de la même manière aller jeter un oeil
je pense que que enfin je pense que n'importe qui à apprendre un petit peu de vos trois astuces
qui sont sur cette page c'est qu'il y a vraiment des choses très très intéressants moi je connaissais
effectivement the art of command line et ce que je trouve très bien c'est que c'est c'est absolument
pas prétentieux les sujets sont très très variés et il ya plein plein de d'astuce des fois peut-être
un peu à la con qui sont quand même sympa je ne sais pas il ya des conf de base pour pour son
son client ssh par exemple pour optimiser un petit peu le truc c'est des trucs débiles mais du
coup rajouter ça dans votre notre ssh config et ça se sera ça coûte pas cher et c'est bien et il ya
des one liner qui ou cette genre de truc où typiquement on se dit à la tien en fait pourquoi
pourquoi je faisais pas ça comme ça avant et franchement c'est hyper bien fait moi je trouve
pas je me rends compte que j'avais mis le le le star sur sur github donc effectivement
nous souvent je connaissais mais en plus je plus soit beaucoup j'avais aussi mis une étoile sur le
dépôt et je pense que je vais aller le relire pour en parler dans mes live coding puisque comme je
fais beaucoup de live coding en bas ce serait bien d'en parler quand même de rien et de trouver des
cas d'usage dans les live coding comme j'ai beaucoup de cas de usage parfois ça permettra de
trouver ça et de le mettre en pratique pour les personnes qui nous suivent justement et ben
merci à vous deux pour cet épisode qui était un petit peu plus court que d'habitude parce qu'on
est que trois et avant de vous laisser le mot de la fin je vais rappeler quand même à notre
auditeur ou notre auditrice qui nous écoute que il peut venir discuter de cet épisode voir d'autres
choses sur le forum des compagnons du dévops le forum des compagnons du dévops c'est la base de
la communauté des compagnons et le lien est en description c'est le premier lien en description
pour s'inscrire et je vais laisser notre petit mot de la fin et le premier à r1 et ben toujours
un plaisir de d'échanger avec vous et en plus là j'ai appris plein de trucs donc top merci à vous
et enfin renais du coup c'est toi quel mot de la fin de la fin et ben moi je vous comment de la
spio ring il ya beaucoup de choses à dire donc j'essaie de détraper concis et je vous engage vraiment
aller voir ce qui se passe au niveau noyau parce que souvent c'est de là que viennent les plus grosses
révolutions de la formatique donc je pense que c'est vraiment intéressant de voir ce qui
se passe notamment par exemple parler de docker et docker bah c'est avant tout une mise en une
facilitation de mécanisme qui était déjà dans le noyau donc voilà je trouve que c'est c'est
important de voir un peu de suivre un peu ce qui se passe dans ce milieu là surtout ben si ça
vous intéresse et donc n'hésitez pas à aller voir plus en détail vous ne serez pas déçu et j'espère
que en tout cas vous suivrez ce conseil et que vous appréciez cet épisode et je vous dis à la prochaine
fois merci d'avoir écouté radio dévops n'oublie pas de noter l'épisode plus la note sera élevée et
plus sera mis en avant dans les applications tu peux aussi le partager ça nous aidera le diffuser
et à rendre le mouvement plus visible si tu as envie de discuter du mouvement alors rejoins
nous dans la communauté des compagnons du dévops à bientôt la baladeau diffusion des compagnons du
dévops est produit par l'hydra

Les infos glanées

Je suis une fonctionnalité encore en dévelopement

Signaler une erreur

RadioDevOps

Vous avez l’envie d’en connaitre plus sur le mouvement DevOps ?

Les problématiques liées au déploiement vous titillent…

Alors, vous êtes au bon endroit !


Radio DevOps est la Baladodiffusion des Compagnons du DevOps.

Le podcast en français dédié à notre mouvement.


Nos émissions :

  • 🗞 Actus Devops : est une émission animée par des membres de la communauté des Compagnons du DevOps. Dans chaque épisode nous étudierons l’actualité Cloud et DevOps.
  • 📻 Radio DevOps : est l'émission phare animée par des membres de la communauté des Compagnons du DevOps. Dans chaque épisode nous débattrons sur un sujet de fond.
  • 🛋️️ En aparté : est une émission où je m’entretiendrai avec un invité sur le mouvement DevOps en entreprise.
  • 🎙️ En Solo : est une émission où je serai seul pour vous parler de DevOps ou de Cloud. 


📩 Si tu n’es pas déjà abonné, alors abonne-toi pour ne pas rater ces émissions.


💖 Tu peu soutenir mon travail et la communauté sur :

https://soutenir.compagnons-devops.fr/


🎓 Développe tes compétences DevOps avec un mentor : http://devops-mentor.tech/


🎁 Télécharge mon antisèche git : http://froggit.fr

💬 Si tu as envie de discuter du mouvement, le plus simple est que tu nous rejoignes dans la communauté des compagnons du DevOps : https://www.compagnons-devops.fr


❓ Pose moi une question : http://question.compagnons-devops.fr


☁️ Suis-moi sur les autres réseaux sociaux : https://mtr.bio/compagnons-devops


🌐 Les Compagnons du DevOps est une initiative de Lydra. NOTRE SITE: https://www.lydra.fr


Chez Lydra, nous nous sentons seuls entre deux Meetups ou deux conférences. Nous n’avons pas trouvé de lieu où échanger et avoir des débats en français sur le sujet qui nous passionne.


Nous avons donc décidé de créer et d’animer une communauté qui partage nos valeurs :

  • La passion de l’infrastructure as code.
  • La conviction que les logiciels libres et open sources sont émancipateurs.
  • L’envie de partager des méthodes, bonnes pratiques ou retours d’expériences.
  • L’amélioration continue fait de nous des experts en devenir.


Rejoins les Compagnons du DevOps !


#DevOps #InfraAsCode #Ansible #OpenStack #OpenShift #K8S #Docker #Packer #Terraform #GitLab


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Tags
Card title

Lien du podcast

[{'term': 'DevOps', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Cloud', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'InfraAsCode', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Ansible', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'OpenStack', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'OpenShift', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'K8S', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Docker', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Packer', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Terraform', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'GitLab', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'learn', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'compagnonage', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Technology', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'News', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Tech News', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Education', 'label': None, 'scheme': 'http://www.itunes.com/'}]

Go somewhere