🌳 Le cloud et l'écologie | Actus DevOps mai 2022

Durée: 69m3s

Date de sortie: 25/05/2022

🗞 Actus DevOps est ton podcast de veille #DevOps et #Cloud mensuelle.

💬 Viens discuter avec nous et la communauté : https://www.compagnons-devops.fr


Retrouve tous les liens sur l'article de blog : https://lydra.fr/le-cloud-ele-cloud-et-lecologie-actus-devops-mai-2022/


00:00 Que se passe-t-il en ce moment dans le monde du DevOps ou du Cloud ?

💖 Tu peux soutenir mon travail et la communauté sur : https://liberapay.com/cchaudier


01:34 Retour sur la très grosse panne d'Atlassian

18:05 Mesure d'impact environnemental sur le Cloud via une API libre

31:44 Ordinateur quantique dans le cloud

40:18 Pyscript Python dans le navigateur

51:19 Les outils

01:07:54 Rejoins les Compagnons du DevOps

https://www.compagnons-devops.fr


📩 Si tu n'es pas déjà abonné, alors abonne-toi pour ne pas rater ces émissions.


Bienvenue, chez les compagnons sur Radio DevOps. La Baladodiffusion des Compagnons du DevOps. Le podcast en français dédié à notre mouvement.

Nos émissions :


  • 🗞 Actus Devops : est une émission animée par des membres de la communauté des Compagnons du DevOps. Dans chaque épisode nous étudierons l’actualité Cloud et DevOps.
  • 📻 Radio DevOps : est l'émission phare animée par des membres de la communauté des Compagnons du DevOps. Dans chaque épisode nous débattrons sur un sujet de fond.
  • 🛋 En aparté : est une émission où je m’entretiendrai avec un invité sur le mouvement DevOps en entreprise.
  • 🎙️ En Solo : est une émission où je serai seul pour vous parler de DevOps ou de Cloud.


Retrouve les crédits sur le lien : https://lydra.fr/le-cloud-ele-cloud-et-lecologie-actus-devops-mai-2022/


📜 Ce contenu est sous licence libre : CC BY-SA : https://creativecommons.org/licenses/by-sa/4.0/deed.fr\

Si tu utilises ces contenus dans une publication, merci de nous le notifier dans les commentaires.


❓ Pose-nous une question : http://question.compagnons-devops.fr

💬 Rejoins la communauté : https://www.compagnons-devops.fr


☁️ Suis-moi sur les autres réseaux sociaux :

▶️ YOUTUBE entrepreneuriat : https://www.youtube.com/channel/UCvZFN6J1okCiIG4LKIXqSpg

👔 LINKEDIN : https://linkedin.com/in/cchaudier & https://www.linkedin.com/company/lydrafr & https://www.linkedin.com/company/froggit

👕 FACEBOOK : https://www.facebook.com/cchaudier

🐥 TWITTER : https://twitter.com/art_devops

📷 INSTAGRAM : http://instagram.com/cchaudier

🦊 GITLAB : https://gitlab.com/cchaudier

🐸 FROGGIT : https://lab.frogg.it/cchaudier


🌐 Les Compagnons du DevOps est une initiative de Lydra : https://www.lydra.fr


#Podcast #DevOps #Actualités #CICD



Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Quelles sont les news du cloud et du DevOps qu'on se voit demain 2022 ?
Une API pour évaluer notre impact sur l'environnement, les suites de la Panathlaciane, plein d'autres
sujets encore, c'est ce qu'on va voir dans cet épisode de podcast.
Bienvenue sur Radio DevOps, la balade aux diffusions des compagnons du DevOps.
Si c'est la première fois que tu nous écoutes, abonne-toi pour ne pas rater les futurs épisodes.
C'est parti !
Bienvenue à toi chers compagnons, dans Actu DevOps, ton émission de veille, cloud et
DevOps mensuelle.
Et comme d'habitude, reste bien jusqu'à la fin pour découvrir notre sélection d'outils.
Mais avant de commencer, tu le sais, si le podcast te plaît, tu peux aussi nous soutenir
sur Libère Apex.
Il y a le lien en description.
Tu peux aussi t'abonner et nous laisser un commentaire.
A ce propos, j'aurais bien aimé vous lire un commentaire, mais il faut dire que vous
en laissez pas beaucoup.
Ou alors je ne sais pas vraiment les chercher, allez savoir.
C'est peut-être possible aussi.
C'est pour cela que pour nous motiver, tous les quatre et tous ceux qui ne sont pas là,
je vais vous demander de nous laisser un commentaire sur les applications de podcast.
Mais pas juste un, il faut nous inonder de commentaires de partout.
Dites-nous aussi où vous les laissez, comme ça, je pourrais les voir.
Je sais que vous en laissez sur Youtube.
Avec moi, ce soir pour parler d'Actu, j'ai AirOne.
Bonsoir AirOne.
Bonsoir.
J'ai aussi Damir.
Bonsoir Damir.
Bonsoir à toutes et tous.
Et enfin René.
Bonsoir René.
Bonsoir.
Alors le moins dernier, on a parlé justement d'un sujet, on a parlé d'Atlassiane.
D'ailleurs, Atlassiane m'a écrit.
Et AirOne va revenir sur le sujet parce qu'on a les suites de la panne, puisqu'à l'époque
où on enregistrait, la panne n'était pas terminée.
Et je laisse la panne à Arpogogne.
Eh ben exactement.
Donc le mois passé, c'est Damir qui évoquait donc cet incident assez marquant chez Atlassiane
où plusieurs stacks clients avaient totalement disparu.
En tout cas, au moment où on en parlait, c'était un petit peu le foutoir.
C'était début avril, il y avait environ 880 stacks chez Atlassiane Cloud qui avaient disparu.
Donc quand on dit disparu, c'est que typiquement l'accès à confluence, l'accès à Gira
ou les autres outils collaboratifs qui sont fournis par Atlassiane étaient totalement inaccessibles
avec où quand c'était restauré, il n'y avait pas encore les données.
Et en fait, c'était une panne qui est assez marquante
parce que le temps de résolution et de reprise d'activité a duré en gros 14 jours.
Le dernier client à être restauré, c'était 14 jours après l'incident.
Et donc comme c'est un incident qui n'est quand même pas anodin,
Atlassiane a publié un post mortem.
Et en fait, ce qui est intéressant, c'est de voir un petit peu leur façon de communiquer
pendant cet incident, quelle est la route cause de tout ça,
mais aussi essayer de mieux comprendre ce qui se passe.
Parce que Atlassiane fait partie quand même des boîtes de soft assez sérieuses
avec une bonne image sur toutes les bonnes pratiques en termes de CQ, des Vops, etc.
Donc c'est toujours intéressant à lire.
Donc concrètement, qu'est-ce qui s'est passé ?
Très vite quand il y a eu l'incident,
donc ils ont eu tout un tas d'alerte de leur côté,
très vite quand il y a eu l'incident,
ils ont communiqué pour expliquer que c'était pas une attaque.
Donc ça, c'est quand même un truc assez important.
Ils ont communiqué publiquement en disant que ce n'était pas une attaque,
il n'y a pas de fuites de données,
il n'y a pas eu d'accès non autorisé qu'on liqué ou quoi que ce soit.
Mais par contre après, il n'y a plus vraiment de communication,
c'est-à-dire qu'il y a des gens qui avaient vraiment plus accès à leur wiki.
Donc on peut imaginer, je ne sais pas si dans vos entreprises respectives,
vous utilisez Confluence ou Gira,
qui sont quand même des outils assez populaires,
ne plus y avoir accès,
ça peut mettre quand même pas mal de gens au chômage technique.
Et donc vraiment il n'y a plus rien.
La suite de la communication,
alors qu'on a dit un peu plus de 800 stacks,
était toujours chaos,
la suite de la communication a eu lieu 9 jours après.
Donc c'est quand même pas anodin.
Et c'était un mail générique pour dire
le problème étant qu'on est en train de travailler sur le problème,
vous inquiétez pas,
tout est sous contrôle,
entre guillemets.
Alors j'ai cité Confluence et Gira,
mais il y avait aussi d'autres outils,
et typiquement le truc un peu cocasse,
c'est que typiquement Hopsgénique,
un des outils fournis par Atlassian pour faire du monitoring,
il était cassé aussi.
Donc il y a des gens qui étaient même aveugles
sur leur infrastructure ou leur monitoring
pendant cet incident.
Et donc après un silence assez long,
donc au bout de 9 jours, ils ont communiqué,
et donc dans le communiqué, qu'est-ce qu'on apprend.
On savait déjà que ce n'était pas une intrusion,
quoi que ce soit,
mais dans le communiqué de façon très transparente,
ils expliquent que c'est un script de maintenance
qui est à l'origine de l'incident.
Parce qu'il a fait des choses
qui n'étaient pas prévues.
Et Atlassian, ce qui est intéressant,
c'est qu'il reconnaisse deux points
sur lesquels ils n'ont pas,
où en fait, l'application de ce script
n'a pas été bonne.
Il parle d'un point, d'un manque de communication,
c'est en gros, on leur a dit,
oui il faudrait faire du cleaning
et effacer tel module de toutes les stacks.
Et les gars ils ont dit,
ok, enfin, l'équipe demandeuse
a fait cette demande-là,
l'équipe qui réalise la maintenance là-dessus
a réalisé le script qui va bien.
Et l'équipe demandeuse
a fourni une liste d'ID
qui était censée représenter
les fameux modules à supprimer,
sauf que parmi ces ID,
il y avait des ID de stack.
Et on en vient au deuxième point
sur lequel,
déjà, ça veut dire que
ce qui a été fourni en entrée,
n'était pas bon.
Déjà, on parle sur...
On n'est plus sur les specs
qui étaient fournis, déjà, on est un peu hors clou.
Et le problème d'après,
c'est qu'en gros,
leur petit outil qui fait du cleaning,
qu'on lui file
un ID d'une stack
ou un ID
d'un module, en fait,
il sait effacer.
Donc forcément, vous faites vite le rapprochement,
si dans la liste des ID
de modules, il y avait des ID
de stacks, forcément,
on peut
les dropper.
Alors, vous allez dire, bah oui,
mais il teste pas avant.
Avant de faire tout ça,
il y a eu des reviews du code
du fameux script.
Ils ont vérifié une partie des ID,
forcément, je ne sais pas combien il y en avait,
mais a priori, ils n'ont pas tout vérifié.
Ils ont fait tourner le script
dans un espèce d'environnement staging,
etc. Mais en fait,
on suppose que les...
on ne le voit pas très clair dans leur report,
mais on suppose que les fameuses ID incriminées,
ils avaient pas
de conséquences, on va dire, dans cet environnement
de staging.
Et puis au moment où ils ont lancé en prod,
ils expliquent qu'ils ont lancé par bench de 36,
donc ils ont
fait plusieurs loops pour voir que ça
se passait bien. Effectivement, ça s'est bien passé.
Et on peut imaginer que les fameuses ID
où il y avait des problèmes, ils étaient plus loin
dans la liste.
Et donc du coup, c'est bien plus tard.
Enfin, c'est quand ils se sont dit, bon, bah, ok, tout est ok,
on peut lancer sur l'intégralité
que ça a pété.
Et
ensuite,
donc comme on le disait, il y a
à peu près 800 stacks
totalement chaos,
à la plate-sienne communique sur le fait que,
en vrai, c'est 400...
c'est vraiment 400 instances de prod,
les autres, c'était soit des trucs de test,
des comptes de Poc,
ou je sais pas quoi, donc c'est pas très grave.
Mais il y a un autre truc sur lequel
ils communiquent sur le fait qu'ils ont pas été
bons, mais ils donnent pas beaucoup de précision,
c'est sur le temps de restauration. Ils expliquent
en gros, on comprend juste que
le temps
de restauration, il est...
en fait, leur mécanisme de restauration
il passe pas à l'échelle de
je dois restaurer 400 stacks, en gros.
Je schématise, mais c'est ce qu'on comprend
du retour. C'est-à-dire que ça marche très bien
pour... c'est automatisé pour une stack, visiblement,
mais le faire sur 400, c'est un peu
un peu compliqué. Il n'y a pas de truc pour
lancer ça ou monitorer ça comme il faut.
Du coup, ils ont expliqué qu'ils
mettaient en place 3 axes d'amélioration,

éviter d'avoir en gros, d'avoir
une route commune slash clean
pour...
qui prend quelque soit l'ID
pour droper des choses. Donc en gros, il va y avoir
un slash clean module et un
slash clean stack. Je schématise, mais c'est un peu
l'idée qui est derrière ça. Avec
un niveau de validation et de protection importants,
sous-entendu, supprimer
une stack, ça doit pas être quelque chose d'anotin,
ça doit être quelque chose validé à plusieurs niveaux.
Donc pour éviter ça, ils expliquent
qu'ils vont mettre plus d'automatisation
sur leur système de...
de récupération de données
et tout.
Et... parce qu'ils... ils disent très
ouvertement que ça passe pas à l'échelle.
Et... ils... ils expliquent aussi
qu'eux... ils sont conscients qu'ils ont
merdé sur la communication, que énormément
de clients se sont retrouvés
vraiment sans réponse. Mais c'est-à-dire, il y a
même pas un humain qui leur a dit, ok
vous êtes en galère depuis 5 jours
ou plus... on... on... on est dessus, non?
Ils ont eu à chaque fois des...
des... comment ça s'appelle, des mails génériques.
Et donc du coup, ils... ils vont
mettre en place un... bah... une...
des espèces de cellules de crise, avec
des... un support humain spécifique
dédié pour pouvoir interagir
avec les clients impactés et les rassurer
et les accompagner dans... dans cet incident.
Moi, ce que je retiens de ça,
vous allez me dire après ce que vous partagez
ou pas, c'est que... c'est
quand même un... un incident qui est quand
même relativement important, qui a... qui a...
qui a eu un impact business assez fort
bah, j'ai... j'ai pu lire
sur... sur tous ces...
sur tous ces sites de... de DSI, etc.
que des... des boîtes quand même assez grosses
de... de... de mille... de mille
personnes ont été impactées. Donc,
imaginez... je sais pas, une boîte
dont toute la... la... la knowledge base
est sur confluence, bah ça peut être un peu rude.
Hum...
Le...
Mais en vrai, est-ce que ça va...
ça va vraiment impacter le business
de... de Atlassian ?
Ouais, il y a quand même des chances que pas... pas vraiment,
ça va écorcher
leur image, euh...
et probablement ça va s'atténuer assez vite.
Mais... le...
le message que j'avais lu de tout un
tas de DSI, là, qui parlait de ça, c'est...
bah, en fait, migrer notre contenu
de confluence ou de Gira, ailleurs,
c'est... c'est... c'est... c'est pénible,
on... on va pas trop le faire.
Donc, ce qui est...
euh... bah bah bah...
euh... et surtout, moi, ce qui me fait
rire, c'est que...
c'est ça que je trouvais hyper coquasse.
Et... euh...
Atlassian a droppé il y a pas très longtemps le support
du on-premise, sous-entendu que...
leur stack, euh...
en cloud était hyper
fiable, etc. Et...
bon, bah, malheureusement, il y a eu
un incident, mais après, bon, je...
je charris, bien entendu, c'est du troll, mais
c'est... c'est quand même intéressant de... de
garder... de garder ça en tête.
Et euh... et en fait,
ce que... enfin, ce que je trouve intéressant,
c'est que c'est un problème typique
qu'on peut rencontrer, quand on travaille
dans... dans ces métiers, et... et du coup,
savoir aussi que même les... les grands
ont ce genre de problèmes,
bah, quelquefois, ça...
ça... ça permet d'avoir un peu d'humilité,
de prendre un peu de recul sur ce qu'on fait, et tout.
Je... je vois Damien sur...
Euh, bah, moi, pour donner un peu de contexte,
c'est vrai que j'ai... vraiment, je n'ai pas été impacté par la panne
parce que nous, on est encore, justement,
sur l'ancien offre qu'on doit migrer, qui est en... en prême.
Euh... mais c'est vrai que...
j'ai été... je suis un infogère,
pendant longtemps.
Et quand il y avait été gros incident, en fait, le plus
dur, c'est vraiment de gérer une communication
euh... dans laquelle on arrive
à un moment temps être assurant, en même temps
expliquer ce qui se passe pour que tout le monde comprenne,
et en même temps, pas dire des conneries.
C'est-à-dire que, bah, quand t'as un incident,
tu ne sais pas toujours exactement l'objérion du problème,
tu ne sais pas forcément combien de temps ça va être restauré.
C'est un exercice qui n'est pas simple.
J'ai connu des périodes où, bah, t'as les clients qui t'appellent,
et, bah, il faut, à moins,
il faut forcément que quelqu'un de technique répond,
et que tu te... que tu essaies d'expliquer gentiment
que, bah, tu... tu essaies de faire...
on essaie de faire notre maximum,
euh... mais... mais c'est compliqué.
Et, bah, le client lui dit à un hyper...
hyper de l'argent, et il paye pour un service, donc...
il est un peu... un peu chafouin,
on va dire ça comme ça. Donc, euh...
c'est un exercice qui est assez difficile.
Et, surtout, quand, bah,
plus l'entreprise est grande, plus je pense qu'elle est assez difficile,
c'est pour ça, à mon avis,
je sais pas trop combien ils sont pris, mais moi, je trouve ça toujours intéressant
d'en avoir un room, d'avoir une personne qui est vraiment dédiée,
qui, si possible, est une personne un peu technique,
qui me voit même totalement technique,
qui est dédiée à gérer la communication,
les infos qui sortent pour communiquer clairement sur les aspects techniques,
et que la comne n'a plus pu se recommuniquer.
Mais pour moi, c'est le gros fail.
Les autres fails, c'est des problèmes,
mais c'est des problèmes mineurs, en fait,
comme tu dis, ça peut arriver tout le temps,
la communication, c'est plus compliqué, quoi.
Pour une boîte, surtout de cette taille.
Après, bah, je pense que...
là, ils vont avoir un gros impact, au niveau commercial,
même si les gens, ils vont y rester,
parce qu'on va pas se cacher, bah, quand on est sur Gira,
c'est un peu me tout, hein.
Là, il y a une histoire de vendor-locking, qui existe même avec les solutions open-source.
Euh...
Bah, on est intégré dessus,
on a les plugins sur la CIA, etc.
Donc, souvent, bah, la migration,
elle se fait pas, on a un claquement de doigts.
Donc, c'est quelque chose qui se réfléchit et qui se négocie.
Donc, je pense pas qu'ils vont perdre tant de clients,
mais tu vois, typiquement, la fin de l'offre on-premise.
Je me demande si ça va pas
donner billet à des grosses boîtes pour un an,
mais... c'est on-prem, on part.
Donc, à voir ce que ça donnait.
Mais... mais effectivement,
encore une fois, on l'a déjà dit plusieurs fois,
mais le plus important dans les incidents,
c'est de communiquer clairement.
À mon sens, je préfère même des fois dire, bah ça,
on estime que,
dans le meilleur des cas, ça sera ça.
Dans le pire des cas, on sera ça.
De donner des scénarios,
mais de communiquer franchement.
Sur le coup, bah, des gens vont être déçus,
certains vont un peu vous cracher dessus,
sur Twitter aujourd'hui.
Vous allez avoir des tweets un peu incendias,
mais je pense qu'il vaut mieux ça, plutôt que pas communiquer.
Là, le mail automatique, je sens le truc
de la com qui se prenait des messages en MP,
en mode, mais qu'est-ce que vous foutez bordel,
et qui se sont dit, bah, on envoie un mail automatique
pour dire qu'on est dessus, quoi.
Mais c'est un peu triste, qui n'est pas une autre réaction, je trouve.
Surtout, on a tant en silence.
Je suis parfaitement d'accord avec Damir.
Je pense que la transparence,
c'est une des valeurs
qu'on doit travailler quand on exploite un sas.
Et la communication,
bah, elle doit être,
elle doit être claire même si c'est pour dire,
bah, pour l'instant, on se passe pas trop,
ce qui se passe.



Mais on est dessus.
Après,
c'est toujours dur de communiquer
sur ces erreurs.
Ça demande quand même de la menégation,
et puis c'est dur
d'admettre qu'on s'est plantés,
même si parfois, on s'est plantés
de l'éponge largeur.
Donc, c'est d'autant plus important
quand les gens le font.
Et d'ailleurs,
on déconnait tout à l'heure
avec Damir avant l'épisode de podcast
sur, il n'y a pas de nouveau truc qui avait brûlé
chez OVH. Mais moi, je me souviens
que quand justement, le data center a brûlé,
Octave,
qui est le Président-Directeur général
d'OVH, il a communiqué
très frontalement sur Twitter.
On a déjà parlé, mais c'est
une main de communiquer, mais
pour moi, la main de Vropan, c'est pas une personne
qui en plus, a son compte perso
et qui bloque certaines personnes sur Twitter
de communiquer sur ses vêtements, mais c'est encore une autre histoire.
Je pense qu'il faut une communique, en fait, c'est bien
dans plusieurs niveaux de communication
d'aller vers vos clients
et dire les trucs pour donner en courant
surtout des délais de SLA, etc. pour que eux puissent se projeter
au niveau business. Et après, pour ceux qui veulent pousser
un peu le truc, faire derrière du live tweet
ou des trucs comme ça, pas forcément le pousser, mais le faire
pour que les gens qui sont intéressés y tombent dessus.
C'est intéressant, on a une double approche
au niveau de la com.
Il y a la com-intern de Verté-Cliens.
C'est la première chose que tu dois faire.
La com public
externe, il y a ton blog.
Et la com personnelle,
là, je parlais plus de com personnelle
qu'Octave faisait.
Et je crois qu'ils avaient des articles de blog
en parallèle en plus.
Mais bon, je sais pas
de... René, est-ce que t'en penses toi ?
Oui, donc, globalement, je n'accorde avec tout ce que vous avez dit.
Après, ce que je trouve intéressant
c'est ce qu'Haron disait.
C'est que, quand même, ils ont reconnu
ce qu'ils ont expliqué,
qu'ils ont failli
dans certains domaines.
Donc ça, c'est quand même
pas mal.
Et puis,
après, ça peut-être...
Moi, ça me fait poser un peu des questions
sur... Je ne suis pas confronté
à ce type de décision, mais quand on choisit
des entreprises aussi grosses et aussi importantes,
est-ce que, parfois,
ils ne vont pas mieux choisir des entreprises
plus petites avec un support un peu plus
à taille humaine ? Parce que...
Voilà, ces grosses entreprises
elles ont beaucoup de clients.
Du coup, quand il y a un grand, sinon comme ça,
on est un client perdu dans la masse.
Et pour avoir des réponses
de ces grosses acteurs, je pense, c'est jamais
super simple.
Et voilà, peut-être que, parfois,
je vais choisir un acteur un peu plus petit
avec, on va dire,
d'approcher un peu plus...
Enfin, moins la grosse usine,
entre guillemets, peut-être que ça peut être pas mal aussi.
Alors, moi, je vais vous parler
de mesures d'impact dans l'environnement
de notre très chère cloud.
Donc, le groupe de travail Boa Vista
vient de publier une API permettant
d'interroger leur base de données.
En effet, ils collectent et maintiennent
une base de données d'emprunt énergétique
de serveurs et de cloud. Côté serveurs,
on a les données d'Apple, DEL, HP,
le nouveau Lexmark ou encore Cigate.
Écoutez cloud, seul Amazon Web Services,
y est pour le moment.
Espérons qu'au verrage, Scalway ou Azure
puissent faire leur apparition au prochain mois.
Alors, pour l'instant,
ils statent deux phases
du cycle de vie,
la fabrication et l'usage.
Et qu'est-ce qu'elle donne
cette API ? C'est une API reste, en fait,
qui va interroger les données libres
qui est maintenues par Boa Vista et fidèles
à leur valeur transparence, en fait, le code est fourni
sur GitHub en licence libre type
à GPL. L'objectif
est de permettre l'intégration
et l'industrialisation de la démarche
de mesures de l'impact environnemental
dans les équipements, les systèmes
et les services numériques.
Cette API se veut une interface, en fait,
aux données et aux méthodes
développées par le collectif. Alors, ils nous fournissent
des cas d'usage, notamment
par exemple, pour les personnes qui veulent
connaître l'impact
d'un serveur à partir de sa configuration
et de son usage, ou alors l'impact
d'une instance cloud à partir de son type
et de son usage.
Mais ils nous disent aussi, ce qu'ils ne souhaitent
pas traiter, comme par exemple, connaître
l'impact d'un système d'information
à partir de son inventaire,
ou l'impact d'un service à partir de sa
modélisation, ou enfin, connaître
l'impact des équipements
bureaux, qui a priori, ils ne veulent pas les
parler. Le code est fourni
avec une documentation et une instance
de démarche puisqu'on peut installer la API
sur nos propres serveurs, surtout quand on a des gros besoins.
Donc après la sortie de ce
MVP, ils ont déjà pas mal
de pains sur la planche, car ils ont un projet
d'ajouter de nouveaux composants,
comme les GPU, qui permettraient
d'adresser le cas d'usage du minage
de blockchain, d'IA, ou de calcul
haute performance,
ajouter des nouveaux équipements, comme les écrans
et les terminaux utilisateurs, ajouter
une couche système qui permettraient
de mesurer les impacts de plusieurs équipements
ou une couche service qui permettraient
de mesurer l'impact d'un service numérique.
Il y a aussi les étapes
de cycles de vie qui veulent
ajouter, comme la gestion des déchets, le recyclage,
le réemploi, ou alors
le transport des composants.
Et puis enfin, ils veulent ajouter
de nouveaux critères d'impact, comme
là je sais pas ce que c'est, mais la radiation
ionisante, l'impact sur l'eau
et les co-toxicités.
Enfin, je vais relayer leur appel
puisque si vous souhaitez
contribuer, le plus simple c'est de prendre contact
avec eux, ou alors
d'aller participer directement sur
GitHub. Alors je ne sais pas
si vous aviez entendu parler de Bois Vistage
je crois qu'on en a déjà parlé la dernière fois
dans le dernier Actu DevOps.
Ouais, je pense que j'en ai parlé
et puis on a un contributeur
qui pose beaucoup avec eux.
C'est Benoît.
En effet, Benoît, ça fait un moment
qu'on n'a pas vu Benoît, si tu nous écoutes
tu peux revenir nous voir.
Il y aura plein de choses à raconter je suppose.
Mais effectivement on a déjà parlé
justement la dernière fois
assez rapidement, il me semble
dans les petites news de fin.
Mais c'est intéressant et je crois
qu'on a déjà pas mal parlé du sujet.
Je pense vraiment
qu'à terme, les fournisseurs cloud
vont vraiment intégrer ça
de manière transparente et vont potentiellement
même
l'ajouter à la facture en fait. Ça sera une case
à côté de la facture, une case d'empreinte
ça sera assez intéressant comme exercice et voir
ça influent ou pas les gens.
Honnêtement je pense pas, mais ce sera
un exercice intéressant.
C'est vraiment
un peu ce qu'on évoquait la dernière fois
c'est-à-dire que je pense que c'est
une information qui devient de plus en plus
recherchée
par les
en fait
par les boîtes en général
parce que c'est aussi un moyen
de valoriser ou pas la façon
d'utiliser son IT et tout.
Mais moi j'étais plus sceptique
sur le fait qu'on arrive
à pousser ça
justement auprès des providers
et tout. J'espère que ça viendra
comme le décrivé Damir, mais
j'ai l'impression que ça va
le switch de mentalité
sur le sujet est pas évident, j'ai peur
que ça soit quelque chose qui arrive
dans très très très longtemps.
Juste pour dire qu'en plus
de là ce que ce soit une API yoi standard
je pense que chacun va y aller
de son format donc ça va être compliqué.
Alors je vais pas dire de bêtises mais je crois qu'il se base
sur Open API
qui est aussi une API libre.
Moi ce qui m'intéresse là-dedans c'est
justement le fait de pouvoir avoir des statistiques
alors c'est-à-dire
certes pour l'instant ça se base sur des données et pas
sur des statistiques réelles utilisations
mais ça permet d'avoir une estimation
de ce qui se passe par rapport à ce qu'on leur a
remonté puisque a priori
ils travaillent avec toutes ces marques là
et moi je pense en effet qu'à l'avenir
ce sera intéressant de se poser des questions
sur l'impact qu'a nos services en ligne
quitte à payer un peu plus cher nos services en ligne
pour que ce soit réduit.
Nous je sais qu'on essaye de faire
très attention
à ça avec notre service
et on n'a pas de statistiques
ou quoi
et on sera assez preneurs
et par contre si on met en place
ce genre de choses ça veut dire qu'il faut
évidemment le travailler
et même éco-concevoir
des infrastructures je trouve ça prend
plus de temps
que de les concevoir tout court. Je sais pas si
vous vous avez déjà pensé à l'éco-conception
d'infrastructures qu'est-ce qu'on peut faire
en plus pour éco-concevoir une infrastructure
et le temps que ça prend
à mettre en place les scénarios
et genre de choses c'est forcément
des trucs en plus.
Moi j'ai déjà un peu pensé
pour parler de choses après c'est
quelque chose qui est ultra compliqué en fait
parce que déjà il y a
beaucoup de biais, il y a beaucoup de choses
qui sont fausses.
Je vais pas partir sur le fameux
histoire d'estimation
de poids d'un email qui sont juste délirantes
en termes d'empreinte carbone mais c'est très dur
d'avoir des vraies estimations qui soient valables
et qui soient valables dans tous les cas
et en plus
si on part du cloud il y a une sorte d'abstraction
mais c'est vrai que si on prend l'exemple
si on est son propre fournisseur
de service
il y a toujours plein de choses
à partir de quand on remplace nos servres pour les rendements
à l'énergie vore, qu'est ce qu'on fait des anciens
est ce qu'on les garde
c'est plein de questions comme ça qui peuvent se poser
aussi. Sans parler après
des problématiques de data center et tout
sur lesquelles on avait déjà fait un épisode
on a eu l'occasion de visiter de data center de Scalway
je vous invite à l'écouter
c'est justement super intéressant de tout ce point de vue
mais c'est vrai que dans tous les cas c'est quelque chose
qui est déjà extrêmement complexe dans le domaine
et pour la veule entreprise il n'a pas forcément
de valeur
ajoutée au niveau business donc c'est pas toujours simple
à justifier on va pas se mentir
surtout qu'on a déjà du mal des fois
à justifier
on va dire les choses classiques du genre
d'avoir des tests propres
de la documentation propre et tout ça
donc c'est vrai que souvent c'est vraiment la dernière
des dernières des dernières aux du carross
espérons que dans l'avenir
il y a des moyens
de pousser un peu les priorités là dessus
et qu'il y ait des mauvais moyens d'agir
sur cette empreinte
moi je rajouterai juste que aujourd'hui
moi j'ai jamais eu l'occasion
et même dans les discussions que j'ai eues
au cours de ma carrière
de vraiment prendre
ce paramètre en considération
quand on met en place
des infras
par contre
l'argument
le vrai levier c'est la thune
et donc
si
aujourd'hui
avec les ressources plus élastiques
en disant
j'ai pas beaucoup de trafic
donc je retombe mon cluster
à deux machines par exemple
quelque part
c'est pas de l'école
sans faire de gainwashing
mais c'est un peu
on adapte
l'infrastructure
uniquement aux besoins
et donc du coup ça veut dire que
tu n'as plus de ressources qui sont provisionnées pour rien
c'est déjà un pas là dessus
mais en fait on fait pas ça
avec cette optique
d'écologique
on fait ça essentiellement pour les sous
donc
c'est pour ça que je reste assez sceptique
sur tout ça même si je trouve
le sujet intéressant
et bien
mais je sais pas
René, tu as eu l'occasion
de prendre ça en considération ?
non non moi j'ai entendu
plusieurs conférences sur le sujet
donc voilà je trouve ça
intéressant mais non après
enfin comme tu le dis
je pense que aujourd'hui c'était pas
dans les priorités des clients que j'ai pu avoir
et je souhaite que ça le devienne
à plus ou moins long
enfin assez rapidement
mais comme toi je suis
voilà
il faut alors que pas mal
de choses changent et que les gens
comprennent bien le problème
etc
et c'est pas bien
et après je pense vraiment qu'il y a
comme Erwan disait
il y a un axe d'amélioration par rapport
aux économies qui va se démocratiser
et qui se démocratise déjà
et si je prends un exemple très simple
c'est qu'AWS pour optimiser l'utilisation
de ces serveurs et pas de voir étaler
sur trop de serveurs avec des serveurs qui tournent
qu'à moitié
ils ont créé une option dans le C2 qui est spot
ou c'est un peu plus contraignant
pour vous mais vous payez moins cher et en échange
vous avez des instances
qui vont être temporaires
mais qui vont permettre de remplir en fait des trous
comme un thétrice
ils vont permettre de remplir les petites cases
pour utiliser au maximum des machines
donc ça c'est vraiment un exemple typique de
comment on peut aider
on va optimiser l'infrastructure sous-jacente
par
la carotte de la facture derrière
et là on pourrait même aller plus loin
mais je fais une projection à ce que j'ai tout à l'heure
vous pouvez imaginer que
dans votre facture vous avez
la femme's estimation
d'empreinte carbone qui puisse directement être liée
potentiellement jouer un peu sur votre facture
mais après je pars très très loin
moi je réfléchis beaucoup
à quelque chose
typiquement on a sur Froguit
on a 3 environnements
on a le staging
mais qui est un laboratoire sur un de nos serveurs
on a le staging, la pré-prod et la prod
qui sont chez SqlWay
et honnêtement
la pré-prod c'est probablement
l'environnement dont on a le moins besoin
et en plus il est un peu plus gros que celui de staging
et je pense très fortement
à l'automatiser
dans le sens où nous comme tout est
créé à scode et tout est déployé à scode
on pourrait très bien dans la pipeline qui déploie
la pré-prod
allumer toute la pré-prod
déployer
notre mise à jour
et quand en fait on va déployer en production
hop on va arrêter à nouveau la pré-prod
jusqu'à peut-être
dans une semaine, deux semaines, trois semaines
je ne sais pas
et ça pourrait être totalement automatisé
et ça j'ai réfléchi très fortement
mais ça demande du temps pour tout coder
et pour l'instant vous arrêtez juste du coup la nuit et les week-end
pour l'instant on n'a même pas codé l'arrêt
moi je l'arrête de temps en temps
quand on en a vraiment pas besoin mais manuellement
ok
encore un des petits trucs qui m'embête
jusqu'à l'OS, mais la
chez AWS c'est une option
à ajouter, c'est une ligne de code
la nuit et les week-end
ce serait bien qu'on le fasse sur tous nos environnements
hors production
et d'ailleurs moi je m'étonne
qu'il n'y ait pas une option dans les cloud provider
en effet, où on puisse avoir des planning
où tu dis
tel truc, tu les étends automatiquement
à tel sens
sur les OS2 tu peux le faire nativement
c'est
juste dans tout ce que tu as passé
tu as tout à l'heure, je veux t'en à l'instant
automatique et forcé, tout à l'heure j'en veux zéro
pendant tant de temps etc
mais quand généralement
quand on faisait du
stop
hors moments ouverts
on se disait
on était en 8h, 20h, les horaires classiques
on passe tous les auto-scanning à zéro
et ça, automatiquement
est pareil pour le week-end
et si possible, majeur ferrées c'était plus rare
généralement si tu es géré les cas exotiques avec des crônes
mais autrement
c'est vraiment l'auto-scanning, tu peux faire ce que tu veux
même ta prod, tu peux forcer
à ce qui est moins d'instance par défaut la nuit etc
tu peux faire des optimisations en dessous qui sont assez propres
et c'est ce genre de petites choses
je diverge un peu du sujet
mais c'est toujours le genre de petits détails
qui sont agréables à l'utilisation
et qui me manquent quand je vais sur un autre plot for provider
il faut dire qu'ils ont tellement d'avance
mais justement, ce serait bien
que Skawayne nous entende
penser au planning d'arrêt des instances et autres
et bien, très cher auditeur
si tu écoutes ce podcast
et que tu l'apprécies
je t'encourage à le partager
parce que si tu ne le sais pas
c'est dur à découvrir
parce que sur les applications de podcasts
il faut connaître le podcast pour aller le chercher
donc n'hésite pas à le partager
à l'envoyer par mail, à le diffuser sur tes réseaux sociaux
je ne sais quoi faire des écoutes collectives
dans ta boîte
et surtout nous raconter ce que vous en avez pour ça
alors Damir, tu vas nous parler
de
du futur
et oui, je viens du futur pour vous rapporter
la grande nouvelle
non, c'est une nouvelle qu'on s'attendait un petit peu
c'est Pascal
je suis désolé si je le prononce mal
PASQAL
qui est une société française qui travaille dans le quantique
donc cette grande technologie qui tout sauvra
qui avait, il y a quelques mois
il y a un mois, un mois et demi
avait lancé en fait son service
qui était disponible au travers du cloud Azure
ils avaient déclaré qu'il le ferait sur un cloud français
sous peu
et effectivement ils ont commencé à faire chez OVH
pour l'instant c'est pas encore ouvert au public
mais ça va l'être dans le futur
donc pour le coup
vous pouvez consommer des ressources quantiques
qui sont créées par cette société
directement au travers de la plateforme cloud d'OVH
donc c'est quelque chose qui est intéressant
plus pour l'aspect on va dire
pas plus pour l'aspect
c'est intéressant que pour l'aspect R&D
ou si vous avez vraiment envie de tester des trucs très chelous
il faut savoir que le quantique
c'est pas encore quelque chose qui exploita
vous n'avez pas à vous dire le même temps mon application
vous n'avez pas à reposer que sur du quantique
c'est bien pour globalement
soit au fait de la recherche
soit vous essayez de lever des fonds en start-up
et vous avez mis tous les mots bullshit dans une phrase
mais à part ça, dans le quotidien
de notre travail
c'est pas encore quelque chose qui nous impacte directement
et c'est quelque chose qui a encore
qui s'y t'attend un peu
mais ça sûrement permet de
à travers le cloud
de permettre la disponibilité
de ce type de matériel au travers du cloud
va permettre je pense
à pas mal d'entreprises qui veulent pousser de la R&D
ou vraiment des use-casts très spécifiques
ou même des scientifiques
de pouvoir en fait faire des tests
des choses comme ça pour moins cher que d'avoir
ce matériel
sachant que c'est un matériel très cher
c'est un matériel de recherche
et pour le coup
de tester des nouveaux programmes et de nouvelles choses
ça va permettre sûrement de développer la filière
c'est pas les premiers à le faire mais c'est intéressant
soit au travers d'un cloud français par une société française
c'est un bol on va dire et assez beau
après d'avoir ça
moi je suis quand même curieux parce que
ça fait maintenant
2-3 ans que OVH
interlègue
des gros services et des choses
divers et variées à son cloud
et pour attendre ça fait un petit bout de temps
que je n'ai pas utilisé de l'OVH
fait quasiment un an
un peu moins quand même, ça fait 7 mois
mais
à mon émeuble
je l'ai utilisé
j'avais souvenir de quelque chose où globalement
c'était pas très bien intégré il manquait de cohérence
et ça partait un peu dans tous les sens
où vous aviez des ongles et vous comprenez pas trop la différence etc
et là ça m'inquiète un peu de voir
qui part sous des trucs très pointus
assez niches au final qui vont intéresser
malais même pas un pour cent de leurs clients
moi je doute que ça tasse plus d'un pour cent des clients OVH
je comprends pas trop
ils vont encore ajouter un truc
en plus, un service en plus
qui va pas être beaucoup utilisé
qui sert juste plus d'effet d'annonce
donc là dessus je suis un peu
un peu dubitatif, parce que comme je le disais
ça reste quand même quelque chose qui est plus du laboratoire
ou de la R&D très poussée
donc ouais, là dessus
j'aimerais bien votre avis, savoir un peu ce que vous en pensez
est-ce que vous en attendez quelque chose ? on sait jamais
peut-être que vous faites du cantique en secret
et que vous nous le cachez et que vous êtes en train de créer
l'algorithme révolutionnaire
donc du coup, bah toi Christophe t'en pense quoi
toi qui adore notre cloud souverain
moi je pense que si j'avais un pour cent des clients OVH
je serais content
déjà
ce que j'en pense
c'est si ça permet de démocratiser
la recherche sur le quantique
sur l'ordinateur quantique
pourquoi pas
j'avoue je suis un peu loin de tout ça
parce que si c'est un peu trop
c'est un peu trop éloigné de ce que je fais
mais
ce que t'as soulevé c'est pas
c'est intéressant parce que en effet
je me fais la réflexion
en plus j'ai appris très récemment
que OVH était en train de supprimer la plupart
de ces marques donc qui me suffit
So You Start etc
alors qu'en fait
je trouve que ce serait vraiment intéressant pour eux
d'avoir de fortes marques
et des marques très spécialisés
nous c'est ce qu'on développe avec nos services en ligne
on crée des marques
et on vend pas tous la marque Lidra
Frogit c'est une marque
Wattau Tis en est une autre
et je trouve
étrange qu'OVH
intègre tout
dans sa console etc alors qu'en fait
ils pourraient créer des marques fortes
bien dédiées, bien ciblées
avec marketing très ciblés
et un discours très
raccord avec leurs clientels qui sont pas
la même que celle d'OVH par exemple
je reste du bitatif
quand t'as l'approche commerciale
en terme tech
je sais pas, honnêtement
je pense que là dessus c'est juste de raisonner
plus en terme de plateforme
et de forcer à attirer des gens et des services
sur leurs plateformes principales
après est-ce que ça va être bien fait
pour Atonet j'ai des doutes
parce que quand on a connu les API
et les LUIX de chez OVH
il y a des problèmes
récurrents malheureusement
et pour le coup
là dessus je pense que ça va pas aller en s'améliorant
je sais que j'ai un peu dérivé du sujet
mais l'ouverture me paraissait intéressante
sur cette priorisation des nouveaux services
pour le coup
René toi t'as des avis là dessus ?
non je pense que je suis peut-être trop vieux
mais j'avoue que
l'ordinateur quantique
je connais pas du tout le sujet
après je vais donc bouter un peu en tout
comme Christophe
je pense que c'est intéressant
pour la recherche
et tant mieux
mais je préfère pas trop te dire de bêtises
donc je vais m'abstenir
alors moi pareil
je suis clairement pas la cible
de ce type de service
en revanche
tu l'as souligné Damir en disant
il y a les faits d'annonce mais c'est justement
c'est cool de se dire
qu'ils sont innovants
sur des trucs pointus comme ça
et tout
après effectivement peut-être que c'est tout
là qui est derrière j'en sais rien
mais en tout cas
c'est quand même cool de se dire qu'il y a un acteur
français qui arrive et qui peut proposer
ce genre de service comme ça
ça fait un nouveau truc
de dispo
je sais pas à quel point c'est quelque chose
qui est disponible
facilement ailleurs non plus
mais si c'est pas le cas
en fait c'est une super
c'est une super démonstration
de dire voilà en fait
tu as besoin de
tout ça nous
tu as juste à mettre ta cb et c'est dispo
du coup le côté
show off me paraît
pas négligeable surtout dans le milieu
de la tech où des fois on fait pas forcément
les choses les plus
toujours les plus utiles ou malines
mais les trucs aussi qui permettent de montrer
que le producteur
du coup pour donner un peu de contexte sur l'état du marché
là dessus alors je connais pas par coeur
le marché je ferais en dire des vétises mais ça fait
quelques années maintenant qu'il y a eu un peu
cette hype qui a été poussée au début
par les recherches de google
tbm qui expliquaient
qu'ils annonçaient là aussi avec des gros effets d'annonce
qui travaillent sur le quantique parce que c'était le futur etc
on va pas se le cacher c'est un futur qui est assez
longainte hein ça n'espérait pas que
demain votre téléphone soit quantique
c'est plus de ce que je comprends
dans 10-15 ans
qu'il faut espérer des choses un peu concrètes
et pour le coup
ça va faire on va dire 3 ou 4 ans maintenant
qu'il y a des gros services cloud
qui offrent au travers
d'un pays ou autre l'utilisation
de quantique et en général c'est surtout pour ça
c'est pour aider les chercheurs
ou les personnes qui sont juste un peu
qui sont très curieux et qui ont envie de pousser le truc
à savoir que c'est assez particulier de développer
pour du quantique c'est vraiment une manière
de penser qui est très très différente et j'ai regardé
un peu un coup pour la petite anecdote
de fraîchette je le retrouvais
j'ai abandonné au bout d'une demi heure
j'ai même la tête qui a explosé
ça change tout paradigm donc c'est super intéressant
mais ça reste pas le truc le plus accessible
et du coup
en tout cas que ça soit disponible par le cloud
ça va permettre au moins on va dire
à des chercheurs et à des labos
de pouvoir tester des petites choses
sans avoir ce gros investissement
mais c'est pas quelque chose qui est nouveau
c'est pas une révolution mais effectivement
ce qui est intéressant c'est quand même d'avoir
une solution qui soit totalement française
au niveau de la stack sauf le matériel
d'avoir des choses importées
mais on va dire une grosse majeure
de la stack qui soit française ça reste quand même
assez intéressant d'un point de vue
on va dire souveraineté de recherche
et ben on va parler
on va parler de piton je crois
n'est-ce pas René ?
oui un tout petit peu
donc il y a une nouvelle qui est sortie
qui a fait un petit peu de bruit sur twitter
c'est un outil piton
qui est sorti par anaconda
et en fait ça s'appelle pas iscript
et donc
ce que ça permet de faire
c'est d'embarquer du piton
côté
et le faire tourner sur les navigateurs
donc d'embarquer ça
dans du html
et il y a déjà quelques démons
qui sont proposés où on peut
donc embarquer du code pour afficher
une date
utiliser des dépendances piton pour afficher des graphiques
ou carrément faire
la repole donc la ligne
de commande piton directement dans un navigateur
ça a un peu enflammé sur twitter
entre les communautés piton
et javascript
avec les communautés piton qui
espèrent qu'on va pouvoir
se passer de javascript pour faire du front
je pense qu'on n'en est pas là
et puis en vice versa
les communautés javascript
pour défendre et dire que ça ne servait à rien
donc ça c'est pas forcément
ce qui est intéressant
c'est de voir ce que ça peut amener
et puis surtout moi ce qui m'a intéressé
c'était un peu de savoir
comment ça fonctionnait derrière
et en fait
voilà comment ça fonctionne
en fait c'est
quelque chose dont j'avais déjà un peu parlé
c'est que c'est du web assembly
donc en fait web assembly c'est une technologie
pour pouvoir
faire du bytecode on va dire
pour la gvm
embarquée dans les navigateurs
on peut aussi petit rappel
il y a aussi quelque chose
qui s'appelle wazzy
qui permet aussi de
proposer
de faire tourner des extensions
pour faire tourner ça en mode
console sur différents environnements
et donc en fait là ce qui s'est passé c'est
que c'est un projet
qui s'appelle pyodine
pour expliquer un petit peu comment ça fonctionne
qui a en fait
pris l'interprèteur piton
qui est créant c c'est piton
et donc qui utilise
mscripten
qui permet de produire du web assembly
et donc on se retrouve avec ce bel web assembly
du coup on a fait
un interprèteur
en web assembly qui peut donc tourner
dans un navigateur
voilà un petit peu comment ça fonctionne
et donc dans les notes
de l'épisode
voilà j'ai partait
enfin vous trouverez
les liens qui expliquent un peu plus
en détail
comment ça fonctionne, comment ici sont pris
et
voilà je pense qu'on commence
à avoir une certaine
enfin voilà le sujet web assembly
commence un petit peu à se développer
de plus en plus
et pour terminer
voilà il y a aussi un lien alors j'ai pas regardé
la
la vidéo pour le moment parce qu'elle est un peu longue
elle dure 3 heures mais il y a eu
au devox il y a eu
présenté la révolution wasm
le titre de la conférence qui a été
fait par Philippe Charriard et
Laurent Daudin
donc j'ai pas regardé pour le moment
mais je pense que c'est assez intéressant
si voilà pour comprendre un petit peu
ce que web assembly
les évolutions qu'il y a eu et comment
c'est pas ce qu'on va peut-être
pouvoir en faire
assez, enfin un prochainement
voilà
voilà je vous laisse un peu la main
si ça vous inspire ou pas
moi je veux la liste des meilleures
tweets où les gens s'insultent entre
J.S. et Piton
sur le sujet parce que c'est clair
que je n'ai pas suivi ça
mais alors ça doit être
costaud
c'est un peu cest stéril comme toute
la guerre entre les
langages
donc voilà c'est pas forcément
ce qui est intéressant
après je pense que
juste pour rajouter un petit quelque chose
c'est que Piton est beaucoup utilisé
dans le machine learning etc
donc pour les gens qui
utilisent ça
je pense que ça a un intérêt
de pouvoir faire tourner ça dans un navigateur
pour de futurs applications
donc aujourd'hui ça reste quand même un projet
très très récent
qui n'est pas encore gérant
je pense que c'est une beta ou une alpha
mais voilà moi j'ai trouvé ça
sur le principe
je trouve ça intéressant de
comment ça fonctionne et est-ce qu'on peut
en faire de la partie
en particulier de web assembly
c'est du chavad
non non web assembly
pour rappel non c'est un bytecode
donc ça va être un langage machine
c'est quasiment comme du binaire
qui va être interprété
par la machine
comme quasiment des obstacles
pour un procès sur le code
je me suis expliqué je voulais dire
pour passer web assembly
il me semblait à avoir lu ou à avoir cru comprendre
qui passait par du
js non il n'y a pas une histoire comme ça
non alors en fait web assembly
tu peux en produire à partir de
aujourd'hui beaucoup de langages
donc tu peux en produire
à partir du c en utilisant mscripten
donc c'est un logiciel
qui permet de transformer un code c
il faut un petit peu adapter
mais transformer un code c en web assembly
tu peux en produire à partir de rust
voilà ça on va dire je pense
c'est les plateformes les plus matures
mais aujourd'hui avec un autre outil
qui s'appelle tiny go
tu peux aussi en produire à partir de go
donc en fait à terme plus ou moins
tous les langages vont être capables
de compiler vers
cette cible là
et donc de pouvoir faire tourner des applicatifs
dans le navigateur
mais aussi en dehors
avec oasis
mais je ne veux pas re-rentrer là-dedans
du coup ça va être un peu un peu le complice
et moi je l'avais compris
qu'en gros
Python après a été de la retransférer
en interprété par du js
qui lui était interprété après et compilé en web assembly
donc ok donc c'est un peu plus intéressant
quand même que ce que j'avais compris
à voir ce que ça va ouvrir comme possibilité
non on ne reste pas moins que
ça reste du web
donc à mon avis
donc ça se développe
et ça risque de prendre des mêmes habitudes
mauvaise que le reste
des langages qui existent
mais c'est intéressant
moi ce que je vois c'est que
du coup de plus en plus
on va mettre des choses dans notre navigateur
notre navigateur il va finir
par à force se substituer
au système d'exploitation
on verra plus que le navigateur
en tout cas je pense que certaines grosses boîtes
veulent aller par là
peut-être pour cloudifier nos applications
ce qui est intéressant c'est que du coup
si on tire le fil on risque d'avoir
plusieurs langages en effet dans nos navigateurs
et donc des langages adaptés à certains
types de programmes
parce que le Python est adapté à certains types de programmes
auxquels j'avais scripté pas adapté
go aussi etc
et donc on va pouvoir coder
des applications qui retourneront dans le navigateur
avec le
avec le langage le plus adapté
à ce qu'on va vouloir faire
parce que les fans de javascript
ont beau dire que javascript c'est super
il y a forcément
des trucs auxquels javascript est pas
adapté
ça permet aussi de
je pense que c'est pas forcément
ça permet de réutiliser aussi des codes
qui ont été faits dans d'autres langages
donc c'est vraiment l'intérêt
c'est vraiment de pouvoir
faire de la réutilisation
des librairies graphiques
par exemple pour du traitement d'image
qui ont pu être créancés
un peu facilement
facilement
avec un peu de travail mais elle peut facilement
être mise dans
recompilé en wasm et utilisé
dans le navigateur
je pensais aussi
je pensais aussi un dernier truc
c'est le côté
éducatif
parce que mine de rien quand tu vas
coder
quelque chose si t'es novice et que t'es sur ta machine
tu pourrais arriver
à faire des bêtises alors que si tu codes
et que tu exécutes des trucs dans le navigateur
t'as le navigateur qui va te protéger
bien sûr certains me diront
bah ouais mais tu peux coder dans un content d'or docker
mais sauf que quand tu débutes et que tu codes
t'es pas forcément capable
d'utiliser un content d'or docker
donc moi je vois
l'idée en fait c'est de pouvoir aussi encapsuler
ce que tu fais
dans un laboratoire
après tu n'en as pas débarbu ça
que le claquer dans ton navigateur
mais derrière je pense que c'est
intéressant et je l'ai aimé beaucoup en avant la réutilisation
des librairies notamment de visualisation
de data mais ce qui me semble
aussi intéressant et c'est une approche
plus pragmatique et ça dépend des personnes
mais moi je considère que même s'il y a des langages
t'en as-tu vant plus adapté pour quelque chose
je pense aussi que
c'est impossible de maîtriser tous les langages
et typiquement en tant que tech
bah même en tant que DevOps
de temps en temps on a à faire un peu de code
même du côté ops
si on connait qu'un langage par exemple le Python
ça peut être sympa
si on a besoin de dépanner, de faire un truc sur du web
ou quelque chose comme ça
ça nous permet de le faire sans pour autant
faire quelque chose de dégueulasse en JavaScript
qu'on comprend en moitié
donc ça me peut, à mon sens ça me paraît intéressant
là dessus aussi de pouvoir du coup
se dire que avec du Python
si je le connais bien je peux dépanner
vite fait sur un petit truc ou web
que j'ai besoin
juste pour remontir
ce que tu disais Christophe en fait c'est une
défense de web assembly en fait
c'est excessant de boxer du coup
effectivement ça évite
ça évite certains problèmes de sécurité
et l'autre utilisation
de ce sandboxing souvent c'est
un désintéresse c'est de faire des plugins pour les applications
donc il y a pas mal d'applications
qui peuvent être étendues avec des plugins
qui sont en web assembly
et du coup aussi pour avoir cette notion
de sandboxing
et de sécurité très contenue
et donc éviter que
un plugin fait par
un éditeur tiers
vienne tout péter ou vienne faire
des mauvaises interactions
c'est un des usages
qu'on voit apparaître
depuis pas mal de temps
et bien merci
et on l'attendait tous
c'est maintenant habituel
on a une section les outils à connaître
dans radio DevOps
donc on va vous partager
plein d'outils et tout le monde s'y est mis
cette fois-ci et René
tu vas nous parler d'un premier outil
alors c'est moi qui commence
ok pas de soucis
ouais alors
je vais vous parler de un petit outil
alors c'est pas forcément
le niveau DevOps c'est plus pour de la productivité
personnelle
c'est un outil qui s'appelle
qui fait par
par exemple qui font popos
donc c'est System76
qui est une entreprise aux États-Unis
qui vend des
laptop
des ordinateurs compatible Linux
et ils ont fait
on va dire leur environnement
enfin leur distribution on va dire
qui s'appelle popos
et il y a un des outils qui s'appelle PopShell
et ce que j'ai trouvé intéressant
c'est que moi depuis pas mal de temps
je me mettais un peu
intéressé au
je trouve plus le nom
aux
environnements graphiques
comme 3
et des mois je trouve plus le terme
voilà
qui font du tiling
l'idée c'est que quand on ouvre des fenêtres
c'est le Windows Manager qui vient positionner
les fenêtres
on va dire au mieux
et on a pas besoin de déplacer les fenêtres
je trouvais ça intéressant
mais je n'ai jamais sauté le pas
pour aller sur i3
parce que j'étais assez content
avec mon environnement
génome
et en fait cette extension
ce pop shell
c'est une extension
génome qui arrive
et qui vient
rendre un peu ce comportement
alors c'est probablement
peut-être pas aussi bien qu'un vrai
tiling au Windows Manager
mais ça donne quand même une approche
assez sympa
ou une bonne idée de ce que ça fait
et du coup je me suis mis à l'utiliser
et voilà je trouve ça plutôt
pratique donc voilà pour les gens
que ça intéresse ça s'installe très bien
et en fait un essai
moi je trouve ça sympa
pour la petite histoire
j'avais détesté i3, j'avais plutôt bien aimé
j'avais un gros souci avec
et un truc qui me perture
ça c'est un côté un peu
on va dire un peu chiant
c'est que ça me sentait vachement
dur d'avoir quelque chose de cohérent
j'aimais bien la notion que tout est séparé
et chaque truc c'est un peu le petit programme
à chaque fois c'est à dire le configurer
ça voulait surtout dire
le rendre cohérent avec le reste
et moi ce que j'aime bien avec génome c'est que tout est globalement cohérent
les apps fonctionnent bien même si c'est un peu lourd
par moments ils sont quand même pas mal améliorés
là dessus donc je trouvais ça plutôt agréable
à utiliser
donc si je peux combiner le meilleur
des deux mondes ça me va
je connais pas du tout
donc je suis pas prêt encore à passer le pas
de toute façon je suis pas sur no
moi je suis sur a bujiz
donc je ne sais pas si ça va s'adapter
moi je connais pas non plus
mais je crois que je fais partie des gens
un peu réfractaires au changement là dessus
où j'aimais pas terne
et je crois que j'aurais du mal
à m'en sortir, il y aurait un temps d'adaptation
en tout cas pas négligeable
et toujours s'adapter au nouveau outil
puisqu'on est à parler de Linux
oui bah d'un fois je vous avais parlé de Ubuntu
du coup c'était 22.04
qui sortait
aujourd'hui c'est le tour de Fedora de sortir en version 36
donc du coup
qui a distribution plutôt orientée
Warstation slash laptop
de nos amis de chez Red Hat
donc du coup c'est une distribution qui marche
très bien pour atteindre
j'ai passé vite fait pas de surnotes
mais j'en ai pas retenu grand chose que je dis pas du tout
pas du tout cette distribution
mais il y a pas mal de choses qui sont une grade
comme d'habitude
et ils sont assez
ils sont assez rapides
pour mettre les mises à jour chez Fedora
si jamais vous avez jamais essayé ça peut être intéressant
ils sont assez réactifs, c'est plus stable
et c'est plutôt très propre
j'avais testé, j'ai rarement eu les problèmes
donc si vous cherchez une distribution pour votre pc
qui soit stable, efficace et qui soit
pas possiblement vous aimez peut-être pas
tout ce qui est APT etc
des bienes word
Fedora peut être une très bonne alternative
et c'est des versions 36
le bon moment de vous y mettre
c'est pas possible tout le monde aime des bienes
tout le monde aime vous le tout
il y a des infiltrés par ici
oui
il y en a un qui va dire non alors
il y a des infiltrés ouais
il y a un des avantages aussi
d'utiliser Fedora
c'est pour ça
à l'époque
j'avais basculé
c'est que
si dans votre entreprise vous utilisez beaucoup de CentOS
alors CentOS il y a eu un petit peu
ou des environnements basés
sur Red Hat Enterprise Server
ça permet de voir un petit peu ce qui va arriver
en avance de phase donc ça c'est un côté
intéressant
et oui je suis utilisateur Fedora 35
et je trouve que ça marche plutôt bien
c'est sûr qu'en effet
dans ton entreprise tu admises
des serveurs Red Hat Linux
tout son intérêt
tu perds pas tes habitudes
c'est sûr que tu passes pas d'une distriebe à l'autre
oui
oui oui il y a ça
puis souvent
par exemple le package manager
il a changé plusieurs fois
ça permet de
déjà te mettre un petit peu à la page
sur le nouveau package manager
alors après c'est pour le bien ou pour le pire
les gens je les laisse décider
mais au moins tu peux déjà t'y faire un petit peu
sur ton laptop en avance
et quand ça arrive sur les serveurs
t'es pas complètement perdu
pareil sur les fichiers de conf
les choses qui peuvent bouger un petit peu
ça permet d'anticiper
et Juan je vais te passer la parole
tu veux nous parler d'un autre outil
oui oui alors ça va être très rapide
la dernière fois
avec
Roné avait évoqué
l'outil Gilles
pour avoir
une espèce
de viewer
de Gizen sur votre machine
plutôt sympa
avec plein de trucs pratiques
pour rechercher, pour collabs etc
un peu dans la même veine
mais cette fois-ci
via une interface
c'est
DGSRI
un site
qui s'appelle Gizen Hero
et en fait
de la même façon
vous pouvez applauder ou copier un Gizen
et en fait il va en faire une interprétation
hyper dynamique, hyper visuelle
et surtout
vous pouvez le partager via des liens
via un lien
un permalink
attention
ne mettez pas n'importe quoi
applaudez pas n'importe quoi
sur ce truc-là
mais par contre ce qui est quand même très pratique
c'est que du coup
partager du Gizen
des fois c'est un peu pénible
partager un truc comme ça
où il y a tout un tas
de petits repères visuels
très sympathiques
moi je trouve que c'est pas mal
c'est full open source
vous pouvez
installer votre propre version
dans votre infra
un petit outil pas cher
ça m'a l'air bien sympa
c'est cool d'avoir un outil comme ça
qu'on peut héberger
personnellement je suis jamais trop confiant
de taper
les fameux parsers sur le net
et d'aller voir directement dessus
même s'il n'y a pas de secret
mais je suis pas ultra fan
de faire ça
il peut y avoir des noms, des prénoms, des données
qui peuvent servir
donc là c'est vraiment cool que ce soit hébergable
soit open source, c'est une bonne chose
et ben moi je vais vous parler
d'observabilité
puisqu'on a fait un épisode
de Radio DevOps sur la
supervision, là je vais vous parler de SIGNOSE
SIGNOSE c'est un
APM
open source et libre
donc un APM ça sert à quoi ?
ça sert à stater vos applications
à avoir les performances de vos applications
donc c'est des outils souvent
qui se plugnt
en plus sur votre supervision
alors les APMs les plus connues sont Nurolic
et Datadog
et ben là c'est une alternative justement
à ces solutions appropriétaires
et j'avoue que
les captures d'écran qui publient sur leur github
sont assez sympas
et c'est basé sur si j'ai bien suivi
OpenTelemetry
donc pour l'instant ils supportent le Java, le Python
Node.js, Ego
donc ça a l'air assez intéressant
et ils ont une section aussi
comparison donc ils se comparent à Prometerus
c'est quoi les avantages des accompagnants
de chaque partie
à Adjager aussi qui a un autre outil APM
je crois
et c'est vrai que les APMs libres
j'avoue que je ne connais pas
des masses
je ne sais pas si vous vous en connaissez
à part évidemment Cygnose
qui vient de popper dans mon fil Twitter
il n'y a pas si longtemps
alors il y a Elastic APM
alors après aujourd'hui la licence
je ne sais pas trop en en est
mais
il n'y avait pas si longtemps
ce Open Source
c'est pas sur leur licence
propre à eux
en fait il y a juste Amazon
et Google qui ont pas le droit de réutiliser
le truc comme ça
je me souviens plus du détail
c'est ça
ça doit être en SSPL
et en Elastic
licence
mais c'est pas des licences reconnues
on n'avait pas déclenché assez de débat
par contre des combats de licence
mais du coup
non c'est cool qu'il y ait une alternative
oui
exactement
et en plus ça s'éberge apparemment facilement
il faudra tester
je vais relesser la parole Aroni
un petit outil pratique en ligne aussi
je ne sais pas si
vous avez déjà joué avec ça
mais moi j'ai eu affaire
à faire des
on peut faire des schémas de validation
pour le JSON
un peu comme on le faisait sur le XML
avec les DTD
en gros on peut spécifier avec un fichier
quels sont les champs
qui vont rentrer
et le type des champs
et donc c'est possible de faire la même chose
avec
du JSON
et la problématique de ça
c'est que parfois c'est un petit peu compliqué
à contrôler
et être sûr
que le schéma est bon
en fonction des entrées qu'on va faire
et donc il y a un site
qui s'appelle jasonskimavalidator.net
et je dois avouer
qu'il m'a beaucoup aidé dans les
dernières semaines
pour justement
m'assurer que mes schémas
étaient bons
et qu'ils faisaient bien
ce qu'ils devaient faire
donc voilà si vous êtes confrontés
à ça, ça aide vraiment
donc
voilà je pense que c'était sympa
de le mentionner
je vais me permettre de rajouter
un petit truc c'est que JSON héros gère ça
il te permet
de générer le schéma
de validation pour un objet JSON
que tu lui envoies
alors j'avais pas fait le rapprochement
mais effectivement c'est du coup
c'est quand même hyper pratique
tu switch d'onglet et il te file le schéma
et après tu peux l'intégrer dans tes trucs de test
pour tout valider
ça peut être bien pratique
j'ai vraiment envie de Yamle
automatiquement jason on en fait peu
donc on ne le valide pas forcément
mais c'est un petit outil pratique du coup
si vous avez la même chose pour Yamle
moi je suis partant
si l'on nous en trouve un pour Yamle
je pense qu'on en parlera
et bah Damir tu vas clouturer cette section
des outils que les gens ont
passé en version 0.7
ce qui est relativement rapide
compar aux rythmes de développement de VIM
donc on peut dire qu'ils sont sur
la voix express
et ça apporte pas mal de petites choses
notamment la
coloration syntaxique
un peu plus avancée qui est notamment
totalement intégrée
quand je dis
coloration syntaxique c'est vraiment avancé
avec des plugins
des extensions qui sont possibles
pour certains langages etc
donc c'est totalement intégré sans extension
il y a
le moteur pour détecter
des changements extra qui est amélioré
et il y a plein d'autres choses
notamment le fait de pouvoir exécuter le luna
le langage de configuration et de plugins
en remote
donc ça offre plein de possibilités assez marrantes
à base de Neo Vim Cloud
donc on peut faire des trucs très fun
mais voilà donc c'était
pour moi une bonne occasion de remettre en lumière ce touti
personnellement pour la petite histoire
moi j'ai migré sur Neo Vim il y a un plus d'un moment
ça se passe très bien j'avais écrit un article
dessus que vous pouvez dire si vous vous intéressez
mais je suis
un très grand utilisateur de Vim à la base
et pour le coup j'avais été longtemps à sauter le pas
et je regrette pas du tout
et ça peut vous donner aujourd'hui un environnement
ultra efficace
léger et qui est
totalement moderne
donc du coup vous avez pas
juste la netteur de code
vous avez aussi la compétition
vous avez la documentation intégrée et vous avez plein plein de choses
et ça c'est vraiment top
et qui est un terminaire qui peut être même run en remote
dans un terminal
on peut montrer
comment s'appelle
VS Code la dans Cloud
vous pouvez dire je peux le faire dans Cloud aussi
au travers d'une session et c'est ça avec un petit T, vous avez même des fenêtres
et là c'est magique
exactement merci
c'est vrai que j'ai abandonné Vim
au profit de
Atom à l'époque et puis maintenant
VS Codeium
je suis pas encore prêt à y revenir
parce que je suis bien confortable
dans mon VS Codeium
juste pour faire un petit lien
avec la news d'avance et la version 07
arrive dans la fédora 30
il y a un meta universe
j'ai rien à ajouter
je dirais juste que lisez l'article de Damien
moi ça m'a presque donné envie de tester
mais encore une fois
ça fait partie des sujets sur lesquels je crois que je suis un peu psychorigide
et j'ai du mal à
à changer
mais par contre du coup j'ai compris
pourquoi t'avais fait ça
ce que t'y est retrouvé et que t'as trouvé intéressant
et de plus productif
mais je sais pas
j'ai peur que le temps
de switch soit trop long
merci
je vais rester pour le moment
mais lisez l'article il est bien
on profite pour te le dire du coup
après c'est totalement compatible
donc t'es absolument pas perdu
tout ce qui marche dans vim
marche dans neo vim
la seule chose qui est chance
c'est que t'appelles nvim et entre guillemets
ça marche exactement pareil
donc la transition pour
quelqu'un qui utilise vraiment l'un ou l'autre
c'est-à-dire sans plugin etc
c'est rare d'user sans plugin
sans avoir à naviguer à côté
ou autre chose parce que
on fait tous du code
plus ou moins que ce soit du terraform
du plugin et autre chose donc ça c'est très vite limité
mais dans tous les cas si vous voulez le tester
il est compatible 100% avec ce qui est existé
sur vim
on pouvait même prendre votre fichier de configuration vim
le mettre sur neo vim ça a fonctionné
vous profiterai pas de certains avantages
mais ça je n'en parle plus dans l'article
mais vous pouvez au moins vous faire des mains dessus
et voir si c'est intéressant ou pas
et bah merci
et à toi
chers auditeurs ou auditrices
si tu nous écoutes et que tu as tenu jusque-là
et que si tu veux venir en discuter
et bah le mieux c'est de nous rejoindre
sur la communauté des compagnies Ludivops
qui est un forum
où on discute tous puisqu'on est tous
dessus tous les animateurs du podcast
ils sont donc viens d'inscrire
c'est un des liens en description
et moi je vais
laisser nos chers auditeurs
et je vais leur dire à bientôt
et je vais vous laisser le mot de la fin
à tous les trois et
est-ce que je tente ou il je tente
je vais commencer par René
moi je vais
rester classique
j'espère que les sujets vous auront intéressé
on a été un peu plus
dans le développement
pour cet épisode-là j'espère que
vous ne m'en voudrez pas parce que c'est un peu moi qui milité
et
voilà bah je vous souhaite une bonne
écoute et au prochain podcast
et j'espère vous retrouver au prochain podcast
bah du coup on a eu l'occasion
de revenir sur un incident
un petit bout de temps et on a
nouveau parlé de ce magnifique
domaine qui est la communication
donc le DevOps est de la communication
ingénie de la communication, notre métier c'est de la communication
on nous a menti et je vous laisse
sur cette réflexion
ça vrai que la communication est super importante
dans le DevOps et R1 c'est toi qui a le mot
de la fin de la fin
eh ben ce sera vert
parce qu'il fait très très chaud
là au moment où on enregistre

Les infos glanées

Je suis une fonctionnalité encore en dévelopement

Signaler une erreur

RadioDevOps

Vous avez l’envie d’en connaitre plus sur le mouvement DevOps ?

Les problématiques liées au déploiement vous titillent…

Alors, vous êtes au bon endroit !


Radio DevOps est la Baladodiffusion des Compagnons du DevOps.

Le podcast en français dédié à notre mouvement.


Nos émissions :

  • 🗞 Actus Devops : est une émission animée par des membres de la communauté des Compagnons du DevOps. Dans chaque épisode nous étudierons l’actualité Cloud et DevOps.
  • 📻 Radio DevOps : est l'émission phare animée par des membres de la communauté des Compagnons du DevOps. Dans chaque épisode nous débattrons sur un sujet de fond.
  • 🛋️️ En aparté : est une émission où je m’entretiendrai avec un invité sur le mouvement DevOps en entreprise.
  • 🎙️ En Solo : est une émission où je serai seul pour vous parler de DevOps ou de Cloud. 


📩 Si tu n’es pas déjà abonné, alors abonne-toi pour ne pas rater ces émissions.


💖 Tu peu soutenir mon travail et la communauté sur :

https://soutenir.compagnons-devops.fr/


🎓 Développe tes compétences DevOps avec un mentor : http://devops-mentor.tech/


🎁 Télécharge mon antisèche git : http://froggit.fr

💬 Si tu as envie de discuter du mouvement, le plus simple est que tu nous rejoignes dans la communauté des compagnons du DevOps : https://www.compagnons-devops.fr


❓ Pose moi une question : http://question.compagnons-devops.fr


☁️ Suis-moi sur les autres réseaux sociaux : https://mtr.bio/compagnons-devops


🌐 Les Compagnons du DevOps est une initiative de Lydra. NOTRE SITE: https://www.lydra.fr


Chez Lydra, nous nous sentons seuls entre deux Meetups ou deux conférences. Nous n’avons pas trouvé de lieu où échanger et avoir des débats en français sur le sujet qui nous passionne.


Nous avons donc décidé de créer et d’animer une communauté qui partage nos valeurs :

  • La passion de l’infrastructure as code.
  • La conviction que les logiciels libres et open sources sont émancipateurs.
  • L’envie de partager des méthodes, bonnes pratiques ou retours d’expériences.
  • L’amélioration continue fait de nous des experts en devenir.


Rejoins les Compagnons du DevOps !


#DevOps #InfraAsCode #Ansible #OpenStack #OpenShift #K8S #Docker #Packer #Terraform #GitLab


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Tags
Card title

Lien du podcast

[{'term': 'DevOps', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Cloud', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'InfraAsCode', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Ansible', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'OpenStack', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'OpenShift', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'K8S', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Docker', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Packer', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Terraform', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'GitLab', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'learn', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'compagnonage', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Technology', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'News', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Tech News', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Education', 'label': None, 'scheme': 'http://www.itunes.com/'}]

Go somewhere