Brutos t'as souscrit un contrat prévoyance ?
Pas besoin, Brutos plus grand gladétaire du monde.
Oui mais là c'est quand même un tigre.
Brutos plus fort.
Viens Minou, viens.
Oh Brutos, mais chamy nous !
Ne pas anticiper l'avenir, c'est du passé.
Avec les offres prévoyances d'Aizio Mutuelle,
mettez vos proches à l'abri en cadaxie d'un de la vie, d'un validité ou de décès,
et bénéficiez d'une assistance renforcée.
Aizio Mutuelle, c'est ça la Mutuelle d'aujourd'hui.
Information et conditions en agence au suraizio.fr
Quelles sont les news du cloud et du DevOps en ce mois d'avril 2023 ?
Alors aujourd'hui on va parler d'intelligence artificielle,
d'un futur géant du cloud, de la fin de la gratuité de dockers
pour les groupes et organisations, et d'un incendie, et oui encore.
Tout ça on va le voir dans cet épisode de podcast.
Bienvenue sur Radio DevOps, la balade aux diffusions des compagnons du DevOps.
Si c'est la première fois que tu nous écoutes, abonne-toi pour ne pas rater les futurs épisodes.
C'est parti !
Bienvenue à toi chers compagnons, dans Actu DevOps,
ton émission de veille cloud mensuelle.
Cloud et DevOps, j'ai oublié le DevOps.
Comme d'habitude, respire jusqu'à la fin parce qu'on a fait une petite sélection d'outils
et cette fois-ci en plus il y a une bonne pratique, tu verras.
J'ai vu ça dans les autres de l'épisode.
Alors avec moi pour parler actualité, ce soir j'ai Nicolas, bonsoir Nicolas.
Salut tout le monde.
Il y a aussi René, bonsoir René.
Oui bonsoir à toutes et tous.
Et enfin Erwan, bonsoir Erwan.
Bonsoir.
Bon alors on va commencer par la traditionnelle rubrique du couillet des auditrices et auditeurs.
Et aujourd'hui c'est une auditrice qui nous a écrit et j'aimerais justement vous lire le message de Lilou Mulou
qu'elle nous a laissé sur YouTube à propos de l'épisode.
Alors je le dis parce que c'est en rapport à cet épisode-là.
L'épisode DevOps en start-up et grosse entreprise, quelles sont les différences ?
Alors elle nous dit un épisode très intéressant et elle nous fait un témoignage.
Dans son entreprise, elle dit on a une équipe DevOps là où je bosse mais tout le monde en fait.
Tout le monde fait du DevOps.
Ils sont là surtout pour accompagner les équipes, mettre en place de nouveaux outils et les best practices.
Et d'accord déjà Lilou, merci pour ta félicité parce que je sais que ça fait longtemps que tu commandes régulièrement les podcasts et les live sur YouTube.
Même si à chaque fois tu dis que tu as du retard mais c'est pas grave.
L'important c'est d'arriver et on arrive même tard.
Alors moi, petite perso, je me demande dans quelle mesure l'équipe DevOps que justement tu décris.
Je me demande si ces équipes là qui sont dans les entreprises et qui font exactement ce que tu décris ne sont pas justement un mix entre des équipes plateformes et des équipes d'animation DevOps.
Je vous appelle un peu comme ça qui anime en fait la communauté DevOps dans l'entreprise et l'état d'esprit.
Et là je vais passer le message à Erwan parce que je sais que tu as lancé un sujet il y a plusieurs mois sur Formes, Décompagnons, au sujet des équipes plateformes.
Est-ce que tu peux nous en dire deux mots des équipes plateformes ?
Les implems des équipes plateformes sont quand même un peu pas mal variés entre les boîtes.
Mais en tout cas ce que je vis aujourd'hui parce que je fais partie d'une équipe plateforme c'est que notre rôle c'est de fournir la stack, donc les différentes stacks techniques aux autres équipes.
Qu'elles soient aussi des équipes qui développent des produits on va dire infras ou du dev ou whatever.
Et en fait du coup il y a vraiment ce côté nos clients c'est des gens en interne en fait et on doit s'assurer de est-ce les sur des services qu'on fournit à ces gens en interne.
Donc on est très souvent pas directement lié au produit de l'entreprise mais par contre on sert à ce que le produit de l'entreprise puisse tourner.
Et donc ça veut dire fournir de l'infrastructure, fournir des environnements, fournir je sais pas des modules Ansible, Terraformes, Elm, ce qu'on veut.
Pour permettre aux gens qui ont besoin de cette fameuse plateforme de pouvoir l'exploiter de la façon la plus autonome en suivant le maximum de best practice et best practice poussé par l'équipe plateforme.
Et en ayant un petit peu un package de monitoring, facilité de déploiement, de construction d'environnement etc.
Et donc l'équipe à laquelle j'appartiens aujourd'hui c'est essentiellement des gens qui sont dit entre guillemets des VOPs mais avec des profils très variés.
Mais dont l'objectif c'est de fournir ce que je viens de dire, des outils, des bonnes pratiques et des environnements.
Donc voilà je sais pas si ça répond bien à la question.
Et bah merci, ça répond parfaitement à la question je pense.
Tu l'auras compris si tu nous écoutes, le courrier des auditeurs et auditrices, il est là pour faire passer des messages et aussi on en profite en tout cas on essaye pour broder un peu autour et apporter quelque chose.
Donc toi aussi, laisse nous un message ou plusieurs, inompte nous de messages sur Apple Podcast, Podcast Addict, Youtube ou même le forum.
Tu peux venir sur le forum, bref tu peux trouver un endroit pour nous envoyer des messages.
S'il est sur Twitter ou LinkedIn il va se perdre donc privilégier plutôt ces plateformes là.
Ça nous aidera en plus ici sur les plateformes de podcast, je sais pas si Spotify permet de laisser des messages de podcast d'ailleurs.
Et bah écoute, R1 puisque tu avais la parole je vais te la redonner et on s'est dit justement en préparant l'émission que ce serait bien de mettre le feu dès le début de cet épisode.
Et bah écoute, à toi de mettre le feu R1.
Oui, ma news va évoquer un incident qui a eu lieu il y a pas très longtemps, enfin mars sur le datacenter de MaxNode.
Alors pourquoi c'est intéressant d'évoquer tout ça?
C'est un cas de MaxNode ou Adélie qui se trouve dans l'un, à Sainte-Rivier sur Moyen-Yon.
Quand on dit grand ampleur c'est que c'est vraiment grand ampleur, il y a presque, enfin il y a plus de 80 pompiers qui ont été mobilisés, une quarantaine de véhicules, les commandes de dirages.
Alors il n'y a pas eu de perte humaine, il n'y a pas eu de blessés graves mais les conséquences d'un point de vue matériel et on va voir, et plus, sont assez importantes.
Parce que déjà il y a eu un risque de pollution atmosphérique très très fort et j'expliquerai un peu après pourquoi.
Qui a poussé à devoir évacuer une partie des habitants qui habitaient vraiment pas loin du, je sais plus quel périmètre mais je crois que c'était 5, 5, 6 km autour du truc.
Donc c'est quand même pas anodin.
Donc ça ne représente pas beaucoup de monde parce qu'il n'y a pas de masses de gens qui habitaient dans le coin mais c'est juste garder ça à l'esprit.
Les équipes de Max Note du coup on fait un travail assez remarquable parce que comme c'est un data center qui fournit pas mal de fibres et pas mal de routages au réseau,
ils ont fait le travail qu'ils ont pu pour transférer les différents flux et ne pas pénaliser les connexions des gens qui exploitent leur flux.
Donc en transférant ça dans les liens de backup, j'ai pas le détail mais bon à côté.
Le truc est assez notable c'est que Max Note en fait ils sont qu'un seul décès.
Donc quand ça s'acrame en fait d'un point de vue business, d'un point de vue service etc. ils sont quand même pas mal pénalisés.
Là où c'est un coup dur pour cette entreprise c'est qu'il y a un opérateur régional qui est visiblement à bonne presse et assez populaire.
Le data center date de 2009 donc c'est quand même assez, c'est pas très vieux et en fait c'était considéré comme le seul,
enfin en tout cas le premier data center de type tier 4 donc c'est une des certifications.
Il y a des certifications pour les data centers alors je connais pas tout le détail mais c'est des histoires de à quel point c'est redondé,
à quel point c'est autonome en cas de panne ou etc. le nombre de done time etc.
Et donc tier 4 c'est le plus haut donc c'est quand même pas rien.
Et donc voilà malgré tout ça le feu a tout pété et en fait d'où ça part,
en fait historiquement l'entreprise avait pas mal investi dans les énergies renouvelables avec des panneaux solaires etc.
Et puis ils avaient mis en place un système de batterie pour stocker l'énergie et en fait pas de bol.
Il y a eu un pépin dans ces batteries et je vous fais pas de dessin,
des batteries quand ça commence à prendre feu c'est hyper rapide, c'est hyper impressionnant.
D'ailleurs il y a quelques photos que vous pouvez voir de l'incendie qui,
on sent que ça a pas été de tout repos et donc en fait très très vite,
malgré les différents systèmes pour se prémunir d'incendie etc.
En fait ça peut rien faire donc ça a vraiment tout brûlé.
Il y a une chance qui paraît assez ouf dans tout ça,
c'est que bien sûr tous les câbles, les fibres etc. étaient morts.
Donc il y avait un côté black hole si vous passez par ce décès.
Mais en revanche dans les sales servers, il y a pas mal de clients qu'on pu récupérer en fait leur serveur.
C'est à dire que les serveurs étaient recouverts de suie et tout.
Donc ils n'étaient pas non plus dans un contexte hyper favorable.
Mais en fait il y a des boîtes qui ont pu une fois l'incendie maîtriser,
aller au data center, récupérer les serveurs, les nettoyer.
Alors du coup j'ai appris qu'il y avait des boîtes qui étaient spécialisées dans le nettoyage de serveurs.
Maintenant vous le savez.
Les nettoyer, les repluguer dans un data center spare qu'ils avaient ailleurs
et reprendre leur service.
Et d'ailleurs il y a un article très intéressant qui décrit comment access group,
qui est une boîte dont le principal d'intercenter était celui de Max Nod,
explique comment alors qu'ils auraient dû tout perdre avec cet incendie,
en récupérant ça et puis en ayant des trucs dans un data center de spare,
ils ont pu reprendre leur activité.
Alors ça a quand même mis six jours.
Mais malgré tout ils ont quand même pu reprendre leurs trucs.
Dans forcément tous les clients qui étaient liés,
les clients qui utilisaient la partie hébergement de serveurs etc.
ils ont tous été impactés puisqu'ils étaient coupés.
Et dans les clients notables, en tout cas sur lequel il y a eu de la communication,
il y a le C.H.R.U de Strasbourg.
Et donc mine de rien, c'est quand même pas rien qu'en ce genre d'institution,
d'entité et coupée.
Et là en l'occurrence,
indisponibilité de tous les services en ligne,
puisque forcément c'est là où je vais aller dans la conclusion,
mais pas de paire.
Cet incident nous rappelle qu'il y a deux ans c'était OVH qui avait brûlé,
de façon aussi assez spectaculaire,
avec des impacts aussi des mensuels.
Et puis le nombre de clients chez OVH est plus important,
mais malgré tout c'est pas anodin.
J'ai pas bien compris, j'ai lu des trucs assez divergents,
mais en tout cas le site de MaxNode ne le précise pas.
Mais les dégâts étaient tellement considérables
qu'en tout cas il y a eu des réflexions visiblement
autour de la cessation d'activité.
Donc c'est quand même vraiment pas anodin.
Et pourquoi on parle de tout ça ?
Parce qu'on a fait un podcast sur les plans de reprise d'activité,
le pourquoi, même si ça peut paraître con,
au moins on vous demande pas d'avoir des procédures clairement
où vous appuyez sur un bouton et ça va repoper des infrastructures ailleurs.
Alors si vous avez ça c'est mieux,
mais sans aller jusque là,
au moins être préparé à savoir ce qu'il faut faire en cas de vraies coups durs,
et des coups durs vraiment notables de ce type-là.
Parce que en vrai c'est malheureux ce qui est arrivé aux équipes de MaxNode,
mais ce qu'il faut retenir c'est que ça arrive en fait.
Et que vous ayez pas tout de clé en main c'est pas grave.
En tout cas il faut être prêt,
il faut être prêt à savoir ce qu'il faut faire.
C'est un peu le fameux, en période,
enfin s'il y a une guerre on a toujours une valise de près pour se barrer.
C'est un peu la même chose, forcément dans la valise il n'y aura pas tout,
mais au moins vous savez qu'en partant avec ça,
vous allez à peu près où elle.
Et moi je trouve que ce genre d'incident ça nous rappelle
qu'il faut vraiment panégliger ça,
rester humble devant les problèmes.
Forcément je pense que ici on est tous solidaires
des gens de MaxNode qui doivent avoir des...
Et puis les différents,
si ça admine des VOPs, whatever,
qui ont des choses hébergées là-bas
et qui n'ont pas du beaucoup de dormir quand ça arrive.
Et donc voilà, triste nouvelle,
mais nouvelle qui nous rappelle
qu'on est tous vulnérables et qu'il faut s'y préparer.
Du coup j'en ai vu certains sourire pendant que je parlais,
dont Nicolas.
Donc j'imagine que t'as des choses sur lesquelles on va dire,
je te laisse la main.
Oui, effectivement il y a pas mal de choses à dire.
Déjà le premier truc c'est,
tout ce que je vais dire c'est pas pour taper
sur les clients qui ont été impactés
et pas trop sur le provider des incidents à arrive.
On a vu ce que ça a donné chez OVH,
mais d'ailleurs, le passage s'ils font du water cooling
c'est peut-être pour nettoyer les serveurs plus rapidement
dans ces cas là.
Plus sérieusement, il y a eu l'histoire du TR4,
moi j'ai suivi ça de très très loin,
mais ce que j'en ai compris c'est que c'était pas
un vrai data center TR4,
ils ont déposé une marque TR4
et en réalité ils n'étaient pas réellement TR4,
parce que si ils avaient vraiment été TR4,
l'incendie cramait tous les serveurs,
puis c'était pas grave,
parce qu'il y avait de l'ardonnance,
machin, etc.
Bref, dans ces cas là,
ça n'est en évidence un truc,
c'est qu'il faut faire confiance à personne.
Si votre fournisseur, votre provider,
n'importe quoi vous dit qu'il est certifié,
demandez les certificats,
contactez les organismes de certification
pour vérifier que c'est bien un certificat valide.
C'est pareil, ils ont annoncé qu'ils étaient certifiés,
ils ont 9000 et des bananes sur leur site internet
et quand tu creuses un petit peu,
c'était en cours de certification.
Moi aussi je peux dire que je suis en cours de certification,
mais si j'ai zéro process,
je ne suis pas certifié.
En conclusion,
il ne faut pas faire confiance à quoi que ce soit,
y compris dans vos process,
donc doublez tous,
sauvegardez à plusieurs endroits,
et comme le dit Erwin,
préparez votre valise,
faites en sorte que si jamais il y a un souci,
vous ayez un minimum de trucs pour redémarrer,
donc au minimum les données ailleurs,
avoir un petit peu préparé des process,
quitte à ce que vous ne les ayez pas encore testé,
mais réfléchissez au moins à ce que vous allez faire
si jamais vous perdez votre data center complet.
Voilà, je ne sais pas ce que t'en penses toi,
René, t'as peut-être senti un petit peu plus la fumée
que moi d'ailleurs ?
Non, je n'ai pas forcément grand chose à ajouter,
je suis juste...
tu as dit que ils vont reprendre leur activité
ou c'est mentionné dans l'article ?
J'ai lu plusieurs articles sur le sujet,
et il y a des informations contradictoires en-dessus,
et sur leur site en tout cas,
ils disent juste qu'ils s'efforcent à remettre des trucs en place,
mais voilà, donc ça prend avec des pincettes,
ce côté-là.
D'accord.
Non, parce que je pense qu'après un tel désastre,
je pense que...
même le data center en lui-même,
je pense qu'il y a un certain nombre de choses à faire,
le nettoyer, s'assurer que le bâtiment
est toujours sain et tout ça,
donc ça ne me paraît pas forcément évident,
ça va certainement prendre beaucoup de temps pour repartir.
Mais voilà, je ne suis pas forcément plus à ajouter,
si ce n'est que ce que t'as dit, que ça peut malheureusement arriver,
et qu'il faut autant que faire ce peu, être prêt à...
même si je pense que c'est difficilement,
on envisage assez rarement ces cadavres,
mais bon, on a quelques histoires qui montrent que ça arrive.
Surtout ces dernières années,
où il y a un data center d'AWS,
il y avait un autre data center qui avait cramé,
il y a celui d'OVH, et maintenant celui-là,
prenez ça en compte dans vos analyses de risque,
que vous pouvez perdre un data center,
dans pas longtemps on va avoir des inondations,
des choses comme ça,
donc prévoyez de perdre un data center dans vos plans.
Tu fais bien de parler des inondations,
et moi j'étendrais ça au changement climatique,
parce que pour en avoir...
pour avoir à interpeller un petit peu
les gens de chez Ska-Lwé sur Twitter,
notamment la dernière canicule,
si ça continue comme ça,
il y a des choses qui vont mal se passer
dans les années à venir,
donc il faut prévoir que notre internet va se dégrader.
Moi je fais partie de gens qui pensent que notre internet va se dégrader,
et que à nous,
ClipTech et Ops,
de bien préparer les choses,
et en effet de faire des sauvegardes,
externaliser, ailleurs, etc.
Nous-mêmes on est carrément en train de penser
à faire des sauvegardes directement chez nous,
sur des nas, en plus,
des autres endroits
disponibles dans les data centers.
On est là, chez nous,
donc allez-y, faites des sauvegardes,
et allez, et bon,
moi je n'ai pas d'autre chose à dire que ce que vous avez dit,
donc je pense qu'on va passer au sujet d'après,
sauf si Erwan veut
suranchirir, Nicolas.
Comme le dit Erwan,
c'est préparte réaliste,
donc met des bandes de tes sauvegardes dedans,
au cas où
tu sois obligé de déménager complètement.
Non, au-delà de la blague,
c'est...
on en a souvent parlé des sauvegardes,
prévoyez aussi des sauvegardes
hors-ligne,
parce que moi c'est le truc qui m'inquiète le plus,
c'est si jamais je me fais pirater
tous mes comptes,
c'est facile de tout supprimer via les appelliers
aujourd'hui, de re-reinstaller
tous les serveurs, et là on n'a plus que ses yeux
pour pleurer, moi c'est ce qui me fait le plus peur.
Je te comprends,
nous clairement,
on a pour l'instant une méthode de sauvegardes
qui nous a partie complètement, c'est notre serveur
Borg, c'est nous qui l'infogérons,
et on va aller vers une deuxième,
puisque on va avoir des nas
qui vont héberger des serveurs Borg
qui eux ne sont pas dans des data centers.
C'est pour l'instant notre serveur Borg
est dans un data center,
qui est un de
ceux qu'on n'utilise pas
pour nos services en ligne.
Donc on verra.
Et voilà, est-ce que tu veux
surgrangir sur ce que tu as dit, ou tu estimes
que tu as déjà beaucoup parlé ?
C'est très bien.
Bon, et bien, écoutez,
puisqu'on parlait de feu, et puisqu'on parlait
de l'incendie qu'il y a eu chez OVH,
je vais vous parler d'OVH, mais pas pour vous parler
d'incendie. Alors je vais vous parler
de la sujet qui me tient à coeur,
ça fait longtemps qu'on m'en avait parlé, on m'avait même dit
Christophe, c'est dommage que tu ne parles pas
de souveraineté numérique, et donc je vais vous parler
de souveraineté numérique aujourd'hui, puisque
Octave Claba veut se payer Quant.
Alors, justement,
le moteur de recherche français Quant
est sur le point de changer de main.
Les confondateurs
d'OVH Cloud, Octave et
Merslo Claba, ainsi que
la caisse des dépôts ont commencé
des négociations exclusives pour
acheter 100% des parts
de Quant. Mais ce n'est pas tout.
Les Claba et la caisse des
dépôts ont aussi créé
un nouveau objectif, un nouvel
holding qui ambitionne tout simplement
de devenir un champion européen du
Cloud. Pour atteindre cet objectif
Symphonium réunira
les savoir-faire de Shadow,
puisque on sait que Shadow appartient
déjà, je crois, à 100%
Octave. Donc Shadow, c'est le
pionnier français du Cloud Computing
qui fournit des stations
de travail Windows, à mon grand désarroi
dans le Cloud. Mais aussi,
il réunira les savoir-faire de Quant
et d'autres applications collaboratives
européennes de qualité. Les services
de Shadow, tels que Shadow PC
et Shadow Drive seront les premiers à être
intégrés à cette plateforme, donc
Symphonium,
cette plateforme offrira également
des fonctionnalités de recherche et de
visioconférence. Le projet
est audacieux, mais les Claba et la caisse
des dépôts ont déjà prouvé
leur expertise dans le domaine du Cloud.
Toutefois, Quant
devra encore surmonter quelques défis
pour s'imposer face à des concurrents
comme Google et Bing.
Néanmoins, parce que
déjà,
il représente peu dans les moteurs de recherche,
donc il va falloir que tu augmentes un petit peu.
Alors, néanmoins, Symphonium est déterminé
à ajouter de nouveaux services à sa plateforme,
enfin sa future plateforme, c'est pour la sorte
qu'elle n'existe pas, grâce à des partenariats
avec des entreprises partageant
leur vision et leur valeur. Donc Symphonium
pour info, ce sera détenu
à 75% par les Claba
et à 25% par la caisse des dépôts.
Et justement, ensemble,
ils sont convaincus que l'Europe
dispose d'un grand nombre de solutions logicielles
innovantes et
qu'on bénéficierait
grandement d'une plateforme conçue
pour distribuer ces fameuses logicielles
et puis voilà.
Donc c'est une aventure
qui s'annonce passionnante,
avec Symphonium et ses partenaires.
Alors, je voulais ça,
si vous avez entendu parler, parce que moi,
j'ai vu ça il y a deux jours, seulement.
Et qu'est-ce que ça vous évoque ?
Faut que je distribue la parole peut-être,
parce que je vous sens pas...
Allez, Erwan, je vois que
tu souris très fort.
Oui, je souris, mais en vrai,
ça m'évoque pas grand chose.
Enfin, je...
Je suis sans troller, mais tu vois,
pour moi, quant c'est...
C'est...
Voilà, c'est déprécié, quoi.
Je connais pas une personne
qui utilise ça sérieusement.
Ça me semble tellement
des zones et lumière du reste.
Et du coup,
j'ai du mal...
Après, j'imagine qu'il y a une stratégie
et tout derrière, mais j'ai du mal à voir
à quel point ça va devenir
un levier important
dans leur stratégie
de faire...
de faire symphonium, là.
Comment t'as dit, déjà,
il veut le devenir ?
Le champion européen du cloud ?
Oui, exactement.
Le champion européen du cloud.
Je pense pas que ça soit
avec compte que ça change
grand chose.
Je veux pas être méchant, mais...
Après, je suis peut-être
méprisant, mais...
Bon, je...
Je crois un peu moyen
à tout ça.
Je sais pas...
René, peut-être que t'as un avis
plus tranché que le mien.
Non, alors je n'ai pas entendu parler
avant de cette news-là.
Après, je savoue que c'est un peu
flou
quelle va être la part
de coin dans la solution.
Parce que...
Autant la solution avec des environnements
accessible, virtuolisés,
ce que fait Shadow aujourd'hui,
ça fait sens, etc.
On commence à s'intégrer avec compte,
ce n'est pas hyper clair.
Après...
Bon, l'avenir nous le dira.
Par contre,
je pense que Octave Clabas
est quelqu'un qui a fait
des choses assez...
qui a développé OVH, qui a des
idées, qui a une stratégie.
Donc voilà...
Pourquoi pas lui faire confiance sur...
Je pense que si...
Je ne pense pas que ce soit qu'un effet
d'annonce,
si il veut acheter ça, il y a certainement
des atouts qu'il a vus
et qui veut développer.
Donc, l'avenir nous le dira
si ça va donner.
Je pense que effectivement...
Moi, je vois ça plutôt comme une bonne
nouvelle, parce que...
au moins, ça vitra un projet
comme compte de mourir.
Ça va...
ça va... entre guillemets
parfaitement se compléter avec le reste
de la solution.
Donc, il parle de...
château et...
Je ne sais plus quel autre truc qu'il voulait intégrer.
Mais...
il ne faut pas oublier que château aujourd'hui
peut intégrer au FIS 365.
Donc...
il manquera une alternative européenne
au FIS 365.
Mais...
je pense que ça commence
à ressembler à quelque chose
d'un petit peu alternatif, parce qu'on peut
avoir côté AWS.
Alors, bon, pas forcément
sur les mêmes services,
mais sur avoir un écosystème
complet de services qui gravite
les uns avec les autres.
Donc là, on peut peut-être plus
regarder du côté d'Azure.
Ou finalement,
c'est... Azure, il y a un petit peu de tout.
Il y a de la bureautique. Il y a du cloud
pour entreprise, pour particulier.
Là, il essaye peut-être
de faire la même chose.
Et vu qu'il a réussi
à faire des choses pas mal, notamment au VH,
on peut lui faire confiance
pour faire quelque chose qui fonctionne.
Après, bon, je suis un petit peu sceptique
de... des produits
qu'il veut mettre autour de château.
Mais... on peut
tout souhaiter que ça fonctionne
pour l'écosystème européen.
Merci. Je vais prendre
la parole du coup
de sache Erwan
que parmi les podcasteurs
présent ce soir, il y en a au moins
qui utilisent Quante au quotidien.
Puisque c'est moi.
Que ce soit sur mon PC
ou sur mon smartphone.
Je passe aussi par Google de temps en temps.
J'avoue. Alors pour information,
j'ai été regardé
les parts de
marchés des moteurs de recherche
en France au dernier Nouvelle.
Donc c'est Google, à 92%
puis
Vienbing à 4%
20. Enfin,
entretenant position Yahoo avec 1,68%
puis Ecosia.
Puis Quante avec 0,55%
donc
autant dire qu'en fait, il n'y a pas grand chose
à part Google.
Et
moi j'aimerais bien que ça change
ce genre de choses parce qu'on sait ce que fait Google
de nos recherches.
Moi je pense aussi que
les clabas ils ont une vision stratégique
à long terme.
Et que en fait
si ça fonctionne
puisque
tous ces trucs là, ça doit s'appuyer
sur Affornisseur Cloud. C'est pour ça que
j'en ai parlé aussi. Je pense que
soit
un Affornisseur Cloud va émerger, soit il y en a un
qu'on connaît déjà qui va prendre encore une part
encore plus importante.
Puisqu'à priori ça va être
potentiellement
un VH Cloud qui va fournir.
Nicolas, t'es pas d'accord avec moi ?
Alors oui et non. En fait
Shadow
à l'origine avait ses propres
data centers je sais pas mais au moins
son propre hardware qui gérer eux-mêmes.
Et tout le monde a pensé
qu'il allait y avoir
un gros rapprochement avec OVH
mais je crois pas que ça a sois encore le cas.
Je crois que Shadow gère encore ses machines
en propre. On verra en tout cas
ce que la vienne nous haserve.
Ce que je veux dire c'est qu'avec
un gros truc comme ça
il y a forcément
quelque chose qui va émerger en terme de Cloud
computing en Europe
je pense que ça va
pousser la R&D un peu plus
loin. Et c'est pour ça que
je voulais en parler justement ce soir
parce que en effet comme l'a dit René
c'est pour l'instant très flou, ça va juste de sortir
c'est un effet d'annonce
et ce sera pas concrétisé avant plusieurs années
puisque le temps que déjà
Quant se fasse racheter
et que ce soit validé
ça peut durer à un plusieurs années.
Donc
Waitancy je dirais
Personne veut agir
du coup je passe à la suite.
Je voulais juste dire que vous avez l'air
bien plus enthousiaste que moi
sur le sujet.
On a envie aussi que les choses bougent
c'est aussi ça le truc.
Allez moi j'ai un petit message à passer
à notre chère auditrice et auditeur qui nous écoute
si tu aimes ce podcast
et justement que tu veux t'assurer qu'il continue
le meilleur moyen c'est de nous soutenir.
Alors tu peux nous soutenir
avec plusieurs choses mais notamment
en faisant un don
sur Libérapay qui est une plateforme
de don complètement libre
et qui est gérée par une association.
Tu trouveras un lien en description
si tu as envie et sinon
tu peux utiliser les Superfans
sur Youtube si tu préfères
et puis sinon tu peux partager le podcast
évidemment.
Alors plus qu'on avait encore
jamais parlé d'IA
je crois si on a parlé d'IA
mais c'est pas des sujets phares
qu'on entretient
dans le podcast. Aujourd'hui on va en parler
puisque René nous a cococté
une petite news de ce sujet.
Oui c'est une news
qui enfin
je sais pas si vous avez un avis en temps du parler
mais
en ce moment on entend beaucoup parler de chat gpT
de pas mal de choses autour de l'IA
de Bard chez Google
ou de Lamas chez Facebook
et apparemment
on a Maudzia
qui a lancé une start up
en injectant pas mal d'argent
30 millions de dollars
pour développer des outils
autour de l'IA
et le tirer la particularité
ce qui est assez intéressant c'est qu'ils
reprennent un petit peu la philosophie
qu'ils ont sur les navigateurs
avec l'idée d'essayer
d'avoir des choses open source
de
laisser la part
d'être transparent par rapport à comment ça fonctionne
et que les contributions
soient ouvertes aussi
donc on va dire
une approche
plus ouverte
et aussi plus éthique
peut-être
de l'IA
et essayer de mieux contrôler
et de mieux juger ce qui se passe
donc voilà j'ai vu passer cette news
je la trouve assez intéressante
que Maudzia
alors je sais pas ce que ça va donner
mais essaye
de lancer une initiative
une initiative
dans ce domaine-là
et voilà je voulais en parler
je vous laisse réagir
si ça vous évoque des choses
moi je peux réagir rapidement
je suis clairement pas un pro du sujet
mais par contre effectivement
un des trucs qui revient
systématiquement dans tous ces projets
chat GPT
c'est le côté
crainte
pour le côté éthique
et aussi le fait que ça soit
fermé et que du coup
on ne sache pas trop comment ça se passe
et que du coup aussi
que les contributions soient pas possibles
et du coup
d'avoir une alternative
poussée
par probablement
un des noms les plus importants
de la scène open source
je trouve que c'est mortel
je sais pas à quel point
ça va prendre ou pas
mais en tout cas en termes
de démarche
en fait c'est nécessaire
et je trouve ça
vraiment bien qu'il s'est fait
en plus tu as dit
ils ont mis quand même pas mal dessous
30 millions c'est panodin
surtout que je crois pas que Modzila
il roule sur l'or en ce moment
donc c'est
non c'est
vraiment bien et je suis vraiment
très curieux de voir
ce que ça va donner
surtout que moi quand je regarde mon feed
twitter maintenant ça parle que d'IA
donc j'espère
voir remonter Modzila
dans ces sujets très bientôt
je peux prendre la suite
du coup
moi c'est vrai que ça fait un moment
que ça m'interpelle l'IA
c'est bien que Modzila
fasse ça parce que
ça va peut-être déclencher les débats
je trouve que dans la tech
on a un peu trop tendance à considérer
que toute innovation est un progrès
progrès de tout type
social, environnemental
ou je ne sais quoi
alors qu'en fait non toute innovation
n'est pas forcément un progrès
ça dépend tout de ce qu'on en fait
et l'IA n'est peut-être pas forcément un progrès en soi
c'est comment on envisage et comment on le met
à disposition
et ces enjeux de transparence
et d'open source
dans l'IA je trouve que c'est essentiel
mais surtout
c'est là où j'aimerais qu'un jour
on en discute et je pense que
l'arrivée de Modzila
ça va permettre de faire bousculer les choses
j'aimerais qu'on discute de ce qu'on a
déjà discuté à la révolution industrielle
qu'est-ce qu'on va faire
en fait des gens et de la plus-value
qui va être créée par l'automatisation
donc l'automatisation
des machines au 19ème
l'automatisation de l'informatique
aujourd'hui et l'automatisation des IA demain
la plus-value qui est créée par ces
automatisations
si elle continue à être captée par
les possédants des entreprises
on n'est pas sorti de l'auberge en fait
on voit bien que c'est une illégalité
augmente je suis désolé
je ramène un petit peu de politique
dans le podcast mais je trouve
que l'IA c'est bien
mais il faut qu'on discute
collectivement de ça
et puis qu'on peut-être
on se dise que
la plus-value, une partie de la plus-value
peut-être qu'il faudrait la redistribuer
à tout le monde en fait
du coup ça va être un mon tour
d'intervenir donc je vais rebondir sur ce que tu disais
c'est vrai que je me pose pas mal de questions
par rapport à l'IA
et les usages qu'on en fait
après il peut y avoir des usages
très malsins, côté fake news etc
donc je vais même pas en parler
par contre
ce qui m'interpelle plus c'est ce que tu disais
c'est la transformation
du métier de pas mal de personnes
mais au final
je pense qu'on va pas y couper
et ça va me rappeler
beaucoup de spécialistes le disent
c'est ce qu'on a vécu
au moment où on a eu
l'industrialisation
où finalement
dans les campagnes
on a eu de plus en plus de mécanisation
donc on avait plus besoin
de garçons de ferme donc ils sont allés
à la ville pour trouver du travail
ils ont trouvé du travail dans les usines
donc au fur et à mesure
dans les usines ça s'est robotisé
donc on a eu des métiers qui sont transformés
en col blanc et finalement
les col blancs on va plus trop en avoir besoin
donc
je pense que vu le contexte
socio-économique et environnemental
les gens qui
travaillaient dans des bureaux
vont pouvoir retourner à la ferme
pour pousser des poireaux parce que
finalement c'est peut-être de ça qu'on aura besoin dans
les années qui viennent
et le deuxième aspect
qui m'interpelle un petit peu
c'est le côté
politique derrière
la propriété intellectuelle
de tout ce qu'il y a
que c'est intelligence artificielle
d'ailleurs au passage n'oubliez pas
que c'est pas intelligent qu'il faut
retenir c'est surtout artificiel
c'est des modèles de données
on les fabrique, il y a des gens
qui les programme et on ne fait que
apprendre
à reconnaître des patterns un algorithme
et il faut arrêter de dire
que c'est intelligent
donc quand jouaient des gens
s'imaginent supprimer
totalement des métiers comme les radiologues
on va se retrouver dans 20 ans
où on ne saura plus construire un modèle
d'IAR, on n'aura plus de radiologues
c'est bien on va réduire le problème
de surpopulation parce qu'on saura plus
souligner les cancers. Bref
sur une note
pas forcément plus joyeuse
c'est la propriété intellectuelle
des modèles donc les premiers
modèles de chat gpt
étaient basés sur
je ne sais plus comment c'est gpt
3, 4 etc
c'est des modèles qui étaient open source
et puis
là ce qui se dit de plus en plus avec
le modèle économique qui est en train
d'arriver et puis finalement la puissance
et surtout
la vitesse à laquelle open AI
progressent, ils sont en train
de se dire que finalement
on va peut-être plus trop le mettre en open source
et puis on va le garder pour nous
et jusqu'à présent on se disait
bon ben c'est pas très grave
si on donne
tout ce qu'on a
à manger au modèle puisque de toute façon
le modèle est open source et il nous appartient
directement et
si ça devient un modèle propriétaire
finalement est-ce que ça devient vraiment
intéressant
à continuer à l'alimenter
on alimente la bête et est-ce
qu'elle va finir par nous bouffer après
bon je pense qu'on pourrait en parler
pendant encore des heures
merci Nicolas
de me rappeler que j'avais fait un tweet
à ce sujet-là très précis
que j'avais proposé qu'on renomme
open AI
je vais pas y arriver en anglais
open AI
en closed AI
en effet j'avais vu ça aussi
ouais vas-y René
si je peux me permettre
un des sujets par exemple
enfin aujourd'hui c'est clair qu'il y a
la pédale à fond sur l'accélérateur
enfin le pied à fond sur l'accélérateur
en termes de dia et ça va être évite
et justement je pense que c'est ce que tu disais
avoir
une vue des choses
un peu différente
notamment on sait par exemple
sur le droit d'auteur par rapport à ce qui est
généré au niveau du code et choses comme ça
aujourd'hui j'ai l'impression que tous ces sujets-là
ils sont un peu écartés
et entre guillemets
on a
les propriétaires
de ces différentes entreprises
vont aller très vite sur l'IA pour essayer de
capter de marcher
et peut-être que
enfin un des espoirs je pense avec
avec cette initiative de modia
c'est peut-être un petit peu de modérer ça
bon après je
je sais pas
c'est peut-être un petit peu naïf mais
je pense que ça au moins ça ouvrira
d'autres réflexions
et je pense que ça
c'est assez
bénéfique
je pense qu'il faut qu'il y ait une concurrence dans
ce domaine-là aussi
et notamment une concurrence
de l'open source
face à des trucs propriétaires
parce que sinon on va se retrouver avec des API
où on ne sait pas
ce qu'ils font des données
je sais pas si vous avez suivi mais il y a des ingénieurs
de Samsung qui ont injecté
plusieurs rapports confidentiels
pour préparer les slides
de leur prochaine réunion
alors bizarrement Samsung a commencé
à réfléchir
pour fabriquer leur propre intelligence artificielle
pour faire la même chose en interne
justement
je vais paraître un truc
parce que j'ai écouté un épisode de podcast qui m'a interpellé
et c'est quelqu'un
qui travaille chez Huggingface
je sais pas si vous connaissez c'est une boîte française
une startup française qui fait
l'open source et qui propose
des dataset en libre
donc je vais mettre le lien
en description
si vous intéressez à l'intelligence artificielle
allez voir ce que font Huggingface
et notamment il y a un hub
qui regroupe tout un tas de modèles
qu'on peut faire tourner chez soi ou pas
puisque tu parlais justement de Samsung
qui voulait créer un modèle chez lui
et bah on va passer à la suite
alors
et pour la suite
c'est Nicolas qui s'y colle
puisque Nicolas va nous parler
de docker
en fait
et d'un petit truc
dont on a parlé
chez docker on va pouvoir lui poser plein de questions après
comme cette semaine j'apporte plein de bonnes nouvelles
je vous annonce un super truc
si vous aviez
une organisation
pour faire de l'open source
et notamment
une organisation gratuite
et bien le 14 mars
docker
a annoncé que tous les comptes gratuits
allaient passer en payant
alors ils ont donné une date limite
qui est le 14 avril
donc si d'ici le 14 avril
vous n'avez pas migré
bon je pense que d'ici
l'épisode soit publié
la date sera déjà passée
donc ça sera trop tard
donc il a été annoncé que les comptes
seraient purement et simplement supprimés
donc toutes les images
de docker vont disparaître
alors derrière ça il y a plein de problèmes
c'est que
finalement c'est quand vous faites
de l'open source
il y a plein de modèles open source
où il n'y a pas de boîte derrière etc
et
vous pouvez vouloir
travailler à plusieurs
alors je cite un exemple
la fondation apache
ils ont plein de contributeurs
et ils ne peuvent pas avoir une seule personne
qui peut pousser une image de docker
donc il a besoin d'une organisation
parce que si la personne qui pousse les images
de docker se prend un bus
et ne peut plus pousser les images
il faut bien qu'il y ait d'autres personnes
qui puissent le faire
donc dans beaucoup de modèles
comme ça chez github, chez githlab etc
vous pouvez créer des organisations
mettre des droits aux personnes etc
donc docker a fait la même chose
et ils avaient la possibilité
de créer des organisations gratuites
comme visiblement ils cherchent plein de sous
et ils ont décidé de supprimer
ce truc gratuit
et si vous en avez besoin, il y a plusieurs solutions
la première c'est de payer
420$ par an
donc pour certains
certaines organisations
open source c'est
inimaginable
parce qu'ils ont 0 finance
donc pourquoi il y aurait
une des personnes qui payerait
420$ par an
le deuxième problème
c'est que vous avez la possibilité
de demander à rentrer
dans une organisation open source
apparemment
avant qu'ils fassent cette annonce
là il fallait plus d'un an
pour valider cette organisation là
et ensuite dans les conditions
c'est si vous avez
un tout petit peu de rémunération
sur votre projet
on ne peut pas vous considérer comme étant open source
donc si vous avez une entreprise
qui fait du service sur votre produit open source
vous avez des revenus que vous devez payer
si vous faites du consulting
par exemple
c'est le développeur de curl
a priori le projet est entièrement open source
mais si vous voulez le faire
travailler sur curl par rapport
à vos besoins à vous le payer
donc ça veut dire que du coup
il a les moyens, machin, etc
après
l'autre problème qui a été remonté
c'est si tous ces
ripos, toutes ces organisations
disparaissent, ça veut dire
que toutes les images peuvent disparaître
donc quitte de tous les exemples
qu'on a fait sur des
sur des organisations gratuites
donc on aurait eu plein d'exemples
d'aucœur qui
disparaissaient
d'internet
un autre problème qui a été remonté
c'est
on avait un temps très très court pour faire la migration
puisqu'ils ont annoncé
le 14 mars
que le 14 avril
tout serait supprimé
donc ça laissait 30 jours pour s'organiser
pour
récupérer toutes les images
soit payer soit machin etc
et derrière
tout ça c'était
on supprime tout
donc ça veut dire que
les images disparaissaient
donc c'était même pas on interdit
de pousser des nouvelles images
ou n'importe quelle autre solution
temporaire qui permettait
aux gens de s'organiser autour
c'était on arrête tout et le deuxième
problème c'est on ne pouvait pas reprendre
le nom d'une organisation
qui existait déjà
ça finalement c'est peut-être un petit peu rassurant
parce que ça permet d'éviter
qui est des
personnes relativement
malsaines qui reprennent
des ripos largement utilisés
à leur compte et publient des trucs
donc soit commerciaux
soit carrément
avec
du code malveillant
alors il y en a qui proposait
de tout migrer vers github
bon bah pourquoi pas sauf que
qu'est ce qui interdit github de faire la même chose
dans 10 mois
finalement c'est peut-être
de repousser le problème
reculer pour mieux sauter
comme on dit
et bon bah finalement je vais quand même vous apporter
une bonne nouvelle ce soir c'est que
finalement le 24 mars
docker a annoncé que finalement
non il faisait pas tout ça
donc ça a bien foutu le feu
pendant un moment
et finalement ils sont revenus en arrière
alors moi ça m'interroge un petit peu
tous ces trucs là
c'est soit ils sont très très maladroits en communication
soit ils sont hyper balèze
parce qu'ils trouvent le moyen de
faire parler de
alors je sais pas pour vous mais personnellement
j'ai un abonnement docker
parce que je trouve que c'est quand même important
de contribuer
à des gens qui ont fait
évoluer le système de conteneurs
et notamment en open source
et dans mon entreprise
on a déjà pris un compte
un compte teams
pour nos images docker
on en a pas beaucoup mais
ça me paraît important de contribuer aussi
pour qu'ils puissent financer
l'hébergement de tous les projets
open source
René je pense que
dans l'équipe t'es peut-être le plus
impacté aussi sur les projets
un petit peu open source qui doivent
trouver du financement
qu'est-ce que t'en penses toi de tout ça ?
Non je suis pas spécialement
hyper impacté mais
ouais c'est curieux
honnêtement je sais pas trop
quoi en dire
j'ai un petit peu suivi
l'histoire
et je sais pas effectivement
si c'est
un petit peu suite au bad buzz
un petit peu qui s'est créé autour de ça
qui sont revenus en arrière
ou pas
mais c'est vrai que c'est assez curieux
d'avoir annoncé quelque chose
sans forcément le mettre en application
à mon avis par contre c'est
c'est plutôt une bonne chose
qui soit revenu en arrière
même si forcément
d'idées je pense c'est toujours la même
c'était de trouver du financement
pour rendre la boîte rentable
et voilà
je peux encourager à essayer
pour ceux qui ont besoin de dockers
et
pour essayer
et voilà qui l'utilisent professionnellement
d'essayer de contribuer
comme ta société la fait
j'ai pas forcément plus à dire
c'est un peu curieux
alors comme quoi ils sont pas
totalement à la recherche de pognon
parce que dans le
dans leur communication rollback
ils ont bien annoncé que
tous ceux qui avaient souscrit un compte
payant entre l'annonce et le retour
en arrière
ils pouvaient rembourser
enfin ils remboursaient même automatiquement
tous ceux qui avaient pris des comptes payants
que ce soit des comptes payants
ou des organisations payantes
R1 je suis sûr que t'as des trucs à raconter aussi
effectivement moi j'avais vu passer
le truc sur twitter
l'annonce et puis
et l'espèce
désolé pour le mot mais de shitstorm
qui a suivi
ça vraiment
enfin
enfin les internet
c'est assez ouf et effectivement
moi j'étais passé
assez vite à autre chose
parce que j'avais vu que
très vite ils avaient fait la communication pour te dire
oh là là
en plus
le blog je crois
qui tourne le message en mode
on a compris avec les feedbacks qu'on avait pas pris
une bonne décision un truc comme ça
et ça donne un petit peu
l'impression de dire
bon et si on essayait de les faire payer
bah si on tente
oh bah merde finalement
ça fait plus gueuler que ce qu'on imaginait
rollback
mais par contre
je crois que
dans tout ça
ils ont un système
de
je sais plus comment ça s'appelle
une espèce de programme de sponsoring
pour que tu puisses utiliser
leur plateforme et je crois
que avec tout
tous les feedbacks qu'ils ont eu
il y a eu une histoire
ils ont accepté beaucoup plus de dossiers
parce qu'en fait ils se rendaient compte
que aussi ils étaient trop
drastiques
sur les dossiers
des projets qui avaient droit à ce programme
donc bon
c'est vraiment
c'est un peu malheureux
et le pire dans tout ça
c'est
en fait
qu'ils coupent le push
pourquoi pas
alors qu'ils disent ok on drop tout
enfin on drop le truc associé
ça pour moi c'est juste
impensable
c'est un peu comme
enfin je sais pas
ces plateformes là pour moi ça a la même
responsabilité
que le maven
pour en java c'est à dire à partir du moment
où un truc a été publié une seconde
il faut que ça reste
parce qu'il faut permettre aux gens de pouvoir
réutiliser ce truc là
donc
du coup
moi je pense que
qui faille
contribuer à ce genre de plateformes c'est normal
à un moment donné
enfin
ça peut exister parce que
ils ont dérentré
à un moment donné
en revanche
c'est devenu tellement gros que
ça doit avoir une espèce de mission
publique quelque part
je sais pas comment on peut dire
je connais pas bien les termes mais de dire
en tout cas c'est pas de leur fait
de défacer des trucs
c'est pas en mode
on a plus de place sur l'espace 10
mais non ça rien
si le mainteneur n'efface pas
volontairement
pour des bonnes raisons ou quoi que ce soit
et encore je crois que sur le maven tu peux vraiment rien
effacer
je pense que ça devrait être la même chose
parce que là
je me vois trop faire un dockerpoul et dire
qu'est ce qui se passe
le gay il a pas payé
bon bref
donc j'imagine que
Christophe
ça t'en refous ce genre de
de nouvelles
à la fois je comprend
la position de docker
on sait ça fait plusieurs années qu'il cherche
un modèle économique
je vois que ce qui se passe entre
docker qui clavent et d'autres
qui sont en train de serrer la vis parce que
je pense que ça fait plusieurs fois que je le dis
qu'on sort petit à petit de l'internet tout gratuit
et je pense qu'il va falloir
commencer
à se poser les questions
des usages qu'on fait du tout gratuit
et surtout des ressources qui sont derrière
parce que tu parles justement
de maven qui supprime rien
moi ce qui m'interpelle c'est les ressources
qui sont utilisées pour
réberger tout ça alors on sait que les disques
ça coûte pas très cher et que
c'est pas ce qui consomme le plus en termes de ressources
mais ça a plus ça plus ça plus les images
de compteur etc sous que les images de compteur
parfois elles sont assez volumineuses
moi je pose ces questions là sur
est-ce que justement
on peut pas
participer avec un faible niveau
alors tout à l'heure
mon temps c'était 420$
mais c'est comment ça fait pas mal
mais
je sais pas
il y a un truc chez moi
une sorte de
de dissonance cognitive entre le fait que
ben ouais mais les projets open source
est libre il faudrait qu'ils puissent en profiter gratuitement
mais en même temps on peut pas non plus
continuer à
dépenser de l'énergie
et des ressources comme ça
sans penser à notre planète
là je
pour le coup je recadre ça dans notre planète
et le fait que
ces images de compteur sont rebergées
dans des data centers et ces data centers
il y a des machines, il y a de l'électricité
et ça continue comme ça
en plus on a parlé
des choses artificielles juste avant c'est encore pire
comment est ce qu'on va faire
bon je pense que
pour le coup
juste pour ce truc
de coeur a pris la bonne décision
de revenir un petit peu
sur ce qu'ils ont annoncé
néanmoins
je pense qu'on doit réfléchir
collectivement à ça
j'avais fait un épisode justement
sur ma chaîne youtube secondaire
sur pourquoi c'est important
de payer pour les outils qu'on utilise
en tant que pro et je suis du même avec Nicolas
en tant que pro
si on utilise des trucs comme ça il faut les payer
moi je n'utilise pas docker hub
parce que de toute façon je ne produis pas
d'images de compteur et si j'avais à le faire aujourd'hui
je l'utiliserai le
le registre de compteur de frogeit
puisqu'il y en a un dans le GitLab
et j'espère bien en rajouter un autre
mais
collectivement posons-nous
la question des ressources qu'on utilise
de toutes ces images là et tous ces trucs
qui traînent
parce que
mine de rien, enfin moi je réfléchis mais
quand une voiture on l'utilise
on paye l'essence
nous quand on utilise
des choses dans notre quotidien on ne le paye même pas
moi ça m'interpelle quand même
je pense que c'est l'une des rarestes industries
et il faut qu'on se rende compte
de ça
où les gens sont hyper bien payés
et où les outils sont pratiquement gratuits
et à chaque fois qu'on en sort on nous dit
est-ce que vous faites un plan gratuit
?
je sais pas moi mais il y a tellement de fric
dans la tech pourquoi tu payes pas mec
bon voilà c'est mon coup de gueule
Nicolas je te sens sourire vas-y
oui en fait
vous pouvez aller
écouter l'épisode
sur nos installations
matérielles et logiciels
c'est moi j'utilise de plus en plus
de logiciels payants
qui n'ont pas d'équivalent
open source
ou qui se démarquent vraiment d'une solution
open source après j'utilise
énormément de trucs en open source mais à un moment
donné quand j'utilise
un logiciel en ligne
j'ai pas envie que mes données soient utilisées
pour alimenter la bête
comme je disais tout à l'heure
par exemple j'utilise d'IPOL pour
mes traductions j'ai pris un abonnement professionnel
parce qu'ils s'engagent à part
réutiliser le contenu
pour faire des traductions
dans les plans gratuits
j'ai pris un abonnement
d'OccureUp parce que ça me paraît
intéressant de financer
pour tout ce qu'ils font
à la communauté
après il y a
certains services qui sont
gratuits
s'il n'y a pas de plan payant tant mieux
on va parler
dans les outils de l'épisode
il y en a quelques-uns qui sont gratuits
mais il ne faut pas oublier que derrière
le gratuit il y a quand même des gens qui travaillent
il y a quand même des infrastructures à payer
il faut toujours un modèle économique
donc réfléchissez à ce que vous utilisez
en gratuit
et c'est pas parce que c'est gratuit
que ça ne coûte à personne
donc quand vous êtes un professionnel
et que ça vous
permet de gagner du temps
donc de l'argent
regardez comment vous pouvez contribuer
au projet
parce que ce n'est pas forcément
des contributions financières que les gens cherchent
c'est peut-être de la traduction
de
des rapports
sur les
des issues sur github etc
moi dans ma boîte
notre produit open source
si vous l'utilisez en open source
il n'y a aucun problème
c'est juste qu'on ne va pas vous fournir de support
pour vous aider à l'installer
pour vous passer de nous
par contre en échange
si vous avez des problèmes
à créer des issues sur github
essayez de faire des PR si vous pouvez
on sera très content d'avoir des contributeurs
et
ces open sources ne veulent pas dire que gratuit
c'est derrière l'open source
il y a plein d'autres choses qui viennent
et pas que juste la gratuité
merci Nicolas
tu as vendu la mèche
tu apparaisses d'un épisode qui n'est pas sorti
qui n'est pas encore prêt de sortir
parce qu'il va sortir dans quelques mois
donc si tu écoutes ce podcast
dans plusieurs mois
il y a un épisode de podcast qui para
nos
nos stacks
techniques
et physiques
en cas là vous pourrez réécouter cet épisode
une deuxième fois
exactement
bon, et bien
tu le sais
non, René il a envie de la truc
juste j'ai rajouté dans les notes
pour ceux que ça intéresse
on va dire un des
suite à cette annonce
il y a quelqu'un qui a fait un journal
sur Linux FR
pour parler de potentiel alternatif
à Docker
donc voilà
le journal est bien fait
il fait un petit peu
il balaye d'autres solutions pour différentes
pour les registrer
pour pas mal de choses
tout le monde
il parle de Podman
donc voilà j'ai trouvé ça pas mal
le journal
en tant que tel
et les niens qui sont
c'est bien fait et donc ça donne une bonne idée
de ce qui est possible de faire
si on ne veut pas forcément utiliser Docker
et justement je vais rebondir un petit peu
dessus parce que comme tu l'avais mis
dans les notes
pour que vous sachiez un petit peu plus
dans les colistes on prépare les épisodes
bien en avance avec des notes
et du coup
comme c'était mon sujet
je l'ai préparé et j'ai lu
l'article René envoyé
et ce qui est intéressant
en très rapide il vous parle de Podman
comme alternative
pour lancer les conteneurs
mais il y a aussi des registries
et en fait c'est pourquoi
Docker je cherche
un modèle payant c'est qu'il y a plein de gens
qui balancent plein d'images pour faire
des tests du dev
potentiellement de la prod et
encore une fois ils ont besoin de financer
tout ça donc plutôt que de continuer
à charger les serveurs pour rien
utiliser des registries privées
installer des registries
sur vos postes de dev
dans vos environnements de dev
pour éviter de solliciter le Docker Hub
pour votre prod
installer une registrie
dans votre infra
non seulement ça va alléger les serveurs
de Docker mais en plus vous serez résilient
par rapport à internet
et toutes les panne qui pourraient y avoir
entre votre infra et une
registrie publique
en plus de pouvoir faire vos images personnalisées
machin etc moi c'est ce que je fais
de plus en plus dans toutes mes infras
et ça m'enlève pas mal les pines du pied
ça m'en rajoute plein
parce que l'héberger une registrie c'est super chiant
mais bon si on n'aimait pas
s'emmerder avec l'informatique
tu n'en ferais pas ce métier
ouais j'en profite d'ailleurs
on va travailler
pour les prochaines
pour les prochaines fonctionnalités
à intégrer une registrie qui ne saupent pas
en plus la registrie GitLab
une registrie un peu plus poussée
le tout pareil en budgetielib
donc si vous voulez builder
vous pourrez utiliser votre abonnement
ou votre appui de la chaîne
des images de la pub
parce que je suis
l'auto producteur
de ce podcast
je me permets de temps en temps
c'est bon on peut passer au sujet suivant
allez
sujet suivant
avant le sujet suivant
je tiens à te dire que ce podcast
il est en licence libre
on parle de open source
la licence libre
pour le contenu
c'est c'est baïessa
ça veut dire que tu peux utiliser le podcast
le diffuser, le partager etc
tu peux couper des bouts
tu peux le refaire
tu peux le remonter si tu veux
tu peux le mettre dans tes cours ou dans tes formations
t'as le droit, le seul truc qu'il faut que tu fasses
c'est que tu cites la source
ça c'est la licence c'est c'est baïessa
si tu connais pas les licences de contenu libre
va sur Creative Commons
évidemment si tu partages le podcast
en plus ça nous fera plaisir
de tant mieux
je perd mes mots il est tard
alors on va parler des outils
puisque c'est la section
que tout le monde attend
et donc
René va nous parler
d'un premier outil
une alternative
à un logiciel
justement
une fois n'est pas continue
c'est pas forcément de l'open source
mais c'est
une alternative à copilot
ça s'appelle Codium
et
en l'occurrence ils ont un free plan
donc ça contredit peut-être ce qu'on a dit juste un petit peu avant
mais aujourd'hui copilot
si on veut essayer
il faut souscrire un plan payant
donc là ça permet
moi
j'ai testé un petit peu pour voir ce que ça a donné
c'est pas mal
et un des aspects
pour lesquels
j'ai apprécié
c'est qu'ils supportent pas mal d'éditeurs
donc il y a un choix
au niveau des intégrations
sur pas mal d'éditeurs
en tout cas c'est plus large
que copilot ou d'autres solutions
et ouais
pour l'avoir testé c'est parfois assez bluffant
notamment pour
en ce moment
j'essaye de me mettre un peu à go
pour différentes raisons
et donc j'ai fait pas mal
de choses sur exercisum
alors je sais pas si c'est bien ou si c'est mal
parce que parfois la complétion elle me sort
la réponse à l'exercice
sans que j'aie un peu cassé la tête
mais voilà
ça permet de
c'est quand même pas mal
pour
pour essayer
pour apprendre c'est pas mal
voilà et donc
moi j'aime bien un peu les challengers
on entend beaucoup parler de copilot
donc voilà ça a
une alternative et je pense
voilà mentionner c'était pas mal
justement quand je l'ai vu
dans les notes je me suis posé la question
de savoir s'il était libre parce que
je vois un truc intéressant c'est que tu peux l'installer
sur tes propres serveurs
ils proposent un plan entreprise
ou tu le déploies intégralement
dans ton propre réseau
ça peut être intéressant justement
pour pas que ça aille discuter avec les serveurs
de codium
je sais pas dans quelle mesure
justement c'est intéressant
ce genre de choses mais du coup tu viens de nous le dire
c'est pas libre
donc c'est dommage je me suis dit
ah putain dans le futur je pourrais l'intégrer
dans notre sas
non en fait
sinon que des break libra
je peux me tromper mais il me semble pas que
je pense qu'effectivement tu peux avoir une appliance
qui vient s'installer mais elle reste propriétaire
maintenant je peux me tromper
il faudrait que j'aille revoir la licence
donc
voilà me croyez pas
sur parole allez voir
pour être sûr si c'est
que ce soit bien propriétaire ou pas
en tout cas je ne trouve pas
nid d'épogytum, nid mention
quoi que ce soit mais c'est vrai qu'il faut les lire
les termes au service
ça vous évoque quelque chose
ou est-ce qu'on passe
à l'outil suivant
je dirais juste
que René vient de citer
exercisium et c'est très bien
pour se mettre
enfin pour faire des exercices
et découvrir des langages
ou quoi
et je recommande aussi
d'ailleurs il recherche
des sponsors exercisium
et c'est plutôt un site sympa
communautaire
et donc voilà
ça peut être
contribué à ce site-là
et ça peut être aussi sympa
et bah je vais vous parler
moi d'un petit outil
que j'ai découvert il y a pas longtemps
qui s'appelle ERD TRI
alors c'est un outil qui se veut moderne
c'est simple
en gros
vous prenez
TRI
qui permet d'avoir
une arbre essence de vos fichiers
dans un système Linux
et des U qui vous permet
d'avoir
la taille des fichiers
des répertoires
des U ça veut dire
utilisation ou un truc comme ça
et bah ERD TRI ça va vous présenter
un arbre de vos fichiers
avec en face la taille
qui est occupée par ce fichier
ou le répertoir
et en plus il y a une petite couleur
c'est vachement bien ça vous permet
d'avoir deux commandes en une
quand vous girez justement
de gros fichiers ou des fichiers volumineux
vous voulez les retrouver en ligne de commande
évidemment sur vos serveurs
parce que sinon il y a d'autres solutions
sur vos stations de travail
si vous voulez
dire un petit mot là dessus sinon on passe au suivant
et bah
le suivant c'est pour René
il m'avait mis l'eau à la bouche
justement cette semaine en parlant de ça
je pensais plutôt le garder pour la femme
mais c'est pas grave
on a déjà trop dit
alors je suis complètement hors sujet
là c'est à vous
mais c'est un peu un coup de coeur
donc
je vais parler
c'est Dead Cell
c'est un jeu de plateformes
un petit peu en 2D
qui est fait par un studio français
c'est un petit studio français
port de l'essay je n'ai pas de bêtises
qui s'appelle Motion Twin
et
d'ailleurs c'est une scope
donc je pense que ça
interpellera Christophe
et ils ont sorti
un crossover
je sais pas un crossover avec Castlevania
donc Castlevania c'est vraiment
un petit peu
pour les vieux comme moi
une référence dans le jeu 2D
et comme parfois il faut un peu se détendre
moi j'ai vraiment fléché
je trouve les
les graffices magnifiques
et donc voilà c'est un peu un coup de coeur
et pour une fois je fais une petite entorse
au DevOps
et voilà je parle d'un jeu pour
un petit peu s'amuser
moi je vais me permettre de rebondir
parce que je suis ultra chaud
sur Dead Cells
je suis un gros gros fan
je vous encourage
très vivement
à regarder la vidéo
du youtuber
Game Spectrum
qui raconte
en fait l'histoire du studio
comment ils ont travaillé sur Dead Cells
parce que l'histoire du jeu
est aussi assez incroyable
c'était la dernière chance du studio
ils étaient partis
sur un jeu qui ne faisait pas du tout ça
au début
comme ils ne sont pas très nombreux
ils n'avaient pas les ressources
pour faire les graffismes
donc ils ont dû trouver un hack
il explique tout ça dans sa vidéo
c'est passionnant à suivre
le jeu est génial
et ma question Renée
t'es à combien de cellules du coup
si tu jouais Dead Cells
j'ai joué un tout petit peu
mais je n'ai pas trop avancé
il y a un petit moment
je n'ai plus trop de dire
mais quand j'ai vu la Dawn Castlevania
ça m'a un peu flashé
c'est assez rare
mais j'ai un peu fait flamber
la carte bleue
j'ai serré ça
pas beaucoup
c'est pas très cher
j'en profite pour rajouter
que je crois qu'avec le DLC
il y a d'autres DLC
mais le jeu L DLC
ça doit être 25 balles
c'est pas excessif
non mais on est temps du jeu
indépendant
pas très cher
et honnêtement
il faut aimer ce genre de jeu
ça ne plaira pas à tout le monde
parce que je pense que c'est un peu à hardcore
niveau difficulté
mais par contre
c'est vraiment super beau
merci de parler
à mon petit coeur
de Gamer Endormie
parce que ça fait longtemps que je joue plus
mais peut-être que bientôt
je ferai une annonce sur Twitter
j'ai regardé
les vidéos et les photos
et ça me fait très fortement penser
le graphisme et l'esthétique
et la manière dont ça bouche
ça me fait très fortement penser à Prince of Persia
version Super Nintendo
ça me fait penser à ça
cette espèce de mouvement
je vais regarder ça
et merci de parler
de ce vidéo de Radio DevOps
ce ne sera pas tous les jours je pense qu'on aura ça
désolé de ne pas avoir compris
qu'il fallait d'être à la fin
ton pied
et collètes tu vas ranger un truc ou on passe à la suite ?
non c'est... vous allez encore me faire acheter des trucs
et bah je vais passer le micro R1
du coup
qui va nous parler d'un autre petit produit
oui alors c'est pas grand chose
mais j'ai vu passer ça
sur Twitter
ça a été posté
par notre chère ami et collègue
Damir
et du coup il a posté
une news
sur un outil
qui s'appelle
Nio Realiz
et en gros
c'est un outil qui va vous faciliter
le suivi
des nouvelles versions
des outils au sens très large
que vous utilisez
et en fait le truc que je trouve assez malin
c'est que
déjà pour créer sa liste de produits à suivre
il y a plein d'intégrations possibles
par exemple vous pouvez mettre
votre fichier de récoyement de piton
et puis ça va automatiquement
trouver
les sources
les sources à surveiller etc.
il y a plein d'intégrations pour initialiser le truc
et après la façon dont vous recevez
les notifications
de Nio Realiz
plein de formats
plein de supports
du télégram
du mail
et vous choisissez la fréquence
donc vous pouvez avoir un digest
par exemple toutes les semaines
qui vous dit
voilà sur
tes projets, notes
voici les mises à jour
qu'on a vu sur tes projets
autres projets OpenSource
et ce qui est pas mal c'est que ça peut
aussi
faire des appels à des webbooks
donc du coup on peut imaginer des CIA
qui tentent de se mettre à jour
avec la notif
que le package le temps
a bougé
vous pouvez filtrer les mises à jour
il y a tout un système de regappes
qui vous permet de dire
moi je veux être au courant que
des mises à jour majeures
pas des mineurs par exemple
et voilà
c'est un petit outil qui paye pas de mines
mais alors je trouve que c'est toujours galère
moi je starre plein de trucs
sur GitHub
pour suivre les releases
comme ça
là ça vous facilite tout ça
et franchement
ça met deux secondes à se configurer
et donc du coup
je pense que c'est un truc
assez intéressant à suivre
il y a pas mal de gens qui se reposent que
sur le dependabot de GitHub
pour savoir quand est-ce qu'il faut mettre à jour
les requiers en mode
c'est une bonne excuse pour le faire de façon
plus propre et proiective
est-ce que vous l'utilisez ?
non
pour le coup c'est extrêmement intéressant
parce que moi c'est un besoin que j'ai eu
il y a assez longtemps
et effectivement j'avais pas forcément trouvé
d'outils qui faisaient ça bien
et donc
je vais vraiment aller regarder
parce que c'est vrai que c'est souvent
une difficulté
de suivre
quand on a une stack conséquente
de suivre les différents produits qui évoluent
et non
ça a l'air vraiment de classe
alors moi j'ai une question
j'ai pris la parole à Nicolas
c'est ça ?
vas-y vas-y
j'ai une question Erwan parce que
c'est un service
en plus d'être un client
go
c'est-à-dire que tu t'inscrits
à un site internet
il va scanner lui-même tes dépendances
et c'est lui qui va t'informer c'est ça ?
alors il y a pas de
c'est pas un sens
c'est effectivement
c'est comment dirige
c'est
c'est un ça c'est effectivement
tu peux
pour faciliter en fait
la déclaration de tes
trucs que tu veux suivre
tu as tout un tas de petites choses de possible
mais sinon tout se fait en ligne
oui c'est ça c'est lui qui va
t'chaquer c'est lui qui va t'informer
ouais ouais bien sûr
et ça supporte je sais pas combien
de providers différents
mais y a vraiment
si je pense que ça devrait
couvrir 90%
des besoins des gens
ouais ça supporte beaucoup de choses j'ai vu
des grosses instances gilclab
ce serait bien qu'il passe sur
toute la déclaration
de l'instance gilclab par l'utilisateur
ce serait encore mieux
en tout cas je vais reparlé à un collègue
qui avait ce besoin
justement qui voulait qu'on fasse un truc
avec make on utilise make.com
pour nos automatisations de nos codes
et peut-être que ce sera une solution
un peu plus
un peu plus sympa
j'ai oublié une dernière chose
c'est qu'il y a un free plan aussi
il n'y a qu'un free plan surtout
et ils acceptent les donations
pour l'instant
en base de café
ouais en base de café
pour l'instant sur leur page de pricing
il n'y a que free
moi ce qui m'intéresserait
surtout beaucoup
et je pense que le fait que j'ai égraté
c'est que ça me crée automatiquement
des issues voire
des merges réquestes
ce serait vraiment super
ça s'est appelé un webbook
donc a priori les possibilités sont infinies
exactement c'est ce que je pense
c'est donc pour répondre
à ta question, moi je l'utilise depuis
une demi-heure
il y a 24 providers
et il y a 10 systèmes de notification
de messagerie instantanée
en plus des webbooks
donc merci de la découverte
et je pense que je peux enchaîner
avec la suite Christophe
et ben c'est
les mises à jour c'est bien
mais moi ce que je trouve encore mieux c'est d'être alerté
quand il y a des mises à jour de sécurité
et pour ça depuis quelques mois
j'utilise un truc qui s'appelle
le Stackwatch
donc là c'est le même principe
vous allez dire je m'intéresse
à Ubuntu, Debian
Apache
le server web
et puis Nginx
et en fait
régulièrement vous allez recevoir
un mail qui résume toutes les alertes de sécurité
et donc quand est-ce que vous allez passer
une mauvaise nuit pour faire
toutes les distalgrès de vos plateformes
et voilà c'est tout
et ben merci
du coup c'est un projet à suivre
René on va te donner la parole
cette fois-ci pas forcément pour un outil
mais pour quelques bonnes pratiques
oui on revient un petit peu plus sérieux
et en fait
c'est sur le blog de Stéphane Robert
il a
fait un article assez court
et assez sympa sur
l'utilisation du module Shell et commande
dans le Cible
donc
et je trouve que
c'est bien expliqué
parce que donc
il part du principe que
on peut l'utiliser quand il n'y en a pas forcément
de modules
tout fait
déjà existant
qui ferait la tâche
dont on a besoin par exemple la gestion
des utilisateurs etc
donc bref
quand on est dépourvu de modules
on va dire dédiés
on peut passer donc par le Shell
et il donne des brunes pratiques
pour utiliser le module Shell et commande
il explique la différence
il explique comment
les rendre on va dire
plus ou moins d'importance
et voilà il y a un certain nombre de
bonnes pratiques à appliquer
et voilà c'est
c'est un article que je trouve
vraiment intéressant parce que
je pense que c'est la bonne façon
pour utiliser ces deux modules
et donc voilà
je voulais le mentionner
parce que c'est du bon boulot
oui c'est important
de rappeler en effet qu'il faut faire attention
quand on utilise Shell et commande
et je sais qu'en plus il y a RAW
qui est encore plus sale
je n'utilise pas mais
il permet de faire beaucoup de choses
et c'est vrai que quand on utilise Shell ou commande
il faut faire attention parce que
c'est pas important souvent
mais parfois on n'a pas le choix
et donc c'est bien de rappeler
les bonnes pratiques
et Nicolas
c'est toi qui va parler
du dernier
produit en fait
oui le dernier outil
il est un petit peu plus gros
que tous les précédents mais
c'était pour aller avec le sujet d'auteur
moi je me suis pas mal arraché
les cheveux avec la registrie officielle
de docker
et un jour je suis tombé
sur celle de la CNCF
donc c'est goarboard.io
et franchement
regarder ça plutôt que
de prendre celle
officielle de docker
elle est beaucoup plus avancée
elle permet de faire beaucoup plus de choses
penchez vous
sur celle-là qui est peut-être beaucoup plus
compliqué à déployer
mais qui est franchement meilleur
que celle de docker
je sais pas c'est celle que tu déploies
Christophe dans progit
pour l'instant
on déploie pas
pour l'instant on a deux outils
qui sont GitLab et Metormost
et donc
la registrie de docker
la registrie de conteneurs c'est celle ATV
GitLab mais à l'avenir
je pense rajouter
un vrai service d'hébergement
de conteneurs et c'est celui que j'ai en tête
en effet, même si je vais faire un benchmarking
et demander aux clients
ceux qui préfèrent, bon mais c'est en effet
il est dans ma liste de shortlist
des bergeurs
de conteneurs
il faudra qu'on en parle
pardon excuse-moi
est-ce que j'ai mal compris mais on parle de
c'est Harbore qui est devenu un produit
CNCF
oui j'ai mal compris
est-ce que c'était développé principalement
par VMware en fait
mais Harbore en tant que
registrie pour des images
de conteneurs
oui mais c'était... je ne sais pas s'il y a d'autres projets
qui s'appellent Harbore
non non c'était déjà ça en fait
parce que moi j'avais ça chez un client
par avant et c'était une solution
c'est basé sur un projet VMware à l'origine
et ce que je comprends c'est que
et c'est vrai que c'était pas mal
et ce que je comprends c'est qu'il s'est devenu
un projet officiel CNCF en fait
oui et c'est
ça a parti à la Linux Foundation
depuis un petit moment il me semble
ça a été je crois à donner
d'accord cool
et bah écoute on discutera
Nicolas il n'y a pas de problème
je crois qu'on a fait le tour
parce que ça fait plus d'une heure
largement plus d'une heure qu'on discute
donc
je vais aller vers la petite clôture
donc si tu l'as compris
si tous ces sujets t'intéressent
tu peux venir en discuter avec nous
parce qu'on est tous les 4 sur un forum
qui s'appelle le forum des compagnons du DevOps
puisque les compagnons de DevOps c'est une communauté
un podcast, une chaîne YouTube
un compte twitter
mais surtout c'est un forum
et sur lequel on discute
on est déjà plus de 1500 aujourd'hui
et j'espère bien qu'on va atteindre
les 2007 années, croisons les doigts
donc par-dessus autour de toi
viens t'inscrire et viens discuter avec nous
j'en ai fini pour mes petits
mes petits appels à nos chers
auditeurs auditrices donc je vais vous passer
le micro
et à vous de nous donner le petit mot
de la fin
Nicolas, quel est ton mot de la fin ?
encore une fois, faites confiance
à personne, vérifiez bien
ce qu'on vous dit
et prenez le ceinture et bretelle
pour vos données
René, est-ce que tu veux bien continuer
pour nous donner ton petit mot de la fin ?
comment on est bien en retard ?
non, je vais juste d'y espérer que
c'est un long
épisode de plaira aux auditeurs
et je leur donne rendez-vous pour un prochain épisode
merci René
et Erwan, c'est toi qui es le mot de la fin de la fin ?
le dernier mot
ce sera manette
pour faire référence à Dead Cells
merci
c'était une belle manette switch
que nous a montré Erwan pour ceux qui n'ont pas la vidéo
j'en profite, si tu nous écoutes en podcast
et que tu veux voir nos bouilles, tu peux aller sur Youtube
et ce sera mon mot de la fin à moi