🌨️ Nouveau service de stockage à froid chez OVH Cloud | Actus DevOps Mai 2023

Durée: 55m26s

Date de sortie: 24/05/2023

🗞 Actus DevOps est ton #podcast de veille #DevOps et #Cloud mensuel.


00:00 Intro

01:55 Vos messages

Ressources de Fred :

- Vidéo de Linus Tech Tips sur l’infrastructure de Shadows : https://youtu.be/RFzirpvTiOo

- https://www.clever-cloud.com/blog/company/2015/04/14/why-isnt-t-there-a-free-tier-in-clever-cloud/

- https://www.ovhcloud.com/fr/public-cloud/managed-private-registry/

❓ Pose-nous une question : http://question.compagnons-devops.fr


04:32 💬 Rejoins la communauté : https://www.compagnons-devops.fr


06:16 Vague de froid chez OVHCloud

- https://www.nextinpact.com/article/71602/ovhcloud-cold-archive-stockage-froid-pour-13-euro-ht-par-to-et-par-mois


17:09 Les nouvelles puces AMD

- https://www.techradar.com/news/amd-promises-its-new-laptop-chips-will-crush-the-apple-m2-and-its-got-reciepts

- openfirmware sur chip AMD : https://linuxiac.com/amd-opensil-firmware/


27:38 💖 Tu peux soutenir mon travail et la communauté sur : https://soutenir.compagnons-devops.fr


29:05 Paris sous l'eau

- https://www.lemondeinformatique.fr/actualites/lire-google-cloud-sous-l-eau-suite-a-un-incendie-chez-global-switch-clichy-90281.html

- https://www.lebigdata.fr/data-center-brule-google-panne

- https://www.lebigdata.fr/data-center-panne


38:20 Fuite de données chez Toyota

- https://www.bleepingcomputer.com/news/security/toyota-car-location-data-of-2-million-customers-exposed-for-ten-years/


47:01 📜 Ce contenu est sous licence libre : CC BY-SA : https://creativecommons.org/licenses/by-sa/4.0/deed.fr


47:51 Nos outils

- readme.so : http://readme.so , crée des readme avec une UI agréable - https://readme.so/ **christophe**

- 58 ressources Rust à connaître : https://apollolabsblog.hashnode.dev/58-rust-resources-every-learner-should-know-in-2023 **Uggla**

- Guide non officiel de l’écosystem Rust : https://blessed.rs/crates **Uggla**


54:07 Clôture

📩 Si tu n'es pas déjà abonné, alors **abonne-toi** pour ne pas rater les prochaines vidéos.


🔗 Tous mes liens : https://i.mtr.bio/compagnons-devops


Mon Jobboard

💼 Trouve ton job de rêve : https://vu.fr/jobboard-DevOps

👔 Recrute avec moi : https://vu.fr/jobboard-DevOps-recrute

Mes antisèches

🎁 git : https://bref.lydra.fr/antisechegit

🐳 Docker : https://bref.lydra.fr/antisechedocker

🔀 Ma RoadMap DevOps : https://vu.fr/RoadmapDevOps

Mes formations

🎓 Forge toi un état d'esprit DevOps : https://vu.fr/devops-mindset


L'intro et la fin sont de :

- Baptiste Gailleteur

Tupac Lives de John Bartmann : https://pixabay.com/fr/music

Passport de Purple planet : https://www.purple-planet.com/passport


L'image est de wayhomestudio : https://www.freepik.com/free-photo/pleased-unshaven-european-man-suggests-participate-ski-racing-competition-wears-grey-outerwear-points-copy-space_14271403.htm


Le montage est de Louna HO : https://www.linkedin.com/in/louna-ho-0656801b1/


📜 Ce contenu est sous licence libre : CC BY-SA : https://creativecommons.org/licenses/by-sa/4.0/deed.fr


 #DevOps #Actualités #cloud #ovhcloud #fuite #innondation



Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Quels sont les news du cloud et du DevOps en ce mois de mai 2023 ?
On a une vague de froid dans le stockage VH de nouvelles puces qui arrivent,
Paris sous l'eau et des fuites de données encore et toujours.
Et tout ça, on va le voir aujourd'hui dans cet épisode de podcast.
Bienvenue à toi chers compagnons dans Actu DevOps,
ton émission de veille cloud et DevOps mensuelle.
Et comme d'habitude, reste bien jusqu'à la fin pour avoir notre petite sélection d'outils.
Alors avec moi, aujourd'hui en plein mois de mai qui ressemble à un GoYer,
on a une équipe réduite puisque je suis avec René.
Et seulement René, bonsoir René.
Salut Christophe.
On va pouvoir justement rentrer dans le corps de ces actus ensemble.
Et on va pouvoir en discuter vraiment.
Moi, j'ai une petite info à donner avant qu'on passe au GoYer des audits et auditeurs.
Pour ceux qui nous suivent sur YouTube,
vous avez pu remarquer qu'on a lancé les actus DevOps courts,
qui est une playlist YouTube podcast puisque YouTube podcast est sorti.
Donc j'explore un petit peu.
Et du coup, j'ai décidé de découper en fait les actus DevOps.
Donc chaque actu a un épisode qui du coup fait moins de 20 minutes.
Donc si tu nous suis sur YouTube,
sache qu'il y a ce truc là qui arrive.
Pour l'instant, c'est que sur YouTube parce que ça ne nous demande pas du tout.
Enfin, ça nous demande très peu de travail supplémentaire.
Peut-être qu'un jour aussi, il y a de la demande,
ou si vous m'inonder une message sur les réseaux sociaux en me disant,
on veut un flux de podcast audio sur les podcasts courts,
peut-être qu'on le fera.
En l'occurrence, c'est la petite info que je voulais donner.
Alors, le traditionnel courrier des auditrices et auditeurs,
et aujourd'hui, c'est un auditeur qui est un compagnon,
puisqu'il nous a laissé un message sur le forum des compagnons du DevOps.
C'est Fred FreeZ ou Fred du forum,
qui est avec nous depuis un sacré moment.
Et qui commentent régulièrement les émissions puisque lui,
c'est un auditeur du podcast et pas de YouTube.
Donc, il fait les commentaires sur le forum.
Alors, il nous dit, c'est en rapport au précédent actus DevOps.
Il nous parle de Saphonium.
Il aime bien l'idée et il se pose des questions sur le rachat de Quant,
parce que justement, il nous dit que Quant a beaucoup de casserole.
On les a pas traités, mais il a des casserole financières avec les salaires.
Il y a Microsoft aussi dans le lot.
Il ne s'est pas étendu dans son message.
Alors, je ne sais pas tout ce qu'il a en tête derrière.
Mais en tout cas, ça reste mystérieux pour lui.
Il nous informe aussi que Shadows, côté infrastructure,
c'est sur OVH que ça se passe.
Et si on veut en savoir plus, il y a une pub,
c'est plus même un mini documentaire,
je vais regarder un peu la vidéo.
Il y a une pub bien faite sur la chaîne Linux Tech Trip,
Linux à 3, Linux Tech Tips, LTT.
Et donc, cette vidéo, elle présente une visite du data center,
du site de croix, commute aucune autre vidéo aujourd'hui.
Donc, il nous dit qu'elle vole coup d'oeil.
Moi, je vais aller la voir.
Je vous la mets en description.
Plutôt en rapport avec la fin de la gratuité de Docker,
il nous partage un article,
donc c'est un article de Quant à un dent qui explique pourquoi
il n'y a pas de fritière chez Cleaverplod.
J'en parlais justement, il n'y en a pas non plus chez nous chez Froggit.
Donc, c'est assez intéressant de voir ses voix un petit peu.
Et il nous partage aussi, là, c'est plus un lien promotionnel,
puisque c'est le lien du service manager de registres privés chez OVH Cloud.
Si jamais vous voulez quitter Docker Hub pour aller chez une solution française,
il y a cette solution-là.
Il y en a d'autres.
Vous trouvez tous les liens en description,
tous les liens qu'il a donné,
parce que je sais que tout le monde ne va pas sur le forum.
Alors, déjà, ce que j'ai à dire à Fred,
c'est merci pour ses précisions.
De manière globale, j'aime beaucoup quand nos podcasts
sont complétés par la communauté,
soit sur le forum des compagnons,
soit dans les commentaires YouTube,
parce qu'il y a pas mal de précisions maintenant qui arrivent sur YouTube.
Donc, ça, c'est bien.
Il y en a énormément, par contre, sur les forums,
pas sur cet épisode-là, mais sur les autres, il y en a beaucoup.
Et j'en profite justement pour parler du forum,
parce que ça bouge énormément sur le forum.
Il y a pas mal de discussions qui sont vraiment super intéressantes
sur plein de sujets.
Donc, si tu n'es pas inscrit sur le forum,
c'est le moment de venir t'inscrire,
puisqu'on est quand même plus de 1000,
puisqu'on a dépassé les 1500 inscrits sur le forum.
Donc, ça veut dire qu'il y a beaucoup de personnes techs,
de toute la francophonie,
puisqu'il y a des gens qui viennent d'un peu de partout.
Alors, bien sûr, il y en a beaucoup qui sont français, mais pas que.
Donc, viens t'inscrire, c'est le premier an des descriptions,
et je vais laisser la parole à René pour réagir,
s'il veut, sur ce petit message de Fred.
C'est toujours bien d'avoir des retours un petit peu sur ce qu'on a pu dire.
En plus, on peut dire des bêtises parfois.
Un petit peu le problème, un petit peu pas du direct,
mais dans le flow des fois, on peut se tromper, etc.
Donc, c'est bien de corriger si on dit des bêtises.
Et puis, effectivement, c'est la vidéo dont tu parles.
Sur Shadow, je pense que je vais aller voir.
Ça, c'est certainement pas mal.
Oui, elle a l'air vraiment intéressante.
En plus, j'ai vu au début, j'avais parcouru les quelques premières minutes,
et il parle même de commencer à fabriquer les serveurs chez OVH.
Donc, ça a l'air super intéressant.
Donc, si tu nous écoutes et que tu veux nous laisser un message,
tu peux le faire sur Apple Podcast, Podcast Addict, YouTube,
le forum, évidemment, ou sur les réseaux sociaux.
Alors, c'est moins facile pour moi pour trouver les messages sur les réseaux sociaux.
Donc, c'est bien si tu peux laisser un message sur Podcast Addict ou Apple Podcast.
Ou sur YouTube ou le forum.
C'est plus facile pour moi d'aller les chercher là-dedans.
Alors, on va commencer par la première news.
Et je vais vous parler de OVH Cloud Archive,
qui est un nouveau service d'OVH Cloud.
Donc, c'est du stockage à froid sur le stockage d'objet.
Alors, OVH Cloud a lancé très récemment son service qu'ils appellent Cloud Archive.
C'est en fait un stockage à froid pour les données
qui n'ont pas besoin d'être consultés régulièrement.
Vous avez vite comprendre pourquoi.
Le tarif aujourd'hui, c'est 1,3 € hors-tax par teraoctet de données par mois.
Ce qui le place un tout petit peu en dessous de l'offre S3 Glacierdip Archive
d'Amazon Web Services, qui est l'équivalent, en fait, qui se sentent beaucoup,
qui est d'environ 1,69 € hors-tax par teraoctet par mois.
Je dis environ parce que j'ai fait le calcul en prenant la zone géographique d'Europe
parce qu'en fonction des zones, ça change le tarif.
Donc, l'archivage à froid, en fait, c'est conçu pour répondre aux besoins d'archivage à très long terme.
Donc, la solution d'OVH et de repos sur l'architecture à bande magnétique.
La restauration des données est limitée à 1 à 2 fois par an.
Ça veut dire qu'il ne faut pas s'attendre à avoir accès immédiatement aux données,
surtout à ce tarif là, quand ça se comprend bien.
Donc, en moyenne, il faut compter 48 heures pour restaurer plusieurs centaines de teraoctets donnés.
Donc, on est bien là sur de l'archivage massive.
OVH Cloud, en fait, utilise les technologies d'IBM et d'Atempo.
Donc, c'est des bandes magnétiques d'IBM entreprises, alors 35 à 92 qui sont utilisées.
Ça parlera aux personnes qui sont adeptes de hardware.
Je sais qu'il y en a qui nous écoutent.
Le logiciel d'orchestration, c'est Myria Atempo,
qui gère en fait les opérations d'archivage et de restauration de manière transparente.
Le stockage sur bandes magnétiques, en fait, ça présente plusieurs avantages.
Donc, ça a une durée de vie en moyenne de plus de 10 ans.
C'est une consommation électrique quasi nul, parce qu'une fois qu'on a enregistré les données sur la bande magnétique,
ça ne bouge pas, il n'y a pas besoin de la diventer, tu le poses dans un coin et c'est fini.
Je me suis perdu dans mon fil.
C'est aussi immuable, parce que, évidemment, quand tu le mets
sur une bande magnétique, tu ne vas pas réécrire dessus.
Les données sont chiffrées au niveau du bucket, parce que, évidemment, c'est du stockage objet.
C'est le bucket qui gère ça, avec un chiffrement AES 256 et un code d'effacement 8 plus 4.
Ça, je ne sais pas ce que ça veut dire pour ceux qui savent.
Ça doit être parlant.
En tout cas, c'est mis en place ça pour garantir la résilience des données.
Donc, en plus du coût de stockage, il y a des frais de restauration de 5,12 euros en taxe par teraoctet.
L'offre est disponible en Europe, au Canada et en Asie-Pacifique.
Il y a des réductions qui sont appliquées pour des volumes de données supérieures à 3 pétaoctets.
Donc, ce n'est pas mon cas.
Je ne sais pas si c'est au cas ronéme qui me le dira après.
En comparaison, l'offre Cloud Archive, qui est une autre offre d'OVH Cloud,
qui est moins typée Archive à froid-froid.
C'est légèrement plus cher, puisqu'on est à 0,0024 euros en taxe par giga et par mois.
Je vous avoue que j'ai raté la conversion, j'aurais dû le faire.
Il y a des frais supplémentaires de transfert de données.
SkaLway propose un service de l'acier aussi, avec des tarifs plus compétitifs,
parce qu'on est à 2,60 euros en taxe par teraoctet et par mois.
Vous allez me dire, mais Christophe, c'est plus cher.
Oui, mais il n'y a pas de frais de transfert ni de restauration.
Ça veut dire que vous payez juste le stockage.
Et Amazon propose des offres de stockage à froid.
Il y en a tout un tas de différents sur leur site.
Et au moment où je l'utilisais encore, c'était il y a huit ans,
il y a beaucoup plus.
J'ai été surpris par le nombre de types de stockage qui proposent.
Ça a varié en fonction des options de récupération de données que vous voulez.
Alors je précise quand même que ce genre de stockage,
ce n'est vraiment pas destiné à des sauvegardes.
Dans le sens, je sauvegarde mon service et je le restore.
C'est plutôt pour de l'archivage de données à long terme.
Typiquement, on sait qu'aujourd'hui, on doit garder des données financières et comptables sur 10 ans.
C'est typiquement ce genre d'archivage qu'on va utiliser.
C'est comme, c'est exactement la même idée que quand vous faites votre archivage pour votre société en papier.
Vous avez votre comptabilité, toutes les années, vous la déplacez.
Et puis pour les stockages long terme à 10 ans,
puisqu'on doit garder certaines choses 5-10 ans,
on les archive dans un garage qui n'est pas dans le bureau.
C'est le cas chez nous.
Typiquement, on a un garage et on mène vieilles archives comptables dedans.
Ben écoute, René, je vais te laisser réagir à Manus avant que je puisse reprendre la parole.
Oui, ben je n'ai pas forcément grand chose à dire.
En fait, c'est assez intéressant d'avoir des alternatives un peu glaciers de AWS.
Et le prix a l'air plutôt compétitif.
Oui, après, je n'ai pas forcément plus forcément ces besoins là.
Donc, j'avoue, je suis un peu détaché de ce qui se passe dans ce domaine.
Mais oui, c'est toujours intéressant de voir que ce type d'archivage est toujours possible et disponible.
Oui, et ben moi je vais te parler un petit peu de mon expérience.
Pour bien comprendre que ça, pour moi, c'est vraiment magique.
Donc il y a, je ne sais pas combien de temps, je pense, ça devait être en 2000.
Ça devait être avant que je travaille chez Casino, je pense, en 2003-2004.
J'ai travaillé chez un groupe à Petit.
Et en fait, parmi les tâches que je faisais, c'était des tâches d'exploitation,
de techniciens d'exploitation basiques.
Il y avait notamment l'envoi des sauvegarde qu'on faisait sur Bande,
parce qu'on avait des serveurs dans les bureaux.
On faisait des sauvegarde sur Bande et on les envoyait en fait pour l'archivage.
Et il y avait une rotation des bandes, tu sais, on fait une sauvegarde toutes les semaines.
Puis il y en a qui reviennent parce qu'on garde une seule bande tous les mois
et puis une seule bande par an, enfin des trucs comme ça.
Et donc moi, je m'occupais de passer sur les serveurs, d'enlever toutes les bandes,
de les changer, de mettre les bandes qui ont été archivées, qui ont été générées dans la nuit,
dans une pochette qui partait au courrier pour aller envoyer justement dans les data centers.
Enfin, je ne sais pas si c'était des data centers, mais en tout cas,
là où étaient gardés les bandes.
Et l'autre truc, donc déjà, ça prenait du temps,
parce que ça me prenait bien 15 à 30 minutes à 1 heure tous les jours de faire ça.
Parce qu'il fallait descendre, exciter, c'était pas...
Il fallait passer dans plein de bureaux et plein de salles.
Et l'autre truc, c'est pour générer ces bandes, je me rappelle...
Je ne saurais plus le faire aujourd'hui, mais je me rappelle à taper des lignes de code dans mon UNIX,
puisque c'était UNIX à l'époque, où fallait monter la bande
comme un système de fichiers, fallait utiliser des commandes spécifiques
pour aller transférer les données sur les bandes.
Ça prenait un temps fou. Et après, fallait éjecter les bandes.
Et là où je vais en venir, c'est qu'aujourd'hui, avec ces services-là type S3,
on a en fait une API qui fait ça pour nous.
Et en fait, ce qui se passe, c'est que nos données, elles sont envoyées dans du stockage-objet classique.
Et si on veut, grâce à des lignes de commandes ou des API,
on va les transférer sur les stockage-objets beaucoup plus froid, en fait.
Et donc, c'est fait hyper rapidement, enfin, pas hyper rapidement, en tout cas, c'est beaucoup plus simple,
puisque c'est des appels API, aujourd'hui, on est tous l'habitude de faire des appels API.
Ou alors, il y a des cycles de vie sur les stockage-objets qui le font pour nous et c'est automatique.
Et ça, pour moi, c'est des grandes évolutions.
Et le fait d'utiliser des vieilles techniques comme ça,
puisque le stockage-objet classique et le stockage-objet type de l'acier,
du coup, c'est pas le même matériel qu'est derrière, c'est pas des disques, on a bien vu, c'est des bandes magnétiques.
Je trouve ça vraiment super, en fait, d'avoir la même API unifiée pour gérer des objets
dont l'objectif est différent. Et je trouve ça très bien.
Si j'avais eu ça il y a 15 ans, je pense que j'aurais été refait.
Voilà, mon petit témoignage.
Après, j'avoue que j'aimerais bien savoir ce qui est utilisé derrière comme librairie pour les bandes.
Parce que, à l'échelle de gros provider cloud, il doit avoir du beau matos.
Je pense qu'on peut demander sur le forum des compagnons, on a pas mal de personnes qui travaillent chez OVH.
Je reconnais au moins deux ou trois.
Certains qui ne le disent pas, d'autres qui l'ont dit.
Donc on pourrait poser la question et je suis sûr qu'il répondrait.
Sinon, on peut interpeller OVH et je suis sûr qu'il nous dirait.
Je me rappelle d'une époque lointaine, pour ceux qui ont connu peut-être Storage Tech,
qui est une société qui a été rachetée par Sun, donc ça date.
Je me rappelle avoir vu une librairie dans un data center aux US,
où on pouvait rentrer dedans.
Je ne sais plus le nombre de cartouches, mais c'était vraiment un truc super impressionnant.
On peut trouver des photos sur Google,
où on peut retrouver un bras au milieu qui vient placer les cartouches.
Ça m'avait impressionné la dimension de cette librairie.
Je ne sais pas si ça se fait encore, mais aujourd'hui c'est peut-être moins gros
parce que la densité des bandes a beaucoup augmenté.
C'était une sacrée machine.
J'imagine que ces machines-là sont automatisées,
qui n'ont pas du main derrière.
C'est-à-dire que ce sont des bras mécaniques qui viennent choper les bandes
et qui vont les classer.
Il doit y avoir des codes barres avec un lecteur.
C'est celle-là, je la trappe, je la fous dans le lecteur et ça transite par la zone.
Je vois bien un truc comme ça, parce que à ces prix-là,
je ne vois pas comment ça peut être des gens qui font les interventions.
Oui, mais par contre, si tu veux, j'ai travaillé sur des librairies assez grosses.
Voilà, la taille d'un gros frigo américain.
Mais là, c'est cette librairie-là que j'avais vue il y a longtemps.
C'était une autre dimension.
C'était un truc vraiment incroyable.
Bon, l'avenir nous dira si ça marche.
Je souhaite en tout cas que ça marche,
parce que plus on aura d'alternatives, mieux ce sera.
Ecoute, je vais te laisser la parole.
Tu vas nous parler de AMD et tu as 2 news au sujet d'AMD.
Oui, j'ai 2 news que j'ai trouvé assez sympa.
La première, c'est qu'à première vue, ils ont fait une annonce
concernant des nouveaux processeurs qui vont sortir.
Notamment, un processeur qui vise plutôt les laptops,
qui est le Ryzen 740U de cette série-là.
En fait, ce que j'ai trouvé intéressant, c'est qu'apparemment,
c'est un APU, donc il y a à la fois le type graphique et le CPU dans la même puce.
Ils nous promettent, à première vue, des performances assez impressionnantes.
Et que ce serait directement un compétiteur des types Apple M2.
Et donc avec, à première vue, des performances meilleures que les M2.
Et aussi une consommation aussi un petit peu meilleure.
C'est assez intéressant de voir que côté AMD, ça bouge pas mal.
Et que ça fait un compétiteur qui, enfin voilà, ça a l'air sur le papier en tout cas,
ça a l'air très prometteur.
Il y a une chose, je suis pas sûr, il me semble que par contre,
ça reste, c'est pas forcément de l'architecture ARM,
mais je crois que c'est du X86 64, mais je suis pas sûr.
Je vous encourage à aller lire l'article et aller les creuser un petit peu,
parce que voilà, je peux me tromper sur le sujet, j'ai un peu balayé un peu vite le sujet.
Et en fait, ce type, l'idée aussi, ça va être,
enfin, aujourd'hui, on va dire, tout ce qui est gaming au niveau laptop,
c'est beaucoup de la puce Nvidia, Nvidia qui est utilisée.
Et donc là, il y a, voilà, première vue, il y aurait une volonté d'AMD aussi,
de sortir un petit peu des laptops qui soient capables de faire du gaming avec ce type de puce.
Donc voilà, c'est intéressant.
Après, ce qui peut se dire, c'est que ça a eu risque aussi de pouvoir être probablement de venir
sur le côté, enfin, voilà, ça fera certainement aussi avancer côté serveur.
Et il y a peut-être probablement des choses qui sont déjà sorties.
Donc voilà, une news que j'ai trouvé intéressant,
parce que je m'attendais pas forcément à ce que AMD sorte ce genre de choses.
Et toi, est-ce que tu, Christophe, t'en avais entendu parler ou pas du tout ?
Non, pas du tout. Je suis un peu loin du matériel.
Je n'ai jamais été vraiment fan du matériel.
Enfin, quand j'étais jeune, je montais mes PC comme tous les gens de notre génération,
mais si t'as écouté le podcast que j'ai enregistré avec Nida,
tu dois savoir que moi, ce n'est pas vraiment le matériel qui me fait rêver,
c'est plutôt le soft aujourd'hui.
Je pense, moi, que ce n'est pas du ARM, parce que sinon, ça devrait être indiqué dans l'article,
mais je ne vois pas.
Par contre, je me pose quand même des questions sur la consommation,
parce qu'en effet, il nous promet des cons...
Il y a un truc, consommation, une base consommation.
Par contre, on ne sait pas comment,
quel est le rapport de consommation par rapport au PUS ARM,
et on ne sait pas non plus en termes de consommation de ressources,
parce qu'il y a ça aussi qui, à mon avis, est plus important que la consommation énergétique,
si ça consomme autant de ressources, parce que moi,
je crois savoir que les PUS ARM consomment moins de ressources à fabriquer,
chauffe moins, donc il n'y a pas besoin de les refroidir que les PUS AMD, je ne sais pas.
Par contre, moi, ce que je vois d'intéressant là-dedans,
tu parles de jeu, mais moi, je vois un autre usage.
C'est l'usage de l'intelligence artificielle locale,
parce que je m'intéresse à l'intelligence artificielle.
Néanmoins, je n'ai pas spécialement envie d'utiliser des services en ligne,
j'aimerais bien pouvoir utiliser l'intelligence artificielle au niveau local sur ma machine,
et pouvoir être propriétaire du modèle, ou au moins utiliser un modèle libre.
Ça se fait.
Donc, j'imagine bien qu'avec des GPU comme ça,
tu vas pouvoir faire tourner des agents qui vont te répondre,
sans forcément aller te connecter et faire tourner des machines, je ne sais pas.
En tout cas, une chose est sûre pour les serveurs, ça va être une bonne chose.
À première vue, il y a déjà des choses qui tournent pas mal sur les M2,
au niveau modèle intelligence artificielle locale,
comme la PUS, c'est quand même vraiment véloce,
même en CPU pur, ça permet de faire tourner des choses assez intéressantes.
Et là, ce qu'ils mettent aussi dans cette nouvelle PUS AMD,
il y a un GPU intégré, qui est probablement pas équivalent à ce qui se fait de plus balèze en termes de GPU,
mais qui a l'air quand même assez véloce.
Donc, je pense que ça peut faire des configs bien puissantes pour faire différentes choses,
et du coup remettre un petit peu dans la course AMD.
Après, ils ont bien vendu et etc.
C'est ce que j'allais dire les Ryzen, ils sont quand même pas mal.
Typiquement, chez nous, quand on fait du montage, on le fait sur du laptop,
puisque c'est plus moi qui m'occupe du montage, donc je le fais plus sur mon PC fixe,
mais on le fait sur du laptop, donc on a besoin quand même un petit peu de GPU pour pouvoir monter
et surtout calculer le rendu final de la vidéo.
Donc ça demande un petit peu de puissance.
Et dans l'avenir, moi je ne compte plus m'acheter de PC fixe, je pense que le PC fixe que j'ai, c'est le dernier que j'ai,
et si je dois changer de PC, à mon avis, encore durer 5 ans, voire 8 ans,
je ne reprendrai que un ordinateur portable et un sol, et je m'arrangerai pour avoir un dock et pouvoir ne faire que ça,
puisque à mon avis, on sera arrivé à un moment où justement on a besoin de moins de puissance en local
et la puissance sera partie des jours super soldés.
Est-ce que tu me sens que tu as une deuxième news en rapport à KMD ?
Oui, j'ai une deuxième news, donc côté AMD, donc ils ont aussi annoncé quelque chose d'assez intéressant,
donc les liens bien sûr sont sur les notes du podcast,
donc en fait ils ont lancé une initiative pour rendre open source,
en fait dans les PC il y a toujours un petit peu pour l'initialisation des processeurs,
il y a toujours un petit bout de code propriétaire, soit chez Intel, soit chez AMD,
et voilà, pour différentes raisons AMD à estimer que notamment pour des raisons de sécurité,
ça serait intéressant d'avoir une initiative pour open source ces parties-là,
donc ils ont lancé un projet qui s'appelle OpenSeal,
et ça prend la forme de plusieurs librairies qui peuvent donc être utilisées dans les firmwares,
un petit recoup petit peu corbeau-goute etc.
Donc il va pouvoir initialiser le processeur avec un vrai logiciel open source,
et donc voilà, c'est un gros progrès dans ce qu'on appelle Open Hardware,
et on va arriver, c'est un grand pas qui a un peu plébiscité par la communauté d'Open Hardware,
on se rapproche de plus en plus d'avoir un bout de complètement open source,
et voilà, je trouvais ça intéressant que le même AMD fasse ce genre d'initiative,
et voilà, je sais qu'il y a certains acteurs pour lesquels avoir un bout de complètement open source
et que c'est un peu agnostique de technologie propriétaire, c'est un plus,
et voilà, je trouvais cette news plutôt intéressante.
Ben clairement, moi c'est vrai que je trouve que l'Open Hardware on ne m'en montrait pas assez parlé,
et c'est pas assez présent, et c'est vrai que les bouts sont propriétaires pour la plupart,
et j'avais entendu parler de morceaux de bouts Open Source,
mais là, clairement, ça prend le bon chemin pour moi,
c'est-à-dire que plus on aura d'Open Source, déjà plus on pourra localiser les fabrications,
parce qu'il y a ça aussi, qu'il y a le fait qu'avec d'Open Source on va pouvoir localiser la fabrication des puces au niveau local,
alors on n'est pas encore à l'Open Source des puces, encore que avec le risque 5,
mais on en a déjà parlé, on n'en parlera pas cette fois-ci, mais on en reparlera je pense,
mais pour moi c'est vraiment, de toute façon, de manière générale l'Open Source,
ça aide le développement et ça accélère les développements.
Je trouve qu'AMD a totalement raison de faire ça,
et en plus, ça n'a pas l'air d'être son corps business,
le boot c'est pas le truc qui vend le plus,
c'est vraiment la fabrication et la conception des puces.
Ce qui est empêché un peu de libérer ces parties-là,
c'est que souvent, ce type de constructeur refusait de le faire,
parce qu'il considérait que ça permettait de dévoiler un peu comment certaines choses au niveau processeur étaient faites,
qui pouvaient être un peu sous IP.
Apparemment là, ils ont lancé ces initiatives,
et plus qu'à espérer que d'autres sous-selecteurs majeurs utilisent ce projet, ça serait cool.
J'espère aussi, du coup on va passer à la news suivante,
mais avant, si tu écoutes ce podcast et que tu l'apprécies,
et si tu veux t'assurer qu'il continue longtemps,
tu peux nous aider avec un petit don,
parce que ça nous aide à payer les logiciels qu'on utilise pour enregistrer ce podcast,
l'hébergement du podcast, l'hébergement du forum de la communauté, etc.
puisque mes doréens s'accumulent quand même quelques petites centaines d'euros par an,
donc tu peux nous faire un don privilégié libérapec,
il y a un système de don libre que je utilise,
bien que je réfléchisse en mettre d'autres en place,
mais pour l'instant il n'y a que celui-là.
Tu trouveras le lien en description et sur le site internet,
puisque on a un tout nouveau site, je ne sais pas si tu l'as vu renait avant que je passe à Manus,
et tu pourras aller voir sur compagnons-dvops.fr,
et tu pourras voir le très beau nouveau site que l'on a.
Je vais ajouter que tu as parlé de ton interview avec Nida,
que je n'ai pas encore vu et que je vais m'opresser d'aller voir.
Je t'en prie, vas-y.
J'en profite aussi pour dire qu'il y a tout petit ralentissement dans les podcasts,
puisque maintenant on repasse à un podcast toutes les deux semaines,
parce que j'ai besoin d'un petit peu de temps pour faire rentrer de l'argent dans mon entreprise,
donc je reprends des prestations en plus.
Donc prestations en plus égales, moins de temps pour les podcasts.
Mais un podcast tous les quinze jours, c'est bien.
C'est aussi pour ça que je découpe les actus d'vops pour avoir une sortie régulière de temps en temps.
Mais aujourd'hui on va parler de l'inondation de Paris,
en tout cas Paris sous l'eau pour un des datacentreurs de Google Cloud.
Vous allez voir.
Donc on va parler en fait d'un incident majeur qui a touché le datacentreur Google Cloud Platform à Paris.
Donc cet assidant-là, on en parle aujourd'hui, mais il faut savoir qu'il entraînait une panne de deux semaines.
Ça a eu lieu, je vais le vous dire après.
Cet événement en fait nous rappelle une importance cruciale de la sécurité des centres de données
pour protéger les informations qui sont sensibles dans nos entreprises.
Alors vous allez me dire qu'est-ce qui s'est passé ?
Et bien en fait le 26 avril, c'est la date à laquelle il y a eu un incendie
qui s'est déclaré dans un centre de données situé dans un campus parisien.
Donc heureusement les pompiers ils sont intervenus très vite et ils ont maîtrisé les flammes.
Ce qui a permis en fait au centre de données de rester opérationnel.
Mais ça a quand même provoqué un incident puisque dans la région Europe West 9 de Google Cloud,
il y a eu une panne, une panne qui a impacté des tonnes de produits.
Alors la cause précise de l'incendie, elle n'est pas encore déterminée aujourd'hui,
mais il est possible que ce soit une pompe de refroidissement défectueuse
qui ait provoqué une fuite et déclenché le feu.
Les sapeurs pompiers justement ont dû faire face à des difficultés en raison de l'origine électrique de l'incendie.
Donc il faut savoir que les incendies électriques c'est beaucoup plus complexe à gérer que d'autres types d'incendies.
Ça a notamment généré une très grande quantité de chaleur.
Et du coup le nettoyage et la remise en état de la salle des batteries a donc été nécessaire et c'est aussi ce qui a mis du temps.
Ce qu'il faut savoir aussi c'est qu'on parle de sous-l'eau parce que l'origine de la panne en fait c'est pas l'incendie,
mais c'est en fait l'arrosage qui a eu lieu et c'est l'eau qui s'est déversée dans les data centers
qui ont fait qu'il y a eu une panne parce qu'ils ont constaté qu'il y avait de l'eau.
Évidemment les serveurs et l'eau ça ne fait pas bon ménage.
Donc du coup c'est le moment de rappeler que les pannes dans les centres de données ça peut être causé par plein de facteurs.
Notamment les pannes d'animation électrique, on a panne électrique et d'ailleurs cet hiver on a cru qu'on allait avoir beaucoup de panne électrique
suite à un problème de fourniture d'énergie.
On peut avoir des erreurs de configuration, ça a déjà eu lieu, des défaillances matérielles ou des catastrophes naturelles.
Ce qu'il faut bien se rendre compte c'est qu'un data center ça peut avoir un problème.
Donc les entreprises doivent comprendre l'importance de la résilience et de la planification des pannes pour minimiser les perturbations.
Ça veut dire qu'en fait il faut prendre en compte les pannes dans son plan pour aller vers le cloud.
Donc les data centers aujourd'hui sont essentiels pour stocker et gérer des données sensibles et des applications
mais il faut toujours avoir en tête qu'ils peuvent être vulnérables à des incidents, ils ne sont pas affaillibles, personne n'est infaillible,
même pas Amazon Web Services aucun.
Dans ce cas spécifique en fait Google Cloud a présenté ses excuses auprès de ses clients pour les désagréments qu'a causé la panne.
Au moment de la panne les clients ont été encouragés à basculer vers d'autres régions qui n'étaient pas affectées par la panne
durant l'interruption qui a duré je le rappelle deux semaines.
Donc ça aussi c'est hyper important quand on va dans le cloud de pouvoir passer d'une région à l'autre
quand on choisit un fournisseur cloud c'est justement ce qui nous permet de faire ce qu'on appelle un plomb de reprises d'activité.
Donc la leçon à retenir de cet incident est que la sécurité des centres de données et la résilience des infrastructures sont essentielles
pour garantir la continuité des services.
Aujourd'hui dans un environnement qui est de plus en plus dépendant à la technologie.
Nos entreprises elles doivent continuer à investir dans des mesures de sécurité pour protéger leurs données et leurs opérations
compte de tels incidents et on doit absolument se protéger nous de tels incidents et les prévoir et donc pour ça je vous renvoie
à l'épisode de podcast sur les PRAS qu'on a fait justement dans Radio DevOps.
Et je rappelle aussi que comme tout n'est pas magique et qu'on ne peut pas tous aller vers de la haute disponibilité
on peut aussi apprendre à fonctionner en mode dégradé et c'est ça qu'on doit apprendre absolument à faire nous.
C'est fonctionner en mode dégradé, quels sont les services qui ne sont pas essentiels, qu'est-ce qu'on peut couper etc.
Qu'est-ce que ça t'évoque toi René, cette news ?
Ce qu'on a déjà dit en fait ça peut arriver à tout le monde notamment à Google.
Parrainement à Google en fait parce que c'est un des dacent, ils sont sur Paris en fait ils louent de l'emplacement
dans des dacentateurs de différentes sociétés donc en l'occurrence là c'est Global Switch qui a eu le problème.
Je crois qu'ils ont une autre zone chez Qwinnix et une troisième je ne sais plus chez qui.
Enfin je pense que pour les gens que ça intéresse il faut creuser un petit peu parce que à première vue c'est une avalability zone
qui a ramassé, celle qui était chez Global Switch.
Après pourquoi ça a causé, si ça a vraiment posé des problèmes sur la région,
ça c'est, enfin voilà je pense qu'il faut, voilà, pour ceux qui sont intéressés il faut creuser un peu plus parce que l'article est peut-être un peu vague
sur l'impact qu'il y a eu.
Il y a un autre article dans les notes qui expliquent qu'ils ont eu un problème sur, je crois que c'est la zone C
sur Paris et qui a eu, après ils ont eu d'autres problèmes sur une autre zone en même temps,
enfin bref c'est un peu la galère pour eux et puis voilà on voit aussi que ça prend quand même du temps pour remettre
ton service notamment là, incendie, plus arrosage par les pompiers, plus les batteries à changer,
plus mon avis pas mal de choses et voilà, courage à tous ceux qui travaillent pour essayer de remettre le service en place.
Ouais justement en plus il y a quelques temps Github est tombé plusieurs fois, faut vraiment, moi je pense qu'en fait il faut qu'on se dise
qu'aujourd'hui on est sur le haut de la vague du cloud et qu'en tout cas avec les enjeux climatiques qu'on va aborder la descente
et qu'on va avoir de plus en plus de problèmes que ce soit des événements climatiques, des événements liés à la fourniture d'énergie
et si on va, si on est pessimiste, j'essaye de pas trop l'être mais si on est pessimiste, si on va vers des situations où la stabilité
de nos sociétés, de nos nations est mise en jeu, parce qu'on voit qu'aujourd'hui il y a une guerre entre l'Ukraine et la Russie,
on sait pas s'il va pas y avoir d'autres conflits géopolitiques, pas forcément des guerres mais des conflits de fourniture énergétique
ou autres, et ben je pense qu'on va aller vers des solutions de plus en plus dégradées qui va falloir apprendre à vivre avec.
Ça ça veut dire qu'il va falloir apprendre à collectivement faire des choix sur ce qu'on en voit ou pas dans le cloud
et ce qu'on peut gérer. A mon avis, selon moi, on a des systèmes qui sont de plus en plus complexes et qu'on va pas pouvoir maintenir
comme ça en les rendant de plus en plus complexes, à mon avis va faire les simplifier et aller vers des modes dégradés pour certains.
Ça c'est mon avis personnel. Je ne t'ai peut-être pas aussi pessimiste que moi, René.
Oui après on a pris le problème, c'est qu'on a vraiment pris l'habitude d'avoir les choses qui répondent du tac au tac pour le temps, 24h24
et je suis assez d'accord sur le fait que dans le futur il va falloir faire un peu plus de sélection et garder ce type de fonctionnement
vraiment pour les services critiques et ultra nécessaires et pour d'autres choses peut-être être un peu plus accepté qu'il y ait un peu
des dysfonctionnements sur des services moins critiques.
Oui parce que pour moi le plus gros problème en fait que je vois arriver sans forcément parler de guerre ou quoi, c'est la rarefaction des matières premières.
La rarefaction des matières premières est égale, on l'a vu en plus récemment, est égale moins de composants et donc moins de serveurs et donc ça veut dire moins d'expansion.
Ça veut dire que les cloud providers ne pourront pas être aussi élastiques qu'aujourd'hui et à mon avis c'est ça qu'on va avoir dans les années à venir.
Mais bon, arrêtons le catastrophisme et puisque on parle de, comment dire,
on vient de parler de Paris sous l'eau, on va parler de fuite parce que chez ActuDeVoP on est aussi des pompiers, n'est-ce pas René ?
Oui effectivement apparemment une fuite assez sympa donc c'est une news qui est, au moment où on enregistre, assez fraîche,
vu que c'est sorti, le... ce n'est pas le décès de le doux je mets, effectivement on apprend que Toyota a eu des problèmes avec un service
et a laissé on prégumé des données en libre accès de 2 millions 150 000 clients et cela depuis 10 ans.
Et à première vue c'est une erreur de configuration donc ils utilisent du cloud pour faire ça,
ce n'est pas mentionné si c'est un cloud privé chez eux ou si ils utilisent une solution publique.
Mais voilà, première vue une erreur de configuration qui a traîné et qui laissait les données en libre accès.
Alors Toyota se veut un petit peu rassurant en disant qu'il n'y a pas forcément de...
Alors il y a des données, il y a des positions GPS, il y a des numéros de châssis de voiture,
voilà pas mal d'infos, je vous laisserai aller voir plus en détail l'article,
mais à première vue on ne peut pas remonter à l'utilisateur et faire la corrélation avec un utilisateur en particulier
ou du moins ça paraît un petit peu difficile.
Voilà donc on apprend du faillet assez importante chez Toyota et à première vue ils ont aussi eu
une autre brèche il n'y a pas longtemps en octobre 2022 sur une clé qui a été une access key
qui a été éliqué sur Github donc c'est un petit peu la catastrophe là, je ne sais pas ce qui se passe chez Toyota
mais voilà pas mal de soucis de leur côté alors pas sur l'ensemble des services,
c'est que sur certains services mais voilà enfin des choses qu'on a déjà mentionnées
et puis pas forcément besoin de techniques super avancées pour exploiter ces potentiels failles
c'est vraiment des choses assez basiques qui se sont passées.
C'est fou parce que je vois ça a commencé en janvier 2012 et ça s'est étendu jusqu'en avril 2023
alors j'espère qu'ils ont à mon avis d'après la temporalité je pense qu'ils ont communiqué après avoir
vu et corrigé la PAL par contre je suis assez surpris ça veut dire que depuis 2012 ils utilisent le cloud
pour ces trucs là alors je ne sais pas si c'est les voitures qui communiquent avec leur data center
ou si c'est ils récupèrent les données GPS si c'est du GPS du coup il y a de la transmission par satellite
et puis il y a des trucs comme ça alors j'espère que Tesla n'a pas les mêmes problèmes
parce que étant donné la quantité d'électronique qu'il y a dans les Tesla
et le nombre d'infos que peut récupérer une Tesla j'imagine pas si ça leak
en tout cas il y a moins de Tesla en circulation que Toyota un jour peut-être il y en aura plus
alors ce que la première vue c'est pas tous les clients qui sont concernés c'est des clients qui utilisent certains services de Toyota
donc apparemment il y a T-Connect, G-Link, G-Link, Lite et G-Book
voilà des gens qui utilisent ces services là à première vue ont été impactés et Toyota les a contactés
pour leur signaler le problème mais bon voilà c'est quand même une société un peu colossale
et voilà ils ne sont pas forcément immunisés de plusieurs choses
oui alors ça tombe bien parce qu'en fait ça me fait penser à quelque chose que j'ai pratiquement vécu en live sur Twitter
il y a un de mes contacts Twitter qui est développeur et qui développe des petits SaaS en side project
et il s'est fait liquer sa base de données par des gens qui ont attaqué son SaaS
attentionnellement parce qu'ils avaient trouvé des failles de sécurité et ils ont sauvegardé la base de données
en croyant bien faire alors je mets des grosses guillemets pour ceux qui sont passés sur YouTube
en croyant bien faire ils ont sauvegardé la base de données
donc en fait en faisant ça les gens en fait c'est d'autres développeurs qui n'ont pas l'habitude de la super sécurité
ou des opérations ils ont fait de fait sortir du coup je dérive un petit peu de TANIOS mais on parle de fuite de données
ils ont fait sortir les données de l'infrastructure qui hébergeait les données donc de fait ça fait un leak des données
donc en faisant ça moi j'ai conseillé à la personne qui est toute seule qui a dit de son SaaS toute seule
de communiquer auprès des gens et c'est super important quand vous avez des SaaS que vous vous apercevez
d'une fuite de données quelle que soit la fuite de données il faut tout de suite pas attendre tout de suite prévenir les gens
prévenir les gens de ce qu'à fuiter et à quoi ils s'exposent et surtout de changer leurs accesses si ils en ont
donc si ils ont des modes passes changer les modes passes les doubles d'authentification changer du double d'authentification
les données etc et si vous êtes développeur que vous voyez des side project et que vous trouvez des failles de sécurité
ne faites pas d'export de la base de données en croyant bien faire allez prévenir la personne en lui disant t'as
tel faille de sécurité voilà comment tu peux la corriger ça va l'aider et en plus vous corrompez pas les données
je sais pas ce que t'en penses toi René mais c'est hyper important d'avoir ça en tête
ouais surtout que c'est illégal en fait ça veut dire que déjà rentrer dans un système déjà c'est pas légal mais en plus
exfiltrer les données c'est ça n'est encore moins il y a déjà eu des gens condamnés pour ce genre de choses
alors même si peut-être le but était voilà c'était vraiment pour aider voilà faire attention à ce genre de
ce genre de choses parce que ça vous expose à des poursuites d'utilisation
ouais c'est bien de le rappeler que c'est illégal et si vous si jamais vous êtes dans ce cas vous voulez vraiment
aider et bah contactez la personne et proposez lui votre aide et attendez qu'il vous dise oui prenez pas d'initiative
je veux dire c'est c'est pas c'est imaginez vous allez chez google vous rentrez dans les serveurs vous exportez la base
de données après vous allez dire google hey je l'ai fait sauf garde ta base parce que j'ai trouvé une faille de cq
je trouvais ça cool à google il va vous attaquer en justice parce que vous êtes rentré chez lui il va pas se poser de questions
donc ne soyez pas pessimistes mais quand même faisons attention et surtout si vous êtes éditeur d'assass prévenez vos clients
ou vos utilisateurs c'est hyper important de prévenir ces utilisateurs même s'ils sont pas clients parce que sinon
à partir d'une certaine taille de toute façon c'est alors pas pour un site project un peu petit mais à partir d'une certaine taille c'est obligatoire
ouais ouais mais c'est une bonne pratique je trouve d'aller prendre ce temps là pour la confiance en tout cas que les gens ont dans votre service c'est hyper important
je pense que c'est très désagréable d'aller communiquer sur l'information mais je pense toujours moins pire que les utilisateurs l'apprennent par la suite de manière un peu inopportune
parce que là ça fait vraiment l'effet de perdre de confiance je pense alors qu'en étant un peu proactif je pense ça passe mieux
moi je l'ai appris sur twitter parce que j'étais un utilisateur de ce projet là je l'ai appris sur twitter avant de recevoir mon mail
donc puisque j'ai conseillé en fait à l'éditeur d'envoyer un mail mais du coup ça fait bizarre tu te dis
mais bon allez on passe à la suite donc je te rappelle si tu ne le sais pas encore que ce podcast il est en licence libre
la licence c'est la creative common by essa c'est à dire que tu peux prendre le contenu le diffuser tu peux le découper pour le mettre dans tes propres contenus
tu peux l'utiliser pour tes formations ou tes cours il y a aucun problème par contre il faut citer la source il faut nous citer nous pour justement pouvoir utiliser ce contenu
je te laisse aller lire si tu connais pas les licences c'est ça justement il y a plein de licences libres sur ce qu'on appelle le contenu
qui ne sont pas les mêmes licences que sur le code logiciel c'est super intéressant d'aller lire ces licences peut-être qu'un jour j'en ferai un épisode de podcast mais voilà
soit libre partage le podcast utilise le il est là pour ça et on va passer à la section des outils
alors je vais commencer je vais commencer parce que sur twitter aujourd'hui j'ai vu un site donc un de mes contacts à parler d'un site qui s'appelle
ringmi.so donc c'est un site internet qui permet de faire des ringmis avec une interface graphique assez agréable et je suis allé voir je suis allé tester en effet tu peux mettre des
pièces et tu as des pièces et tu as des pièces et tu as des pièces et tu as des pièces et tu as des pièces et tu as des pièces et tu as des pièces et tu as des pièces et tu as des pièces et tu as des pièces et tu as des pièces et tu as des pièces et tu as des pièces et tu as des pièces et tu as des pièces et tu as des pièces et tu as des pièces et tu as des pièces et tu as des pièces et tu as des pièces et tu as des pièces et tu as des pièces et tu as des pièces et tu as des pièces et tu as des pièces et tu as des pièces et tu as des pièces et tu as des pièces et tu as des pièces et tu as des pièces et tu as des pièces et tu as des pièces et tu as des pièces et tu as des pièces et tu as des pièces et tu as des pièces et tu as
затteoyer les liens pour faire un vapeur de sigeh où il y a beaucoup d' striking et tout le monde est man CAD sur
ce point..!

sur le Pave 애 Contributeur, et là il y a l'aspect Contributeur qui apparaît sur l'espace central et continued
on peut tout modifier !
En fait tout est gardé sur le côté droit, tout est présenté sur le côté droit et quand
tu rajoutes plein de sections comme ça, si tu veux, tu peux déplacer des sections entières
de ton readme et ça te génère un markdown que tu peux télécharger puisque à la fin
tu peux cliquer sur télécharger, tu as ton fichier readme.md que tu peux être dans ton
projet.
Donc j'ai trouvé ça assez intéressant pour faire justement des readme et je pense que
le projet est assez jeune et qu'il va évoluer.
Et René je te laisse la parole pour réagir et puis après passer au news suivant.
Ça a l'air pas mal.
Ça a l'air pas mal après je suis pas forcément utilisateur de ça parce que sur le projet
sur lequel on travaille on utilise une autre techno mais ça a l'air assez sympa.
Et si je retrouve je mettrai peut-être un lien où il y avait un repo sur github qui
expliquait comment une personne qui donnait un petit peu une trame pour faire un bon readme
et ça c'était, ouais j'avais trouvé le site aussi assez intéressant parce que ça
quand on fait un projet open source on sait pas toujours quoi mettre dans le readme et
là c'était donner un petit peu les principales sections que le readme doit couvrir et j'avais
trouvé ça plutôt intéressant.
Si je retrouve le lien j'essaierai de rajouter.
Et puis je vais parler de mes deux petits liens alors qu'ils ne sont pas des outils
mais plutôt des ressources.
Donc il y avait longtemps que je n'avais pas parlé de Rust et donc je suis assez fan
de ce engagement là.
Et donc le premier lien c'est 58 ressources sur Rust à connaître.
Donc ce que j'ai trouvé intéressant c'est que ça balaie vraiment un peu tout l'écosystème
Rust et avec vous trouver de l'info pour des podcasts, pour différentes choses et du
coup ça fait un résumé assez sympa pour trouver plein d'infos sur Rust.
Donc j'ai plus, j'ai bien mis le lien.
Et le deuxième lien c'est le guide non officiel de l'écosystème Rust.
Alors là c'est plus en fait il y a énormément comme sur tous les langages il y a beaucoup
de librairies etc.
Et puis Rust c'est quand même un écosystème assez jeune.
Donc il y a pas mal de projets qui sont parfois concurrents ou qui ont des fonctionnalités
qui se recouvrent.
Et alors l'intérêt de ce deuxième liste c'est que ce sont présentés un petit peu
les librairies qui sont les plus utilisées ou les plus qui pour l'auteur semblent
être les plus performantes.
Et donc voilà ça permet de se faire une d'avoir une bonne idée de quoi utiliser
suivant le type de problématique qu'on veut adresser.
Et voilà ça j'ai trouvé que c'était intéressant parce que ça permet d'éviter de se noyer
dans les millions de librairies qui peuvent exister et de faire ressortir vraiment celles
qui sont les plus utilisées, les plus complètes en fonctionnalités.
Donc deux ressources pour les gens qui veulent faire du Rust sont à mon avis super intéressantes.
Et bien merci René de rappeler à notre bon souvenir le Rust.
Je crois qu'il n'y aura pas un seul émission où tu ne dois pas le rappar.
Ah il y avait longtemps que j'en avais pas parlé.
Mais ça fait c'est parce que la dernière fois c'est pas toi qui en a parlé.
Je ne sais plus qui en a parlé.
Je me demandais si c'est pas moi en fait.
Mais bon la Rust c'est un langage qui a tendance à émerger beaucoup je trouve et c'est bien.
On en entend de plus en plus parler.
Il y a de plus en plus de choses qui sont faites avec ce langage.
Et voilà moi je trouve ça plutôt cool.
Tout à fait.
Et bien écoute merci.
Écoute toi si tu nous écoutes comme je te l'ai dit tout à l'heure mais viens discuter avec nous sur le forum des compagnons du DevOps.
Si tu ne le sais pas ce podcast la chaîne YouTube fait partie d'un tout que j'appelle la communauté des compagnons du DevOps.
Et le forum fait partie de ce tout vu aussi puisque avec le podcast et les vidéos je diffuse avec les live j'interagis avec toi et avec le forum on interagit tous ensemble.
Et du coup on peut créer ensemble une communauté francophone autour du DevOps et du cloud.
Et c'est ça vraiment qui m'anime puisque le forum je l'ai créé en 2018.
Ça commence à faire un petit moment puisque en octobre novembre ça fera cinq ans.
On pourra fêter ces cinq ans min de rien.
Ça commence à faire donc viens nous rejoindre.
Le lien est en description et puis je vais laisser aronner le mot de la fin.
Je crois qu'on a échoué Christophe parce que on s'était dit qu'en étant deux on irait plus vite et finalement c'est toujours pas le cas.
Et je t'avais dit que c'était ce que ça serait tout aussi long.
Et puis j'espère que malgré que l'on soit deux cet épisode nous aurons à intéresser et je vous donne rendez-vous au prochain épisode.
Oui en effet on s'était dit qu'on allait faire un épisode court.
Moi je tablais sur 35 à 45 minutes et là je vois à mon compteur qu'on va atteindre les 55 minutes.
Ce sera un épisode encore une fois long mais pas aussi long que les derniers parce qu'on a explosé les derniers
puisqu'il y a eu des épisodes une heure et demie.
Donc ça va.
Mais c'est bien, c'est court et ça reste digérable.
Et ben à très bientôt pour un prochain podcast.

Les infos glanées

Je suis une fonctionnalité encore en dévelopement

Signaler une erreur

RadioDevOps

Vous avez l’envie d’en connaitre plus sur le mouvement DevOps ?

Les problématiques liées au déploiement vous titillent…

Alors, vous êtes au bon endroit !


Radio DevOps est la Baladodiffusion des Compagnons du DevOps.

Le podcast en français dédié à notre mouvement.


Nos émissions :

  • 🗞 Actus Devops : est une émission animée par des membres de la communauté des Compagnons du DevOps. Dans chaque épisode nous étudierons l’actualité Cloud et DevOps.
  • 📻 Radio DevOps : est l'émission phare animée par des membres de la communauté des Compagnons du DevOps. Dans chaque épisode nous débattrons sur un sujet de fond.
  • 🛋️️ En aparté : est une émission où je m’entretiendrai avec un invité sur le mouvement DevOps en entreprise.
  • 🎙️ En Solo : est une émission où je serai seul pour vous parler de DevOps ou de Cloud. 


📩 Si tu n’es pas déjà abonné, alors abonne-toi pour ne pas rater ces émissions.


💖 Tu peu soutenir mon travail et la communauté sur :

https://soutenir.compagnons-devops.fr/


🎓 Développe tes compétences DevOps avec un mentor : http://devops-mentor.tech/


🎁 Télécharge mon antisèche git : http://froggit.fr

💬 Si tu as envie de discuter du mouvement, le plus simple est que tu nous rejoignes dans la communauté des compagnons du DevOps : https://www.compagnons-devops.fr


❓ Pose moi une question : http://question.compagnons-devops.fr


☁️ Suis-moi sur les autres réseaux sociaux : https://mtr.bio/compagnons-devops


🌐 Les Compagnons du DevOps est une initiative de Lydra. NOTRE SITE: https://www.lydra.fr


Chez Lydra, nous nous sentons seuls entre deux Meetups ou deux conférences. Nous n’avons pas trouvé de lieu où échanger et avoir des débats en français sur le sujet qui nous passionne.


Nous avons donc décidé de créer et d’animer une communauté qui partage nos valeurs :

  • La passion de l’infrastructure as code.
  • La conviction que les logiciels libres et open sources sont émancipateurs.
  • L’envie de partager des méthodes, bonnes pratiques ou retours d’expériences.
  • L’amélioration continue fait de nous des experts en devenir.


Rejoins les Compagnons du DevOps !


#DevOps #InfraAsCode #Ansible #OpenStack #OpenShift #K8S #Docker #Packer #Terraform #GitLab


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Tags
Card title

Lien du podcast

[{'term': 'DevOps', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Cloud', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'InfraAsCode', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Ansible', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'OpenStack', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'OpenShift', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'K8S', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Docker', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Packer', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Terraform', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'GitLab', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'learn', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'compagnonage', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Technology', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'News', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Tech News', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Education', 'label': None, 'scheme': 'http://www.itunes.com/'}]

Go somewhere