
Google Cloud perd le flare de la surveillance helvète quand Bibendum passe au Kub
Durée: None
Date de sortie: 20/06/2025
Voir sur Youtube
Présenté par Horacio Gonzales avec la participation de :
Steven LE ROUX
Gilles Biannic
Tanguy Mazé
Enregistré le 17 juin 2025
Chapitrage et Liens
00:00:16 - Présentation des participants00:02:10 - Vivatech du point de vue d’un techo, et ensuite on bascule vers conception de data-centers et une discussion sur NVlink vs PCI ExpressGTC Nvidia : https://www.nvidia.com/en-eu/gtc/vivatech/ NVlink : https://www.nvidia.com/en-us/data-center/nvlink/ https://en.wikipedia.org/wiki/NVLink 00:22:22 - Infomaniak (débat sur une loi en suisse qui pourrait amener à de la surveillance de masse)https://www.youtube.com/watch?v=SMdrEJ2hpIo (video visite de MrBidouille chez Infomaniak)https://news.itsfoss.com/swiss-privacy-bill-controversy/ https://www.techradar.com/vpn/vpn-privacy-security/a-war-against-online-anonymity-why-switzerland-wants-to-change-its-surveillance-law-and-whats-at-stake 00:30:42 - Michelin replace VWware avec Kubernetes https://www.thestack.technology/michelin-swaps-vmware-service-for-open-source-kubernetes/ https://www.silicon.fr/Thematique/open-source-1375/Breves/kubernetes-michelin-reinternalise-ans-vmware-482582.htm https://www.ciodive.com/news/michelin-kubernetes-vmware-tanzu-migration-open-source/750700/ 00:43:46 - Cloudflare service outage June 12, 2025 https://blog.cloudflare.com/cloudflare-service-outage-june-12-2025/ 00:46:22 - Redis 8.0 Open Sourcehttps://redis.io/blog/agplv3/https://www.antirez.com/news/151https://www.antirez.com/news/152https://www.phoronix.com/news/Fedora-Replacing-Redis-Valkey 00:56:02 - Musique de fin - Sigma Boyhttps://www.youtube.com/watch?v=ueNY30Cs8Lk
Bonjour et bienvenue dans ce nouvel épisode de Messages à Caractère Informatique,
épisode 133.
Nous sommes les mardi 17 juin de 2025 et dans cet épisode purbeur fait à la pointe de la
Bretagne et sans poursan, on gêche une tourée de Jean-Marie Villotelle qui est est-ce qu'elle est
là ? Coucou est-ce qu'elle est ? Bonjour !
Gilles Vianique, bonjour Gilles ! Bonjour ! Et Tanguy Masé, bonjour Tanguy ! Bonjour !
Je pense que maintenant on peut commencer comme d'habitude pour faire un petit tour de table.
Donc moi, je commence et j'ai commencé à faire le clé à clé à clé,
et à la fin de la vidéo, je vais commencer à faire la caractère informatique.
Et on va commencer, Esteven, tu peux te présenter ?
Bonjour, je suis Esteven, je suis ingénieur qui gère des gens.
Et du coup, je suis situé au clé à clé à clé.
Niquel et Gilles, qui tu es ? Bonjour, donc moi c'est Gilles, du coup je suis à clé à clé à clé à clé
à clé aussi, je travaille actuellement sur le produit Kubernetes de clé à clé.
Et si je me trompe pas, ce n'est pas ton premier masque,
tu as déjà fait un autre ? Ce n'est pas mon premier,
j'avais fait un autre avec AirOne et avec une personne qui organise le tour Ntech,
dont je ne me rappelle plus le... Voilà ! Par contre, en parlant de Petit Nouveau,
Tanguy, c'est ton premier masque, non ? Oui, c'est mon premier masque,
je suis à clé à clé depuis quelques mois et je suis dans l'équipe qui gère les bases de données.
Bon, bienvenue, j'espère que ça va te plaire et que je te reverrai par ici.
Bon, je vois que tu as appris cette tasse de thé et que tu as vu le coup,
parce que le premier est pour lui, parce que la semaine dernière,
c'était le grand mois de la France Tech, c'était VivaTech.
Et normalement, VivaTech est un endroit où on envoie de commerces, de sales,
de marketing, et je ne vois pas si des techs ne sont très chers,
si tu as été à Paris pendant quelques jours pour VivaTech et ils vont nous faire un petit retour
de qu'est-ce que c'est VivaTech depuis le début des techs ? Alors, qu'est-ce que c'est VivaTech,
Steven, pour toi ? Ben... Ouais, on ne va pas se mentir,
ce n'est pas l'endroit rêvé des techs.
C'est très orienté business, après, t'as beau faire le meilleur produit et la meilleure
technologie, etc. Si tu l'avais en pain, tu ne vas pas avoir assez d'argent pour
aller développer ta technologie et aller encore plus loin. Donc, ça peut être un passage obligé.
Aussi, j'ai envie de dire au Tech, ces événements-là, ça devient ce qu'on en fait.
Si tu as plein de tech, des boîtes qui tu as de la place, etc., on est capable de faire
la soirée tech de VivaTech et de dire, on se retrouve et puis on échange autour de nos
problématiques, etc. Après, même si c'est très orienté business, je trouve qu'il y a quand même un
fond tech, tu as pas mal de CEO qui sont capables de parler un peu tech. Alors, tech on s'entend,
c'est pas forcément Tech Cloud ou Tech IT, tu peux avoir du MedTech, du FinTech,
mais la technicité, elle est dans tous les domaines. Et c'est aussi intéressant, des fois,
de s'ouvrir à ce qui est fait ailleurs et comprendre les enjeux des autres pour voir aussi
comment toi, tu peux faire un meilleur produit. Il se trouve que nous, on est une plateforme un peu
générique de Cloud. Voir un peu les challenges des uns des autres dans leurs différents métiers,
ça te permet aussi d'intégrer ça dans la conception de tes propres solutions.
Et alors, tu me disais que de fois, c'est drôle, tu pars très loin pour faire un salon
comme VivaTech et tu retrouves des entreprises locales. En fait, il y a toujours une soirée avec un
drapeau breton, tu sais, un mode, ouais, nous, on est là. Et puis, tu t'aperçois que tu as des boîtes
qui sont juste à côté de toi à Brest, que tu as jamais entendu ni d'hab ni d'Adam et que tu
retrouves là-bas qui te présentent leur truc. Et là, pour le coup, c'est du deep tech, tu vois,
il y a des boîtes qui fait des capteurs micro, minimétriques et avec toute la solution verticale
intégrée, c'est une spinoff de leur boîte qui utilisait ça. C'est nu-sense, la boîte. Et franchement,
c'est dingue, tu dis, on se retrouve à Brest et on rediscute. Je pense que, moi, je l'ai vu au niveau
Brest ou à Bretagne, mais tu dois l'avoir dans tout quoi, tu vois. Donc c'est toujours drôle. C'est
aussi un des atrêtes ces endroits-là, c'est que tu déclosones un peu de ton quotidien et ça te
permet de faire des belles rencontres. Je suis désolé pour le son. J'ai un retard perturbant
dans le casque. T'inquiète, on arrive à le percevoir dans ton son. C'est pas très grave.
En marge de Vivatec, il y avait aussi la GTC de Nvidia. C'est quoi la GTC de Nvidia ? La GTC,
c'est la conférence Nvidia. Ils font régulièrement des annonces mais qui est autour du monde
de Nvidia. Donc tu peux avoir des GTC à Computex américaines en marge du CES ou je ne sais pas quoi.
Et là, elle était organisée pendant Vivatec. Mais pour le coup, il n'y a pas eu vraiment
d'annonces. Je pense qu'ils ont fait vraiment un truc un peu orienté business opportuniste.
Mais ils avaient déjà annoncé beaucoup dans les semaines passées et mois passées. Donc,
il y avait la GTC. Après, on a toujours droit au même rangaine de, tu vois, les consommations
des rags, Data Center, tout va se multiplier. En fait, c'est un challenge gigantesque. Ce qu'il
faut voir, c'est que le métier de Data Center actuel, c'est de fournir entre 6 et 8 kW par
b. Donc à peu près par m². Ça, ça veut dire amener l'électricité. Donc cette densité
électrique pour les Data Center, on est capable aussi de disciper. Parce que qui dit
électricité, dit dissipation thermique. Ça, c'est les b moyennes. Tu peux avoir des b
en France qui montent à 15, 20 kW. Vraiment les grosses. On est à peu de Data Center qui
proposent ça. Et là, ils te disent, on va aller jusqu'à 100, 500, voire demain, 1 MW.
Et en fait, il faut voir que la plupart des Data Center actuel, c'est une logique intégrée. C'est
à dire que les 6 kW, c'est le nombre de matos. Donc tu remplis pas complètement ta b forcemain.
Forcément, j'ai vraiment du mal à me parler avec le petit délai. Et donc, tu as cette logique là
qui fait qu'une fois que tu as consommé ton Alexa, ça sert à rien de remplir plus. Le Data Center
ne va pas t'amener plus d'électricité. Par contre, si tu vas plus haut, en termes de densité,
de poids, etc., tu peux déjà avoir un problème de sol. Parce que la plupart des sols historiques,
c'est des faux planchés sur lesquels tu as le passage de câble par dessous, etc. Et donc,
si tu commences à monter en poids par m², il y a tout ton sol à refaire. Parce qu'en fait,
il y a des risques qui ne tiennent pas. Alors déjà aujourd'hui, on a visité des Data Center,
ou même pas rempli, ils sont déjà au-dessus de la légalité. Ça veut dire que quand t'es
opérateur et que tu rentres dedans pour aller passer des câbles, tu as un risque que tout s'effondre
sur toi. Et là, des baires en 100, 500 kW, c'est plus le même métier du tout. Donc les gens qui
disent, ah ouais, mais c'est bon, on est bon en Data Center. Ouais, mais pas cela. Donc il y a tout
à coup de repenser. Ok. Wow, sacrécialise. C'est bien. Et sur la dissipation de chaleur aussi,
tu as pas mal de Data Center où c'est plutôt une dissipation globale dans une zone du Data Center
où ça aspire l'air au global. Et du coup, si jamais tu rajoutes, enfin si jamais tu remplis
ton Tabé au max, au max, tu aimes tellement de chaleur. Je ne sais pas si ça ne change pas
toute la conception de ton évacuation de chaleur, code de ton Data Center. Mais ça ne marche plus.
Ce que tu évoques, c'est les cold corridors ou les hot corridors. Donc c'est en gros, tu as une allée
avec des bêtes de chaque côté et tout est fermé. Et donc soit tu as l'air froid à l'extérieur,
qui traverse les serveurs et fait un couloir chaud qui va être évacué, soit l'inverse. Tu as du
froid qui est amené par le milieu et qui est réévacué à travers les machines. Et donc tout est
pensé pour ça. Et c'est pour ça que les équipements réseaux, en fonction de comment tu mets tes
machines, ils ont aussi le sens de circulation dans un sens ou dans l'autre pour pouvoir mettre ça
en cohérence. Et effectivement, ce mode là, c'est le mode un peu traditionnel. Tu mets un peu de
clim, mais tu mets pas, tu as clim partout, mélangé entre le chaud et le froid. Et donc tu optimises
pour avoir des couloirs et isoler ta température. Et donc ça maximise les changes thermiques.
Ça, ça marche sur des machines, 150 kW, de... What pardon. Une fois que tu es déjà des TDP de
plus de 700 watts, parce que tu as du gros CPU avec du GPU avec du FPGA, j'en sais rien quoi. Déjà ça,
ça marche plus. Il faut déjà commencer à watercooler. Donc après, tu peux avoir des échangeurs
watercooler mais locaux, c'est-à-dire qu'il n'y a pas de gros circuit, data center, etc. Mais même ça,
il y a une limite. Et après, si tu veux vraiment passer à du megawatt, là, tu n'as plus le choix. Tu
t'es obligé d'aller collecter toute source de chaleur en échangeurs thermiques watercooler pour aller
très vite évacuer cette chaleur-là. Vous savez peut-être à perçu une petite coupure,
petite souci technique. Donc, Esteven, il était en train de nous parler qu'il faut utiliser de
watercooling pour évacuer toute source de chaleur qu'à notre travail avec des consommations
de la tixie forte ? A minima. A minima. C'est-à-dire qu'aujourd'hui, la montée en charge dans les
bays, tu vois, je vais pas avoir le détail. C'est pas mon métier. Je n'ai pas le détail de la limite
en termes de watercooling avec de l'échange ou de l'environnement standard. Après, tu peux être
en immersion. Tu peux avoir complètement tout qui est plongé. Mais tu as quand même un liquide,
une huile qui va être quand même assez chaude et donc il va falloir quand même la refroidir.
Après, tu peux aller encore plus loin. Tu peux cryogénéiser, tu peux avoir de l'azote liquide dans
un échangeur pour vraiment être plus agressive dans ta capacité à refroidir.
Et donc, tu sais, énorme consommation parvet qu'envidiant, ça risque de changer beaucoup
le monde de data center ? Oui et non. C'est-à-dire que tu n'as absolument pas besoin de ça pour des
data center classiques et tout ce qui fait de l'hébergement web, applicatif, etc. Il faut être très
agréable. Tout ce qui est évidemment IA, tout ce qui est GPU, pas GPU, c'est pas GPU, c'est vraiment IA.
Et c'est IA vraiment beaucoup plus entraînement qu'inférence. En fait, ce qui cherche à simuler,
c'est une sorte de, ils veulent reproduire le cerveau. Pour reproduire le cerveau, tu as besoin
de simuler du neuronal, mais le problème, c'est qu'aujourd'hui, une neurone au sein d'une puce,
il va être limité. Et si tu mets de la latence entre deux puces, cette latence fait que c'est comme si tu
coupes ton cerveau en deux et tu comprends, tu mets des mètres entre tes deux bouts de cerveau.
Ça va marchoter, mais en fait, dans le design de ton cerveau, tes connexions, elles vont sans doute
dire, ok, en fait, cette partie-là, ça pigne pas trop. On va tout faire pour ne pas l'utiliser. Et donc,
au lieu d'avoir une capacité organisée en cluster, tu vas avoir deux fois deux moitié.
Deux moitié qui vont sans doute se développer de leur côté avec pas les mêmes infos forcément,
parce que ça ne va pas transiter, etc. Donc, tu auras un peu d'échange, mais tu auras deux visions
de ta vérité. C'est très vulgarisateur, ce que je dis. Mais du coup, dans le Data Center,
il y a, c'est un peu la même chose. C'est que l'orchestration des modèles fait que tu vas
compter sur le fait d'avoir un gros cerveau et le plus gros cerveau possible. Et pour faire ça,
ce qu'ils cherchent à faire, c'est de connecter toutes les puces. Entre elles,
au travers d'un backbone, d'ailleurs, ils appellent ça un spine, donc une colonne vertébrale,
qui distribue au sein d'un rack un lien très haut de vitesse. Pour ceux qui connaissaient,
le NVLink, qui permettait de mettre deux cartes qui costent très vite au sein d'une machine,
pour closteriser ta carte et faire en sorte qu'en ajoutant une carte, tu es une vue d'une grosse
carte avec plus de capacité, c'est la même chose à l'échelle d'un rack aujourd'hui,
mais qui a des capacités délirantes en termes de bande passante. Et ça devient un switch.
Et là, moi, je suis très content, puisque c'est encore propriétaire,
mais ça va sans doute amener à une version peut-être open source. Et peut-être que Intel
et AMD auraient véléité à innover dans ce truc-là en créant un standard qui pourrait être suivi
sur le marché et qui serait bien, parce que si on a ça demain, si on a une sorte de switch PCI
Express qui permet d'interconnecter ces services-là et que tu arrives à repousser la technologie,
même PCI Express, c'est rapide aujourd'hui, mais c'est un bus. Si tu arrives à faire le NVLink,
open source, et que tu te dis, ok, en fait, on connecte les machines là-dessus et on injecte ça
sur des chips, enfin sur des connecteurs un peu spécifiques qui parlent au CPU et au GPU
et qui permettent de reverser vers le PCI Express. Mais tu n'as plus besoin d'éternet et de réseau
dans ton rack. Moi, c'est mon rêve, virer éternet, avant le data center, le rack déjà,
mais en fait ça ouvre des possibilités phénoménales, parce que si tu as ton bus PCI Express qui est
dématérialisé et que tu peux le transporter dans le rack, c'est-à-dire que ton switch PCI Express,
ça fait que tu peux très bien dire, tiens, j'ai des machines, puis j'ai des disques,
puis j'ai des GPU et en fonction de ton besoins, tu vas faire ton bar métal à ce service.
Tu vas avoir besoin d'un GPU pour une heure et bien regarde, je te connecte au niveau du bus PCI Express,
ton GPU sur la connectivité de ton bus de ta machine, de ta carte mère, et j'étais injecté
à chaud à GPU. Après, les drivers doivent faire le job et découvrir à chaud, mais aujourd'hui,
c'est le cas, tu as du hot load au sein du kernel. Et donc, tu n'es capable d'injecter du matériel
à disposition, à la demande, par exemple pour une tâche quelconque. Et donc, si tu as,
tu vois, ça te permet d'aller vers une logique toujours plus abstraite, un peu comme le fonctionner
à ce service, dans lequel tu vas poper ta fonction, là tu vas poper ton appui sur une machine
qui n'avait pas de GPU, mais tu t'en fiches, il y en a disponible dans le rack que tu peux cabler,
tu viens l'injecter dans le contexte, tu fais ton job et tu as relâché tout ça et tu remutualises
derrière. Donc, ça permet de décorérer, tu vois, un peu ce qui avait été fait pour le stockage,
d'ailleurs. On parle d'hyperconvergés, mais dans cette convergence, c'est des grosses babasses
qui font un peu tout et puis tu orchestres. Mais il y a aussi le pendant où tu as vraiment le CPU
de la machine, les disques qui sont déportés soit dans des B-disk, soit dans des SAN, soit dans
des solutions de stockage spécifiques, soit même en cloud, ça tourne dans l'object storage,
donc l'object storage n'est pas au sein de l'unité de compute. Et là, tu vas avoir d'autres capacités
que tu vas pouvoir injecter de la même manière. Donc, ce n'est pas inintéressant et très clairement,
à l'échelle, ça te permet de virer le réseau là où il n'y en a pas besoin. Parce que si tu veux
cette souplesse là en termes de dynamique d'allocation de ressources, ça ne sert à rien d'aller faire ton
réseau PCI Express à injection de ressources en parallèle d'un réseau network, ça ne porte rien
par rapport à ça. Tu peux très bien faire ton réseau PCI Express. Les dévises de MBLink aujourd'hui
sont comme une mesure avec les dévises de PCI Express, la denervation de MBLink, c'est un terroir
8 bits par seconde entre 8 bits par seconde. C'est pour ça que là ils annoncent leur NVLink Spine.
J'ai pu en tête, je crois que c'est 160 ou 180 kHz.
Parce que le PCI, je crois que c'est à 500 GBit par seconde de la PCI Express 6, la dernière version
de mémoire. Oui, parce que ça se développe en standard. C'est toujours aussi plus facile d'aller
faire ta solution proprio, ou tu t'accommodes d'aucun standard, aucun legacy aussi. C'est là où Nvidia
aujourd'hui, ils ont un avantage majeur qui est propriétaire. D'ailleurs, ils ont commencé à l'ouvrir
en disant, on va peut-être l'ouvrir la spécification pour que vous puissiez aller faire d'autres trucs ou
d'autres constructeurs puissent s'interfacer. Et là tu dis, attends, je vais regarder. Oui, il te donne
une licence à partir du moment où un équipement Nvidia est concerné d'un bout ou l'autre.
Je les comprends, ils jouent leur carte. Mais je serai AMD, j'irai créer un standard full open source
équivalent. Peut-être, on se dit que il faut peut-être rompre avec PCI Express,
mais en ayant le pont potentiel. Parce que si tu as le pont, ça veut dire que t'es pas obligé de
passer par ton kernel et en soft pour faire le pont. Et donc tu peux avoir d'un point de vue hardware
un transport de PCI Express au sein de ton AMD Link, Osrej ou Intel Link, pas de jaloux.
Mais ce serait faisable de faire du transport. C'est ce qu'on fait tout le temps dans le réseau,
dans le cloud, sur des encapsulations entre les underlay et les overlay.
Si vous voulez un détail sur ce que c'est les overlay et underlay, mettez des commentaires et demandez.
Bon, on est parti de Vivatec pour basculer sur la conception de Data Center et finir
sur cette discussion-là, sur un futur possible standard qui remplacerait PCI Express.
Je pense qu'on peut maintenant se lancer sur les news. Je vois qu'on avait plein de news.
Quelqu'un m'avait parlé de Tiana Infomania, qui la suit sur la vie privée et les faits que ça peut
avoir dans d'autres fournisseurs. Qui avait posté ce lien-là et qui veut vous le présenter ?
C'est moi qui l'ai mis. Et d'ailleurs, si vous voulez voir comment ils conçoivent
leur Data Center, je me rappelle d'avoir vu une vidéo de monsieur Bidoui où il est invité
à visiter le Data Center d'infomaniac en Suisse. Et je me rappelle que la vidéo était très
intéressante. Si vous voulez voir plus comment il construit un Data Center.
Qu'est-ce que tu voulais raconter d'infomaniac ?
Ce n'était pas vraiment une news sur Infomania, que c'était plus une news sur la Suisse.
Ils ont proposé une loi. Je ne sais plus comment ça fonctionne le gouvernement en Suisse,
mais une loi fédérale qui est en proposition. Et c'est une loi qu'on peut qualifier de menaçante
pour la vie privée des Suisses et des clients d'entreprises Suisses. Parce qu'ils veulent imposer
la collecte de metadata donnée des providers de services en Suisse. Donc infomaniac est
bien sûr concerné. Et voilà, j'avais trouvé un peu étonnant leur position.
Et il y a Prouton, qui est également une entreprise Suisse et Nîmes VPN qui ont réagi
à cette proposition de loi. Ils ont crié au scandale entre guillemets. Et par contre Infomaniac,
eux, ils ont un peu ébourité. Ils ont leur position officielle, c'est qu'ils ne sont pas d'accord
avec cette loi. Mais il y a, je crois que c'est le CEO d'infomaniac qui était sur une émission de
radio et qui disait oui, mais c'est normal qu'on collecte les metadata données pour aider les
services de renseignement pour surveiller. Donc en fait, il avait une position très
en accord avec cette loi. Et ils ont dit aussi que si jamais cette loi passait en l'état,
parce qu'en l'état, il y a pas mal de points apparemment qui font gros débats. Et si cette
loi passait en l'état, Infomaniac, il serait d'accord avec le gouvernement et qu'il suivrait cette
loi alors que Prouton et Nîmes VPN menaçaient de quitter la Suisse, du coup, si cette loi passait.
Voilà. Je sais pas quel est votre avis sur la surveillance de masse en Suisse.
Je suis un peu concerné parce que...
Là, c'est...
Moi, je suis parti, je suis donc client d'infomaniac. En fait, j'ai bougé, j'avoue,
d'ovh vers infomaniac. Du coup, c'est un peu bête parce qu'ovh, ça reste sur le gouvernement
européen. Donc c'est sous GDPR. Donc c'est sûr que c'était mieux, point de vue légal.
Et je suis parti sur Infomaniac en Suisse pour leur qualité de service. Et je suis pas déçu.
Par contre, je m'étais dit, bon, ça va, je sors du GDPR, enfin, je sors de l'Europe,
mais c'est pour aller chez les Suisses. Les Suisses, ça va quoi. Et du coup, je suis un peu déçu.
C'est un écosystème en fait parce qu'on parle d'infomaniac et Prouton et d'autres.
C'est... Il y a plusieurs entreprises en fait. C'est vraiment un milieu en Suisse.
Ah oui, oui, oui, oui, oui. C'est clair en Suisse.
Donc que la loi sorte en Suisse, je suis pas forcément étonné parce que oui, ça sort un
peu partout comme ça, machin. Mais qu'un des gros joueurs de ce monde-là
prenne ce genre de position, c'est quand même bizarre.
Il y a un côté culturel aussi.
La Suisse, ils ont ça au quotidien. C'est que beaucoup, cet aspect de délation respecte
les uns. Mais si tu respectes pas, tu te fais dénoncer.
Si tu te dis pas un sac pour bel consigné, attention, ton voisin te balance.
A 2 euros le sac s'il te plaît.
A 2 euros.
Non, non, enfin tu vois, ils ont cet aspect-là. Donc après, culturellement,
pour eux, j'ai l'impression que la tranquillité sociale, entre guillemets,
de vie au quotidien est plus importante et nous devenus plus importantes que la vie privée.
C'est peut-être ça, mais tu sais, c'est un pays qui est peu concerné aussi par
des aspects géopolitiques, tu vois.
Après, c'est pas les géopolitiques, c'est un des pays qui inventait les concepts de
secrets des affaires et secrets bancaires pour le meilleur et pour le pire.
Et là justement, on parle pas que de la vie privée de messe, tout le monde, on parle
de la corporation des entreprises qui ont leur infrastructure, leur donner
dans ces providers-là et qui de quoi il se retrouve qu'ils sont
se gorgandis par rapport à l'utilisation de métadonnées de ces entreprises-là et de
clients de ces entreprises-là. Ça va plus loin que les mails pour Gilles, même si les mails pour Gilles
sont très importants.
Mais ça veut dire aussi que toutes les entreprises qui est hostée par ces providers-là risquent
de se faire de la surveillance.
Et là, autant sous les mails de Messier, tout le monde, de sa méthode moins de position-là,
autant venant de la Suisse, de sa position par rapport aux entreprises, ça me semble
un changement de paradigme.
Je ne dis pas que c'est bon ou mauvais, mais en tout cas un changement de paradigme.
Je ne te dis pas que tout s'explique par les valeurs.
Quand je te parle avec le jeu politique, la France est beaucoup plus liée par exemple
au monde arabo-musulman.
C'est une terre dans laquelle, en termes de valeur, c'est une notion de liberté, la France,
un terme d'expression.
Et donc on comprend mieux ce que veut dire le terme d'asile politique par exemple.
Et on comprend mieux ce que ça veut dire pour quelqu'un qui est dans un pays à la liberté restreinte,
ce que ça entend.
Il y a des assauts qu'on connaît bien, genre Reporters sans frontières, pour lesquels
on a pu faire des choses dans le passé qui aident à la liberté, qui sont souvent des choses
très attaquées, soit du monde sino-musulman en général, parce que la liberté d'expression
est un peu plus restreinte.
Après, je ne dis pas qu'il y a raison ou pas raison, ce n'est pas la question.
Je pense qu'effectivement en France, on a une vision très différente des Suisses là-dessus,
parce qu'il y a plus de choses à protéger et on en est peut-être plus conscient.
Bon, je pense qu'on a un peu fait le tour de ces souliers, on va passer au suivant.
Il y a un qui m'a surpris, qui m'a fait sourire quand je lui ai vu plus de détails,
c'est le fait que Michelin remplace BNW, il va sortir de BNW pour le remplacer par Ruleman de Tambour,
donc la Dikom Sa'aboba, en courant une autre victime de Haïb, on va dire,
mais derrière, il va y s'expliquer dans l'article que une amie va effectivement,
comme pour plein de clients de BNW, va s'affaire,
et la dernière modification de BNW s'a fait exploser l'or Q,
et qu'il se tait déjà de gros utilisateurs de Kubernetes,
donc basiquement, sur l'or plateforme BNW, il l'utilisait surtout pour installer des Kubernetes,
va peut-être, il n'en a pas besoin de mettre ce Q en intermédiaire que de l'or Q a explosé,
donc maintenant, ils sont décidés de se passer de ce Q,
de mettre l'or soft, d'ailleurs, sur Kubernetes,
et éliminer l'accus de virtualisation de Word.
La couche au prix fluctuant, tu veux dire.
C'est ça, la couche au prix pas prédictible.
Ça me rappelle un truc de Olivier Botiet,
et en Olivier, si tu nous écoutes,
ou il racontait juste de manzasser,
tu utilises déjà tous les Kubernetes,
et c'est l'antérêt de l'accus de virtualisation d'intermédiaire
qui fait à peine pas de place, plus que de discutable.
C'est bien, ça apporte un peu le revers de la médaille pour VMware.
Moi, je trouve que c'est une bonne nouvelle.
Je trouve qu'il y avait un Word, l'impécier s'est malheureusement pour eux,
mais ça m'a permis aussi de...
Après, tu vois, quand tu lis, je ne suis pas allé tout l'article,
parce qu'il n'est pas accessible,
ils te disent que c'est effectivement important pour des ingénieurs
de pouvoir construire des choses plutôt que de remplir des tickets,
parce que le truc, c'est que le VMware,
il n'était pas non plus géré en interne,
visiblement, il était en service manager,
probablement par VMware, du coup.
Donc au-delà de l'instabilité business
qu'il représente VMware et le risque associé,
je pense qu'effectivement, leurs team opérationnels
ont dû se marrer à monter ça.
Ce qu'ils en sortent, c'est important de fournir des bons outils
pour rendre les gens heureux au travail, effectivement.
Mais là, pour moi, ce n'est pas suffisant.
C'est que le début, il n'y a qu'une bouquée,
ils ont sans doute rendu heureux les ingénieurs opérationnels
si ça admine, mais pour les développeurs,
ça ne change pas leur vie, ça reste de l'infrastructure.
Ce qu'il y avait sur VMware,
si tu avais du Tanzu dedans, ou je ne sais quoi,
tu avais des Ad...
Il y a plus qu'un autre alien avec l'infoy,
il y avait tout migré sur Tanzu, sur VMware en 2020.
Ils ont économisé la facture VMware en ayant une équipe,
parce que leur taille fait qu'ils arrivent à la mortir,
mais pour moi, ça ne résout pas le côté
comment tu rentres tes développeurs heureux.
Ce n'est pas en mettant en cube
que tu rentres des développeurs heureux,
que tu as bien été, ça peut rendre service
sur des aspects infrastructure.
Tu peux construire tout ce qu'il y a par-dessus
en termes de passe, de trucs, de machins,
mais ton développeur, pour qu'il soit heureux,
il faut qu'il développe.
Donc pour qu'il développe, il faut qu'il dise
« Pouch, toi, c'est ça son API ».
Les gens se fabulent souvent sur...
C'est marrant parce que les défenseurs de cubes,
ils me disaient toujours,
« Ah ouais, mais bon, cubes, on s'en fiche des composants,
ce qui est important, c'est l'API, c'est le standard de l'API ».
Et puis aujourd'hui, tu as les MCP, tu vois,
et tu te dis « Mais du coup, de l'API, on s'en fout ».
En fait, tu vas passer par un Windsurf
ou un IDE quelqu'un qui tu vas lui dire
« Prends-moi ça, là ».
Et il n'en a rien à faire de l'API, en fait.
Oui.
Donc pourquoi pas cubes ?
Pour faire tourner ton on-prem, etc.
By the way, ils auraient pu aussi mettre cléver clav d'on-prem,
mais ils auraient gagné le cube et toute la stack avec.
Justement, c'est ça que je voulais que tu profites pour raconter,
côté cubes, il y aura, au moment où vous écouterez ces podcasts
une semaine ou deux après,
il y aura des nouveautés qui vont être...
On a finalisé notre implémentation au TECD,
donc qui tourne en transactionnel au-dessus de Foundation d'Ibis,
qui nous permet de fournir...
Explique, explique. Pourquoi une implementation de TECD ?
Pourquoi on fait ça et on n'a pas simplement mis un TECD ?
Globalement, ne pas utiliser le TECD Vanilla,
mais utiliser une implémentation de TECD
qui est basée sur notre solution de clé-valeur distribuée.
Mais tout le monde n'utilise pas le TECD Vanilla ?
T'es en train de me dire ?
Je suis très bien innocente.
Qu'est-ce que tu expliques ?
Quatiment tout le monde l'utilise,
sauf ceux qui sont chez Google, chez Microsoft aussi.
Apple ?
Oui, c'est quoi ?
En fait, on va plutôt poser le postulat dans le lot de sens.
Aucun fournisseur un peu sérieux de Kubernetes à ce service
n'utilise le TECD.
C'est très drôle.
La base par défaut de l'open source de Kubernetes
n'est utilisée par aucun des acteurs
qui fournissent de Kubernetes à grande échelle.
C'est ça qui est en train de dire ?
C'est normal.
En fait, ce n'est pas du tout fait pour suivre l'échelle au TECD.
Déjà, il y a une limite dure à 8 Giga.
C'est une jolie clé USB distribuée.
Après, même la qualité du projet,
historiquement, on ne va pas se mentir.
On a participé à la mise en place du cube AVH
dans une vie précédente.
On avait voulu faire des contributions dans le TECD
parce qu'il y avait des pertes absolument horribles
et qu'on se tait dit, mais attends,
c'est pas possible.
On avait profilé tout le truc
et on avait identifié des cheveux d'accès
qui n'étaient pas bons et qui passaient tout le paradigme.
Ce n'est pas bon.
En fait, on avait fait une PR pour dire
qu'on a identifié ça comme problème.
On propose la contribution.
Les mecs n'avaient même pas compris
le scope de la PR.
C'était les mainteneurs.
Les mainteneurs, mais de ce TECD,
il faut retracer dans l'histoire.
C'est déjà la troisième récriture
avec un rachat de CoreOS par Red Hat.
Les vrais développeurs du truc se sont tous barrés.
C'est repris par des mainteneurs
mais qui ne comprennent pas bien la codebase.
Et à la fin, tu sais ce que c'est,
un projet qui est maintenu par des pas bons mainteneurs.
Ça donne rien de bon.
Et là, on s'est hirté
à des gens qui ne comprenaient pas leur codebase.
Et en fait aussi, ok, c'est bon, on se casse.
C'est n'importe quoi ce truc.
Donc on avait proposé au VIH de faire ce qu'on a fait là.
De dire, bah, attends,
de toute façon, personne ne fait ça.
Le TECD, c'est impossible que les gens
utilisent cette merde en prod.
Donc on va aller réimplementer la paix au TECD
pour faire l'hébergement du truc.
Ce qui permet en plus, par ailleurs,
d'avoir un autre aspect qui est quand même
un gain opérationnel magistral,
qui est que tu n'as pas besoin d'avoir une équipe
de DB As a Service spécialisée au TECD.
Parce que TECD est un truc un peu relou à gérer.
Si tu en as un cluster par client à gérer,
mais tu as un enfer sur terre en exponentiel opérationnel.
Et ça, souvent, les gens disent,
oui, mais Cléber, vous imaginez des problèmes
que vous n'avez pas.
Mais en fait, je suis d'accord
mais des problèmes qu'on ne veut pas non plus.
Et en fait, le jour où on a ce problème-là,
c'est trop tard.
Donc, on préfère prendre le truc à bras le corps,
on veut dire, nous, on ne veut pas de cette techno-là.
C'est un choix.
On n'en veut pas et on ne veut pas la subir en prod.
Et on ne veut pas encore moins la subir en prod
à l'échelle de milliers de clusters.
Pardon, millions.
Et donc, comment on a pensé ça ?
On a pensé ce qu'on fait tout le temps.
C'est-à-dire, on a décoisonné le problème
et on s'est dit, comment on gère ça
de manière un peu intelligente
et en mutualisant ce concept-là.
Et donc, ce qu'on a créé pour Matéria,
qui est le concept de LogicalDB Multitonnet,
qui hérite de tout, en fait,
via un SDK qu'on a créé,
où on a la gestion des transactions,
des retries, des stats, des quotas,
de l'autorisation, etc.
Tout ce concept-là, en fait, on l'a porté,
en adaptant juste la PIE au TCD au-dessus
et en implémentant la QALU API,
la Watch API, la Compaction API,
l'Elyse, etc.
Et donc, en fait,
vu la techno qu'on a construite en-dessous,
ça ne nous coûte pas si cher que ça
d'implémenter au TCD
pour offrir quelque chose de transactionnel
mais performant pour nos clients
et puis quelque chose qui, en plus,
va bénéficier de la full simulation.
Quand on discute avec Apple,
il nous envie beaucoup.
Effectivement, les raisons pour remplacer
le TCD, mais tu n'as pas expliqué
avec quoi on a remplacé le TCD.
Tu nous racontes un peu ?
Oui, oui. En fait,
comme on développe une base de données
Serverless, qui s'appelle Materia,
on avait développé, en fait,
toute la partie
moteur de base de données
avec un SDK qui nous permet
de développer les liens de métier.
Et ce SDK, il embarque toute la partie
gestion des transactions,
gestion des retrait, gestion des stats,
des quotas, de l'autorisation,
gestion de l'indexing, etc.
Donc tout ce développement
technologique qu'on a fait
au-dessus de Foundation
pour développer nos bases de données,
mais en fait, une fois que tu as ça,
ce n'est pas grand-chose d'aller développer
le layer TCD avec la Q-value API,
la Watt API, la Lisa API,
la Compaction API. C'est juste des primitives
de ce que tu as développé en dessous, que tu réutilises.
Et donc, pour nous,
c'est un gain opérationnel
magistral de se dire
qu'on peut capitaliser là-dessus
en évitant d'avoir
5 bonhommes pour avoir
une gestion en astreinte
d'un
mode base de données
managées. Surtout que
un TCD, c'est quand même du distribuer
derrière. Ce n'est pas un post-gres
qui tourne dans une instance, même s'il a ses répliques, etc.
Là, c'est du vivant
distribué, ce qui est une autre complexité
et avec un projet que je juge
d'une qualité qui n'est pas suffisante
pour tourner en production chez Clever.
Bah, écoute,
c'est une bonne raison, et donc
les Kubernetes sort bientôt, c'est ça ?
Ouais, on finit à dire le TCD.
Bah, je vais juste vous dire.
Ouais, c'est imminent, après, il ne reste
quelques
points à traiter, donc je ne sais pas si ça sera
sorti en même avant cet épisode
ou après, mais
c'est ça. C'est vrai que ça sort,
mais c'est le baby zeal qui est sorti
d'abord. Ouais,
on est deux dans l'équipe à avoir pris 4
semaines de congé paternité entre temps, donc ça
a fait
ça dégage.
C'est toi qui a expliqué au
Clique-Enquête qu'on est en retard, mais c'était pour
la planète, c'est pour la survie
de l'humilité.
Macron, il a dit, enfin, faire des gosses.
Il a dit, traverser la rue
pour faire des gosses, c'est ça ?
Non, non, non.
Non, tu me lances la citation,
ce n'est pas une échec ta citation,
mais ça n'a pas marché.
Mais c'est le en même temps.
Ce n'est pas
ça n'est pas un échec, mais ça n'a pas marché.
Bon, on peut passer sous l'élien
sous la...
Attention, parce que ça,
le consentement, c'est pas le nini,
hein.
Oh, là là,
ce combo Macroniste.
Bon,
dans l'autre news,
donc,
vous savez vu que la semaine dernière,
il y a eu une grosse coupure
dans plein
de sites internet, et que la
COSRA-SINC était
en pancote Google Cloud.
Mais la pancote Google Cloud
ça aurait pas dû avoir été fait
aussi considérable, ou la moitié
d'internet était en ligne.
Et ça c'est dû à que la pancote Google Cloud
a fait tomber Cloudflare.
Et en faisant tomber Cloudflare,
bah tous les clients Cloudflare se sont
retrouvés dans les noirs.
C'est-à-dire, aujourd'hui,
un parti important de
tous les sites
d'internet. Et comment ça
s'est passé? Bah pour expliquer ça,
les gens de Cloudflare ont fait un post mortem
assez intéressant
qui explique que la COSRA-SINC
était le bas qui a valu
qui était
stocké chez Google Cloud.
Et que quand la bas qui a valu
a tombé
par effet domino, ça a fait
tomber
composant par composant la
infrastructure Cloudflare. Donc si
les contes réduisent ainsi,
vous s'intéressez
et voir comment aujourd'hui les
infrastructures sont tellement
interconnectées, que les impandes sont
en train de s'adapter
pour avoir de ces faits globaux
pour la lecture assez instructif
et intéressante.
C'est toujours un exercice délicat
post mortem, parce que t'es toujours
en mode, faut pas aller trop
loin techniquement, sinon tu perds
les gens, ils se plaignent de ce qui
ne comprennent plus rien. Mais en même
temps, il faut donner suffisamment
d'arguments pour que les gens arrivent
à te comprendre et des fois vulgariser
aussi ta complexité interne, tu vois.
C'est toujours un
entre-deux
où tu vas jamais satisfaire tout le monde
de toute façon, mais le but c'est
par et à tout, si 90% des gens
sont globalement contents, c'est bien.
Et après tu gères les 20%,
tu vas soit en ré-expliquant, vulgarisant
plus, soit en allant plus
loin techniquement.
Mais je trouve que le leur est souvent
clair, enfin, Cloudflare c'est quand même
une des bonnes boîtes tech de la place
aussi.
Mais tu as pas l'air de
perdre le lien de point de vue technique.
Et ça m'implique plus de holographie
qui montre comment ça se
fait pour très presque d'enquête.
Et à ce de détail,
pour moi c'est un bon exemple
de ce qui est un bon
post mortem sorti d'un lettre
donc c'est très
très intéressant.
Bon, on continue avec
nous 3 news.
Et une autre qui
qui ça fait c'est longtemps qu'on a
réduit en parler, il y avait Tanguy
qui me disait, mais il faut qu'on parle
dans les massies, mais on n'avait pas
un registré d'épisode dans Tanguy
c'est un moment, tu nous parles
de rédice et de rédice
3.0.
On va parler enfin de rédice, ça fait
à peu près un mois maintenant
que rédice, donc un système
de, bah justement de qui-value aussi.
De qui-value, c'est important de qui-value.
Qui l'année dernière était passée
et avait eu un changement de licence
et était sous licence open source et passait
sous une licence
la SSPL qui était une licence
mongo je crois
qui n'était pas considéré comme open source
et ça a fait un tolée
puisque c'est
rédice, c'est un système qui est utilisé
pratiquement par tous les cloud provider
et par énormément d'applications
c'est tellement pratique, c'est tellement important
pour mettre en place que tout le monde l'utilise
et ce changement de licence
là avait pour but
d'augmenter les revenus
et surtout le revenu venant
des cloud provider, sauf que
les cloud provider n'ont pas forcément aimé
et on pratiquement arrêtait
d'utiliser de mettre à jour rédice
en tout cas, sur ces versions là
et là il y a un...
C'est surtout que la licence l'interdisait
c'est à dire que la BSL est
open source de fait parce que t'as accès au source
mais ton usage fait que tu peux pas
revendre rédice
en tant qu'provider
et donc t'as pas le choix
tu peux pas... C'est ça
et là il y a un mois
rédice, à la sortie
du rédice 8.0
rédice est passé sur un système
de double licence donc toujours avec sa licence
très protectrice
du produit rédice
mais en plus
l'ajout de la licence agpl
qui permet la distribution
par un cloud provider d'un rédice
de...
de façon
gratuite pour le cloud provider
et aussi avec la sortie
d'un...
d'un nouveau data type donc rédice a plusieurs data types en interne
pour manipuler
de la doigter de manière un peu plus native
par exemple le G-zone
où vous pouvez directement éditer
des documents G-zone dans un rédice
et là ils ont sorti les vectors 7
dans le but de
s'inclure dans les workflow
y a
et donc on a...
j'ai inclus dans les liens notamment un
blog post du
du
du créateur du rédice, du premier
contributeur de rédice qui parlait justement
qu'il a travaillé
qui est revenu, qui est revenu justement
pour rédice, ça c'était le 3 news
non seulement rédice, rédivienne open source
mais les créateurs de rédice
réviennent travailler pour
rédice Inc pour la boîte
et derrière rédice
et justement il disait aussi
du coup c'est lui qui a travaillé sur les vector 7
et il disait
je ne pouvais pas concevoir que mon travail
ne sorte pas sous une essence open source
c'est carrément...
c'est beau et même d'ailleurs
je pense que j'ai inclure un nouveau lien parce que le
je crois que le billet de bloc suivant
c'est un justement un retour
d'expérience sur le changement de licence
oui c'est là que j'avais lu
c'était assez instructif
et qu'est ce que ça veut dire pour tous les
forcs de rédice que l'on a paru
surtout pour valkyre
qu'est ce que ça veut dire pour valkyre
ben je pense que ça veut dire que
alors
pour qu'on ait sur du spéculatif mais je pense que la
plupart des gens qui étaient sur rédice
soient non sont pas
partis et sont restés sur des versions
qui restaient open source
je crois que c'était la 7.2
qui était restée
qui était la dernière version encore open source
et qui a eu d'ailleurs des mises à jour back portés
des mises à jour de sécurité toujours qui est toujours
maintenu par rédice
la plupart de ces gens là
sont restés sur rédice
et la sortie de rédice
rédice 8 pour le coup apporte
quand même l'idée qu'il y a
en vrai
une vraie mise à jour
c'est quelque chose qu'on peut
là où valky se vendait comme un
remplacement drop-in
rédice ici est vraiment dans l'idée
de la continuité alors que valky maintenant a
a divergé un peu
et valky n'est plus
exactement
un drop-in rédice on est sur la même situation que
mayscule et maria db
dans l'idée
juste
donc
je pense que valky
a sa propre petite communauté
je sais pas comment elle va vivre
je pense qu'elle aura
qui a toujours des gens derrière bah valky même est d'ailleurs
soutenu par la linux
fondation
donc il y a un soutien
il y a une communauté
mais je pense que les gens qui sont restés
sur rédice vont rester sur rédice et c'est même
d'ailleurs ce que disait le billet de blog
que
les gens n'ont pas
d'attachement
spécifique à un logiciel
et que ben si
valky était vraiment le drop-in
remplacement et proposait vraiment des fonctionnalités
les gens seraient partis sur valky
mais maintenant que
rédice est de retour avec
des nouvelles fonctionnalités en plus et avec
une promesse
on va dire ça comme ça parce que c'est pas ce qui va se passer
encore peut-être que le changement de licence on
sait pas
mais avec la promesse que
rédice est là pour rester en open source
je pense que les gens vont rester sur rédice
et vont continuer à utiliser du rédice suite
plus que du valky
bon ben
et le côté cléver cloud
c'était
nouvelle ça a marqué aussi le fait qu'on peut
enfin mettre à jour
les versions de propres de rédice
et on a des rédices suite
si je mettra un peu pas en ce moment c'est ça Tanguy
on les a eu
dès qu'on a vu la news on a commencé à travailler dessus parce que
on peut enfin
remettre rédice à jour
rédice à jour les victors 7
c'est intéressant ça peut
vraiment avoir une utilité
justement
il y a beaucoup justement des billets de blog où rédice pousse
justement pour vendre ses victors 7
comment les intégrer dans des workflows
et on pousse
même d'ailleurs pour avoir le maximum de
le maximum de fausse
ça a eu un peu de temps ce moment où la licence n'était plus open source
1 année c'était de juin 2024
à juin 2025 pratiquement
c'était voilà et valky a fait
son anniversaire fameux
et valky est sorti une semaine après
les chancements de licence donc oui en grosse
ça
ok
c'est
compliqué pour le yank
qui essaye
d'offrir rédice
et de produire ses sous-rédices
pour l'instant c'est un réveillement normal
on verra comme Tanguy qui est sado
la promesse pour le moment
c'est que
le psychodrame finit et que rédice continue
à être open source
comme ça l'avait tout le lieu été
c'est ça
et sur matéria est-ce qu'on est
compatible avec rédice 8
on n'a pas
des vector 7 sous matéria
inconnue
mais ça donne
des nouveaux challenges à l'équipe matéria
pour peut-être d'ici la sortie de l'épisode
on n'a pas les vector 7
mais on a un super
qudrant qui est quasi finie
qui va arriver
qui t'apporte
un peu
la typologie de saucage vecteur
on pourrait
rendre ça compatible vector 7
rédice en API
ça serait sympa
avoir si un intérêt
après tu vois pour moi l'intérêt de
rédice en termes d'appel de cavé
c'est beaucoup plus le cavé
et les commandes
l'utiliser la plupart du temps
parce qu'après rédice
toutes les solutions vendeures
ils sont allés mettre du time series dedans
du pub sub
il y a un peu utilisé sur rédice
mais tu as d'autres systèmes qui font ça mieux
donc
si tu veux du pub sub
tu peux plus le faire en Kafka
ou en pulsar
parce que la paye est plus complète
si tu veux du time series
tu fais du warp
je sais pas quoi
mais
parce que tu vas le faire en rédice
comme mongo ils ont fait pareil
apparenciément
la logique microsoft quand t'as le pied dans la porte
tu vas vendre tout ce que tu veux derrière
c'est pareil
une fois que mongo avait une boîte
il s'est dit j'ajoute ça
tous les besoins de cette boîte
c'est moi qui les vend
je pense qu'il faut revenir
à la vraie valeur de ces solutions
plus que la logique commercial absolue
de dire
bon j'ai déjà, est-ce que je ne réutiliserai pas
à ce moment-là j'ai envie de dire
utilise pg
d'ailleurs je me permettrai aussi de
étant la personne qui travaille sur
rédice et qui est dans l'équipe
de données
rédice est un KV in memory
n'utilise pas rédice comme base de données s'il vous plaît
utilisez d'autres choses pour sauvegarder vos données
plus loin
c'est important
on a déjà eu des soucis
je pense que
si on parle de ces soucis
ça ne fait plus d'argent
que d'un petit morceau
merci les erreurs techniques
je pense qu'on peut
finir ici cet épisode
nous donnerons un début
pour les suivants
merci
merci Esteve, merci Gilles
merci Tanguy
merci à tout le monde qui nous écoute
à très bientôt
bonne semaine
ciao
après on me sigma boy c'est ça
ah si la musique
la musique aujourd'hui est proposée par Esteve
est-ce que tu nous propose
que musique de fan ?
moi j'y vais
ça j'ai pas de souci
on se voit
on peut découvrir un truc qui rase dans la tête c'est terrible
je vous partage
sigma boy
sigma boy sigma boy
sigma boy
bravo
Les infos glanées
CleverCloud
Tags
Dans une hallucination malicieuse, Linux passe par la fenêtre pour faire du Windsurf sur NES