Loin du cloud low-cost, l’Elastic ouvert maintient le kernel sous Rust

Durée: None

Date de sortie: 06/09/2024

Voir sur Youtube Animé par Horacio Gonzalez - @LostInBrittany avec la participation de : Alexandre Touret - @touret_alex Steven Le Roux - @GwinizDu Cédric Lemaire-Giroud Épisode enregistré le 3 septembre 2024 Chapitrage & Liens 00:00:16 : Introduction et présentation des participants00:03:14 : Cédric & Rust00:04:18 : Alexandre et Frontend 00:05:13 : Lidl Cloud :https://x.com/katia_tal/status/1828782923790872969?s=46&t=ymswwB3NV0qGUdT1M-dGZghttps://www.linkedin.com/pulse/beyond-bread-how-lidl-became-cloud-provider-gabriele-monti-z5osf/https://www.stackit.de/en/https://www.zdnet.fr/actualites/comment-lidl-est-devenu-un-fournisseur-de-cloud-396095.htm 00:14:18 : Changement de license Elastichttps://www.elastic.co/fr/blog/elasticsearch-is-open-source-again 00:24:03: sortie de Rust 1.80 le 25 juillethttps://blog.rust-lang.org/2024/07/25/Rust-1.80.0.htmlStabilisation dans la librairie standard des types LazyCell et LazyLock (son equivalent thread-safe - ie capable de fonctionner correctement lorsqu'il est exécuté simultanément par plusieurs threads) permet de remplacer les dépendances aux crates lazy_static (macro lazy_static) et once_cell (drop-in replacement des types Lazy) qui ont respectivement 10K et 5K reverse dependenciesImplémentation de FromIterator for Box [T] qui a cassé 5400 crates publiés en modifiant l’inférence de type et notamment le crate time (version avant 0.3.35) which has about 3000 reverse dependencies et 274 million de téléchargements cumulés amenant une polémique et même certains à parler de “rust 2” (ala python 3)https://github.com/rust-lang/rust/pull/99969/https://devclass.com/2024/08/19/rust-1-80-0-breaks-existing-code-such-as-time-crate-exposes-compatibility-snag-with-type-inference/Prochaine sortie prévue le 5 septembre 00:32:04 : Maintenance du noyau linux en rust :https://www.theregister.com/2024/09/02/rust_for_linux_maintainer_steps_down/https://lore.kernel.org/lkml/20240828211117.9422-1-wedsonaf@gmail.com/Linux kernel maintainers bashing Rust effort https://youtu.be/WiPp9YEBV0Q?t=1529https://lwn.net/Articles/978738/ 00:45:40 : Speech to speech open source :https://github.com/huggingface/speech-to-speech 00:55:45 : Musique de fin: Les Wampas - Riminihttps://www.youtube.com/watch?v=Im-z75LfP38

Bonjour et bienvenue dans ce nouvel épisode de Mesage à caractère informatique,
épisode numéro 103. C'est la rentrée, nous sommes le 3 septembre de 1224 et aujourd'hui
je suis accompagné de Jean Merveilleux tel que Alexandre Touré. Bonjour Alexandre. Bonjour Asio.
Bonjour Cédric Lemergiou. Bonjour Cédric. Hello. Et à la vie tu es Esteban Leroux. Bonjour Esteban.
Hola, qué tal. Muy bien. Bien entendu, moi même.
Bon, va commencer avec un petit tour de table. Alexandre, tu nous racontes de qui tu es?
Bonjour, bonjour Asio. Bonjour à tous et à toutes. Moi je suis Alexandre Touré,
je suis architecte logiciel à WarLine. Donc en gros, j'accompagne des développeurs,
je conçoit des plateformes, là en ce moment pas mal sur du cloud et du GCP. Et des
développeurs, donc je les aide dans les bonnes pratiques, je les aide, je fais un peu de support,
je les aide dans la conception et à côté de ça je donne quelques conférences, parfois en France,
parfois un peu à l'étranger, surtout ce qui a trait à la conception, l'architecture,
mais aussi l'accompagnement des développeurs. Je vais me permettre d'ajouter un truc que
tu as dit quand on parlait avant l'émission en gros, tu es un couteau suisse quoi. C'est un peu ça,
oui c'est un peu ça, j'interviens un peu partout, c'est à dire que ce soit des fois sur la gestion
de projets, des fois sur la production, des fois sur le développement, des fois je fais cohabiter un
peu tout ce petit monde ensemble pour essayer d'améliorer un peu tout ça.
Bon bah Cédric, et toi qui tu es?
Bah ok, moi c'est Cédric, l'Emergie Rouge, j'ai rejoint Cléveur il y a six mois,
je suis développeur Rust sur le projet Matéria KV qui est la partie, ce qui est une base de données
Cléveur basée sur fondation DB qui fait partie de la gamme Matéria donc l'offre serveur l'est de Cléveur.
Voilà avant ça j'ai fait dix ans dans la banque, rien à voir, j'étais en gros commercial et
je me suis, j'ai pris deux ans pour me former à Rust et puis maintenant je suis dans une super
équipe avec que des professionnels du sujet.
Nickel, encore un de ces super profils à typiques qui on aime tant. Et boba Esteven, je pense que à plus
près de notre public t'éconéme.
Donc Esteven Le Roux, je suis city wall cléveur cloud donc je m'occupe de l'équipe d'ingénierie.
Et moi Horace Gonzales, espagnol perdu en Bretagne, responsable de la partie de Frèlche
cléveur cloud. Boba on est là, c'est le premier massi de la rentrée, je crois qu'on a pas mal de news,
mais avant on va profiter qu'on a des petits nouveaux pour les demander de nous raconter un peu plus
ce qu'il faut, ce qu'il c'est dans la formatique. Allez on va, c'est un décembre maintenant Cédric,
raconte-nous si je viens compris, tu es surtout côté Rust, non ?
Ouais, moi j'ai fait un petit peu de, voilà de Baj, de JavaScript, de R, j'ai vraiment commencé en
fait avec R, qui n'est pas pour certains un langage de programmation plus un truc d'analyse de
donner, mais en fait on peut vraiment faire l'algorithmie avec ça. Et puis j'avais envie d'apprendre
un langage plus bas niveau, c'était un peu la hype de Rust, et en fait Rust c'est super facile
pour débuter parce que bah t'as un compilateur hyper exigeant, t'as une communauté qui est super
sympa, t'as des crates qui sont state of the art, parce qu'il n'y a pas de legacy en fait, c'est un
langage qui est assez moderne avec beaucoup de compétences et donc c'était super facile de commencer,
c'était quand même difficile, mais disons que c'était plus facile que si j'avais voulu faire
de l'ongage, voilà. Et donc moi j'adore ça Rust, ouais maintenant du coup ça fait deux ans que j'en
fais beaucoup et puis depuis six mois donc chez Clever sur Matéria Kavé. Et toi Alexandre tu nous
racontes un peu ce que tu aimes faire, l'angage, ce type d'application, qu'est ce que tu aimes bien dans la
contente comme je vous ai dit avant l'émission, en fait je suis très baccaine à la base, je suis plutôt
developer baccaine où j'ai fait beaucoup d'API, je me suis pas mal intéressé, je me suis pas mal
spécialisé sur tout ce qui était intégration on va dire avec les API, avec des messageries,
avec des choses comme ça, voilà tout ce qui permet d'intégrer différents systèmes entre eux. Et
actuellement je suis plus dans la conception, ouais en ce moment je suis en plus dans la conception,
je fais beaucoup de cloud on va dire, conception cloud, test pour voir si ça correspond bien aux
exigences, que ça correspond bien aux besoins etc. et majoritairement sur du GCP en ce moment.
Et par rapport à ce que j'aime bien c'est que dans la formatique c'est que ça évolue sans cesse,
c'est ça qui est intéressant, on s'ennuie pas, logiquement.
Tu peux t'inventer sans cesse, c'est clair.
Bah surtout en ce moment avec l'LLM je pense qu'il y en a pas mal qui arrive à se réinventer ouais, ça c'est sûr.
Bon bah on va partir sur les news et je crois qu'on peut démarrer avec, c'est que pour moi c'est la grosse news de ces dernières semaines.
L'ideal qu'il devienne à un cloud provider, je crois que vous l'avez vu passer.
Bon Steven, c'était toi qui l'avez mis dans notre backlog de news donc raconte,
qu'est ce que tu penses, qu'est ce que tu interprètes ça ?
Bah c'est une bonne question, qu'est ce qu'on peut en penser ?
Parce qu'en fait il y a très très peu d'éléments communiqués, tu as aucune idée de comment ça fonctionne, de comment c'est fait etc.
Moi ce qui m'a interpellé c'est que la communication qui en est faite,
ça des gens qui disent ça y est il y a un nouveau leader du cloud.
Bah on va peut-être attendre qu'ils aient leur premier client, c'est quand même drôle.
Alors ils sont eux-mêmes clients donc ils ont de l'usage.
Ce qui est très bien mais t'as énormément de boîtes qui ont leur cloud interne, qui font ça.
Donc eux ce qu'ils ont fait c'est qu'ils ont ouvert leur cloud interne à l'externe.
Pourquoi pas, c'est ce qu'avait fait Amazon à l'époque.
T'as pas mal de gens qui disent oui mais en fait ils vont être dirigés par l'usage etc.
Et en fait ce que je me dis c'est oui mais en fait vous oubliez ce qu'est un cloud provider.
C'est pas parce que tu fais des services que tu rendes l'IT avec des bases de données,
du compute etc. que tu es un cloud provider.
Typiquement comment tu t'as fait la virtualisation réseau etc.
Et en fait on oublie que Google c'est différent parce que GCP c'est pas Google, c'est une boîte à part.
Mais Amazon, ça c'est pas créé comme ça quoi.
Le Amazon qu'on connaît aujourd'hui c'est pas le Amazon d'il y a 10 ans, c'est pas celui d'il y a 15 ans.
Et en fait t'as l'apprentissage qui a été fait sur les volumes de choses à gérer
qui font que quand tu es un peu de l'autre côté de la barrière côté cloud,
tu prends un peu de recul par rapport à tes contraintes à ce que tu dois faire
et tu arrives avec des designs que tu trouves nulles pas ailleurs.
C'est à dire que le réseau ne va pas être du réseau standard, le stockage ne va pas être du stockage standard,
c'est pas les choses que tu achètes quand tu es une entreprise, c'est pas les choses que tu intègres quand tu es une entreprise.
C'est pour ça que j'ai toujours dit que les gens qui voulaient faire du public cloud avec de l'open stack,
c'est pas possible parce que l'open stack n'est pas fait pour.
Donc là ils ont sans doute leur logiciel, ils ont un intégré.
Et c'est un peu ça qu'on ne sait pas, c'est à dire que en fait on les positionne en cloud provider.
Il y a eu un peu plus d'informations, il y a eu certains clients, on parlait des SAP,
on parlait des Valeurs Dominiques, les clubs de foot, on parlait des ports de Hamburg,
l'infrastructure portuaire.
Donc là a priori ils sont déjà d'un petit panoply de clients et si ils ayaient bien lu,
ils viendront obtenir la certification C5, l'équivalent allemand de sec non cloud.
C'est le vrai dossier de l'Allemagne que j'ai mis.
Donc ce qui est courrier dans cette histoire, c'est que je pense qu'on les associez pas trop à l'idl,
je pense que c'était une filière à part et maintenant c'est l'effet de mettre plus en avant les côtés groupes LIDL
qui pour moi je pense la donne, c'est loin d'être un leader de marché actuellement,
mais ils sont déjà des clients, des infrastructures, des services.
En fait il y a un monde entre venir faire du service, fournir de la base de données,
du compute, etc. et devenir cloud provider.
On est d'accord.
C'est peut-être l'effet d'un nom, c'est peut-être l'effet d'un nom.
Les gens ne nous voient pas forcément mais c'est normal.
Par contre moi ce qui m'interpelle c'est que dans toutes les communications qu'il y a,
les gens font absolument que le comparatif à AWS parce qu'il y a le côté retail et
historique, retail, logistique et donc AWS, Amazon, AWS et LIDL et LIDL Cloud,
je sais plus comment ça s'appelle l'offre.
Mais en fait il n'y a aucun mot sur les existants.
Il n'y a rien non plus sur les solutions techniques.
Alexander, tu disais quelque chose et on t'occupait tout à l'heure, pardon ?
Non, pas de soucis.
Je pensais que c'est l'effet d'annonce.
Pour moi c'est vraiment pour se positionner, pour dire attention on est là.
C'est ce que tu disais en fait.
Steven c'est que peut-être qu'ils en sont encore très loin,
peut-être qu'ils ont créé des choses par rapport, ils ont créé une offre en fonction
des clients qu'ils ont réussi à avoir.
C'est peut-être l'effet d'Oben.
Peut-être qu'ils n'en sont pas encore à être un Cloud Provider,
comme ceux qu'on connaît les Cloud Publique notamment.
Moi je le vois plus comme un effet d'annonce et puis comme une volonté de s'affirmer
tout simplement.
Mais on ne sait pas du tout leur offre, c'est vrai que là je suis d'accord,
on ne sait pas ce qu'ils font clairement, on ne sait pas comment c'est fait.
Mais on sait qu'ils font du Cloud.
À part ça.
C'est ça.
Mais c'est super curieux de savoir qu'est-ce qu'il y a,
quand on soulève le capot.
Ouais, moi j'ai déjà vu part passer.
C'est vraiment dans cette offre.
Ouais, c'est vraiment pour créer des choses.
Vous avez ces crans encore sur le truc ou pas ?
Non.
Non, moi pas encore.
Parce que moi j'ai essayé,
à priori c'est pas si évident que ça.
En fait, t'as haut.
Attends, je suis en train de refaire l'exercice.
T'as un truc register, mais en fait la plupart des trucs,
tu sens qu'on est un peu dans le business très,
pas Bitubi mais très Enterprise.
C'est-à-dire formulaire de contact,
vous créez le contact avec les commerciaux
et c'est pas du tout du off the shelf,
consommation à l'an-bas,
le genre de code public.
Non, c'est ça.
Et du coup,
moi ça ressemble presque plus
à une sorte d'infogèreur Enterprise
avec automatisation
que un cloud provider.
C'est peut-être ça, l'orcreno.
Je suis sur le site web,
dans lequel il met surtout en avant
la data sovereignty, tout ça.
Mais en effet,
c'est peut-être simplement ça.
Ce qui est moi,
ce qui m'amuse un peu
dans la communication autour,
c'est que la presse,
alors plutôt la presse américaine,
en fait, elle considère
qu'avec l'Edle Cloud,
c'est l'émancipation européenne
sur le cloud.
Parce que c'est la même histoire qu'à AWS
et il y a une compagnie

qui est en fait la seule comparaison
et il n'y a aucun mot
par rapport
aux OVH, SQL, Web,
et Sner
qui est un énorme acteur allemand
déjà,
qui fait plutôt de l'infrastructure
qui cède d'aller vers un cloud
mais c'est toujours compliqué
pour les opérateurs d'infrastructure,
les anciens hosteurs d'aller faire du cloud.
Et
la seule comparaison qu'il y a
c'est par rapport au Big Four.
C'est
il y avait GCP,
Amazon, etc.
Et puis là, il y a Lidl.
Et c'est le mouvement pour l'Europe
de son émancipation souveraine
sur le cloud.
En fait, ce que ça veut dire,
c'est
l'échec de communication
des cloud-provider européens actuels.
Pour moi, c'est ça.
C'est qu'il y a une non-visibilité
visiblement pour la presse en tout cas.
Tant sujet.
Ce ce pas de là, il y a pas que
tu es
qui est très d'accord avec toi.
En effet, c'est
un gros souci
que c'est comme si en Europe
il n'y avait rien de ce qu'il y a maintenant.
Et maintenant, il y a un nouveau genre qui a apparu.
C'est cote là, c'est en effet
très de ranzan.
Après, écoutons, on va voir ce qu'ils vont donner.
Tout cas, je suis courrier de voir
comment ça a évolué Karimann.
À notre éliane,
c'est Alexandre qui l'a mis
sur l'élastique
que rétébillent Open Source.
Qui revient Open Source.
Alors, je suis pas expert en licence
l'Issense Open Source.
Mon AGPL est quand même assez
controversé, on va dire.
Mais ça revient Open Source.
Ils sont passés de l'SSPL,
je crois, si je ne trompe pas.
Ils sont venus à notre licence AGPL.
Et bon, c'est pas la page.
Ils ont fait un Jolly blog post
à lequel ils s'expliquent tout ça.
Littéralement,
si on parle Open Source,
en sens strict,
les sources sont ouvertes.
Tu vois.
La AGPL,
c'est une licence que la fédérale.
Même la SSPL.
En fait, le deuxième sens qui est derrière,
c'est à quel point tu es libre d'utilisation
ou pas
pour en faire ce que tu veux ou pas.
Oui.
Et la AGPL,
c'est la AGPL
dans le réseau.
C'est-à-dire que la AGPL,
pardon, on va voir si tu voulais...
Non, non, mais ce qu'ils expliquent dans le blog post,
c'est justement qu'ils se considèrent toujours Open Source.
Mais que maintenant, avec un reprenant la AGPL,
c'est que ces licences approvées par les lois,
c'est une licence qui est
entre guillemets
officiellement Open Source.
Qui a tout les
perequis pour être considérés Open Source.
C'est que quelque part,
il y a un peu de symbolique pour eux, voilà.
C'est que oui,
il y a une appellée d'utilisation libre
en bon français, merci, c'est drôle,
parce que c'est ça.
C'est pas que les sources sont
ouvertes, c'est que de l'utilisation
et tu, c'est une licence libre.
Disons que la grosse différence,
c'est que l'ancienne licence
fermait le marché
d'un point de vue concurrence.
La SSPL t'empêche globalement
de créer une offre
concurrente à élastique, comme pour Mongo,
comme pour Rényz, comme pour toutes ces...
Là, GPL, la différence,
c'est que tu peux créer un concurrent.
Par contre, si tu modifies
les sources et qu'elles sont exploitables
en réseau, tu dois les
redistribuer
au sein de...
dans la codebase, dans le projet.
Sauf que dans la GPL,
il y a la notion
de...
de composition
de
comment on appelle ça ?
De tierce partie, etc.
Et donc, il faut préciser ça.
Je sais que nous, on l'a fait, par exemple,
Sousou, on distribue en open source
et qu'on développe en open source.
Il est à GPLv3
et pour des raisons simples,
c'est que
on veut pas forcément
que quelqu'un
vienne construire
un produit sur la technologie
qu'on a contribué. On a une petite boîte, on fait
l'effort d'open source, c'est aussi pour qu'il y ait
une rétribution qui soit juste
et que si quelqu'un base un produit dessus,
c'est ok. Par contre, il redistribue
la contribution. Pas de problème.
Là, c'est le même cas. Par contre, du coup,
on a
précisé, en fait,
quel était le travail composé
qui pouvait y avoir
et on a bien dit que
ça concerne que Sousou
et le projet Sousou, mais pas
il y a toujours une peur de la contamination
de la licence, c'est-à-dire
si tu as mis un logiciel A GPL
chez toi, en fait, open source
tout ton récit, tout... C'est faux, c'est du feud.
C'est de la mauvaise foi
de gens qui veulent pas lire la licence.
Nous, on l'a précisé en disant
bien, voilà, c'est pas le cas.
On vous demandera que
le contexte Sousou
et pas le reste. Dans le cas
d'élastique, j'ai pas regardé, mais je pense que c'est un peu la même chose.
Je vois même pas pourquoi
l'élastique serait allé demander à l'open source
d'une boîte,
d'une boîte qui irait utiliser
élastique avec une modification
de sa codebase.
Mais la grosse dif entre GPL
et A GPL, c'est
le mode de distribution.
Sur
la GPL, t'avais des logiciels
qui étaient distribués en binaire, qui étaient exécutés
localement.
Et la GPL te garantissait
la rétribution
quand t'avais une distribution
de ce logiciel,
mais pas forcément sur les appels en réseau.
C'est-à-dire que
t'es un logiciel qui est distribué sur un CD quand
t'es éditeur ou je ne sais quoi.
Si tu le distribues, tu dois
refournir,
recontribuer tes modifications.
Je sais que FRI
à l'époque avait fait ça. Ils avaient
redistribué
les patchs kernel qu'ils avaient fait.
Parce que la Freebox
était vue comme
une distribution du code.
Là,
la GPL, c'est la même chose
pour les services en ligne.
C'est-à-dire que si tu es
un service et que tu vas
faire un truc avec Elasticsearch,
il est en ligne.
Tu ne le distribues pas à tes utilisateurs.
Par contre, il est utilisé dans le chemin.
Le fait de l'avoir
dans une infrastructure
qui tourne,
utilisable en réseau, par d'autres gens,
ça implique une notion de distribution
qui est semblable.
Je crois qu'il y avait
une différence entre
mettre Elasticsearch
comme un backend, comme une base de données,
pour schématiser ton application
en ligne, et faire un Elasticsearch
par exemple, à ce service.
Il y a deux choses différentes.
En gros, tu pouvais
mettre Elasticsearch comme un backend
et ne pas être
sujet à la licence.
Par contre, si tu faisais du Elasticsearch
à ce service, là, par contre,
tu étais soumis à la licence.
C'était ça, leur licence.
C'était pour la SSPL.
C'est juste ça, c'est qu'il voulait
faire avec la SSPL.
Pénalisé, Oyan, qui proposait
un Elasticsearch service.
Justement,
maintenant, la pénalisation
va s'achanger.
C'est simplement, tu préfères
un Elasticsearch service.
Ça veut dire que si tu as
un Elasticsearch service, tu fais de
modification, parce que ça tourne
mieux, parce que c'est plus performant,
pour ce qui est passé, tu dois
contribuer cette modification
que tu fais,
sur la même licence.
D'accord.
Ce qui est un changement de stratégie,
surtout comparé avec
le changement de rédice, il y a
quelques mois, pendant un moment,
tous les mônes, aller vers
le type de licence restrictif,
et tout d'un coup,
Elasticsearch va à nous, on revient.
C'est ça
qui est intéressant dans cette histoire.
C'est clair.
Pour moi, c'est...
C'est juste un changement
inverse, c'est celui de rédice.
Après, il y a eu
OpenSearch qui s'est monté,
et après, notamment sur
une des grosses utilisations d'Elastic,
c'est quand même l'agrégation de l'Ug.
C'est pas que ça, mais c'était
une grosse utilisation pendant un moment.
Il y a eu
pas mal de services tiers qui se sont montés
et qui offrent des alternatives.
Je pense à Grafana,
à l'Instagram, OpenSearch,
à l'UplotProvider, etc.
C'est peut-être aussi un différentiel,
ils ont pu repousser là-dessus
pour être un différentiel.
À voir.
En tout cas, c'est nous intéressants
et...
Personnellement, si ça peut créer
un trend
qui fait que d'autres
reviennent vers ce type de licence,
moi, j'ai dit chapeau, quoi.
Non, puis Elastic, c'est pas
qu'une technologie, en fait, c'est un marché,
sur lequel ils cogent des cases.
T'as le CIM à côté,
les LOGS s'en éteint, mais je suis pas sûr
que ce soit les LOGS qui leur rapportent de l'argent,
tant que ça. Peut-être un peu,
mais je pense que la sécurité,
ils leur rapportent sans doute
plus.
À Ta Lofe, nous, on a marché de la SQ.
Ouais, nous, on l'a déployé
l'offre payante, enfin l'offre entreprise.
Je suis un pulterme exact,
c'est vrai que ça, moi, ce que je disais
en préambule, c'est un super produit.
C'est vrai que là,
tu as quand même pas mal de fonctionnalités
qui sont intéressantes, quoi.
Mais c'est là, ouais.
Ouais, et je pense qu'ils se sont rassurés
aussi. Enfin, t'sais, ils avaient
fait un IPO, donc à un moment donné,
t'as des actionnaires qui ont besoin
d'être rassurés, ils avaient sans doute pris un peu
de pression dessus.
Ce qui est intéressant, c'est qu'ils ne sont pas
tombés dans le piège de rester là-dedans,
quoi. Ils ont réussi à reprendre la main
sur le truc, on disait, ok, très bien, mais
maintenant, on revient.
Tu me l'as dit, notre marché,
il n'est pas fragilisé,
ni par AWS, ni par, je ne sais
quoi. En tout cas, les relations
ont l'air de s'être apaisées.
Euh, bon.
Je trouve qu'ils mettaient un peu de...
un peu de boom sur AWS, quand même.
Ah, si, le nommé partenaire
de l'année et tout, à l'article
de Biorge.
Avoir, quoi. C'est un peu
mettre de côté que toutes ces histoires
de licences, etc., viennent
toutes des problèmes de négociation
commerciale avec AWS, quoi.
Écoute.
Oui, mais il y a beaucoup
qui écoulait sous le pont de
puis sur la, maintenant,
les relations sont au beau fixe, donc
à suivre, je pense.
Bon, bon, on passe au suivi, Ivan.
Je crois que c'est toi, Cédric, qui nous
savait, mi, la sortie
de la version
1.4 van de Rust
et quel que...
inestabilisation de librairie
et aussi quel que petit souci
sur d'autres librairies.
Qu'est-ce que tu veux nous raconter, raconter, raconter.
Ouais.
Euh, ben c'est, c'est vrai que la sortie
de Rust 1.80,
elle a fait parler d'elle un peu. C'était le 25
juillet. On a eu,
ben, il y avait toujours son lot
de, de plein, plein, plein de modifications.
Mais il y en a une qui était assez, enfin
une stabilisation qui était très attendue
pour la communauté. C'était les types
lazy cell et lazy lock, qui
permettent de, en gros
d'initialiser des, des, des, des
des variables globales,
euh, statiques. Euh, pour ça
on ne pouvait pas le faire dans, on ne peut pas le faire
dans le langage. On ne pouvait pas, on n'avait pas d'outils pour le faire.
Donc il y avait deux crates qui étaient beaucoup utilisées,
qui sont parmi les crates, les,
les plus de reverse dependencies
et qui sont lazy static
et one cell. Et donc là,
maintenant, dans la STD, dans
l'élaboration standard, on a, on a
les types lazy cell, lazy lock, qui, qui vont
permettre de, en fait, de
remplacer quasiment
tout les listes statiques et la plupart
de, de, de, de, de, de,
les, les, les, les, les celles. Donc, donc
ça, c'est cool quoi, ça va, ça va rendre
les choses plus faciles, parce qu'il y avait beaucoup de gens qui arrivent
dans reverse, qui disent comment je fais pour faire un single
ton, euh, euh, ben, ils ne savaient pas
trop comment faire. Là, ben, c'est dans la STD,
c'est, c'est cool. Donc ça, ça faisait longtemps que c'était demandé.
Et ensuite, il y a eu un, un
autre truc qui était un peu, euh,
enfin, ça, ça, ça, ils n'avaient pas
vraiment anticipé que ça, que ça fasse autant
de bruit. Ils ont rajouté une
implémentation de fromiterrateur, le
très fromiterrateur, pour, euh,
une box de slice t,
générique, n'importe quel, en gros,
slice. Ça, c'est, euh,
ça permet, par exemple, de pouvoir
collecter un iterateur,
euh, de,
de, de bytes,
directement, c'est une box slice
byte. Euh, donc ça veut dire, en gros,
c'est une forme de buffer qu'on peut pu,
euh, gros, quoi, qui, qui, qui,
qui allouait, euh,
voilà. Et, et, et, et donc,
en fait, cette, cette implémentation,
elle a modifié l'inférence de type.
Parce que, euh, dans Rust,
il y a, il y a tout, tout, toujours,
euh, soit on déclare,
ah, il faut qu'à chaque moment, les, les
variables qu'on manipule, elles soient tipées.
Mais soit, euh, le, le, le
compiler est capable de,
de savoir ce qu'il manipule.
Parce qu'il y a de l'inférence de type, il sait que
telle fonction retourne telle valeur
et donc il peut deviner. Et, et,
ça, ça permet d'alléger le travail du
développeur qui n'a pas besoin de spécifier à tous les endroits
exactement quel type il est en train de manipuler
et tout ça. Mais,
voilà, là, avec cette nouvelle
implémentation, ça a cassé,
euh, certains, l'inférence de type
et donc il y a un create notamment, enfin, il y a
5400 create qu'on était, euh, qu'on
une régression avec des, qu'on, qu'on, qu'on
avait des problèmes suite à ça. Parfois
dans les tests, parfois, voilà, mais
et notamment le create
time, timer s qui est un peu le, le standard
la librairie, euh, standard
de manipulation de, de, de, de date
et de, de
date time, enfin tout, tout, tout ça
euh, car remplacer un peu
chrono, bon, il y a eu tout une histoire aussi
à su, mais euh,
du coup, elle a, elle a une version
qui, qui compit l'appui, littéralement
euh, du jour au lendemain,
tu fais ta, ta, ta, tu mets
un jour le compilateur et du coup
tu peux plus compiler, euh, la dernière
version de, de time
rs, donc la 3.0
0.3.35
et donc ça, ça a cassé pas mal
de, pas
mal de create quoi.
Y compris chez nous, euh, on a, on a, on a
on a, on a, on a, on a, on a, on a, on a, on a, on a, on a
on a, on a, on a tout de suite euh,
upgrade et bah
tout de suite, la CIA, il n'y a pas assez plus
parce que en fait, euh, la dernière
version du create time, elle était pas
elle, elle compilait plus quoi, à cause
d'un problème d'inférance de type
et voilà, ça a été fixe
dans la minute et c'est...
Ben c'est ça, parce que en fait,
rs,
c'est un peu construit sur, sur l'utile que...
Ouais, c'est ça, ça a fait un peu un fuzz
parce que rs, c'est un peu
l'idée que
on est hyper vigilant à ce que
tout, tout de nos, toutes nos modifications
elles soient bakoirs compatibles, qu'on aille
rien casser, qu'on aille un langage pour durer
40 ans, que machin c'est la safety
avant tout et là en fait
ils constatent, parce qu'ils font le test avant
toutes les réalises sur tous les crêtes publiées
ils constatent qu'il y a 5400
régressions et ils disent c'est pas grave, on y va quand même
euh, ils ont pas du tout et
disons qu'ils auraient pu l'anticiper
et donc en fait, ça, ça a énervé pas
mal de gens
et...
pas trop si on change log au début, c'est pas ce que
les gens ont dit, mais c'est n'importe quoi et puis moi j'ai
time qui compitent plus, ma CIA elle est pétée
euh, bah que du coup ils ont
rajouté dans le change log un, un truc
là dessus
et voilà, après
alors des charges ils peuvent pas s'empêcher d'évoluer
si les gens y reposent sur l'inférence
de type, bah c'est
c'est, c'est, c'est leur problème en fait
on va pas empêcher
le langage d'évoluer
et donc voilà, il y a un peu ce débat et
il y a eu euh, bah du coup
certains qu'on dit ouais, c'est un peu comme
pitton 3, ça fait nous faire un reussi
il a fait courir parce que...
ouais
c'est très courir cette histoire
d'évolution de langage
moi je peux pas me empêcher que mon coeur
de Yavaisiste
dise assez de problèmes que la communauté
Yavais
avec eux depuis Iban San Khan
et assez souvent la réponse de la communauté
Yavais c'est oui on peut s'empêcher
d'évoluer d'ailleurs
et on a réussi à
tenir Yvan San San
évolution de dérupture
mais effectivement
c'est, c'est
comme je t'ai dit
mon coeur de Yavaisiste
dit wow, c'est un membre brutal
comme truc
en mode San San
c'est juste l'intérêt en ce type
ils ont pas de nos produits modifiés
des comportements euh
et puis on est sur un langage qui est récent
on est sur un langage qui est récent
si on commence à se dire ok on fiche tout
et puis en fait on obligeait du coup
d'avoir un autre langage pour les
développements à venir
je trouve que c'est dommage
et en plus là c'est même pas le langage
en lui-même, c'est la STD
c'est la librairie standard
donc en fait il y a plein de projets qui sont écrits en russe
qu'utilisent pas la librairie standard
tout ce qui est systémé embarqué, IoT
et compagnie
et moi je suis plutôt pour dire
là on est en train
d'avoir
un langage qui est jeune et faut pas l'empêcher
d'évoluer
c'est top d'avoir des impérimentations
ça te fournit des outils
facile à utiliser
et aujourd'hui il y a plein de gens aussi qui
arrivent dans russe et qui disent ouais moi je viens de
Python, c'est trop bien on a tous les outils
dans la boîte à outils
ouais bah dans russe il manque encore plein de trucs
donc faut pas se plaindre
quand les devs
il est craig quoi, il est met à dispo
voilà
moi je pense ça
t'inquiète toi il y a eu ça dans tous les langages
et sinon prochaine update
si on parlait de Java, avec Guava
d'avant
bah oui
en effet
et tu as raison dans un truc
c'est qu'un langage
doit évoluer, ça c'est clair
et peut-être que comme tu disais c'est pour le moment
que tu ne peux pas se permettre de rester
sans vous
comme une communauté
faire un truc, ta google qui vient
rouler dessus, vous avez mal fait
vous êtes nuls
mais moi on a fini par avoir des génériques
non
ouais bah
c'est dommage
ça perd un peu
je trouve du coup
bon bah
on va
rester
sur Rust
parce que une autre news que vous avez mis
c'est que
les maintainers de Rust for Linux
ils quittent
son poste
qui a mis la
news et qui veut nous raconter plus
la news
c'est surtout que
il y a une news que j'avais mis
c'est que les mainteneurs en fait
l'adoption en fait par les mainteneurs du
noyau linux
de Rust n'était pas
un peu en berne
c'est un peu
il y a eu un frein en fait dans l'adoption de Rust
dans la création maintenant du noyau linux
vu que je sais qu'à cléveur
il y a pas mal de personnes qui font du Rust
j'aurais bien aimé avoir votre avis là dessus
parce que moi je vois les choses un peu loin
parce que je suis pas trop dans Rust
je sais qu'il y a eu pas mal
d'effets d'annonce il y a quelques temps
il y a eu un peu de dents de
l'adoption de Rust et le noyau linux
il faut aller dans Rust
il faut utiliser Rust etc
pour tous les avantages
notamment par rapport au C++
et là maintenant qu'il y a un gros frein
c'est de savoir un peu
quel sont ils
et puis qu'il y a va être le futur
selon vous
je sais pas si
c'est si généralisable que ça
je sais pas
alors il y a un truc qui est vrai
c'est que
très souvent la doc
du kernel c'est le code
et là je pense que
les dev Rust
ils ont l'habitude d'avoir des bonnes docs
de se dire tiens je vais aller regarder la doc du truc
et de se rendre compte que les docs
sont soit
pas suffisantes
soit pas bonnes
et de devoir aller regarder le code C etc
et
pour faire des intégrations
il y a notamment un thread
c'est Asahih Linux
qui fait le portage du kernel
sur
les procs
M1
et qui raconte
un peu son chemin
pour
on va ajouter peut-être le thread
on va le retrouver
et donc elle raconte
le chemin que ça a été
pour y aller
la pénibilité
le
surcode qu'il faut écrire
parce qu'il y a des abstractions qui sont pas forcément là
partout qui a des choses un peu mal faites
historiquement
après
c'est un peu sa conclusion c'est qu'il y a des trucs
plutôt que de surécrire du code
elle va aller refaire des parties nativement en reste
à des endroits
pour assainir un peu ce truc là
mais bon après
il y a le bain reste humain
bon super
heureusement qu'il y a un bon chef d'équipe Linux
pour aller gérer de l'humain
je peux avoir le chef d'équipe
il voulait pousser Rust
parce qu'il comprend bien qu'il y a un sujet
de génération
il y a un enjeu aussi de proposer un système memory safe
si Linux n'est pas memory safe
demain les kernel
Windows ils ont commencé
à travailler très très fort pour que tout soit memory safe
sur Microsoft
et donc il y a un enjeu
et là ce qu'il voit c'est que sa communauté en fait elle est âgée
elle a pas envie d'apprendre Rust
elle a pas envie de documenter ces trucs
parce qu'elle fait du gate keeping
et donc il y a vraiment un sujet de dire
non on a des API qu'on a pas envie
de documenter parce qu'on veut pas s'empêcher
de refacteurs en continu
et du coup de devoir maintenir une latence
entre les binding rust un côté
et le corps du kernel
donc eux ils aimeraient bien
par exemple
simplement ils envoient des pointeurs à droite à gauche
de dire mais est-ce que
ça peut être nul ou est-ce que ça peut pas être nul
est-ce que des trucs comme ça
et donc là le team
le
le mec qui est académissionnel
qui s'occupait
d'animer le projet de Rust for Linux
donc j'ai oublié le nom
en fait
il s'est fait bâcher du début à la fin
pour dire bah non mais Rust ça n'apporte rien
moi en fait j'ai pas envie de changer
j'ai pas envie de me limiter en mérifacteur
donc j'ai pas envie de documenter parce que si je documente
on va me strongtiper tout ça et ça devait
devenir hyper rigide
et donc voilà
ce qui est intéressant c'est qu'il y a aussi vraiment
un sujet de génération et de
en fait de courbes du changement
avec des violous
qui veulent pas vraiment
évoluer
je pensais pas qu'un lure lui entendrait parler
des maintainers
et Linux comme deviait
ça veut dire que je suis vieux aussi
encore une fois c'est cool mais
il pense qu'il a baissé son quand même
c'est pas soucis on va part à la retraite
ça rassure pas parce que si il part à la retraite
et qu'il n'y a pas de doc
qui n'a rien de pipé je peux dire
ça va être assez compliqué pour la maintenance
mais c'est ça et c'est ce que Linus
quand il a
il a dit qu'il faut qu'on bouge sur Rust
il faut qu'on fasse un move là dessus
et sur les langages MurraySafe c'est aussi pour attirer
des renouvelés aussi des maintenance
parce que les corps contributeurs
ils sont très peu nombreux en fait
et aujourd'hui ils ont pas envie d'apprendre
ils ont pas envie de bosser en C
parce que
c'est bien mais on a 40 ans
d'expérience pour faire des trucs
qui sont beaucoup plus faciles aujourd'hui
ça nous rappelle l'éternel
problème de
contribution open source
de problème pour trouver
de corps contributeurs
de la retribution de l'open source
c'est un souyer
qui est le boucle
relatif mais
on y revient
et le problème c'est qu'on y revient
il faut à l'autre
parce que le souyer est partout quoi
si tu regardes le nombre
de corps contributeur de Colonel Linus
qui est littéralement partout
non c'est ça
le risque
ça commence à être à C à Y
quand tu évalues le risque
c'est à dire que si tu
pas avoir de documentation
pas avoir de renouvellement avec de la population
quand tu vois que le noyau unique
il est déployé après tout
ils sont pris aussi d'une douche
il y a eu pas mal de communication
du gouvernement, de la maison blanche
aux États-Unis qui disaient il faut arrêter le dev
de tout programme
qui sont pas memory safe
il y a eu beaucoup
de discussions par rapport à ça
ils se disent c'est mon skill set
c'est toutes mes compétences
et c'est ce que j'aime faire
de dire c'est pas bien
alors qu'on leur dit pas c'est pas bien
mais on leur dit qu'à chaque fois que ça pète
c'est parce qu'il y avait des pointeurs
qui étaient mal gérés
et là le gros problème
de Krave et Krave Strike
c'est encore ça
en fait
c'est encore des trucs qu'on n'aurait pas été possible
si ça avait été connu en reste
ça pose une vraie question
c'est comment tu
comment tu fais évoluer
un projet majeur comme ça
et que tu lui donnes une pérennité dans le temps
quand c'est très directif
entreprise c'est simple
tu recrutes, tu affectes
là c'est pas facile
en théorie t'as des entreprises qui devraient
à un moment donné recruter
et dire tu prends ce système
et tu le convertis en reste natif
et puis vas-y
mais
pas simple
et puis quel est l'intérêt de la boîte à le faire
tout ça s'aligne donc ça va se faire
mais
ça va se faire
c'est tel but
comme il y a plus de documenté
là c'est ce qu'ils avaient commencé à faire
mais comme les gars font du gate keeping
ils disent non mais moi je veux pas documenter mon API
je te dis pas les lifetimes implicites que j'ai mis
à droite à gauche je te dis pas
les invariants à tous les endroits
du coup les gars ils ont juste dit
on peut pas deviner en fait on a essayé
de désassembler le truc
machin mais il y a des invariants qu'on sait pas
et
et comme ils font du gate keeping
bah là ils disent j'abandonne en fait
j'arrive pas à les convaincre
et la seule manière de réécrire le truc
ça va être de repartir
sur un fork
en fait et sur une base qui bouge plus
là l'étudier et c'est
un petit peu de ça mais
plus de temps incroyable
et encore de la fragmentation
c'est dommage
est-ce que je comprends complètement
ça tu l'as un peu partout
tu l'as partout ça
dans toutes les techno
dans tous les domaines
j'ai toujours fait comme ça ça fait 30 ans
c'est simple manouman
c'est de l'accompagnement
c'est aussi souvent
dans une entreprise
c'est quand même
dans une entreprise
ce que je voulais dire c'est que dans une entreprise
tu peux le cadrer dans une prochaine open source
c'est trop compliqué
ça fait possible la question
de se poser des trucs, des systèmes aussi gros
c'est celle que beaucoup de monde sortait
aussi
lors de back windows
et on devrait avoir
plutôt que 3 ou 4 systèmes
différentes, 30 ou 40
mais la fragmentation
ne serra pas non plus une solution
je veux dire si linux ne t'est pas
aussi massif les problèmes ne serraient pas là
mais
c'est pas non plus la solution
non je pense que justement la fragmentation
c'est ce qui tue
c'est ce que la magie est improbable
et la résistance au changement
c'est au centre
de beaucoup beaucoup de problèmes
en fait
ça me rappelle que j'avais eu
des échanges avec Willi Taro
qui est le principal
mainteneur
de HAPROXY
et d'ailleurs je crois qu'il est
mainteneur de linux 2,4
si mes souvenirs sont bons
ou il était je sais pas s'il est encore
et en fait
on parlait un peu de ça
justement à HAPROXY c'est en C
il y avait des gens chez HAPROXY
qui regardaient un peu Sousou
qui étaient en rust
et c'était exactement ça
enfin lui il me disait
maintenant je fais de la maintenance
je fais passer des trucs
j'ai la code base par coeur de tout ce qui est où
il disait
peut-être que je ferai un petit side project
comme ça mais aller réécrire à HAPROXY
en reste tu vois
c'est le projet de sa vie
il va l'amener gentiment
jusqu'à sa retraite ou sa petite mort
en fait
souvent on sous-estime
la capacité des gens aussi de passer
à un certain âge
de pouvoir apprendre facilement
d'être flexible, d'être réactif
d'avoir de l'énergie pour aller
attaquer des projets majeurs
et ça c'est peut-être un petit message
qu'on peut envoyer aux jeunes mais n'ayez peur
de rien, enfin allez-y
il n'y aura jamais de
meilleur moment de votre vie pour attaquer des chantiers
ou quand t'es un peu plus âgé
tu regardes ça t'es une flemme ingite égule
regarder le truc sur le papier
alors allez le faire
mais en fait
tu vois quand t'as entre 15 et 25
35
45
mais non quand t'es dans la fraîcheur
de l'âge entre 20 et 30 ans
c'est là que t'as toute l'énergie possible
et que tu peux gravir des montagnes
donc voilà
n'ayez peur de rien si vous avez des choses
et que quelqu'un vous dit c'est trop compliqué
regardez la littérature
prenez connaissance
de l'état de l'art, de ce qui existe etc
par tes pas feuilles blanches parce que ça c'est un peu
dommage de refaire ce qui
qui existe déjà
mais prenez connaissance rapidement
et allez-y
parce que on le voit là
c'est le problème c'est que c'est pas avec des gens
passé 50 ans que tu vas aller révolutionner
des choses
donc plus l'énergie
et donc si t'es un petit jeune
une petite jeune de 20 à 30 ans
et que tu te dis tiens
j'irais bien faire la maintenance d'une partie
d'un sous système du kernel
et bah tu fais des patchs
tu apprends à le faire
et puis un moment donné si ton projet
c'est de te dire bah du coup memory safe
ça me plaît aussi et bah t'apprend rust
tu fais des patchs en C
et cette double compétence elle va t'amener
à un poste ou un moment donné il y aura quelqu'un qui pourra plus le faire
dans le kernel et c'est ça
peut-être toi qui pourra faire ce changement
là et amener cette révolution donc c'est important
mais ça ne peut venir que des jeunes
j'ai pas coup trop de poivris pour en faire partie
voilà
ça commence à se voir un peu ouais
ah c'est vrai qu'il est beau encore
tu te tends ta barbe
c'est vrai que...
ah la fois je t'avais un peu routine
je crois qu'il est un peu plus jeune
à l'instant mais non t'es rasé bien toi
bon bah et donc on peut mettre une dernière nous
pour notre épisode c'est bibliothèque
speech to speech open source
de game face qui a mis le lien
c'est moi
bah bah alors racontez nous Esteven
bah en gros
c'est...
je sais pas si vous aviez vu la démo
c'était GPT 4.0
là ou tu sais
il y a un exercice ou tu as quelqu'un qui parle
dans une langue et un téléphone
et puis ça répond dans une autre langue
et puis en fait t'as l'équipement
qui devient l'interaction du traducteur
automatisé entre deux langues
qui se comprennent a priori pas
la démo je crois que c'était
italien vers anglais
et dans l'autre sens
et bien en fait
Hugging Face a réussi
à assembler du coup une alternative
open source parce qu'il permet
d'avoir un système
semblable qui permet de faire du speech
to speech en bon anglais
alors je connais pas
précisément comment ils l'ont fait etc
mais je trouvais que c'était intéressant de
dire que ce que c'est tout frais
quand même ça a une semaine
une semaine je crois
et donc ça permet
à ceux qui sont potentiellement intéressés
par ce genre de choses ou qui veulent le reproduire
de
d'aller explorer
le modèle qui a été proposé
sur Hugging Face pour le faire
et donc d'abord il fait
la détection de l'activité vocale
ensuite
speech to texte
ensuite le modèle de langage
pour générer la réponse
et à nouveau de texte to speech
donc c'est un pipeline
qui te donne les subtils
de l'ensemble
qui est type
à peller
directement en secalat
et ça te compliquait de voir
construire tout le même tonestac
et
ça a l'air d'être
un démon assez sympathique
après tu te vois
tu as du whisper derrière
tu vois qui te fait le speech to texte
et puis refondre du texte to speech
avec parler
assembler
bien goupiller
après j'ai aucune idée de la performance
à tester mais ça a l'air assez rigolo
je pense que la performance
dépend beaucoup de modèle qui l'est derrière
mais ça a l'air super
ça l'air bien de voir ce type d'outil
en mode open source
c'est clair
ouais
ça bouge vite
ce domaine là
si tu n'es pas dedans
tu reviens qu'est ce qui s'est passé
voilà
et à chaque épisode on a
un petit peu de news
qu'il y a à sortir
donc carrément ça
en terme d'IA
est-ce que autour de la table
vous développez avec un peu d'IA aujourd'hui
ou pas encore
parce que vous avez fait des expérimentations
on a fait des expérimentations en gordon
on a pas mal de choses
notamment sur GitHub qu'au pilot
les conclusions
si elles sont partageables
alors les conclusions c'est que ça va pas
faire pas de créer
le code optimal de le meilleur du monde
et ni être le meilleur développeur du monde
par contre ça va te permettre d'avoir
quelque chose de correct
sans épégeoratifs
ça va être un accélérateur
tout ce qui est le boilerplate
ça va te permettre de t'accélérer
ça va vraiment un gros accélérateur
après on l'utilise
de manière
on utilise plus en prompt
plutôt que
avec un prompt
en fait
là où c'est intéressant
mon petit personnage j'ai utilisé
sur des techno que je connaissais pas
forcément ou j'étais pas c'est veloce
ça m'a permis de rentrer
de faire tout le scaffolding du projet très rapidement
en général une bonne partie
et moi ça m'a permis de rentrer
de coder en une journée au deux
au lieu de mettre une semaine par exemple
mais c'est un bon accélérateur
je vois ça comme
à la fois pour des fonctions
tu sais tout ce que tu mettrais
dans un utiles
dans une classe utile
n'importe quoi, tu as de la conversion d'IP
de trucs, des trucs un peu bidons
sur lequel il faut aller
soit te documenter, chercher les livres
ou rien de ça, tu peux très bien te générer
la petite-tip qui va bien, tu la vérifie
et a priori
tu as bien développé tes tests
de toute façon ton code va te vérifier
et a priori
par contre
c'est comme le billet du testeur
normalement c'est pas le même qui fait les tests
sinon t'as un billet
si c'est Liyah qui génère le code
qui génère le test
non mais
par contre il y a un truc
sur lequel je pense que ça peut être très intéressant
ce qui rend heureux un développeur
c'est de développer
aller faire la documentation du code
le machin qui permet quand même
une bonne maintenance
d'applications industrielles
et de l'application du client
du développement
ça ça fait marrer personne
aujourd'hui te dire que
tu prends une code base et tu dis
documente-moi ce boulot
cette crate de machin etc
cette classe
ben
la gestion des visarabilités aussi
tu vois, mais tu as un jour les librairies par exemple
la mise à jour des librairies
les CVE
tu as des penses citraques ou je sais pas quoi
qui te remontent une de CVE
qui doit traiter
ça fait rêver personne
clairement
c'est peut-être des sujets
qui pourraient être intéressants à l'avenir
je crois qu'il y a des choses
sur la gestion des CVE par LLM
mais
c'est des choses à creuser
on a un contrôle plane très escalat
du coup on a un ScalaFix
qui est déjà prévu
pour faire tout ça
mais oui t'as raison
même de passer une code base
je sais pas, je dis n'importe quoi
d'une version à une autre
je veux regarder ce qu'il faut regarder
oui
moi je suis assez critique
sur le liable pour tel
globalement
tu te augmentes énormément
ta rapidité, tu vas produire beaucoup de code
mais
tu diminues la qualité
de ton code
il est important de revoir
son process de relecture
de test
tu passes beaucoup plus de temps
à relire les choses
et t'assurer que c'est exactement
ce que tu fais
même ça dépend de ce que tu fais
toi tu développes une base de données
avec des trucs qui à mon avis sont un peu spécifiques
et ça ne va pas être facile de les générer
mais tu ne développes pas forcément
énormément de lignes de code
pour les choses à créer
parfois si t'as un protocole à parser
mais tu vois un protocole à parser
tu peux très bien lui dire
regarde et puis en fait
tu vas t'appliquer la même chose à grande échelle
donc là t'as gagné beaucoup de temps
alors oui tu auras une peu de relecture
c'est toujours mieux que d'être allé
de taper tout le truc
et ça c'est pas le boulot très intéressant
du développement tu vois
ça ne fait pas marcher ta matière grise
énormément c'est pas hyper gratifiant
ça tu l'automatises
ça ne veut pas dire que la partie complexe
sur laquelle il faut réfléchir
tu ne vas pas la faire toi même
ça peut te faire relire
ça peut parfois te pointer
sur des erreurs que tu peux faire aussi
ça arrive
et après
se dire qu'il y a du code
de meilleure ou moins bonne qualité
très subjectif
il dépend du développeur
je pense que tu peux arriver
à du code généré bien plus propre
c'est comme prendre du code sur Stack Overflow
non il parait pas moi qui était la code
je sais les gros Stack Overflow
ouais mais
non non non
mais attends c'est même pas ça
regarde on parlait des vieux loups vieillissants
qui veulent pas trop documenter
va lire le code
va comprendre etc
en fait
tu as du code qui peut être très bien
mais très complexe
très artificiellement complexe
très dur à maintenir
et pour rien
parce que
tu vois les vieux dinosaures
qui faisaient tout en peur
en fait ils avaient toujours le
côté
j'ai réussi à le faire en WineLiner
le truc qui faisait 15 pages
mais il y a mis sur une ligne
et ils avaient une fierté
de ça
c'est quoi la maintenabilité de ce bordel
et en fait c'est pas plus performant
ça n'apporte rien
ben
si t'es temps le truc
est-ce que ça c'est du bon code ou pas
autant faire du mini-file
comme en web
pour le livrer mais avoir
une version maintenable
en relecture etc
et sur ce point de vue là je trouve que c'est pas
c'est pas dit après tu peux avoir du code
boilerplate un peu verbeux
mais tu simplifies aussi
ça par exemple j'ai un cas
sur des tests
qui étaient écrits là
notamment on travaille un peu sur Redis
et il y a des
dans le crate Redis il a tout une stack de test
écrit en TCL
et on a testé de voir si Nia
pouvait réécrire traduire du TCL en Rust
et ben ça fonctionne
très très bien
pour le coup il y a de la relecture
tout est pas parfait
mais ça c'est genre le truc
pour faire de la traduction entre langages
ça marche
ça a l'air d'être assez
bonne news case
je pense que avec ça on peut
arrêter notre épisode aujourd'hui
sinon on va encore nous dire qu'on est beaucoup trop bas
et pour partir en musique
c'est vrai que tu nous avais dit tout à l'heure
que tu avais une musique à nous proposer
mais ça nous dit que ça nous dit
qu'est ce que c'était ?
oui alors ça nous dit que c'est relatif
je crois que c'est genre
je sais pas exactement quand ça va être
mais ça doit être 10 ans ou quelque chose comme ça
moi cet été j'étais à Trimini
dans le Triève
au sud de Grenoble
et il y a une chanson de Wampas
qui s'appelle Rimini
et voilà du coup
j'avais ça en son et j'ai un peu écouté ça
ce c'était
nickel
vous voyez
c'est un cycle
on va les sécher cet épisode
finir et on vous dit à
très bientôt merci encore
Esteve, Cédric, Alessandro, merci
à tous de nous avoir écouté
au revoir
Sous-titres par Sous-Titres

Les infos glanées

Je suis une fonctionnalité encore en dévelopement

Signaler une erreur

CleverCloud

Tags