Scala dans tous ses états, en direct de Scala.IO 2024

Durée: None

Date de sortie: 23/02/2024

Voir sur Youtube Animé par Antoine BLONDEAU @P4ndaFRavec la participation de : - Jean-Baptiste Kaiser @ArendSyl- Valentin Bergeron- Francois Armand @fanf42- Lucas Nouguier @LucasNouguier Épisode enregistré le 15 février 2024 👋 Venez discuter avec nous sur @clever_cloudFR pour nous dire ce que vous avez pensé de ce nouvel épisode. ➡️ Pour découvrir ou réécouter d’anciens épisodes c’est par ici ! Chapitrage et Liens 00:00:00 Introduction et présentation des participants 00:03:18 Scala IO 2024 : https://scala.io et https://www.youtube.com/@scalaio (pour voir les replay des talks de l'édition 2024 à Nantes) 00:05:30 Passage a scala3 00:10:30 Scalafix 00:11:55 Migration’s pains 00:12:28 Refined to Iron 00:16:15  Shapeless 00:17:35 Loom/virtual thread Est-ce que Scala décline ? 00:33:20 Scala To Wasm 00:45:35 Les lambdas vont manger le monde ?

Bonjour, bienvenue dans ce nouvel épisode de messages à caractère informatique, épisode
numéro 103.
Nous sommes le 15 février 2024, et aujourd'hui, nous sommes accompagnés de genres matériaux
tel que Jean-Baptiste Kaiser.
Bonjour.
Bonjour Jean-Baptiste, qui est-tu et que fais-tu chez Clever Cloud?
Alors du coup, je m'appelle Jean-Baptiste Kaiser, je travaille chez Clever Cloud et je
travaille dans l'équipe d'Antoine sur la partie orchestration, et donc on développe
des appellies de gestion de plein de choses, particulièrement de la virtualisation, et
le tout en Scala et avec du Rust pour plus que les systèmes.
Nous sommes également accompagnés de Valentin Bergrand.
Bonjour, alors moi, je suis timide dans des équipes de backend chez Ledger.
Alors Ledger, c'est une boîte qui vend des devices pour protéger des clés privés
en gros, et ça paraît cher des portefeuilles du crypto-monnaie.
Et avec ce hardware, on propose aussi une application mobile, Ledger Live, et du coup,
des backend derrière, pour par exemple avoir l'histoire de transactions et tout ça.
Et voilà, on gère ce genre de service dans le cadre.
Ok, super.
Nous avons également avec nous François Arnon, François qui est-tu et que fais-tu
le réfic?
Alors bonjour.
Moi, franchement, je suis un tinosor de la communauté Scala.
Je fais du Scala depuis 2006 et j'ai monté ma boîte en 2009 dans le codeur, le ciel
d'autorapitisation d'infrastructure IT, focalisé sur la sécurité, ce qui est pas
tout management, ou vérification de différents aspects de compliance.
Et on fait pour ce produit, qui est donc, tu vois, un promise chez les clients, du Scala
depuis 2009.
Donc ça commence à faire beaucoup trop d'années.
Mais on fait aussi du Rust et du Elm, on est une petite équipe et donc on focalise
sur des langages qui auront une bonne capacité, une bonne capacité de maintenabilité par
Lecain.
Ok, le Lecain.
Et enfin, Lecain Nouguier, Lecain, bonjour, qui es-tu?
Bonjour, donc moi c'est Lecain Nouguier.
Actuellement, je finis mes études.
Je vais partir en stage chez Tils où ils ont une très grosse partie de leur backend
qui est faite en Scala, à 80% si je me souviens bien.
Et j'ai attiré dedans plus ou moins il y a un an et après, de fier en aiguille,
je me fais pantaliner.
Ok, bon, bon.
Et donc c'est moi, Antoine Mondot qui était présentateur de l'épisode.
Je travaille également chez Clever Plum et je m'occupe de la partie Control Plain
de l'utilisation que je joue avec l'EDM, de cette certaine chose que les choses marchent
et je fais au passage jusqu'à là entre autres activités.
Cet épisode est un peu particulier parce qu'on le fait dans le contexte Scalaïou
où vous le voyez peut-être mais on n'est pas en promote.
On est dans un grand salon avec des gens en fraise, pas d'autres habitudes,
mais c'est aussi agréable d'avoir les plans comme ça.
Et donc Scalaïou, c'est une conférence de Scala et puis je vais laisser des gens bâtistes
qui, dans l'exécesion de cet événement ou Lucas également,
nous présenter ce qu'est Scalaïou.
Alors rapidement, Scalaïou, c'est une conférence française
spécialisée en Scala dont le but est d'évangéliser le langage
ou des éléments du langage à la communauté Scala
et à la communauté des développeurs et des développeuses de manière très générale.
Et c'est un événement qui a lieu à Nantes le 15 et 16 février 2024.
Donc si vous êtes dans la région Montaise, vous avez peut-être entendu parler de cet événement,
sinon vous verrez les replays.
Et c'est un événement qui regroupe toute la communauté Scala internationale
avec beaucoup de tolles qu'en anglais en particulier
pour justement être axés autour de la communauté internationale en Scala.
Oui, c'est impressionnant.
Le truc qui m'a pas mal étonné, c'est que je vois un peu
à la fois les livres d'un côté et la discussion qu'on peut avoir
avec des gens qui font du Scala, qui malgré tout,
parlent la plus grande communauté en France.
Et en fait, c'était super agréable de trouver des gens
qui étaient dans des domaines très différents, des entreprises très différentes
et qui utilisent le langage et qui ont le même classique,
un jug, en fait, ou un user group de...
Ah oui, il y a vraiment des gens qui ont le même problème que moi
ou qui utilisent ce langage-là et ça, là,
il y a un truc vraiment chouette avec Scalaio.
Donc j'ai eu la chance de quasiment tous les faire,
d'y compris les premiers.
Et ça a toujours été une conférence qui a été...
qui a but de mon agrégatif.
Donc c'est fait par des gens qui veulent vraiment
promouvoir le langage avec des tickets qui sont très abordables
et ça crée une ambiance assez intimiste,
dans le sens vraiment plus positif possible du terme
où on va pouvoir aller discuter avec des sommités.
Martin Dacier, il a eu plusieurs fois,
il a été hyper accessible dans le cadre de ses conférences.
Et c'est vraiment un truc qu'on retrouve spécifiquement à Scalaio
qui est super appréciable.
C'est chaleureux, il y a vraiment de nos bonnes familles
qui sont finalement retrouvées plus de personnes souvent d'une année en année
depuis qu'on est un peu en rime haute partout en France.
Parce qu'il y a eu une certaine migration,
ça permet de se retrouver, c'est du genre de se retrouver.
Carrément.
Un des sujets qu'on a pu évoquer en discutant avec les gens
de cette communauté-là, c'est qu'il y a une version de Scalaio
qui est sortie d'un petit moment, c'est-à-dire Scala3,
qui a apporté énormément de choses et de fonctionnalités
qui sont très appréciées, mais qui a été aussi un peu cassante
à l'antenne de compatibilité par rapport à l'ancienne version
pour plusieurs raisons.
Parce que ça s'appelle 3, on a déjà, avec Piton, on a bien pu...
C'est ça, ça a décaché 3 petits S.J. chez les gens
qui se mettent à peur, Piton en France.
Après, c'est ce problème de compatibilité,
c'est qu'il y a de ce qu'il y a de la volonté d'aller
vers un format spécifiquement intermédiaire
de représentation qui permet d'avoir cette évolutivité
sans vraiment de se sentir vers Chodin.
Ce que tu dis, c'est qu'on casse pour ne plus casser.
Exactement.
Après, ils se sont cassés, ils ont quand même fait attention
parce que dans Scala 2.13, qui est donc la dernière version de Scala,
ils ont déjà mis en place les vacances
qui permet au niveau binaire d'avoir cette compatibilité
et donc, on est capable, dans Scala 3, d'utiliser des bibliothèques
qui ont été compilés en Scala 2.
Et ça, particulièrement, c'est extrêmement important pour...
Dans sa frangue.
Et d'ailleurs, d'ailleurs, c'est aussi vrai,
on peut coupler le Scala 3 et avoir un bruit de point très stompe,
c'est pas le des futures trop avancés, tout court de somme, ce point.
Ça s'en...
Dans le point de vue binaire, ça fonctionne.
Après, le piège de Scala, et nous, on l'a vécu.
C'est que, du coup, quand il y a trop de librairies qui font ça
et qu'elles emmènent des transitifs dans des versions différentes,
ça amène des conflits qui sont jamais adoptables.
Du coup, on commence à faire de l'exclusion,
dans peut-être cette libre, on n'a pas vraiment trop besoin
ou tu te retrouves à réécrire une partie de la libre pour les espaces de gens.
Et au final, c'est plutôt solide en termes de motivité.
Après, ça marche pas à l'échelle.
Et de toute façon, dans le document que Scala a conduit
sur recommence de la Scala 3, il dit bien, si vous êtes libre,
qu'il y a beaucoup de dépendance et qu'il y a beaucoup d'utilisation,
c'est bien si vous n'utilisez pas ce type de compétitivité là,
juste pour ne pas se renforcer à ces questions.
Mais c'est bien pour toutes les libres qui sont soit pas trop utilisées,
soit anciennes et plus maintenues.
Oui, oui, non, ça s'en va.
Et soit on est un vieux soft, on a plein de libres dans Scala 3.
Donc, c'est quand même bien utile.
Mais oui, ça vient aussi avec son set de problèmes.
Et un des gros changements, c'est tous les aspects syntaxiques
entre Scala 2 et Scala 3,
qui casent complètement les aspects de compétitivité source.
Et dans la plupart des cas, c'est pas forcément normal.
Quand on est typiquement, j'imagine, cheap lever,
où vous faites vos services pour vous,
ou d'ailleurs, je vais dire, c'est la même chose,
vous avez complètement la même liste sur qu'est-ce qu'il y a en prod,
et vous pouvez avoir une voiture claire entre cette version-là,
cette version-là, cette version-là, ça va être sur ça.
Nous, on fait un logiciel en premier,
c'est avec des clients qui ont décuré de maintenant,
ce plusieurs années,
et qu'on est obligé de garder plusieurs branches en continu.
Et de corriger des bugs, qu'on ne marche entre ces branches-là.
Et donc pour nous, c'est un vrai casse-tête à résoudre,
de savoir comment on fait la migration au niveau des sources.
Je ne sais pas comment tu es nordéliène, en fait.
Non, mais pas des problématiques qui ressemblent,
on a des discussions,
de fournir du code qui pourrait être utilisé par d'autres gens,
et de donner des garanties,
enfin, de nous prendre la tête
pour que les utilisateurs eux ne se prennent pas la tête sur ce genre de choses.
De toute façon, on peut utiliser un gros mot
dans la transformation numérique des métiers standards.
Il y a des obligations de papier aujourd'hui
pour plein de métiers qui sont de l'ordre de 20 ans, de 30 ans même,
et si on n'est pas capable d'apporter des garanties
sur le fait qu'on a du logiciel qui est maintenant sur ces trucs de...
enfin, ces... quantité de temps,
donc on n'arrivera pas à conquérir ce genre de marché.
Donc c'est effectivement des problématiques intéressantes à se poser.
Et c'est d'ailleurs pour la partie transition de SK2 à SK3,
le SK Center a développé un plugin SVT,
qui permet justement de faciliter la migration
en donnant les versions des librairies qu'on peut utiliser
pour changer des versions qui me sentent aussi des re-rate
pour justement changer et passer sur une syntaxe plus...
Oui, on peut l'utiliser.
Alors, un peu à l'envers.
C'est-à-dire que d'abord j'ai commencé
de remtaper toute la résolution de dépouvelant tout seul.
Après, c'est quand même un peu chiant.
Il y a pas un truc qui existe.
Et après, je me tendrais sur SK3 de re-rate,
je me le repassais et je me suis dit, ah ouais, sk3,
sk1, et après, je suis trésor.
Du coup, en fait, ce qui était très fort,
c'est qu'il teste toutes les versions qui sont publiées
de cette dépendance et puis il dit la première,
à partir de la question de ce SK3,
avec une range de toutes celles qui sont tentatives.
Et du coup, ça permet de prendre des décisions
en les change logs ou les compatibilités entre différentes libres
pour fonctionner bien.
C'est plus un point de faire des bumps pour le site.
Tu n'as pas eu le objectif de passer direct à la Ektos pour y arriver.
Donc c'est plutôt efficace.
Il y a aussi des gens,
non, on l'a pas fait pour découvrir cette partie-là,
et aussi des gens qui se faisaient pas mal
cet état plat à coup de SK6.
Peut-être de l'entendre, tu peux nous en parler un peu.
Alors, nous, on a pu utiliser SK6.
On a utilisé quelque chose qui est très pratique,
ça fait de la brute force.

Et les principaux, c'est de m'amuse sur le code,
comme expliqué à notre tonte-là.
Du coup, nous, SK6,
c'est quand même quelque chose qui est assez sympa
dans le New York Scala pour ce qu'ils ne connaissent pas.
En gros, c'est une sorte de soft qui permet de définir
des patches sur le code.
Ça vient de parcer le code.
Ça récupère une sorte d'AST,
c'est pas d'appliquer des changements sur l'AST et de les pousser.
Et ça va être publié en fait des patches
qui sont sourds, agnostiques, on va dire,
ça va être publié des patches qui sont génériques dans le sens.
On peut dire,
si vous voulez passer le 7 en 6,
vous appliquez ça sur votre code d'Aegre,
fait que tourner, c'est bien, c'est réglé.
Et ça, couplé typiquement avec l'ovgrade
de dépendance automatisée qu'on peut avoir.
Elle dépend de la boite qui est distribuite,
mais en gros, nous,
en communauté Scala,
on a quelque chose qui s'appelle Scala-Stewart.
Parce que pourquoi on t'entraîne tout le monde ?
Oui, ça prédate d'évoluer notre boite sur Scala.
On avait quelque chose qui a été monté.
Scala-Stewart, qui est assez improyable aussi comme outil,
qui est facilement déployé même en interne
sur des zones de boite, etc.
Et Scala-Stewart, quand il propose les pertes de parade,
il peut aller lire le rêve posterie de la libre
et aller proposer des changements induits
parce qu'elle a fixé le livre directement.
Donc ça permet, en tant que maintenant de libre,
de pousser l'immigration affectuée par les clients en avance
et eux, ils reçoivent une perte avec l'immigration affectuée.
C'est assez fantastique.
Ah, c'est absolument...
C'est clair.
Après, l'autre gros sujet sur l'immigration Scala-Stewart 2 et Scala-Stewart 3,
c'est tout ce qui est les marquots.
Oui, je l'ai mis.
Je sais pas si vous avez eu des soucis.
Oui, les re-fines.
Alors nous, par re-fines, plutôt des petits trucs
qu'on a été, des soins d'utiliser parce que à l'époque,
il n'y avait que ça qui existait, mais qui sont des manu de puits.
Alors, je dis à re-fines, mais pas directement re-fines,
même si le port de la route est pas migréable
au monde à cause de moi.
Plutôt, oui, de l'hypothéraférique, à re-fines.
On a une mesurisation agro.
Et du coup, il y a une liba vaut re-fines,
pour que ça marche de manière à peu près simple,
et ça, là, n'est pas mentu,
parce que le blog a épargé de la autre chose.
Et on l'a pas mentu non plus.
Et puis, je crois qu'on avait deux...
Ah, du scontre re-fines, peut-être.
Oui, scontre re-fines,
avant de se circer, qui était aussi un peu flakie.
C'est ça.
Et après, le gros morceau, c'est chez les fesses, comme ça.
Oui.
Mais sur la partie au pur morceau re-fines,
du coup, on a décidé de...
Bah, uniquement si on avait une chance de re-fines,
de donner une chance à la route,
en nouveau, vraiment, qui s'appelle le Ray-Rond.
On a une super prétentation,
on a une très bonne chance de la faire.
N'hésitez pas à les rapporter sur YouTube
quand les présentations de Scaladio sont publiées.
Mais, oui, il y a une route que l'on va avoir
sur Ray-Rond, et aussi dans la simplicité du Ray-Rond,
et la force de ce qu'il apporte.
Et il a surtout la facilité de s'intégrer
avec les autres systèmes.
On a évalué, surotapé,
avant de re-fines,
pour le portage de Scaladio 3.
On a regardé, d'ailleurs,
on n'a fait pas de match en plate-forme,
si on a un peu de problématique.
Là, on n'a pas de choc.
Alors moi, je découvrais
Hironi-Spleck, avec la route de ce matin.
Et, enfin, c'est une super vitrine
pour Scaladio 3.
C'est en une bibliothèque
et en aucune conf,
vraiment un super exposé
du type d'avantage,
en particulier en termes de performance,
de sévélopost, de abstraction,
des déagnonomies,
que la route 3 apporte.
En fait,
déjà, peut-être que tout le monde
veut re-fines,
on parle de re-fines plus tôt,
en gros, re-fines, c'est une vraie
qui veut rajouter des contraintes sur des types.
On ne va plus vouloir donner plus d'un entier,
on ne va plus avoir un entier qui est supérieur
à 2 et supérieur à 8, par exemple.
On veut passer cette avantage
dans le type système
et faire
avoir cette garantie par combinateur
que vous avez donné toujours bonne.
Et il se trouve que
pour l'implémentation,
pour augmenter ça en Scaladio 2,
il faut faire beaucoup de macro.
Il faut faire pas beaucoup de trucs assez salles,
notamment dans les interactions avec d'autres librairies.
Et, enfin, la forcement,
en Scaladio 3, ça devrait être un peu trop.
Et la plus importante,
la plus importante, c'est que
ils ont rejeté énormément de métaprogrammes.
Et en fait,
la librairie Iron, au final,
elle a aucune dépendance, elle le fait pas forcément
énormément de macro, en fait,
elle rédive beaucoup sur ce que le compilateur
est capable de faire de base,
notamment, il y a des énormes capacités d'inline
dans Scaladio 3, on peut déclarer
des top, des fallers.
Et comme étant inline,
elles sont inlineées, comme son nom dit,
par compilateur, mais de façon sûre.
C'est pas comme on espère que
ce bout de code, on sait, va se faire inlineer
parce que c'est récapité, c'est...
C'est...
Bon, on met inline, on sait que c'est à 0 cost
que c'est fait, que c'est réduit par compilateur.
Et après, on sent le genre.
Et, oui,
Iron, on peut utiliser vraiment ces capacités
de 0 cost,
ces capacités
de dériver automatiquement des instances
en certains cas.
Et si ça ne nous a dit quelque chose de solide,
enfin.
C'est clair.
Vraiment, on a été assez surpris
de...
De la façon dont ça a été fait,
de s'intégrer avec...
Quand on a vu le temps pour s'intégrer
avec Eiffel, ça vient
de l'utiliser.
Le deuxième point,
oui, côté...
côté passage de 3, c'est
Sheapless. Alors, non pas qu'il
n'ait pas passé, il n'est pas passé de facto,
parce que maintenant, il est dans le compilateur.
Néanmoins,
ça faisait des petits problèmes
de les hybrilines, toujours dessus,
ou on va passer, voilà.
C'est sûr que Sheapless, tu es utilisé
par toutes les hybrilines, en fait.
Oui, de façon générique.
Sheapless, c'était une hybriline qui venait de combler
le manque de métapodrines,
de ce style inline, etc.
dans... aussi, dans Scala 2,
et aussi, du coup, générique
par plein de concepts
qui étaient utiles au maintenant de Libre, et du coup,
on avait eu Libre, c'est-à-dire Sheapless, qui était maintenu par quelqu'un
qui est maintenant fait partie de la cortine de développement du compilateur, donc
il a porté sa liérie
directement dans le compilateur. C'est beau. C'est quand même beau.
C'est beau.
Et ça nous permet de...
maintenant, ça permet d'avoir un fréquentement
beaucoup plus de compilations, nativement, et des performances aussi,
parce que le gros truc de Scala, c'était
tant de compilateurs.
Quand il y avait le Shaps Refine,
que le compilateur est joué
à Prologue pendant 5 minutes
avant de te rendre à la soft, c'était pas cool.

C'était puissant, mais
ça fait un coup, tu vois,
là, on gagne
pas mal de ce côté-là.
Alors,
en Scrimm-Montagne, j'ai assisté
il y a quelques semaines
à une présentation
à Brest, fait par
des gars qui passent sur Java,
qui étaient
très fiers de montrer
certaines idées qui ont un peu piqué à Scala
et qui s'intégreraient,
mais aussi des fonctionnalités un peu puissantes,
notamment
les Virtuals Red
avec Loom.
Le discours est un peu
il venait de l'entraîner un peu,
mais ça fait partie d'exercice,
en expliquant
qu'il savait tuer la programmation
à l'actif, parce que
le temps de Sponaire Virtuals Red
était tellement
faible, qu'on pouvait tout
peut-être en Synchron, et que ça se passait très bien.
Je pense que
l'efficience, c'est pas le seul
point d'avantage, la production
de Racky, mais la peinture d'autres,
était même en train de qualité de code,
ou de façon testée, ça aurait choque beaucoup plus simple.
Mais il faut avouer que c'est quand même
très bien.
Est-ce que vous pensez qu'il y a un peu
les avancées qui attendent
Chava en ce moment, font un peu
des kinescala ou pas,
ou c'est quoi que vous le montrez votre avis dessus ?
Ah, je dois trouver jusqu'à 4 points.
Alors,
la JVM,
enfin, c'est
une très belle machine,
et toutes les améliorations
qui sont faites à la JVM
reviennent d'une façon ou d'une autre,
renforcer les langages en dessus, que ce soit
Scala, Kotlin, ou n'importe quel,
ou Java, bien sûr.
Scala continue
à être de très loin le meilleur
langage fonctionnel sur la JVM,
ne serait-ce que parce que c'est le seul
qui essaye réellement
d'être Kotlin ou
Java, prennent des aspects
fonctionnels, mais, par exemple,
l'imitabilité, c'est toujours pas très clair
pour eux, alors que ça fait, carrément,
partie des choses de base dans son langage,
dans son langage, je ne suis pas en train de dire, parce qu'à la,
enfin, un truc immutable non plus, mais
disons que les concepts,
ou le système de type,
ou juste les
choses, les choses qui veulent garder, sont
beaucoup moins
fonctionnelles que ce qu'on peut avoir, etc.
Pour sujets spécifiques,
des virtual threads, alors déjà, c'est pas du tout
un concept nouveau, que Java est enfin, c'est plutôt
un compte
un jupe.
Il y avait du Gris de Sainte, non, j'avais un Rime.
Il y avait du Gris de Sainte, non, j'avais un Rexector.
Mais ça avait été enlevé, parce que c'était
trop inéficace à l'époque,
et c'était au moment où il y avait Askel,
qui était en train de commencer aussi à exister,
et qui lui, elle les avait choisi, parce que
c'était pertinent pour un langage fonctionnel.
Et donc, c'est vraiment pas du tout
quelque chose de nouveau, que
c'est très très bien qu'enfin, on ait
quelque chose, en fait, Java, qui permet
de faire un
découplage entre les threads réels
et les threads applicatifs,
qu'on appelle « coincide
» de threads
n'importe quoi.
Pour ce qui est de cette feature-là,
spécifiquement, pour ce qu'elle a,
je le vois plutôt comme un énorme boost
en termes de performance, sur tout un tas de choses
qui étaient coûteuses aujourd'hui
à faire, en ce cas-là,
et en particulier, dans les
moteurs de gestion d'effet,
c'est-à-dire qu'il y a un studio 4
en mode très schematique, enfin 4 effect,
et il faut vraiment
découpler ce que
d'un environnement
de gestion d'effet,
de comment s'est implementé et comment
ça va mettre fin.
Tous les moteurs de gestion d'effet ont besoin
d'un truc qui ressemble à des fibers
pour pouvoir gérer eux leurs interpreteurs
internes qui permettent
d'avoir ensuite les propriétés
sur comment ils vont exécuter le code, comment ils vont
gérer la
l'insynchronicité ou le parallélisme.
Mais la façon dont ça s'est
ensuite mappé sur
la VM réelle, que ça soit la JVM,
que ça soit
une VM JavaScript
ou n'importe quel autre VM qu'on
pourrait imaginer,
c'est indépendant.
Le fait que nous apportons
une façon efficace de le faire,
ça va juste permettre d'avoir
beaucoup plus d'efficacité
dans quatre effect ou dans
Zdio pour
le moteur
supérieur de gestion d'effet.
Mais un moteur sur l'effet, ça apporte plein de choses
en termes de garantie
et en termes de composabilité
en particulier, que ne faut pas du tout
c'est pas...
La surenchement d'avoir compris, en gros
ce que tu dis c'est que le fait d'avoir
un élément virtuel thread dans JVM
ça va potentiellement diminuer
de la complexité du code
des lits d'effet parce que c'est obligé
de maintenir quelque chose qui faisait un fonctionnement
équivalent sur les threads dans Vogue.
Et du coup
de facto améliorer la qualité de tout le monde
mais en plus c'est un standard
Et en plus, en faire avoir la amélioration
qui va être directement au niveau de la JVM
donc les optimisations qui sont beaucoup plus
importantes et qui vont pouvoir
être faites au niveau
même de l'optimisation de code de la JVM
sur les blockings à la pouls, c'est les exemples
typiques
à la fois à Io ou aux Ios
on est obligé d'expliciter quand on fait du code
bloquant et ça part dans une trackpoule
déguée
après
ok, vous le faites automatiquement
c'est hyper
globalement
pour moi
l'Oomp c'est un vautamoutil supplémentaire
pour la JVM
parce que les threads natifs durs
ont toujours occasion à exister
par exemple
tu es obligé de prendre un thread
et puis le pin un coeur
mais ça c'est stratégique
mais il y a une stratégie d'exécution
et par contre
ce que tu dois noter c'est quand même
les systèmes de gestion d'effet
ils sont exécutés et doivent y être hyper optimisés
vis-à-vis de leurs trucs
de propre structure interne
vu qu'on fait du schedule in New Zealand
pas au niveau de la JVM mais pas au niveau de l'Ouest
il y a accès à certaines utilisations
qui sont assez
poussées et surtout la stratégie
d'exécution peut changer
si on délecte tout à l'Oomp
on va perdre beaucoup de permanence typiquement
sur les systèmes comme place effect
parce que place effect a de base
ce qui est pas de workstilling thread pools
et en gros les threads sont une très spout de threads natifs
qui dépit l'exécution de tâches à faire
les threads peuvent se piquer
des tâches entre elles etc
il faut plein de choses mais je pourrais parler
plusieurs minutes d'implementation
c'est basé sur les threads de continuation
on peut faire la sainte-prône, la sainte-théâche
on peut placer sur un timer
ça suffit à l'interne
mais en gros
à un moment ils sont là
un plémentation de fever qui est mappé sur quelque chose
et ça tu vas pouvoir quand même le mapper sur un timer
pas forcément parce que du coup
les benchmarks que tu peux ressortir
ça doit être un peu méchante
mais il y a encore des ordres de grandeur de différence
c'est beaucoup plus cheap à sortir
que les threads synchrones
mais c'est beaucoup plus au rire le réactif
pour moi encore une vocation existée
parce que tu as beaucoup plus
de contrôle et plus de performance nécessaire
parce que tu n'as pas besoin de créer le site
tu as expuétes sur un site qui est déjà présent
tu n'as pas de plus de création dans tous les cas
par contre ce qui est génial
ça permet de
pour tout ce qui était blogant
typiquement en nous en ce cas
on a en général quand on fait des semes d'effet réactifs
c'était que
on fait du JDBC un grand
JDBC est bloquant
et il est bien bloquant
on a eu le budget de rappeler du coup ça avec la grid rig
le brape dans des yaw blocking
ou sur des structures
pour pouvoir faire des exécutions de façon efficace
parce que évidemment
je ne veux pas que le stage bocant bloque un thread natif
qui est là pour défilé des idées de requets
de yaw qui arrivent en même temps
ça serait dommage
et du coup là le boom peut vraiment aider
notamment sur la spec JDBC
parce que ça rend de base JDBC
donc l'énorme codebase de JDBC plus
le driver pg etc
boom a rendu un peu automatiquement
pas forcément maigement parce que l'oom a encore des pitfalls
on peut en parler tout ce qui est object docking
même si on est en train de partir
tout ce qui est, ceux qui puent défilé, bizarrement ils ne vont pas lui nous conserver
c'est juste le...
moi je ne sais pas pourquoi personnellement
les CDPs ils ont passé du temps mais les CDPs pas du tout
niveau de fichier
toujours bloquant
quel que soit le thread
et bon là ça pigne le thread carrier
sans aucun...
sans aucun recours quoi
voilà du coup
pour tout ce qui est
tout ce que tu utilises JDBC, moi tu vois ça comme une stratégie d'exécution
pour les systèmes
des faits, pour pouvoir déléguer
la nettoire IO de façon efficace
à quelque chose de plus
ou même sur des...
normalement on tire les parties du passage
à l'oom, tout les carriers
voilà
parce qu'il y a quand même certaines choses que la JDBC
et Inuzerspace on n'a pas la
visibilité
des JDM est quand même capable de voir
compris certains trucs, quand des ressources
que l'on sommait, des ressources au système
des éléments bloquants etc
les JDM peut le voir là où
l'Uzerspace est plus compliqué
et à part souvent, les UZerspace voient des choses que la JDBC ne voit pas
bien sûr, du coup pour un JDBM
tous les objets sont les objectifs
un exemple que je prends en compte
c'est que tu as un interprèteur DIO
tu lances et taches IO
on va dire de bio monal
je ne choisis pas la forme en partie dans le clash
du coup d'accommodation mais
tu lances et tu lances IO
si tu fais quelque chose
ce que fait un IO point cure
une valeur qui est juste frappée
et bien le problème, prendre IO point cure après la valeur
il n'y a pas d'exécution, pas de spawn de stress
alors que si jamais tu lances
un IO point cure
en gros si tu lances des IO point cure en part
il n'y a pas forcément, il n'y a pas
de spawn de stress, de virtuel stress
si tu fais ça avec virtuel stress
tu l'exploses quand même
tu payes de coups
du coup on revient au sujet
quand tu as un moteur de gestion
tu vas avoir à ta disposition
de nouvelles stratégies d'exécution
qui vont pouvoir être adaptées
à un fonction de ton use case
de la façon dont tu as la connaissance
du code que tu interprètes
tu vas déjà pouvoir faire une interprétation
et des optimisations sur ce modal
typiquement ce que tu parles, ils sont pas frappés
et ensuite en fonction du use case
que ce soit de l'IO, que ce soit
d'autres choses, tu vas pouvoir choisir
de faite pool qui est adaptée
ou l'oom sur la clé de l'oeuvre
par contre quelque chose qui va vraiment changer les choses
je pense c'est le jour où je sais pas
si c'est un projet ou pas, on a pas vu
j'avais un peu de souhait
c'est ce qui vont exploser les continuations
en tant que force rest citizens
parce que l'oom a une interprétation
de virtuel stress, ce qui est pouvoir l'oom
c'est le fait d'avoir des continuations
à exécuter en fait
j'ai pas suivi les derniers déploquements exactement
mais ils étaient en train de travailler sur ça
ils voulaient d'abord stabiliser
tout frein mort et son fonctionnement
à pouvoir exploser les trucs en appuy public
parce que là du coup tu peux faire des tests
et des propres tests et des exécutions
et là tu vas pouvoir vraiment du nièvre complexe
et des systèmes d'effet parce que tu vas avoir
ces objectifs de continuation
qui peuvent optimiser par les UVL
pour finir ce nom qui est ça
mais donc, est-ce que l'oom est une menace
pour ce cas là ?
pas plus que
plus que d'abord il est d'abord d'un enjavap
quand tu regardes ce que par exemple
software mill avec apports
qui est un peu expérimentable
sur du...
qui vape un peu les appels loup
pour avoir quelque chose de plus à un scala
il est connu pour avoir des gestions assez propres
au niveau de l'appel de l'appel
en tant que syntaxe
et ça permet en effet
c'est comme si on utilisait un son d'effet
mais sans forcément les contraintes
d'être toujours dans la combinaison
de la structure
il est bien pour les casse en mode 5 fois
et puis avoir quelque chose qui est plutôt pas mal
c'est d'ailleurs beaucoup plus
l'approche que Martin Vasquipre
fait de la chute
d'accord, c'est pas une nouvelle
d'accord, je sais pas si c'est pas une nouvelle
mais je pense que quand tout le monde commence
à utiliser une églomerie
ça a eu le sens de faire passer ça dans la runtime
carrément
c'est
juste efficace
mais c'est...
personnellement j'ai fait un petit peu de ross
sur mon projet de finitule
et j'ai eu bien
le fait de pouvoir utiliser la
question mark
et de pas avoir à faire des maps
sur mes résultats ou des options
ça a fait assez un peu d'assez
actuel
c'est bien question mark
alors maintenant qu'ils ont rajouté
les bonus library
dans ce qu'ils n'ont pas eu de série
en gros c'est du go to tipeee
ça paraît de faire des blocs qui s'escaient
tout en regardant une exécutie
et tu peux réimplementer question mark
quand est-ce qu'elle a
il y a 20 lignes de code à faire
mais
il m'engage
on est sûr qu'il est trop puissant
je suis un peu complet
il y a aussi
le fait qu'il n'y a
eu aucun effort
ciblé
en manière pas trop
disons que c'est pas trop le dada
de Markandar's Kid
d'améliorer
la gestion
des systèmes d'effets
de voir mettre ça dans des plots
avec des flashs et tout ça
il y a des moyens qui seraient beaucoup plus simples
et ergonomiques de le faire
qui nécessiteraient pas énormément d'évolution
sur compilateurs mais qui ont toujours été refusés
depuis
ça fait moins dix ans qu'il y a des systèmes d'effets
qui existent
après je ne sais pas si c'est une bonne chose
ou globalement avoir un système d'effets
c'est très pratique
mais après leur syntaxe
faire de voir tout passer par les modads
de faire des effets
le problème qui est derrière
quand tu fais des fonctionnaires
tu as envie d'excrimer des compétitions
qui peuvent être stakeful etc
mais le modad c'est pas un encodine
de ce truc
et le problème
c'est aussi le bordose de modads
on va tout braver dans des modads à la scale
alors qu'on a vu que globalement la tue d'autorisation
c'est pas le truc le plus à l'amélioration du monde
oui mais ça ne lui en fait pas
il va jusqu'au point et refuse de faire des améliorations simples
pour se prédire
alors qu'on pourrait juste les faire
et voir après
les gens de choisir ce qu'il y a de 6 en 8 mètres
dans les modads
et de laisser des utilisateurs
au lieu de les empêcher
enfin des forcés à payer le double coût
à la fois du langage
par la syntaxe hyper lourde
et de voir ensuite la gestion
c'est parce que qu'à présent on se voit tout ça
alors
c'est qu'à la carte ou pas de scale à carte
non c'est déjà dans le 3
c'est expérimentable tu peux l'activer
en gros c'est une réponse
bon il n'y a pas de support pour le
cdfff
cdfff
et ça peut
tu peux tu en parle en tant que cdfff
tu peux même faire du rock sur le cdfff
non
il y a
il y a deux terrains de confiations de scale
que le jvm
il faut aussi faire un back end lbm
par exemple un back end js
et typiquement
il y a un mec qui s'est amusé
à créer la notion de life time
avec les
des observations que propose 4d
il y a un truc du goro wing
tu peux le faire
il y a fait des zones de verra
passant en 4dbt
tu peux faire du rock
il y a un effort
pour supporter un back end
au wassland aussi
en cours
je crois que les dernières
itérations
c'était passant par oske la js
en fait
les wassles c'est
très probablement l'embeurre
du runtime sur plein de choses
mais c'est pas sec
en termes de genre en spec
c'est l'un des uns qui s'appelait ça
ou elle s'est utilisée pour renait
les zones de verra
en revanche c'est comme que j'avais un script
c'est un gros chanin
c'est si flic les tibes
le point
avec l'or nous on a bossé
pas mal sur
un runtime wasslem
sur une façon d'exécuter
l'emprendre lui l'hélargement
et le premier dificulté
avec lequel on s'est reté quand on a pu
rencontrer d'autres langages
les langages qui jouent le technique
mais déjà dans le langage j'ai l'autre
c'est pas standard
et je parle que de langages fatigués
donc déjà c'est un peu marrant
après il y a un wasslem
qui est commencé à arriver qui est en cours
en cours de spécification
par un morceau
c'est essayer de fournir une API standard
sur des fonctionnalités d'accès
système donc typiquement affiché
une source qui a été sémachandée
qui sont nécessaires quand on commence
à avoir une vr qui ressemble à une machine
virtuelle et pas juste
un bout de JavaScript dans un morceau
et donc là
on est vraiment dans le moment
où la normalisation est en cours
donc une version à l'autre il y a beaucoup de choses
et tout, il y avait des langages
tu avais choisi dobsax
que voisis pour
donc on est en train de
avoir un écosystème qui essaie de converger
la telle chose qui est pour la scène du mal
je trouve que c'est plutôt
une bonne volonté
et puis la poussière va finir par roper
c'est ça un peu mais
typiquement
je trouve ce que vous voulez tester
comment faire des tests
et là
ah c'est par la spec cool
du coup on a fait un multiplexer
de production de cct pour pouvoir
ça résomber
mais
on est là
il y a un modèle je pense
où dans la façon d'évergé
ces choses là
on va aller vers
en fait on va exécuter un peu
les programmes comme
des VMs native
et on va leur passer un pointeur
pour démarrer et puis c'est parti
et du coup effectivement là tu as la question
de la problématique de
qu'est ce que tu fais
pour qu'elle n'aie pas de mirage sens
quand tu n'as pas
les lucides de OS en dessous
tu n'en as pas que tu ne vas pas te faire tout le temps
c'est compliqué
donc qu'est ce que tu fais
au final la surface n'est pas dangereuse
moi j'ai gagné beaucoup de performance et du coup
surtout sur mes services en me rapprochant
plus du métal en sortant du cloud
en sortant de couches
de virtuosisation etc
est ce que ce rend où il n'y a pas forcément un risque
à s'éloigner du métal
enfin s'éloigner en fait du processeur
qui va finalement exécuter une solution et la fin
je suis con de tout
mais la question c'est pas
tu t'éloignes pas du processeur
parce que pour le coup c'est juste à temps qu'on trouve
et un autre exécution qui est un peu différent
mais en l'état c'est juste
tout le code il a exécuté tant de processeurs
ou tu as un mode de 7 au début qui est utilisé
il y avait une traduction d'Argentin Moiseum
à la SNL
ouais mais ça tu le fais en même
enfin alors
ouais on est déjà un peu d'underroad
mais quand tu le fais en mode
JITS
ouais là c'est
un peu bizarre
si tu le fais en mode de 7
on me semble là
potentiellement tu peux
s'exécuter bien
en un état assez proche de l'exécuter
moninaire sauf que
toi, Lucas, tu as un peu standardisé
ta façon de gérer
tu as un peu le côté
Right Once
renaviguer de gérer
mais sans
pour autant
forcément avoir une
une PM
ça c'est plus si à la façon dont tu vas
réussir à standardiser les instructions que tu vas gérer
en WebAssembly
et du coup
que tu vas utiliser en
c'est quoi les principaux
avantages de Voix-en par rapport à la GVM
alors évidemment la taille
il y a eu le coup de lancement
une GVM c'est monstrueux
parce que c'est une énorme machine
alors justement quand même
un coup de lancement
c'est pas vrai s'il y aura des jours
mais là
de use case
tu as un appel sur un cloud
une fonction qui est exécutée en un temps
et donc potentiellement on va être une GVM
une VM qui est lancée
quand cette VM est obligée d'avoir toutes les stratégies
de
de garder la GVM chose etc
là où on se retrouve avec
une VM qui est
instantanée
à but de la question c'est est ce que la modélisation en lambda
est-ce que la modélisation
qui va être prête ou pas
peut-être pas mais pour exécuter des choses
un peu légères moi je les vois bien sur des clients
on peut être
peut-être l'industrielle ou des trucs comme ça
on peut avoir un traitement préparé à l'avance
un peu efficace
et par contre qui sont en ultra standard
ça c'est plutôt bien
et
ça reste
encore un point de vue un peu exploitable
sur l'exécution
après c'est aussi de la création
des outils que tu m'enplaces que tu as un usage souvent
et du coup ça reste une piste intéressante
et je ne pense pas que ça va tout remplacer
et c'est pas une but on verra
très bien ce qui se passe
mais je trouve que ça reste une piste d'exécution qui est intéressante
et la intéressante pour deux raisons
la question du puzzle
enfin un point de vue très pertinent sur
c'est quoi le problème en en ce temps
qu'est ce qu'on peut faire mieux avec la GVM
c'est en fait
déjà quand tu arrives sur un système
t'as obligé d'avoir un système assez conséquent
parce que la GVM refuse de démarrer
si elle n'a pas toutes ces appels de système
tu ne vas pas te servir
ou encore en fait
ils sont là pour le compatibilité
et même pas forcément de la tienne
c'est à dire la compatibilité de l'autre langage
qui compile sur GVM tu vois donc tu le savors
et
l'approche de se dire
on va standardiser des appels
et après par exemple un gageur
il va en supporter un certain nombre
on lui donne tout mais
même plus un certain nombre du coup ils sont au moins
compatibles avec tous ces langages-là
parce que il supporte ça
ça rend le point de vue l'approche un peu plus facile
et après il y a la footprint de mémoire cpu
mais dans tous les cas
on va l'avoir revenir parce qu'un moment il y a des gens
qui vont vouloir de se réinterpréter
dans du wasum
classique et du coup là il va falloir que
on recherche ça comme on bundle
dans wasum
de la GVM ou ou whatever
parce que
il y a aussi
les graines même
pour faire des applications qui
démarquent plus en climat qu'avec la GVM
qui ont besoin de chauffe
et pour le moment tu ne sais pas
comment le faire pour le parail mais ce que
il faut faire pour l'instant
il y a plus de trucs qui peuvent arriver
un peu l'impact de la GVM c'est un bon module
c'est un test
ou un mec que tu crois que tu peux crafter
le propre Jdk qui inclue uniquement
les modules dont tu as besoin
et pour le moment que ça va charler
ça va dévare beaucoup plus vite
à pas de vedette qui vous possède une utilisation
plus loin en ce cas je vais vous en gérer pour un net
je vais vous en gérer pour un SQL
c'est tout ce qui appelle réseau
pour imaginer des trucs plus granulaires
et de crafter sa runtime
exactement à ce que
le soft
lancé
un Jdk
de service
où tu arrives, tu fais le mremien
avec duk et show
et la fin
et tu sortes en Jdk crafter
uniquement si tu veux ça
tu vas trouver le stock de Jdk de base
pour des trucs du style à vous de la vvm
voilà
tu en sers souvent
je pense que c'est un bon genre
et c'est à voir jamais du monde entier
ils embarquent tous dans leur Jdk
parce qu'ils vont aller faire des tours dans leur base
de la vie
ce qui pose des questions de sécurité
je crois qu'il y a aussi un aspect
sur ce voisin qui est intéressant
de la segmentation de code
et de la sécurité qu'on a
loupé avec AGL
qui a été construite pour un mime d'autre époque
avec des besoins
qui étaient différents en termes de modèles
de menaces
après dans le gardening
des trucs, c'est toujours le mremien
par ce moment, c'est le genre de la généalité
de maximum de compatibilité
et je me souviens
dans les procédures qu'on a
des muscles d'essuels qu'on avait
à plus de l'époque
mais tu avais des trucs genre
regarde ta driver
ta dragarde imprimante
et ta machine, elle sera jamais connectée
à un imprimante
et en vrai, souvent les mecs passent par là
ce que c'est la pub
c'est ça
c'est sûr
donc il y a un peu de cela
mais bon, je pense que les voisins
peuvent avoir une chose
d'apporter et effectivement
de faire des trucs plus portage jusqu'à là
c'est bien
je crois qu'il y a
un des producteurs assez néatives
qui a réussi en utilisant les MBM
de procéder sur
du voisin en passant par le tillière
d'ailleurs
il y a d'époque comme ça
mais le problème c'est
tu parles tout à l'heure, c'est entre le Poc
ou tu arrives à le faire sur un cas
et tu arrives à avoir un soft
qui compile et de façon générique
qui arriverait à faire de manière reproductive
potentiellement par du code
produit par des clients
et efficace
et effectivement, s'intensifier par un gros truc
un gros truc
je suis peur
beaucoup de teams
la LVM de Mervin potentiellement un peu débile
parce qu'il y a plein d'optimisation
il y a plein d'optimisation qui fait
parce que c'est tout de suite qui est sa target
et du coup
quand tu passes en traduction
c'est plus une forme de traduction
ouais, la LVM peut changer dans le code voisin
et après tu as
les exécuteurs
voisin
genre, qu'est-ce qu'il y avait
voisin train
décide
de
de
de, en fait, disons là, c'est vraiment une mal
de traduction qui est dit
tel un soft sur un voce, ou cet autre soft sur un voce, etc
et quoi, à ce moment-là, tu ne me bénéficies
effectivement pas
de toutes les optimisations
après, ça a un coup et puis on va voir
comment ils vont, ils vont changer à la salle
je pense que le plus gros que je me pose c'est
à l'usine qui a
un voce à lui va l'implémenter, il m'interface pour le Gc
et ça genre, chaque langue elle a
potentiellement sa stratégie
efficace, selon le langage
en fait, je pense que
ça, ça pousse pour aller faire du piton
du
nod
alors, nod, ça me fait bien particulièrement rigolo
je dois appuyer
que, non mais rien que
quand vous avez la recherche sur ce cloud
tu demandes
que je gêne
d'exécuter mon nod
dans du voisin, mais tu ne peux pas faire du voisin orug
mais c'est quand tu veux faire du bad metal, écoutez moi seul
c'est ça
et Gc répond
oui, du voisin, bad metal, c'est facile
tu me dis c'est pas simple je veux, c'est bien verre
c'est genre, et là
il a perdu ta zéro réponse
parce que
c'est particulier, mais
les gens ont voulu leur tout mal
on a commencé à se poser des questions un peu
plutôt, pourquoi t'es java
mais tu vois, est-ce qu'on est capable de me donner une phrase
pour se parler
qu'est-ce qu'il faut comme un spell 6 7
ou un truc
parce que
c'est un bon match en réalité
parce que les juges de cp, du dp, c'est écrit dans les fichiers
ça
fait appel à quasiment tout ce qu'il y a dans les gdm
dans les situations de Gc en plus
oui, c'est vrai, c'est vrai
et moi je pense qu'on se trouve vraiment
l'utilisation des saveurs de jeu, comme quand il atteste des trucs
pendant la solution
et dès que ça force
on va tout de suite
parce que
tu as dit que c'est tellement
tu veux pas règle
tu as tellement de parfaitement tout le temps
que
ça foire très vite et effectivement
c'est ce qu'on vous dit
tu as les juges, tu as les...
tout ce qu'il y a avec la formule de trading, machin aussi
tu as la même pour traiter
c'est plus facile à avoir accès
tu as le format trading
j'ai l'esthème par un test de simulation
pour
pour essayer de faire
pour essayer de le faire
mais surtout les impacts sont bien le monde
sur un jeu que sur une personne de trading
tu peux toujours traiter de la monnaie de ça
ça ne sont pas du consous
en d'autres marques
si on t'a dit des questions
sur le modèle de l'ANDA
à manger le monde
je dirais que c'est quand même le centre
de l'histoire
je sais pas si vous avez déjà
connaissé Simon Rodley
c'est un gac
il utilise
une façon de représenter les chaînes de valeur
pour savoir comment
la concurrence va évoluer de façon générale
et c'est vraiment super intéressant
en tant que stratégie et tout
donc si vous voulez regarder ce qu'il écrit
et dans une de ces analyses
on a assez beaucoup intéressé au code
parce qu'il est fin de ce domaine-là
et c'est
plus pratique
comme beaucoup de choses plus pratiques
quand on a quelque chose qui est plus facile
à utiliser
c'est ça qui va finir par gagner
ça prendra du temps
il y aura certainement
pendant très longtemps des use cases spécialisées
comme aujourd'hui on a encore des use cases spécialisées
sur par exemple
des processions qui ne sont pas des processeurs génériques
ou des choses comme ça
mais pour la plupart des gens
qui ont besoin de faire
une énième application creude
avec des formules et des nâchins comme ça
potentiellement ça fera pas de sens
d'avoir la moindre infragérée
mais même de savoir
ce que c'est que l'adresse
parce que c'est absolument pas le business case
pour les gens qui remplissent aujourd'hui
des feuilles de calcul Excel
ou n'importe quoi
elles tournent sur un Linux
dans une VR, dans un machin
et que ça soit un pitude
qui soit interprété au niveau d'un espace
de métal moteur
qui se pomme sur plusieurs des façons de faire
ça se fout pour ce cas
et pour tous ces deux ce sera beaucoup plus simple
Non clairement
Je ne suis plus non plus là-dessus
je pense que ça va surenter
en termes de niche
pour des process comme tu dis
on a besoin de faire tout de quoi le shot
mais
c'est quand même que ça reste rectif comme moi disais
tu ne le vas plus spécialiser
C'est vrai aussi parce qu'on n'a pas encore
une propose vraiment d'options et de composabilité
mais ouais, le fait que tu as des versions
tu as un 50 npons
tu as des 50 npons de la gérer
50 versions de gérer etc
c'est la primalité au maximum
En fait
c'est un système d'interaction entre les deux
mais si tu commences à dire
je vais potentiellement avoir un truc de messager du bus
avec le décis général
et du coup tu peux spawner un genre d'art de concluse
qui est contextuel à ce que tu es en train de traiter
et du coup
tu as une petite optimisation de destination de la force
qui est quand même mon négligeable
de mon point de vue
ou tu m'exécutes parce que tu n'as pas besoin
d'exécuter et t'as pas l'amitié de la planète
tu es du serveur brûleté qui fait
oh, c'est long aujourd'hui
tu vois
ça donne bien on va dire
d'une tendance un peu globale
qui est de plus en plus déléguée
au runtime et au système
en dessous
la gestion d'un maximum de choses
au début
on faisait du bar métal et c'était
on devait tout gérer en quelque sorte
on devait tout gérer, compris
l'opéra, enfin c'était
le kernel du système bar métal en dessous
mais c'est tout
et plus on avance la givm
et une iteration de ce truc-là et ainsi de suite
on a un runtime qui fait énormément de choses
qui va te moucher plein de trucs et nous
on va avoir un code qui va être très simple
et on n'a pas besoin de s'en préoccuper en quelque sorte
et le wasum c'est quasiment ça
parce que c'est le moment où on dit
moi j'ai même plus envie de m'occuper de savoir comment ça s'exécute
il y a un wasum
et c'est même plus
donc c'est complètement ça
et la raison pour laquelle ça va dans
ce sens-là c'est parce que du coup
tu as plus besoin d'avoir d'experts
choses qui sont pas liées au besoin direct
que tu veux résumer
typiquement il y a
une vingtaine ou une trentaine d'années
il y avait des gens qui avaient une grosse boîte
avec leur TX
n'importe quelle machine
avec des gens qui étaient spécialisés dans le babysitting
qui allaient aller le matin
qui allaient le caresser
des acquisitions de cabres auto-économiques
etc.
mais ces gens-là ils avaient rien à voir
le métier de banque par exemple
et une banque elle a pas envie
de former des experts
dans la gestion de matériel
ou de cablage réseau
et en plus sensable
c'est en fait elle a pas envie non plus
d'avoir des gens spécialisés dans la gestion de la frère
parce que c'est banquier
puisqu'à la fin pas loin
de coder les outils dont ils ont besoin
c'est ça
tout ça avec Stam
ok c'est la caricature
mais c'est le radicat spécialisé
c'est un trade-off que tu as
entre tes fonctions support
et ton corps de métier
dans une entreprise
tu peux faire le choix et c'est un trade-off
et il faut regarder bien de vous financer
ce que vous financiez, c'est le sondre
c'est le délai de la gestion d'un frère
qui est en train de faire le choix
qui fait appui du bon
je suis au pays le plus cher
je vais pas forcément avoir la compétence
si elle nous laisse le plan
parce qu'il n'arrive pas à renforcer
il faut être d'être un truc qui s'est con
avec tout ça, pour qu'il brûle aussi
je ne vais plus voir
c'est un spécialisé français
en vrai il est en train de faire le choix
oui mais c'est pas un fausse
mais le lieu est juste la réalité
c'est un trade-off que vous pouvez faire
moi je ne peux pas me dire je pars sur le cloud
parce que c'est ce qui attendra
pour moi pour le nez
t'as un très gros pafer au niveau
typiquement est-ce que même un instant
ce plégé je ne la laisserai pas sur du bien métal
parce que comme ça je me tuis que la con
parce que j'ai besoin de cette performance
et là on en revient au truc qui est situé à un besoin spécialisé
tu as besoin de la performance
de tuiner tous les petits nub
et les petits...
tu restes là dessus
c'est exactement parce que c'est un trade-off
pour 90% des gens
le trade-off ira vers
je vais partir sur le cloud
parce que c'est plus simple de voir
est-ce que toutes les entreprises vont finir
en espace de co-op-king
parce que au final elles peuvent externaliser
à gestion du travail
à une entreprise
et sur le logo
ça dépend complètement la taille
de l'entreprise
mais dans plein de cas
c'est rigolo parce qu'on est en train de se sécher
c'est exactement le type
on a parlé à ce type
de nous, de l'autre
on a affronté de réfléchir à la place qu'on prend
pour pouvoir m'évaluer la passance
et du coup on est exactement
dans un de les marchés
c'est pas du tout notre métier de jamais déloco
on n'a personne dans la voie que ça fait kiffer
de gérer un déloco
en plus on est plutôt globalement décentralisé
parce que c'est quand même très bête
d'être des informaticiens
et d'être tous dans la même ville
ou même dans le même endroit
tous les jours de la semaine
alors que on va être sur des ordinateurs
de toute façon on va pas
les étremets
on est en train de aller jusqu'à cette caricature
il y a beaucoup de notre travail
qui va se faire de toute façon dans un data center
à des milliers de kilobattes de la
donc ça ne change pas à grand chose
enfin on est un des métiers qui est plus facile
à décentraliser
et du coup on se pose la question
de la main, on prend des locaux pour quoi
on prend des locaux dans quel but
et quel modalité
et
clairement donc en gros
il y a des gens qui préfèrent venir au bureau
parce qu'ils sont en justification comme ça
il y a des gens qui préfèrent pas du tout
par contre ce qui est simple, c'est d'avoir des endroits
où on peut se repler donc avoir des locaux qui soient modulables
et qui permettent d'avoir un accompagnement
de la poissance, des équipes
ou des besoins ad hoc
et ça c'est une modalité que tu n'as pas
quand tu as un bâtiment
ou alors tu prennes un bâtiment beaucoup plus grand
qu'est-ce que tu peux voir
et on retrouve exactement les problématiques
du cloud, avec le surdimensionnement
dont tu parlais tout à l'heure
et le fait que
pour la plupart des gens
donc on est une boîte complètement classique
sur la location de beaucoup
ça fait plus de sens d'avoir une solution
qui est plus modulaire et plus flexible
qui va pouvoir s'adapter à des besoins
extrêmement avec
une régularité qui est très bizarre
avec potentiellement des périodes
où on va avoir besoin de beaucoup de foire
des périodes où on va beaucoup moins voir
des équipes plus ou moins grosses pour devoir s'occuper
pour se repler
des événements d'année où on recoupe
toute l'équipe et du conduit
donc besoin de beaucoup plus de place
et on n'a pas du tout envie de
se jurer un bâtiment complet
pas de notre métier
c'est pas ce qu'on a envie de faire
mais par contre
peut-être que si c'était une boîte spécialisée
dans je sais pas
quelque chose avec d'autres contraintes
en termes de team, de décentralisation etc
ça serait hyper pertinent que ça soit mes locaux
parce que par exemple j'invite régulièrement
des clients dans mes démons
j'en sais rien et j'ai besoin
de pouvoir vraiment gérer l'espace
reconstruire le truc pour
répondre à un même besoin métier
et d'encerrer, oui c'est passionnant
toujours une boîte assez grosse
après tu commences du bipon
ou à lecture
on va dire à la science maintenant
et
je crois qu'ils ont carrément pris un bâtiment
le rénover etc
parce qu'ils savent que
l'éducation est chère
je me point avec
le nom de les bureaux
comme sur les landa
je pense que ça
reste intéressant
de voir de nouvelles approches
et je pense que ça
satisfait le marché
de différents mondes et sur beaucoup de cas
mais
à la fin ça ne remplacera pas tout
on dit ça à chaque fois qu'il y a
une nouvelle révolution technologique
c'était OpenStack et après que l'on était
il y a après le Osum, il y a pas grand-chose
mais par contre à chaque fois qu'on a eu
ces différences sérieuses on a pris des choses
intéressantes sur la façon de structurer
la consommation de ressources physiques
qui ont tendance
à satisfaire plus certains
besoins de l'eau
et tout ce truc là
permettra d'arriver
à une standardisation
au niveau des composants
des briques de base qui ont besoin d'être utilisé
ce que Warbley appelle la
componentisation des choses
et typiquement aujourd'hui on se pose pas de questions
car on achète un appareil électrique
de savoir quelle est le format de la prise
à part d'un insistion, à l'étranger
mais au moins
en Europe on arrive à
une standardisation qui est ok
et il faut imaginer
à un moment
il y a eu une époque où on devait se poser la question
de car on achetait des boulons
et des écrous et des listes
est-ce que les trucs étaient compatibles
de plus en plus dans le monde
on se pose plus ces questions là
parce qu'il y a eu toute une phase de componentisation
on se pose pas la question de savoir si quand je vais
de constamment portable ça va te faire griller
parce que c'est pas la bonne voltage, la bonne fréquence
etc.
aujourd'hui on se pose pas de questions
de savoir si nos matériels électriques
ont pouvoir fonctionner dans les prises
etc. parce qu'on arrivait
c'est devenu un service de base
qu'il y a plus
de valeur ajoutée à différencier ce service
de base et là on tient une valeur très forte
de la pression concurrentielle
des gens qui utilisent des services de plus haut niveau en-dessus
d'avoir quelque chose de standard
et on a exactement la même chose qui se passe avec les OS
on avait
à une époque on a inséré à avoir des OS
qui étaient très différenciés parce qu'ils apportaient
des choses qui étaient très spécifiques
puis on a eu une énorme standardisation avec Linux
Windows a essayé de suivre le vent
mais Windows
se met à faire du Linux et du SSH
donc ils sont au même niveau de la présentation
ils subissent la sainte-appréciation
et maintenant on a ça
au niveau supérieur
on veut même pas savoir
qu'à les OS on veut juste savoir que notre code
va être capable de tourner quelque part
sur un data center on se fiche
que jouer avec data center
moi du coup tout un test pour 30
qui doivent apparaître
au niveau de la présentation
justement quels sont les bonnes règles d'avoir le temps de place
ça va même plus loin
déjà ne pas avoir de dépense à l'OS
c'est déjà ce qu'on comprend de nous
je vais te le faire faire avec du pass
il est extrêmement très épuisseur
mais
d'autres gens qui ont l'autor avec OS
ça va nous prendre plus
le mandat, le fass et cetera
ça va mener à un niveau-dessus
qui est conféé plus de main
c'est vraiment soulu
soit sur l'analyse que je sais
c'est le tout simple l'analyse que tu as l'heure avec la banque
ça va fin le banquier, exprime son problème
pour probablement à la fin de la fin de la fin du compte
tu n'as pas envie de former
à comprendre qu'on ne l'a dit plus
sur je veux faire ta calcul, ta traquement
tu connais très bien ce matier
il connaît la saison de pout, il a ses analyses de mesures
en fait il veut produire un résultat de la certaine façon
et à la fin, après un truc d'exécution
les écudés pour une fois
ou à chaque fois
il voulait le faire une fois par jour le matin
ce qui est du lait et à la fin
ça permet aussi d'avoir des accès
pour un peu
les gens
dans des métiers pas spécialisés en informatique
qui se rapprochent
de l'on a vu en Dabba Revolution
des premières fois on a commencé à utiliser
des ordis pour faire la simulation
des trucs un peu poussés
genre machlab, cette truc là
ou c'est une calculatrice avancée
si on a une démocratisation
d'autres milieux
pour ex-sépatiser l'utilisation
c'est tout ça tout le monde
c'était le mot de la forme
je crois
moi il y a une autre aide
sur les mascottes pour Scala
et il y a un pangola qui est trop mignon
moi je vote pour Scala
comme pour Scala
mais c'est pratiquement en plus
la tête
je me déjeune des gens en forme quand je leur parle
de Scala
il y a quelqu'un dans Scala 2
il y a des sims là
et des chants
et puis je regarde les grands yeux
et il me fait juste la chante
décrocher
c'est incroyable
c'est parfait
voilà
pourquoi ils se passent des belles choses en ce cas
c'est clair
merci à vous d'être venus tous
merci à ceux qui nous écoutent
de nous avoir écoutés
et on se retrouve pour la prochaine édition
merci à tous
merci

Les infos glanées

Je suis une fonctionnalité encore en dévelopement

Signaler une erreur

CleverCloud

Tags