Les News Web Dev pour Décembre 2023

Durée: 71m56s

Date de sortie: 13/12/2023

Un épisode de news pour décembre 2023, le dernier de l’année 2023. Nous évoquons dans cet épisode les dernières sorties, Vite JS, Astro, PHP. Nous parlons des écosystèmes JS et PHP. Vous retrouverez également des articles et outils à utiliser au quotidien pour vos développements. Retrouvez toutes les notes et les liens de l'épisode sur cette page : https://double-slash.dev/podcasts/news12_23/

Bienvenue sur Double Slash, le podcast dédié aux outils et aux techniques pour le développement
web.
Bonjour à toutes et à tous, bienvenue sur ce nouvel épisode de Double Slash, épisode,
on est en décembre, donc normalement on est censé avoir un petit peu de neige, en ce
moment c'est plutôt de la pluie qu'on a, mais bon voilà, épisode de news juste avant
Noël, juste avant les vacances, donc on est content de vous retrouver.
Et Alex, salut, comment ça va ?
Écoute, grand merci, ça va bien, content d'en revenir, et un grand merci à toutes
les personnes qui nous soutiennent et qui nous soutiennent à travers le sponsoring,
à travers la discussion, on a de plus en plus de monde qui nous écoute, donc c'est
cool, ça fait exexivement plaisir.
Oui, on remercie effectivement, on remercie nos sponsors actuel, on en a 6 sponsors,
là sur GitHub sponsor, donc on arrive quand même à une somme de 80% de notre objectif
de 30 dollars, enfin 30 euros ça peut pas parler, donc c'est super cool, on a pu
renouveler la licence ICAM, etc.
Donc c'est nickel, moi j'ai un nouveau micro, donc je sais pas avec l'argent des sponsors
actuel, j'ai acheté ça avec mes propres propres argent, j'espère que le son est beaucoup
mieux qu'avant, en fait normalement il est meilleur, donc c'est cool.
Donc épisode spécial news, comme on fait tous les mois, donc on a pas mal de news,
donc je sais pas si tu veux faire un petit sommet à rapide ?
Ouais, carrément, carrément, aujourd'hui on va parler de VIT qui sort en version 5 et
un peu en la suite une évolution, Astro qui sort avec une nouvelle version, avec des
outils aussi qui sont super intéressants, on va parler de Bundler, on va parler d'animation
avec l'OTI, on va parler de toute la TwitoSphere qui a parlé de tous ces outils, on va parler
de PHP, on va parler de librairie, de validation, de formulaire, on ne peut pas faire un épisode
de news sans parler de Rust évidemment, on va parler aussi de pricing, on va parler
aussi de 2-3 librairies qu'on a vues dont une qui nous permet de faire du SQL quasiment
en temps réel, je suis complètement hype par ce truc, on va en parler aujourd'hui.
Ah bah, on parle de DB ça de toute façon, le mec rêve de DB.
Allez, on attaque et on commence par la nouvelle version de VIT qui sort en version 5.
Yes, VIT 5 qui est sorti il n'y a pas très longtemps, donc un an après la version 4,
c'est beaucoup d'optimisation, il n'y a pas de révolution au niveau des réglages,
c'est de l'optimisation, du coup il y a peu de changements, j'ai déjà passé des projets
de 4 à 5, enfin j'ai rien changé au niveau de la config, donc ça permet à tous les
frameworks qui sont basés sur VIT aujourd'hui, la communauté est très importante de pouvoir
passer rapidement sur VIT 5, donc n'hésitez pas à changer, vous gagnez un peu en performance
évidemment, ils sont passés sur l'op 4, en fait dans la majorité des versions qui
sortent depuis ces derniers mois, c'est beaucoup beaucoup d'optimisation, donc c'est plus trop
aussi. Oui, qu'a sorti surtout sa version 1 officielle, VIT est ce qui est un équivalent à
geste pour la librairie de test avec, qu'il y avait une API à la base qui était équivalente
à geste avec les snapshots, tout ça, tout vraiment équivalent au niveau de l'API,
des fonctions et donc VIT est ce marche très très bien et voilà, version 1 officielle,
donc en essence, c'est officiel, on va dire, c'est officiel, c'est propre qui fonctionne.
Et on voit encore qu'il y a beaucoup beaucoup de contributions, c'est vraiment tout l'écosystème
qui a contribué à ça. Ouais, on est vraiment sur des projets qui
sont avec une grosse communauté qui contribue beaucoup, donc c'est un bon petit projet.
Allez, on parle d'Astro, Astro qui est le framework totalement agnostique pour sortir des
fichiers, des sites un peu, moi j'aime bien dire des sites à l'ancienne, mais c'est des sites
purement statiques, un build qui va être totalement statique, mais maintenant ils ont vachement
évolué et c'est plus uniquement du statique et ils sortent en version 4.
Yes, le 5 décembre donc c'est tout frais. En fait Astro sort la version 4, la version 3,
t'as sorti il y a pas très longtemps, je crois que c'était il y a 6 mois à peine. Alors évidemment,
c'est toujours pareil, c'est des versions majeures mais qui, pareil, il n'y a pas de break-in change
énorme, il y a choses comme beaucoup de frémoire comme remix, tout ça. C'est des expérimentales,
qui passent en officiel, en fait on sort de l'expérimentale, donc c'est maintenant,
c'est comme ça l'évolution du framework. Effectivement c'est du statique à la base Astro et
maintenant il y a du rendu serveur, etc. Il y a plein de choses qui sont, quand on est à trouver,
il y a de l'hybride aussi où tu peux faire soit du statique, soit du rendu serveur. Là sur la
version 4, il y a de l'acrémentale aussi qui est expérimentale, tu vois, un crémentale content
caching, donc ça veut dire qu'il y a des pages qui peuvent être générées à la demande pour
les déploiements avec des sites importants. On se rapproche petit à petit de ce que fait Next,
donc c'est très intéressant parce qu'en fait je ne sais pas si tu vois toi en ce moment,
mais moi je vois qu'Astro est très présent en fait, il est très poussé et il est très...
Après on ne va pas reprendre le débat sur le marketing ou pas, mais en tout cas,
il est forcé de constater qu'ils sont super forts sur la communication, sur aussi l'implémentation
des fonctionnalités, ça sort tout le temps, ça communique bien, il y a la communauté qui
se fait derrière, c'est un projet. Ce qui est fou c'est qu'Astro en fait,
tu n'as pas... Astro par rapport, si je compare à Next, parce que du coup aujourd'hui,
tu en entends beaucoup parler, Jason, Lianou et Jason en parlent, il le pousse beaucoup et lui,
c'est vraiment le truc à faire en 2024. Il le compare de plus en plus à Next.js,
qui est de Next.js qui est très complexe, qui se complexifie et Astro qui est toujours aussi
simple malgré la fonctionnalité au fur et à mesure. Et Astro tu vois, contrairement à Next.js,
il n'y a pas de grosses boîtes derrière en fait, c'est des développeurs etc. Donc on n'est vraiment
pas sur le même schéma. Et grosses communautés etc. Et très simple à utiliser. Et ouais,
et c'est surtout ça, c'est que c'est hyper simple à utiliser et on le redit encore, mais c'est
framework agnostique. C'est-à-dire quelqu'un qui veut faire du Alpine.js, quelqu'un qui veut faire
du React, qui veut faire du Pré-Act, du Quick, de... Ok, bah vas-y, tu l'utilises. Donc en fait,
c'est une surcouche, mais qui est totalement agnostique de framework.js et ça, c'est très,
très, très, très puissant. Ouais, il est vraiment top, il y a même du HTMix, tu peux faire du HTMix,
il y a plein de choses. Donc les nouveautés, on s'écarte un peu. Les nouveautés d'inversion 4,
en fait, il y a une nouvelle toule barre, en fait, qu'on compare un petit peu à celle de NUXT,
voilà, une toule barre qui est intégrée dans le développement, qui est extensible,
je me souviens normalement. Donc voilà, il y a plein d'infos. Par contre, c'est une toule barre qui est
pour le dev, on est bien d'accord. Oui, pour le dev, et voilà, tu cliques, comme on voit dans
l'exemple sur la vidéo, tu cliques, ça t'envoie directement dans le component sur ton VS Code,
ou ton éditeur de code. Il y a quelque chose comme ça. Fortement, fortement inspiré,
comme je vous l'ai dit, de l'excellente toule barre NUXT, ça c'est, il faut le dire,
le devtools spécial NUXT est juste de la tuerie monumentale. J'ai pour l'utiliser tous les jours,
je suis complètement fan. C'est clair, c'est clair. Et là, voilà, fortement inspiré,
et donc tu as une API, donc normalement, tu peux développer toi-même des extensions pour mettre
dessus. D'ailleurs, il y en a une juste après, on va en parler. Et puis voilà, tu as un système d'accessibilité,
aussi, qui te donne des alertes sur l'accessibilité, si il manque des éléments sur tel component,
etc. Donc, c'est pas mal. Vraiment très bien. Ensuite, il y a aussi la prise en charge de
l'internationalisation du routier. Tu as réussi à le dire du premier coup, et ça c'est valais.
Donc maintenant, DOFIS, tu peux faire des routes dans différentes langues, tout ça,
c'est pris en charge, c'est fait, c'est DOFIS. Et c'est native ou il faut installer un plugin ?
Non, c'est native. Non, c'est native. Ok, excellent. Routing support. Donc,
il y a l'incrémentale content caching, ce que je te disais avant, qui est une nouveauté.
En fait, c'est le truc qu'on avait déjà évoqué il y a plusieurs années que sur les sites statiques,
avec beaucoup de contenus, c'est quasiment impossible à déployer. C'est quelque chose que
il y a très longtemps, il y a un article dans le site, comme il s'appelle,
gemstatics.fr. À partir de milliers de pages, tu ne peux pas rébuilder à chaque fois.
Tu ne peux plus déployer, c'est trop long, c'est pas possible. Donc, ils arrivent toujours à ce
même problème qu'il y a eu sur une Next.js, et on a le même. Donc, ils sortent une fonctionnalité
qui permet de passer au-delà de ça. Mais le concept est quand même ouf pour réexpliquer
pour ceux qui ne connaissent pas vraiment le système d'incrémentale, c'est qu'on va choisir
une partie du site qui va être construite au moment du build et une partie du site,
une certaine arborescence de pages qui sera construite uniquement quand la première personne
en a besoin. La première personne qui va consulter, on va attaquer le serveur, là on va générer
cette page et on va sauvegarder cette page pour que le prochain puisse en délivrer directement.
Ce qui fait que c'est les utilisateurs qui vont générer les pages au fur et à mesure,
et ça c'est quand même super malin. C'est top. Et là, ils ont rajouté un système de cache qui
vérifie si ça a changé ou pas. Ça va encore plus loin. C'est de l'incrémentale intelligent,
on pourrait dire. Après, la vue transition API continue à évoluer. Il l'améliore.
C'est quand même super joli et en quelques lignes, on peut faire des transitions entre
des pages super stylées et avec très peu de codes. Ils l'ont quasiment tous les
frameworks l'ont implémenté assez rapidement. C'est devenu natif de façon maintenant. Ça marche
toujours. La doc sur les projets open source est primordial. Ils ont un template qui s'appelle
Starlight. C'est un template Astro qui permet de faire des docs. Ils l'ont utilisé pour faire
leur doc Astro. Tout refait dessus, elle est nickel. On enchaîne. On parlait de la DevTools et
ils ont fait un partenariat avec Centri. C'est un service qui permet de brancher
ton application de prod sur Centri et Centri te remonte les logs, d'erreurs, etc.
de tout ce qui peut se passer dans ton application et tu peux monitorer l'application qui est en
production. Très important pour ne serait-ce qu'une idée, des erreurs, tout ça que les gens rencontrent
en naviguant sur l'application. Ils ont fait un partenariat avec Centri qui est une sorte de
module qui se branche sur la DevTools, la DebugBar. Les erreurs remont directement dans la DebugBar.
C'est super propre. Tu peux rechercher les erreurs. Et donc tu récupères toute l'expérience de Centri,
qui est vraiment pour te donner un contexte. Ok, tel utilisateur, à tel page, il a cliqué ici,
il s'est passé ça comme erreur, tout. Donc c'est vraiment ce niveau-là de précision sur Centri.
Et ça te permet de mettre ça en local pour traquer ces erreurs au fur et à mesure.
Précisément, des erreurs, exactement dans quel morceau de code ça déconne.
Donc c'est la première partenariat pour dire à quel point on peut étendre
cette toule bar pour faire des choses super intéressantes.
Excellent, excellent. Et évidemment, ils viennent sponsoriser le projet Open Source.
A hauteur, je crois que j'ai vu 5 000 dollars par mois.
Ouais, c'est ça, c'est marqué en haut. New 5000 monthly donation.
Donc non, c'est top. Top top.
Il faut soutenir les projets Open Source.
Oui, il faut soutenir les projets Open Source.
VIT, VIS, X, c'est quoi ça ? C'est un projet qui nous permet de faire la fight.
Non, c'est des tests. En fait, il y a un débat actuel qui revient tout le temps.
Et ça, c'est à cause des bundles de leur rust.
Le débat actuel, c'est VIT, comme tu le sais, ça ne bundle pas l'application quand tu es un bon dev.
Oui, c'est que un outil de développement.
Voilà, et c'est des modules, ça va chercher les modules, etc.
Et depuis le début, avec VIT, le problème est soulevé que quand tu as énormément de modules de dépendance, etc.,
ça devient problématique, ça fait trop de modules à charger, etc.
Et donc, la plupart des bundles de leur, qui sont basés sur rust,
bon, il y en a plein, eux font, compilent le code en une seule.
Et puis, du coup, c'est très rapide parce que c'est du rust.
Et du coup, on a plus de problèmes.
Donc, ce débat revient continuellement, en fait, depuis plusieurs mois, en fait.
Est-ce que, voilà, la différence entre VIT qui utilise des modules et les bundles de leur, en fait.
Et voilà, et à chaque fois, c'est ça. Ils font des tests avec des milliers, des milliers de dépendance.
Et là, on a une courbe qui prouve bien que, voilà, c'est mieux géré avec Rebuild.
Ok. Après, il faut quand même pas oublier que Evan Yu, qui est derrière le pro,
qui est l'initiateur du projet VIT, l'a dit lors de la dernière VIT Conf.
Il a dit que, justement, les prochaines versions de VIT seront fait avec des outils en interne qui utiliseront rust.
Voilà. On y est.
Ok. Bon, ouais, ok. C'est toujours un peu le même débat, quand même.
Ouais, ouais, on tourne en rond, on tourne en rond, mais ce débat revient continuellement, en fait, pour critiquer VIT.
Après, c'est... La plupart du temps, il faut bien remettre les choses dans le contexte.
En fait, ça concerne les prix, en fait, ces problèmes de performance, etc.
Ça concerne quoi, les énormes sites.
Enfin, nous, la plupart des sites qu'on fait, ça marche largement.
Enfin, ça marche correctement. On n'a pas de problème comme ça, en fait, de performance, tout ça.
Donc, non, qu'est-ce qu'on pense ?
Mais complètement.
Après, en fait, c'est comme tout. C'est si tu veux critiquer...
Tiens, on ne va pas faire de la philosophie, mais si tu veux critiquer quelque chose,
tu vas pousser le raisonnement à l'extrême et tu vas aller chercher parfois des chiffres qui sont complètement aberrants
pour justifier, tu veux... Ah, bah, voyez, là, quand je pousse ce raisonnement à l'extrême, ça ne marche plus.
Bon, le projet est mauvais, alors que... Pas du tout.
Enfin, tu vois, raison gardée.
Donc, c'est une technique qui est utilisée, qui est connue de tout le monde.
C'est si tu veux dégommer l'outil, tu pousses l'outil jusqu'à un maximum.
Et puis, il y a un moment donné, en fait, tu vas trouver la limite.
Est-ce que c'est suffisant pour arrêter ?
Ouais, non, mais c'est toujours le... En fait, voilà, il faut se méfier un peu de ces débats qu'on retrouve assez souvent
sur plein de techno, plein de bennelors, etc.
Parce qu'en fait, il y a beaucoup de choses, de problématiques qu'on n'a pas du tout, nous, dans nos développements,
qui sont plutôt simples, plus ou moins complexes, mais c'est pas non plus des sites...
On n'a pas le même type de problème, quoi.
On est pas à Facebook, on n'est pas Airbnb, donc il ne faut pas non plus se comparer à ça.
On n'est quand même pas à la même échelle.
Donc, souvent, il faut écarter un petit peu de ces débats, parce que ça n'a un petit peu rien.
Complètement, complètement.
Allez, on parle d'un projet sur lequel on avait abordé lors de la série qu'on avait fait sur les animations.
C'était un projet qui s'appelait Loti.
Et là, en fait, il sort un nouveau site, ou en tout cas...
Il y avait déjà.
Ok.
Par contre, ce qui est super intéressant, c'est qu'ils viennent intégrer un module d'enfigma
pour pouvoir exporter directement depuis Figma les animations
et les exporter en type Loti, donc au format Loti,
qui après, en fait, est facilement intégrable directement dans l'applicatif.
Oui, en fait, LotiLab...
Alors oui, oui, tu as raison de mentionner l'épisode où on avait parlé de Loti
sur notre série animation de l'été 2022, je crois.
LotiLab existait déjà.
On en avait parlé à l'époque.
Et je ne sais pas pourquoi, pendant très longtemps, plus d'un an, il ne s'est passé rien.
LotiLab n'évoluait pas, ne changeait pas.
Et là, depuis deux mois, je ne sais pas ce qui s'est passé, quelqu'un a repris le projet,
ça s'est réveillé, LotiLab revient, renait de ses cendres en fait.
Et voilà, nous, marketing, plugin, Figma pour sortir sur l'Loti animation.
LotiLab, en fait, c'est un outil qui te permet de faire des...
En fait, c'est un éditeur en ligne où tu vas faire des SVG, etc.
Parce que c'est basé sur SVG, Loti.
Donc tu vas faire ton SVG, tu vas l'animer, etc.
Dans ton browser, en fait, avec cet éditeur, LotiLab.
Et voilà, et ensuite, tu exportes, tu as une librairie qui s'appelle Loti,
qui te permet d'animer ce SVG dans ton application.
Donc voilà, ça refonctionne.
Je crois que c'est gratuit encore pour l'instant.
À un moment donné, ça va être payant, évidemment.
Il y a quand même du TAF derrière.
Et ensuite, dans la foulée, ils ont sorti ce Loti, ce Figma, tout Loti Animation,
ce Plugin Figma qui permet d'exporter ton SVG qui peut être un peu complexe
que tu aurais fait dans Figma sur Loti.
Pour l'animer après, comme tu veux.
Et là, pour le coup, c'est quand même super intéressant.
Parce que beaucoup de designers ou des mecs qui font un peu de motion,
vraiment orientés sur le web, sont plutôt à l'aise avec Figma.
Et donc là, ça vient de limiter la friction totale à l'utilisation.
Et c'est super intéressant.
Donc si vous êtes designer, regardez Figma et Loti pour pouvoir...
Ouais, designer ou pas.
Avec Loti pour faciliter cette intégration-là.
Loti Lab est super facile à prendre en main.
Et tu peux te faire des petites animations,
faire des petits mouvements tout ça facilement.
C'est designer ou pas.
Ça peut être...
Allez voir, Loti Lab.
Allez, on parle un peu des images.
On sait que les images, c'est hyper, hyper compliqué.
Il y a Adi Osmani qui bosse chez Google, je crois,
qui a sorti un livre sur les images d'ailleurs,
sur le traitement des images pour le web.
C'est un sujet qui est hyper complexe, qui est hyper...
Le livre aussi est complexe.
Je t'ai garantie.
Par contre, il est hyper fourni.
Il est hyper fourni, donc c'est super intéressant.
Et là, il nous informe que Chrome, dans sa version de je ne sais pas...
Dans quelle version exactement, va supporter nativement le resize automatique.
C'est ça ?
En fait, vous nouvelle attribue, size en auto.
Le concept, si j'ai bien compris, c'est que l'image prend la taille.
En fait, en gros, le navigateur calcule la taille qui est disponible,
où l'image est censée s'afficher,
et prend l'image qui correspond à cette taille.
Bien avant que le CSS soit chargé, en fait.
Voilà, pour gagner en vitesse.
Parce que pour revenir sur la chronologie du chargement de la page,
souvent, c'était d'abord le CSS, puis les images.
Sauf que si tu cherches ton CSS,
tu ne sais pas encore quelle taille de disponible tu as,
parce que tu n'as pas encore tout chargé.
C'est ça ?
Oui, en fait, l'image n'attend pas d'avoir le CSS,
donc ça vérifie quel place j'ai.
Tiens, l'image, j'ai 100 pixels.
Il va prendre l'image dans le SRC7 qui correspond à cette taille.
Bien avant de savoir si elle sera plus large.
Et après, c'est remis à jour.
Et ça, de manière native ?
Oui, c'est native dans Chrome,
donc ça doit être la version sur certainement Canary,
mais Chrome poussant les choses.
Fortement, on va dire.
Fortement, en fait.
C'est un peu mode bourrin.
Les gars, ils sont hallucinants,
c'est-à-dire qu'ils te lancent des trucs comme ça,
sans demander la vie à personne.
Tiens, on a trouvé que c'était cool, on va balancer ça,
et puis les autres, prenez,
et puis vous n'avez pas le choix de toute façon.
Après, Patrick, on a connu des années avec Internet Explorer,
qui était un bouillé.
Et maintenant, on arrive de l'autre côté, et t'es pas content.
Tu commences à être dur, Patrick.
Tu commences à être dur.
On a un W3C qui sert à quelque chose.
Après, c'est sûr que le process est plus long,
mais il faut se tendre à réaliser les choses.
Après, de toute façon, c'est réglé.
Maintenant, on n'a que du Chromium quasiment disponible dans tous les navigateurs.
Donc, terminez bonsoir.
Yes.
Prétier, qui est l'outil pour faire un code propre
et à respecter toutes les conventions de l'Int.
Prétier, est-ce que...
Pardon ?
C'est Sentry, en fait.
Le tweet, c'est Sentry.
Donc, on parlait juste avant le système pour monitorer ton app,
qui a fait le move de Prétier, à Biome, en fait.
Exactement.
Et ce n'est pas la fin de Prétier.
Et en fait, on va dire la consécration de Biome,
qui est un projet qui a eu des hauts et des bas
et qui revient un peu sur le devant de la scène.
On en parlait dans le dernier épisode.
C'est par rapport à ce concours de réécrire Prétier en Rust.
On avait dit tout le monde avait dit,
« Mais Biome, ça existe déjà, machin, tout ça ».
Et effectivement, Biome est en train de...
de renette de ses cendres, un peu.
Oui, oui, oui.
C'est le phénix.
Et ma foi, il marche plutôt pas mal, en fait, Biome.
Alors, pour la petite histoire, je viens de passer...
J'ai testé sur un projet, voilà, sur lequel je vais passer là, actuellement.
J'ai mis Biome.
Je n'ai pas mis Prétier, parce que moi, j'utilise Prétier,
surtout les projets.
Et là, je suis passé sur Biome,
qui me permet de formater le code.
Et aussi, qui fait l'Inter, aussi.
Parce qu'il y a un peu à l'ES lint, en fait, il fait pareil.
Il va t'indiquer les erreurs.
T'as des modules qui marchent en VS Code ou dans les autres,
donc ils te permettent d'afficher.
Et franchement, il est pas mal, en fait.
Ça marche.
C'est dur, c'est hyper rapide, c'est hyper efficace.
C'est hyper light.
T'as un seul fichier de config.
En fait, moi, la seule question que je me pose,
c'est est-ce que c'est facile à configurer ?
Parce que les lineteurs, ça peut vite être la merde,
compliqué par projet, par IDE, par machin.
Non, c'est facile.
Est-ce que avec Biome, c'est facile ?
C'est facile.
Parce que, du coup, là, tu me parles de lint.
C'est compliqué à régler.
Même si maintenant, c'est plus simple qu'avant,
parce que maintenant, tu vas étendre une config
que tu vas choisir, et souvent, c'est souvent la même.
Différentes configs.
Et en fait, Biome marche à peu près de la même façon.
Tu es étant une config ou tu voilà.
Non, le réglage est super simple.
T'as un seul fichier pour les deux, en fait,
pour le lineteur et pour le formateur.
Et c'est beaucoup plus simple.
Moi, je trouve ça beaucoup plus simple.
Et surtout, c'est beaucoup plus light, plus rapide.
Et du coup, Sentry a fait le move de Prétieur à Biome.
Donc, c'est un message quand même important pour dire,
bah, allez-y, parce que...
Le système marche.
Après, c'est pas très compliqué de revenir en arrière.
Il faut pas non plus s'emballer.
Ouais, on t'est d'accord.
Ça marche.
M. Kaleb Portdio, qui n'est trop autre que le créateur de Alpine.js,
lui, il annonce que Alpine.js va passer sur des signales aussi ou pas ?
Non, ouais.
En fait, j'ai été tombé sur ce tweet, en fait, Alpine.js,
donc, Kaleb Portdio, qui a créé Alpine.js,
et qui bosse aussi sur la Ravel avec...
J'ai oublié le nom.
Enfin, il y a une version de la Ravel qui fonctionne aussi avec Alpine.js.
Ok.
Je me souviens plus du nom.
Donc, il a commencé à implémenter signal,
donc, le fameux système de signal avec les événements et tout ça,
qui est implémenté un peu partout actuellement.
C'est un système de réactivité.
Ouais, réactivité, voilà.
Et il a implémenté, je pense, assez rapidement.
Il s'est trompé sur le tweet parce qu'il a dit,
« Ouais, j'ai implémenté, c'est 399 kilobytes.
C'est un petit peu lourd.
Et après, juste derrière, il se dessinait un petit peu et c'est,
« Pardon, je me suis trompé.
En fait, c'est 399 bytes, en fait.
Donc, j'ai implémenté signal avec 399 bytes, en plus,
sur Alpine.js, ce qui est extrêmement laïque.
C'est tout léger et on vient, on va dire,
directement profiter de tout cette...
de cette nouvelle manière de gérer les données réactives
grâce au signal.
Ok.
Yes.
Et Alpine.js, je l'ai utilisé sur deux projets dernièrement, là.
Franchement, ça déchire.
Je le dis clairement.
Pourquoi ?
C'est hyper simple à utiliser et c'est très puissant
parce qu'en fait, tu as tout ce système de réactivité,
tout ça, de state, etc.
C'est vraiment...
Tu fais des components avec ton HTML,
soit avec des attributs, soit avec Alpine,
avec un component Alpine.
C'est tellement léger, tellement facile à utiliser.
Franchement, allez-y quoi.
Testez un petit peu, vous allez voir, c'est excellent.
Nice.
On fera le move.
Allez, on parle un peu de PHP.
PHP qui sort en version 8.3.
Je crois que les mecs de PHP, ils ont écouté Double Slash
parce qu'ils sont passés en mode violet et tout.
Et donc, tu vois, je me dis...
Il n'y a pas de jaune.
Oui, mais c'est vrai.
Oui, version 8.3 PHP qui continue son avancée au niveau du version.
PHP qui est...
Alors je...
Très clairement PHP, c'est hyper mature.
Je suis revenu dernièrement, moi, personnellement,
à refaire un peu plus de PHP.
Je faisais beaucoup de JS depuis quelques années.
Je faisais quasiment plus de PHP.
Je suis revenu sur du PHP dernièrement.
Je fais des projets un peu plus complexes.
Et franchement, PHP, le langage, il a super évolué.
Hyper propre, type-age, etc.
Il y a plein de fonctions, nouvelles fonctions, etc.
En fait, le site a amené mes fonctions fléchées, etc.
Plein de trucs qui sont très proches du JS, en fait,
à se demander même si ça n'a pas été pris.
L'idée a été prise chez JS.
Et donc la version 8.3 a bien sorti.
On était sur le 8.2 il n'y a pas longtemps.
8.3 avec quelques nouveautés.
Il n'y a pas de grosses nouveautés,
mais toujours des améliorations de performance.
Et des petites choses par-ci par-là.
Une des premières fonctionnalités, c'est de JSON validate,
ce qui permet de valider un JSON.
Voilà, est-ce qu'il est valide ou pas.
Est-ce que tu peux le parcer ou pas,
plutôt que d'avoir une erreur en fait de cette nouvelle fonction.
Des ridonny sur les classes anonymes,
ce n'est pas un truc que j'utilise moi personnellement.
Il y a plein de nouveautés.
Donc, PHP n'est pas mort.
J'aime bien aller qu'elle plainte toujours ça.
Mais non, mais enfin, on ne va pas commenter la tweet-osphère
en mode PHP c'est lent, PHP c'est vieux, PHP...
Ah non, c'est pas l'an du tout.
Enfin, il faut arrêter ces guerres à deux balles.
Et surtout, le langage a évolué.
Et tu ne peux pas comparer le PHP version 1, version 3,
avec ce qu'il faut aujourd'hui.
Tu vois, c'est le jour et la nuit.
Donc, c'est même pas comparable.
Donc, il faut arrêter ces guerres à deux balles.
Quand tu vois l'écosystème avec la ralent,
c'est juste fou en fait, ce qu'il y a comme disponible.
Tiens, on regarde sur le override là.
C'est un attribut en fait,
en fait, c'est dans PHP,
tu as des sortes de commentaires comme ça
que tu peux mettre au-dessus des fonctions.
Ce override se permet de dire
quand tu es dans une classe,
tu dis que cette fonction,
cette méthode, c'est un override.
Donc, ça écrase la fonction du parent.
Et en fait, ça sert à quoi ?
Ça sert à si jamais la fonction du parent
que tu écrasais change de nom,
ça va te balancer une erreur pour dire
« Ah, cette fonction n'existe plus dans le parent ».
C'est tout con, mais ça peut évituellement éviter des erreurs.
Après, éviter les erreurs, c'est jamais con.
Enfin, tu vois, plus tu viens diminuer
ta source d'erreur, mieux c'est.
Donc, c'est intéressant.
Non, PHP est très puissant.
Il y a tout le type page, etc.
Non, franchement.
Si vous ne faites pas, faites un petit peu,
c'est toujours intéressant.
Allez, on reste sur l'écosystème PHP
avec Pest PHP.
Alors moi, je ne connais pas du tout.
Qu'est-ce que c'est ?
Pest, en fait, c'est un framework de test
qui n'est pas très vieux et qui est super puissant,
hyper simple à utiliser, très proche de ce qu'on peut trouver dans le JS.
Le plus utilisé, c'est PHP Unit,
depuis le début, qui est un peu lourd, etc.
Pest est sorti il y a quelques temps,
il est hyper simple à utiliser, très rapide, etc.
Et ça vient de la ravelle, évidemment.
Mais c'est utilisable dans tous les...
...systèmes PHP.
Et ils rajoutent des trucs petit à petit comme ça.
Ils ont rajouté une fonction de stress less
qui te permet de tester, en fait,
une page, etc.
Pour voir avec tant d'appel, etc.
Est-ce que ça résiste ?
Ça te donne un tableau avec le temps de réponse, etc.
Est-ce que ça améliore ? Est-ce que ça ralentit si tu as mis la paix ?
Ok, c'est en fait, c'est du stress testing.
Donc, en fait, tu vas simuler une charge
pour voir si ton logiciel se comporte correctement
et s'il est adapté...
Si il n'y a pas de la mémoire qui augmente,
s'il n'y a pas de la livraison qui augmente, tout ça.
Donc, c'est pas mal.
Et c'est inclus dans OPS, toi, là.
Trop bien, trop bien.
Toujours dans l'écosystème PHP,
on ne peut pas nier qu'aujourd'hui,
l'IA est partout, OpenAI est partout aussi,
et donc, il nous faut un petit client PHP
pour aller interfacer directement avec l'API d'OpenAI.
C'est une librairie OpenAI qui a été créée par Nanomaduro.
C'est le même mec qui a fait peste, juste avant.
D'accord.
Qui est très productif.
Tu vois, comme on en a dans l'écosystème JS, chez Nox,
par exemple, ou les mecs, tu te dis, mais ils n'en vont jamais, c'est pas possible.
Comment ils font pour sortir autant de trucs.
Voilà, c'est un peu le même mec, tu vois.
Nanomaduro sort des trucs comme ça tous les jours,
sort des trucs, des librairies hyper bien écrites et tout à l'usine.
Tu dis, mais c'est pas possible, mais les mecs, c'est un robot.
Et donc, il avait sorti cette librairie OpenAI
qui a bien pris, en fait, assez rapidement,
et qui est utilisable pour interfacer avec OpenAI, avec du PHP.
Excellent.
Et on ne peut pas parler de PHP,
si, à un moment donné, on n'a pas prononcé le mot la ravelle,
parce que c'est quand même hallucinant tout l'écosystème
qui ont réussi à développer autour de leur framework.
Et là, aujourd'hui, il y a la ravelle Pulse,
qui nous permet de monitorer la performance des applications.
C'est ça. Ils ont sorti la ravelle Pulse,
qui permet de monitorer une application,
il y a plein de graphes, plein d'infos qui remontent,
les queries pour la database, tout ça.
C'est gratuit, c'est open source, donc normalement,
je ne sais pas comment ça, je n'ai pas creusé encore,
mais je crois que soit ça s'auto-héberge,
je ne sais plus exactement comment ça marche.
Et tu peux éventuellement étendre,
faire des sortes de components qui vont se rajouter dessus,
tout ça, donc c'est étendable, en fait.
Extendable, comme vous pourrez dire.
C'est énorme.
Et la interface est hyper clean.
C'est super clean.
Pour ceux qui sont sur la vidéo,
vous pouvez voir les images, c'est super.
Elle est tot, elle est Q,
tu as tout quoi en fait.
C'est vraiment hyper poussé,
et tu vois toutes les routes qui sont lentes,
c'est hallucinant.
C'est hyper puissant d'origine,
d'office sans rien mettre dessus,
tu as vraiment beaucoup d'infos,
qui permet de monitorer une application PHP sans problème.
Et sans aucun doute,
la communauté va créer plein de choses pour se mettre dessus.
Donc très puissant.
Et open source.
Et gratuit.
Non mais la ramelle, c'est top.
C'est hallucinant en fait l'écosystème,
comme il est très fourni.
Excellent.
Allez, on parle d'un petit librairie.
On sait que les validations de formuleurs,
c'est vite compliqué, c'est vite la merde.
Et donc là, il y a un espèce de framework
qui vient se mettre par-dessus
pour faire de la validation de formuleurs,
et qui est pour le coup
totalement framework agnostique.
Yes.
Fini PHP, on parle de JS un peu.
C'est bon.
On change un petit peu.
C'est un framework qui est assez...
C'est un c'est chelou en fait,
d'écrire en fait, c'est de validation de formuleurs,
comme si on écrivait des tests.
Mais d'un côté, c'est...
En fait, je suis un peu décontentant,
je sais pas trop quoi dire sur ce truc, c'est un peu bizarre en fait.
Mais c'est logique en même temps,
je te dis mais bon.
Après, on sait que sur des formuleurs,
ça peut vite être la merde de...
Ah oui, c'est certain.
De faire toute la validation.
Est-ce qu'on fait de la validation au côté front,
est-ce qu'on fait de la validation au côté bas,
qu'est-ce qu'on fait les deux,
comment on le fait, comment on interagit.
Enfin, voilà, ça peut vite être compliqué.
Je pense qu'il y a quand même une utilité.
Après,
de demain, ça sera intégré
dans les...
les outils qui génèrent les formuleurs.
Mais là, quand on fait tout en natif,
on peut utiliser ça.
Est-ce que ça amène une réelle plus-value
à...
à tester quoi.
En tout cas, il y a les frameworks à inostique,
donc tu peux utiliser dans tous les frameworks.
Ça déjà, ça c'est bien.
Après, ce que j'y vois aussi, c'est que,
quand tu vois la fonction test,
tu as le champ username forcément,
mais derrière, si il y a une erreur,
la phrase en fait,
pourquoi ça peut passer, tu as le message d'erreur,
donc j'imagine qu'il doit être internationalisable.
Donc, non, après, le truc est pas mal.
C'est...
Non, je sais pas.
Je sais pas quoi dire, en fait.
A tester, à tester.
C'est une idée originale.

Allez, on reste sur...
pareil, sur des librairies
qui se mettent à jour où qu'on découvre.
Et là, on trouve,
on a trouvé Fuse.js.
Alors, Fuse.js,
on connaît sans doute
l'utilitaire, on va dire,
la librairie qui nous permet
de faire de la recherche
à l'intérieur, côté client.
Une grosse librairie,
on a un paquet d'objets,
on va faire de la recherche un peu search
ou full text search
à l'intérieur.
Mais là, Fuse.js, c'est autre chose.
Ouais, ouais, Fuse.js,
en fait, ça vient de sortir.
Donc, c'est des mecs qui font
Stalate.
C'est un système de cache
pour GraphQL.
En fait, tu vas brancher,
tu vas mettre Stalate, il s'appelait différemment, il n'y a pas si longtemps,
je ne me rappelle plus comment il s'appelle.
C'était pas GraphCDN avant ?
Ouais, c'était peut-être ça, GraphCDN, un truc comme ça.
C'est un système qui permet
entre ton API et ton front
d'avoir un système de cache,
parce que GraphQL est très compliqué
à mettre en cache pour ceux qui ne savent pas.
Et du coup, Stalate est capable
de mettre en cache de savoir que la donnée
n'a pas changé, etc.
Et eux, ils ont sorti ça, en fait,
qui est un système, alors comment
l'expliquer simplement ? C'est une sorte
de proxy entre ton back
et ton front qui te permet de standardiser
en fait la data que tu vas envoyer au front.
En gros, ils disent
le back, il a
ces data différentes, soit de la base de données,
soit ce que tu veux, n'importe quoi,
qui n'est pas forcément formaté et disponible
tout ça comme tu veux, pour le front.
Donc en fait, en mettant Fugies, tu vas aller chercher
tes data, faire une réponse GraphQL,
et le front pourra taper dans cette réponse GraphQL
qui correspondra à ce qu'ils ont besoin.
En gros, c'est un proxy, on peut dire.
Ouais.
Ah, peut-être une interface, ouais, on peut dire.
Ouais, après, moi, ce que je vois,
c'est surtout
une sorte de fédération et une aggregation
de données, où tu vas
potentiellement avoir plusieurs sources de données,
une base de données, une autre API
reste, un autre service, je sais pas
quoi, et en fait tout va être unifié
et ils vont stocker
un peu toute cette intelligence au sein
de Fuse et
tout est client, donc ça soit mobile, web
ou n'importe quoi,
vont taper directement
Fuse et donc ça serait un mélange
de API Gateway,
de fédération de données,
ouais, une sorte de proxy.
Mais je vois surtout
une aggregation,
c'est-à-dire, il y a vraiment
tout qui va passer par Fuse
et ils vont te donner
une sorte de data
layer, ils appellent ça,
ce qui se tient,
par contre, c'est un GraphQL.
Ouais, ça ne te sort que du GraphQL,
ils sont plutôt GraphQL,
mais c'est vrai, par exemple,
c'est vraiment une sorte d'agrégation,
alors j'imagine qu'on peut le faire comme ça,
chercher différentes data,
ça peut être chez
Stripe ou n'importe quoi, et par exemple
tu as une commande, tu vas chercher
tel commande, le nom, machin, tout ça, tu vas chercher
en même temps les infos chez Stripe et tu
refais ça sur une seule réponse,
je pense qu'il y a moyen de faire des choses comme ça, donc c'est vraiment
pour le coup, ils
comparent vraiment ça
à GraphQL Fédération,
qui est en fait exactement
ce qu'on vient de discuter,
et apparemment, ils
ont quand même plusieurs
différences,
et donc ils amènent
une réelle plus value à passer
par fuse,
et ce qui est aussi cool,
c'est que potentiellement
tu peux binder
en fait ton API
reste, tu la bind pour
faire ton API GraphQL, ce qui fait
qu'on revient sur ce que fait
Asura, qui est en fait
une agrégation, donc
tous tes clients vont taper que du GraphQL,
toutes les
des données vont être standardisées
via le schéma GraphQL,
mais parfois tu vas avoir
une base de données, une API GraphQL,
une API reste, et c'est toute
cette agrégation qui va être
intelligente, et
c'est pas mal, et là
ils viennent rajouter cette idée
de cache
sur du GraphQL,
et sur de la Fédération de données,
à tester.
On voit l'exemple,
il y a le GraphQL qui vient de fuse,
le serveur aussi, en fait c'est un serveur
GraphQL, tout ça,
ça a l'air assez simple à mettre en place,
donc à tester, ça m'intéresse.
Je sais pas si c'est si simple que ça,
pour le coup, moi j'aurais quand même envie
de tester, de
monter un petit serveur GraphQL à la main,
avec un yoga,
pour voir
comment ça se comportent,
et parce que
plus tu viens mettre
d'interface,
plus tu viens mettre de couche,
et plus tu as de la complexité,
tu vois, et
ce que j'ai peur, c'est que
ça soit très très vite
des usines à gaz
à configurer, et d'autant plus
après à débuguer, c'est où est le problème
que tes bases, que tes fuses,
que tes clics, enfin tu vois,
sur le papier, ça a l'air top,
je suis indé, enfin c'est sûr que c'est
très très performant là-dessus,
il n'y a aucun doute.
Par contre, à quel moment
tu as vraiment un intérêt
de faire ça,
tu vois, je pense qu'il faut bien calibrer
ton projet pour le mettre au bon moment,
pour éviter
de
faire une usine à gaz, enfin
en fait j'ai peur du côté usine à gaz,
pour être totalement...
Je comprends, bah ça peut être intéressant
sur un projet
où tu as une API, enfin une API
ou un système qui est un peu ancien
qui est basé sur rest, voilà, tu peux
éventuellement taper dedans et renvoyer
que tes données qui t'intéressent en graphique, ça peut être
une façon simple de moderniser
une vieille API, tu vois.
Ouais, exactement, ou tu as 2, 3
3 sources de données
et pour éviter de te créer
des différents clients
pour taper tes différents baccades
tu viens tout agrégé, ouais
en fait il faut trouver le bon scope
de projet pour tester ça, quoi.
En tout cas, c'est
open source normalement, donc
encore une bonne nouvelle. Trop bien
trop bien.
C'est bien l'open source. C'est clair.
Mais il faut contribuer à l'open source, sinon ça va disparaître
Exactement.
Gum, c'est quoi gum ?
C'est des chewing gums ?
Ouais, c'est des chewing gums.
C'est un système
qui permet de créer des
comment on appelle ça ?
des CLA ?
Des CLA, ouais c'est ça
avec hyper stylé en fait
avec
des réponses que tu peux choisir
etc. Donc
c'est simple à prendre en main.
Là pour le coup, c'est vraiment
du truc de
dev vraiment pure
ou on veut rester dans notre terminal
mais c'est vrai que styliser
en fait une CLA
ça peut vite être compliqué
et là en fait avec
bubble gum ou gum
je sais pas comment on dit en fait
en fait tu vas pouvoir
faire du maquillage
en tout cas styliser
toute ta CLA
par contre est-ce que c'est une sur couche
ou
ou tu dois développer ta CLA
avec ce framework là ?
Non en fait c'est du go apparemment
et tu as pas besoin
tu peux faire ta CLA
c'est ce qu'ils disent au début
sans écrire une ligne de go
donc je sais en fait ça a l'air de
se configurer
je crois que ça se configure en tapant
des lignes de commande en fait
c'est un peu bizarre le truc
ce genre d'outil
c'est intéressant tu vois par exemple
je donne un exemple
mais tu es dans une boîte
ou tu as un starter
pour créer des projets facilement
et tu peux très bien
faire dans ton starter
rajouter cette CLA
qui te permet de démarrer ce starter
avec différents réglages
que tu rentrerais dans cette CLA
et t'installerais le truc tout ça facilement
sans aller voir la doc, le rythmie
donc c'est toujours intéressant ou même pour des projets
mais elle est super stylée
c'est pour ça que avec les couleurs
bien sûr et quand
t'es dans le terminal
et il y a des trucs qui bougent
et surtout
à partir de ces lignes de commande
mais de toute façon de manière générale
on sous-estime la puissance
des commandes
du terminal
parfois on veut faire des trucs méga complexes
alors que en 3 lignes bâches
ou en 3 lignes de terminal
c'est hyper puissant
c'est fait et en fait
on ne maîtrise pas assez
on peut faire beaucoup de choses
donc les fondamentaux comme toujours
les fondamentaux
Petite
petite librairie
d'éléments
de composants taiwin
alors on sait que
ça arrive assez tard mais en fait
les premiers étaient payants
c'était taiwin ui
qui était en fait la librairie payante
officielle des créateurs
de taiwin css
depuis
je ne sais pas combien de projets qui ont vu
qui se sont basé
sur taiwin
ils ont fait plein de composants
et là maintenant
la grosse partie de ces
toutes ces librairies sont totalement gratuits
et open source
et là en fait c'est une librairie
qui revient avec du taiwin css
et de la lpin.js
avec 114
éléments
des templates
des layouts pour justement
créer des sites
des formuleurs
facilement grâce
à taiwin plus css
plus alpin
oui c'est ça
le concept c'est qu'avec
taiwin et plus alpin.js
ça donne
quand tu vas dans un élément
tu vas voir le code
et tu n'as que du html
puisque comme on le sait
taiwin et alpin.js
fonctionnent avec des attributs
sur les éléments html donc du coup
tu copicoles ton html et ça fonctionne direct
donc tu as l'exemple
tu prends ce qui t'intéresse et tu peux appréhé modifier
comme tu veux mais voilà c'est hyper simple
tu as le preview
tu copicoles et ça marche
du moment que tu es taiwin et alpin.js dans ton
application
ça c'est gratos
surtout
oui non mais ce qui est hallucinant
là on voit
des sections
hero qui sont déjà
designés
qui sont prêts à utiliser
clairement c'est
hallucinant sur la qualité
de ce qu'on peut avoir
et en 3 clics
on a fait un copier collé
après tu changes un peu tes images
ou tu changes tes couleurs
peut-être la typo
si tu veux vraiment un style
mais très rapidement
tu peux implémenter ça
avec une rapidité hallucinante
ouais c'est plus rapide que chat gp t
ouais ouais on est d'accord
même avec v0
la création automatique
là déjà
si tu as taiwin
avec tes configs de police
ça va s'adapter direct
en fait à tes police
je sais pas
toi mais moi j'ai un fichier
telle win config
assez fourni et je viens générer
mes couleurs primaires
secondaires accent
ça se met tout à jour automatiquement
et ça marche
et là avec ça
la vitesse
de déploiement peut être
vraiment vraiment augmentée
très très très rapide
impressionnant
winstatic.com
winstatic.com
allez on reste dans l'écosystème
dans l'écosystème JavaScript
mais en version Rust
donc Rust
qui revient
avec plein d'outils
en fait qui vont
remplacer des outils déjà existants
écrits en JavaScript
maintenant ils vont être réécris en Rust
et là en fait
c'est quoi
une collection de tous les outils qui ont été réécris ?
oui
il y a une collection d'outils réécris
plus certains qui sont
comme RS pack qui sont à la externe
mais qui ont inclus dedans
c'est une sorte
d'agrégation de certaines librairies
plus certaines qui sont réécrites
mais tout en Rust, tout très rapide
voilà
c'est Evan Yu qui a tweeté ça
parce qu'il a testé sur
tout le mental tweet juste après
il a testé sur
le V3 codebase
et il a halluciné la vitesse
du truc en 50ms
et 30ms
quand il a relancé le truc
donc même lui il a halluciné
et pour le coup
est-ce que
ça c'est aussi facile à implémenter
toutes ces librairies là
est-ce que la bascule
et une odor pour les devs
c'est quasiment la même chose
c'est la même chose que nos outils
js actuel
les settings sont souvent la même chose
c'est un fichier
comme je disais
c'est souvent regroupé en plus quand l'outil
fait plusieurs choses donc c'est encore plus simple
t'as qu'un seul fichier
c'est beaucoup plus simple
de toute façon les outils en général actuel
ce sont beaucoup simplifiés
ce qu'on avait il y a 5 ans, avec du webpack
tu avais été défi chier dans tous les sens
c'était la javasprit de fatigue
on est passé par là
tout s'est simplifié
tout s'est regroupé
et aujourd'hui c'est beaucoup plus facile
clairement tous les outils sont en train de passer sur Rust
voilà je pense qu'on est
tout est dit
il faut apprenait le Rust
parce qu'à priori il y aura du taf peut-être dedans
après je sais plus
où est-ce que j'avais vu
Microsoft a embauché
je sais pas combien de développeurs Rust
parce que voilà
il faut en parler dessus
et c'est tombé java
fait du Rust
oui
on parlait tout à l'heure
de la difficulté
dans les formuleurs sur la validation
il y a
un framework qui est spécialisé
là dedans qui s'appelle formkit
qui vient sur du vu du react
qui en fait
un framework qui nous permet
de créer des formuleurs avec les validations
avec le timing
qui est assez poussé
il y a une version gratuite
professionnelle
la version pro
la version pro
il y a des éléments en plus comme le switch
par exemple en version frite
tu n'as pas le switch
le toggle
là tu l'as
il faut passer sur la version pro pour avoir le switch
ok
et on a été tous les deux un peu surpris
moi je suis trouvé par terre
oui en fait ils nous ont sorti
un pro en illimité
ils n'offrent tout
à 3000 balles
on a bloqué tous les deux
en mode ok
3000 balles
on trouve ça assez
assez élevé
et en fait
il faut comprendre leur pricing peut-être
ou en fait
ils ont un pricing
soit par mois soit annuel
soit par projet
tu payes un an
enfin tu payes une fois
mais c'est pour un projet
ou tu peux faire
enfin ils ont
plusieurs pricing qui sont assez compliqués
en fait au départ
t'as même des versions
où c'est à la fonctionnalité
et donc
c'est un peu compliqué
tu vois
mais là pour le coup
ils sont un petit pas
emballés sur le tarif
c'est tellement complexe qu'on dirait du Amazon
ils ont embauché un mec d'Amazon
complet
alors le tarif vous allez rien comprendre
c'est comme ça que ça marche
faut que les gens comprennent pas
mais tout le temps t'as-il que 3000 balles
je sais pas s'il y a beaucoup de clients
en fait j'ai un peu d'édoute
ou alors clairement c'est vraiment pour des agences
c'est
il faut en chipper beaucoup
des projets quand même
il faut vraiment que t'en fasses beaucoup
avec beaucoup de formuleurs
moi je pousserai le formulaire à fond
super chaud
après souvent
on ne se rend pas compte
les pricing et les tarifs
aux US
c'est US
c'est américain
je crois que c'est australien mais je suis pas sûr
c'est australien, en fait
nous on est un peu déconnectés en Europe
des tarifs US
enfin j'ai envie de dire les tarifs US
ça n'a complètement rien à voir
parce que nous on pratique en France tout ça en Europe
souvent beaucoup plus élevés les tarifs
et même les salaires
ça n'a rien à voir
donc c'est vrai qu'on a un peu déconnecté
donc peut-être que nous ça nous choque
peut-être que aux US ils disent 3 000 mals
ok, pas de problème
et par contre
la même boîte a fait un petit truc
qui s'appelle auto animate
qui nous permet
de faire de l'animation
avec juste
une directive
je mets
dans mon code
auto animate
use auto animate
terminé
et ça s'anime
et ça fait
un truc super joli, super facilement
et donc
ça
ça vaut le coup de tester
c'est la même boîte
alors peut-être que vu qu'ils gagnent de l'argent avec Formkit
ils peuvent faire auto animate
gratuit peut-être
peut-être qu'ils vont le faire payant aussi bientôt
je fais gaffe
3 000 balles
nouvelle
pareil
sujet qu'on avait déjà abordé
de Tina CMS
qui est en fait
le successeur de forestry
qui n'existe plus aujourd'hui
qui a fermé ses portes
l'équipe avait amigré
vers Tina CMS
qui a un autre concept
et là par contre
maintenant Tina CMS
passe totalement open source
ça veut dire quoi ça ?
écoute je comprends pas trop
parce que la boîte qui est derrière Tina CMS
qui était derrière forestry
à l'époque il y avait Franck qui travaillait
je ne me rappelle plus
du nom de la boîte
et chez forestry
ils avaient
migré chez Tina CMS
parce que forestry au niveau du pricing
tout ça ma chance était compliquée
ils ne vendaient pas assez
ils avaient dit on va passer sur Tina CMS
ça va être un CMS
révolutionnaire
et du coup ça va mieux marcher pour la société
aujourd'hui je vois qu'il est maintenant open source
donc je me pose vraiment la question
sur l'avenir de la société
est-ce qu'ils ont trouvé un autre business model
en tout cas
de le rendre open source comme ça
avec tout le travail qu'ils ont fait derrière
ça leur a pris pas mal de temps
plus qu'une année
même après
des mois et des mois
je ne sais pas trop
je ne sais pas pourquoi cette décision
en tout cas je me pose la question
je m'inquiète un peu pour la société
mais en tout cas Tina CMS
c'est un CMS pour faire rapidement
qui s'installe sur la base
c'était une ex-js mais normalement il fonctionne sur tout maintenant
et ça te rajoute
une sorte d'admin de laieur
sur ton application
donc tu es dans ton application
tu as un système avec des champs et tout ça qui s'ouvre sur le côté
et tu vas éditer
les champs et ça va mettre à jour
automatiquement ton truc
et après ça va sauver sur GitHub
puisque c'est GitHub
comment on dit ça ?
c'est Gitbase
donc ça sauve, ça fait une toute
le request puisque c'est basé sur
du fichier statique
donc comment on peut en trouver sur Next
maintenant je dis que dans l'inhex, c'est pas statique
mais sur Astro
sans faire de teasing je crois qu'on a un épisode
où on va parler de CMS
avec toutes les différences
et tout l'écosystème
on parlera des CMS un petit peu plus
poussé sur un épisode dédié
yes
toujours
on parle de
on revient sur Astro
oui on revient sur Astro
toi tu aimes la DB et moi j'aime Astro
c'est pour ça
et Quick
Quick et Astro
c'est quoi ?
ils se marient ?
non, Astro
ils ont plein d'intégrations
que ça Quick soit réact
vu tout ça donc il y en a plein qui sont bien faits
tu intègres le framework que tu veux facilement
en deux lignes de code
enfin dans la console
en fait c'est un article sur
le gars explique
à quel point l'intégration
d'Astro de Quick est top
en fait il donne un exemple
il est intéressant à lire
je ne sais pas très long en plus
il donne ce menu qui s'ouvre
tu cliques sur le bouton
et donc en fait
il compare
trois méthodes en fait
la première c'est Vani-AJS
si tu descends un petit peu tu verras
il y a une trentaine de lignes de code
c'est simple
c'est du Vani-AJS, il n'y a pas de dépendance
mais par contre à maintenir c'est compliqué
il y a 36 lignes de code
en Vani-AJS
donc voilà ça marche tout ça c'est nickel
mais il y a 36 lignes de code c'est compliqué
faut de maintenir etc etc
ensuite il dit en réact
il donne l'exemple
je fais la même chose avec du réact
et là du coup ça me diminue
c'est quoi ces cinq lignes je crois
si tu descends un petit peu plus
il dit voilà il y a cinq lignes de code
c'est vachement plus simple
et du coup c'est plus simple à maintenir
par contre réact
juste pour ça
et ensuite à la fin il vient
sur quick en disant voilà
avec quick c'est à peu près la même chose que réact
puisque le code de quick est proche
de réact
donc là pareil cinq lignes de code c'est hyper simple
et par contre il dit
au niveau du poids c'est rien à voir avec réact
voilà 2 kilobytes
et donc à la fin il donne le résultat
en fait des trois implémentations de sa navigation
en Vani-AJS c'est 9,7 kilobytes
avec réact c'est 56,8 kilobytes
donc il est quand même assez conséquent
et avec quick c'est 11,2 kilobytes
donc il dit voilà
en fin de fin et dit quick c'est le meilleur des deux mondes
c'est entre le réact et le Vani-AJS
c'est léger et en même temps ça fait le même rôle que réact
c'est simple à maintenir etc
voilà l'article
il vend son truc
il nous explique par A plus B
que c'est bien
la intégration est tellement simple
du coup tu peux faire des choses simples
avec quelques lignes de code
sans que ce soit trop lourd en fait
surtout pour faire l'intérêt
et puis quick c'est pas mal
puis c'est facile à apprendre c'est proche du réact
donc ceux qui font du réact
la migration se fait aisément
ouais
tout là
yes
petite librairie où on va dire service
fourni par l'état
alors tout le monde
ça c'est un tweet que j'ai vu passer d'un certain Alex
ouais exactement
non mais pour le coup
j'ai trouvé ça
j'ai trouvé ça plutôt sympa
on utilise souvent pour le geocodage
on doit utiliser des adresses
et on doit récupérer des coordonnées GPS
ou à l'inverse on a des coordonnées GPS
et on doit récupérer l'adresse
donc souvent on va se tourner vers des gros
gros majeurs
qui ont déjà cette fonctionnalité
je pense à google
par contre le prix de son
cette fonctionnalité c'est pas super donné
ouai
via l'adresse
pointdata.gov.fr
c'est un site totalement étatique
en fait on a une API
qui est libre d'accès
si on vient pas trop taper dessus
comme des bourrins je crois que c'est
limité avec 50 appels par seconde
par IP
qui est quand même très très correct
et on peut
passer outre cette limite
si on envoie
un petit formulaire
et on lui explique pourquoi tout ça
bon qu'importe mais on a un
end point on lui donne l'adresse
et ça nous retourne
un paquet de données qui sont formatées
au format
standard
et donc c'est plutôt intéressant
alors évidemment il n'y a pas toutes les adresses
c'est pas aussi précis
c'est uniquement pour la France
il faut quand même pas l'oublier
alors pour le coup
sur le tweet c'était un peu violent
parfois il y avait des gens qui disaient
ouais mais ça marche pas c'est pas bien
tout après ça a moins le mérite d'exister
et dans
90% des cas
ça marche et ça fait le job
on va dire
bien sûr et donc
on fait une petite implément
voilà on peut récupérer du
geocode
moi personnellement je m'en suis servi pour
récupérer les coordonnées GPS
de magasins
voilà j'ai une liste de magasins
ils ont les adresses
en 10 minutes j'avais récupéré
toutes les coordonnées GPS de tous ces magasins
et je peux les facilement les placer
sur une carte et tout donc c'est
plutôt intéressant et c'est fourni
par data.gov
donc c'est plutôt bien
pour une voilà
il y a un truc
solide quoi donc c'est bien
alors je suis en train de chercher alors ça c'est top
déjà parce que oui effectivement c'est que
France mais en même temps la plupart des projets qu'on
fait c'est souvent en France donc ça peut
largement suffire pour
voilà et moi j'avais un autre truc je suis en train
de le chercher pendant que tu parlais
j'avais trouvé ça ça s'appelle
calendrier.api.gov.fr
jour ferrier jour tirer ferrier
je mettrai le lien de façon
et c'est ce que ça donne
ça donne jour ferrier en fait officiel en France
donc si jamais tu as besoin pour
faire des horaires de magasins
des trucs comme ça tu sais exactement quand c'est fermé
ça c'est pas mal
ça c'est pas mal
par contre
en fait toutes ces fonctionnalités
sont souvent fournies par google
ou par google my business
mais c'est des choses qui sont payantes
et donc si on peut récupérer
les mêmes infos sur des
adresses dites gratuite
ou fourni par l'état
enfin je veux dire la source c'est
l'état donc on ne peut pas
panier le fait alors après ils peuvent se tromper
comme tout le monde mais voilà c'est
quand même une source dite officielle
donc quand même super intéressant
voilà en fait il y a plein de services comme ça
qu'on ne connaît pas qui sont disponibles
d'ata.gov et il faut un peu fouiller
un peu dans les sites
et puis même il y a des accès à
des bases de données assez poussées
pour récupérer de la data
donc hyper
hyper intéressant
je suis complètement
hyper par ce projet
complètement hyper par ce projet
en fait
electricsql.com
c'est
un service
qui va se mettre entre l'adb
et le front et qui va nous permettre
de faire
de la synchronisation
donc du temps réel
mais surtout de la synchronisation
avec du local
c'est à dire je vais avoir une
micro base de données ou des informations
en local parfois je suis
sur le réseau parfois je suis
hors réseau et donc je vais faire
des modifications et au moment où je vais
récupérer ma connexion
ça va synchroniser avec la base donc
s'il y a eu de l'évolution de côté base
ça va récupérer si j'ai fait des évolutions
côté front ça va synchroniser
et
alors je pense que c'est un projet qui est assez
récent mais moi je suis
complètement hyper par ça
je vois
totalement la possibilité
sur
les pwva
ou les choses comme ça tout ce qui est
applicatif qui nécessite
en fait ou parfois potentiellement
il y a des pertes de
réseau et de non synchronisation
de données et en fait
il y a grâce à ce petit service
qui va se mettre au milieu c'est lui
qui va gérer l'intelligence
de la donnée et
aussi bien en écriture qu'en lecture
avec cette règle de justement
local first
je trouve ça super
intéressant évidemment
il gère
le côté instantané
il gère aussi le côté
multi-user qui donc différentes
personnes vont venir modifier
les données et il gère
aussi les conflits lors
de la gestion
offline
clairement
ça a l'air super cool
moi je suis super hyper
hyper par ce truc je pense que c'est
encore très récent ça
nécessite de jouer avec de tester
mais
je vois un super potentiel
ça me plaît je vais suivre le projet
parce que
je vois un usage mais direct
et tout de suite
sur de l'applicatif
et pareil sur du temps réel
ou on est obligé de faire
de mettre en place
des choses assez compliquées
et assez poussées en termes
d'infrastructure et là
potentiellement
on peut faire ça peut-être hyper
plus facilement plus rapidement
donc à tester voir si c'est
viable fiable
mais en tout cas moi je vais garder un oeil
dessus parce que ça me hype
à complet quoi
en plus c'est open source et tout
en plus on peut le self-hoster
tout ça donc
après je serais curieux de voir
la ressource
en fait est-ce que ça prend beaucoup
de ressources est-ce que ça croque
beaucoup d'énergie ou pas
ouais c'est
mais super intéressant
vraiment
ça a l'air intéressant
c'est hallucinant
en ce moment en termes de débaie
tout ça ce qui sort en fait
ça n'arrête pas
ça pote dans tous les sens
exactement
et ce qui est super
intéressant c'est qu'on voit aussi
qu'il y a
vraiment
en fait les débaies classiques
elles ne vont pas bouger
ma SQL
Postgre, Mongo
même s'il y a un gros retour
de SQLite
je trouve la tout dans
on revient sur des choses
et mec
t'as pas besoin d'avoir des vinaigases
ton SQLite ça suffit largement
par contre il y a tout un écosystème
qui se met tout autour de CDB
justement pour
gérer la réactivité
faire du websocket
faire de l'agrégation
de transformer tes données
en colonne
pour la gérer
pour faire des queries
parallélisées
ce qui fait que ton data set
de giga je vais le requetter
en millisecondes
parce que j'ai un service au dessus
qui va permettre de faire l'agrégation
il y a tout un écosystème qui vient se mettre
qui viennent
survitaminer la DB
qu'on connait déjà
et ça c'est plutôt bien parce qu'on n'a pas
à réapprendre le langage de DB
on utilise le SQL
c'est la base
enfin je considère
et en fait
on a tout cet écosystème
de petits services qui viennent se mettre
tout autour et c'est super intéressant
quoi
carrément
je suis complètement à l'aise
j'ai vu ça je vois ça
trop mieux
petit outil et
dernier outil
on avait parlé la dernière fois
d'un moyen
de partager du code
avec des
vidéos, des images
là on revient avec un outil qui s'appelle
showcode.app
qui nous permet de faire des screenshots
de code
assez facilement
et qu'on peut totalement designer dans tous les sens
et
ça c'est plutôt sympa
et c'est gratuit
et c'est gratuit
et c'est super stylisé
c'est facile à utiliser
on peut installer
l'application
desktop mais surtout on peut
passer par une API
ça c'est pas mal en fait parce que
on pourrait utiliser l'API pour générer
ces images là à la volée
ou peut-être pas à la volée
mais au moins au moment du build
c'est à dire
on pourrait automatiser beaucoup de processus
avec l'API
ça c'est plutôt sympa
et en plus c'est super bien fait
c'est joli
ouais c'est super classe en fait
moi j'aime bien
en plus il est sympa
en plus il est fri et tout
il est top
pour les présentations qu'on a à faire
tout ça c'est top
oui il est validé
oui
je crois qu'on a fait le tour
pour cette session
du mois de décembre est-ce que tu voudrais
rajouter autre chose ?
écoute non on est pas mal
on fait pas mal de news encore
non j'ai envie de dire
passer de bonne fête de fin d'année
si vous avez du temps
apprenez rust
voilà
par contre je ferai peut-être pas mal de temps pour apprendre rust
non ?
au moins les bases
je suis pas sûr que ça soit très long à apprendre
mais je pense que c'est bon
je sais pas
surtout j'ai envie de dire
si vous êtes à vacances et essayez de décrocher
un petit peu de l'ordi
reposez-vous et décrochez de temps en temps
de faire autre chose, profitez de la famille
et à réécouter les épisodes de double slag
quel est le meilleur moment
détendu
il y a plein d'épisodes super intéressants
donc écoutez les épisodes
on a reçu plein de personnes hyper importantes
hyper intéressantes
plein de choses à écouter
un grand merci à tout le monde d'être resté
jusqu'au bout de l'épisode
partagez l'épisode, discutez
de double slag à vos collègues
ça fait toujours plaisir, mettez-nous des commentaires
des pouces et un grand merci
à tout le monde et on se retrouve
à la prochaine
ciao
ciao à plus

Les infos glanées

Je suis une fonctionnalité encore en dévelopement

Signaler une erreur

DoubleSlashPodcast

Double Slash, un podcast sur le développement web. Retrouvez-nous régulièrement pour parler de sujets variés tels que la JAMStack, l’accessibilité, l’écoconception, React.js, Vue.js, Next.js, Nuxt.js, le CSS et des retours d’expériences sur des implémentations.
Tags
Card title

Lien du podcast

[{'term': 'Technology', 'label': None, 'scheme': None}, {'term': 'Technology', 'label': None, 'scheme': 'http://www.itunes.com/'}]

Go somewhere