
🔥 News Novembre 2025 : 1an de MCP, Vercel Workflow, AI SDK et Mastra V1
Durée: 78m6s
Date de sortie: 14/11/2025
Dans cet épisode, nous évoquons la React Foundation, PHP 8.5, le document ViteJS, la gestion des workflows avec Vercel, Mastra et AI SDK, Composer PHP et le nouveau modèle de Cursor. Le premier anniversaire du MCP, Cloudflare qui fait la guerre aux bots et quelques outils et articles. Retrouvez toutes les notes et les liens de l'épisode sur cette page : https://double-slash.dev/podcasts/news-nov25/
Bonjour les devs, bienvenue sur Double Slash, le podcast indépendant qui parle de développement
web et d'IA, le podcast indépendant qui n'a pas de sponsor, tout ça.
A part les personnes.
A part nos sponsors sur GitHub et c'est super cool de, à vous de nous sponsoriser, merci
encore.
Et évidemment, comme d'habitude, nous sommes avec Alex, salut Alex.
Salut Patrick.
Oui, un grand merci à tous les sponsors qui le font via GitHub sponsor ou en tout
cas en partageant le podcast.
On revient aujourd'hui avec un épisode de news, l'actualité comme toujours, ça bouge
du type script, du PHP, des BUN, des MCP.
On va aborder tout ça dans cet épisode, et qui risque peut-être d'être un peu long,
mais c'est pas grave, on va essayer d'être le plus exhaustif possible pour brosser un
petit peu l'actualité du web.
On attaque tout de suite Patrick.
Allez, c'est parti.
Premier sujet, je sais que toi et moi, on est plutôt fan de Perplexity qui est un peu
la fusion entre Google et chat gpt, si on devait faire un peu court.
Néanmoins, tout est privé.
Là, il y a une solution open source qu'on vient héberger nous-mêmes dans notre propre
infrastructure et sur lequel on met nos propres clés.
Et ça s'appelle skira.
Apparemment, avant, ça s'appelait mini perplexity, que l'on peut auto héberger, mettre ses
clés de modèle OpenAI ou d'autres et l'utiliser comme on veut.
Comme ça, tu restes chez soi, on utilise un serveur et on le met dessus.
Donc, plutôt pratique.
On peut même, là, y a une version en ligne qui est testable.
On l'a testé juste avant l'épisode et c'est plutôt efficace en fait.
Il fait une agrégation de plein de sources et ensuite derrière, il te sort un tout un
résumé.
Donc, il est assez efficace.
Pertinent, parce qu'on lui a dit, OK, quelle est la pertinence du podcast Double Slash.
Il nous a sorti un tout un panflé.
Et moi, ce que je vais retenir surtout, c'est qu'en 2025, il reste une référence pour
la news et les débattés qu'en France avec plus de 100 épisodes.
Donc, si vous êtes développeur, un excellent ressource pour rester à jour.
On ne peut qu'y approuver ce modèle qui est, ma foi, très pertinent.
Non, très de plaisanterie, mais c'est plutôt sympa et donc à tester.
En tout cas, si on veut faire une sorte de croisement, de fusion entre de la recherche
et de la génération, plutôt pas mal.
C'est pas mal pour installer ça dans une petite boîte ou des trucs comme ça, pour
l'utiliser en interne.
Et puis, c'est assez hallucinant.
Enfin, je reviens sur le test qu'on a fait tout à l'heure, mais on se dit au début,
on s'est dit, il est lent ce truc et tout.
Et en fait, finalement, il était en train d'agréger les sources en fait.
Envoyer les sources augmenter 30, 40 et après, nous a tout ressorti.
Donc, non, non, il est vrai.
Et ce qui est hallucinant, c'est qu'il vient de manière totalement auto, on va dire,
de sa propre initiative.
En fait, il en a conclu qu'on faisait un épisode tous les 15 jours, à peu près de
45 minutes, une heure, à la fois de l'audio, mais aussi de YouTube, petite présentation
sur de chaque personne, tout.
Non, franchement, c'est plutôt vraiment propre, hyper intéressant.
A tester quoi ? A tester si vous ne voulez pas utiliser Perplexity ou si le ticket
est d'entrer par user chez Perplexity et trop élevé.
On peut une belle alternative open source.
Allez, on passe culte dans l'univers React avec la React Foundation.
C'est quoi le concept de React Foundation ?
Bah le concept, c'est de, en fait, historiquement, le projet React était
interne à Meta, Facebook Meta, puisque c'est eux qui l'ont créé,
qui l'ont rendu open source à la base.
Et petit à petit, au fil des années, le projet devient de plus en plus communautaire.
En fait, au fur et à mesure des années, il n'y a plus, comment dire,
il n'y a pas que React, que Facebook qui code dessus, en fait.
Il y a toute la communauté.
Donc ils ont souhaité le sortir de Meta et donc ils ont créé la React Foundation,
qui va héberger ces sous-linux foundations, je crois,
et donc qui va héberger, qui sera responsable de React, du projet React.
Et voilà comme ça, c'est sorti de Meta.
C'est un peu moins lié à ça.
Et il y a une gouvernance qui permet de décider un petit peu.
Donc la gouvernance, pour l'instant, c'est cette Webster, qui était déjà
un des développeurs à la tête de React chez Meta et qui, maintenant,
est à la tête de la foundation.
Mais il reste quand même payé par Meta ?
Ah, ça, je ne sais pas encore.
Je suis taquin.
Il y a des sous-sorts, tout ça.
Bien sûr, je suis un peu provocateur.
Mais ce qui est sûr, c'est que si Meta finance encore
un haut pourcentage, il aura encore son mot à dire,
et ce qui est normal.
Mais au moins, on ne peut pas annier le fait qu'il y ait un effort de fait
sur cette volonté de sortir un petit peu cette gouvernance
et pour pas qu'elle soit trustée par des acteurs privés, même si quand même...
Ça reste le cas si tu regardes la gouvernance en bas.
J'ai peur quand même qu'il y ait quand même des...
Et quand même, Trostov, Versel, Amazon, bon.
Pour l'instant, ça reste quand même dans l'univers...
On va saluer quand même l'initiative.
On va saluer l'initiative, c'est quand même pas mal.
Oui, c'est bien.
En tout cas, ça donne une vision sur la pérennité du projet.
On sait que maintenant, c'est plus chez Meta.
Si Meta, parce que si tu veux, il y avait toujours le risque un jour
de dire que Meta décide de plus en occuper, de mettre de côté.
Et là, au moins, il est sorti de Meta et voilà.
On est tranquille.
Même si on est quand même confiant sur la pérennité de réacte.
On est d'accord.
Oui, vu l'utilisation, c'est sûr.
Allez, on passe-cul chez GitHub, qui fait en fait
un petit Octoverse.
C'est quoi le Octoverse ?
C'est des stats sur tout ce qui se passe au niveau de GitHub.
Il sort ça tous les ans, je crois.
L'Octoverse, à la même date, je crois que c'est en octobre.
Il le sort en novembre.
Oui, en novembre, mais ça reste l'année.
À chaque fois, il donne plein de chiffres.
Et moi, notamment, ce que j'ai noté, c'est qu'en août 2025,
TypeScript est passé devant Python,
dans le langage le plus utilisé.
Tu switches le shift fait.
Oui, c'est bon.
En longtemps, Python était vraiment loin devant.
Et c'est normal.
Mais l'augmentation des projets sur TypeScript est notamment même
au niveau des projets IA,
puisque Python domine sur tout ce qui est projet IA.
Historiquement, c'est quand même lié à un historique de data.
En fait, tous les datas à entities,
ou toute la gestion de grosses données,
il y avait une grosse librairie.
Tout l'écosystème était très développé sur Python.
Donc naturellement, quand on parlait après de machine learning
et toutes les évolutions IA,
il y avait un historique de Python qui était en place.
Mais aujourd'hui, tu dis que c'est en train de se combler
et que t'as bien rattrapé le retard.
Enfin, si il y avait, si le retard, il y avait,
si on pouvait parler de retard d'ailleurs.
Python, c'est parce qu'il est très bon pour tout ce qui est
calcul, mathématique, tout ça.
C'est pour ça qu'il est très utilisé en machine learning.
Mais oui, petit à petit, tous les projets IA qui naissent,
il y a beaucoup de développeurs qui sont plus à l'aise
sur TypeScript ou JavaScript.
On en parlera après, mais il y en a de plus en plus.
Le shift est fait.
Allez, on reste dans l'univers GitHub.
Et avec un petit plugin ou je ne sais pas,
est-ce que c'est affilié objectivement à GitHub ?
Je ne sais pas.
Par contre, on va apporter des utilitaires fonctionnels
pour nos RIPOs GitHub.
C'est ça ?
Oui, tu rajoutes, tu vas sur ton RIPO,
github.com, moi j'ai pris celui du podcast.
Et tu rajoutes juste fort devant GitHub,
100 points, juste fort github.com.
Et ça te donne un panneau comme ça,
où il y a plein d'outils disponibles pour jouer
avec ton RIPO, donc une idée en ligne, tout ça.
Et moi ce qui m'avait fait marrer,
en fait, j'ai fait le codebase to podcast.
C'est celui qui est en haut à droite.
Et quand tu vas dessus, il te génère un podcast
qui est basé sur le code de ton RIPO.
Et après, j'ai écouté, vite fait,
mais après il te parle de quoi est fait le code,
donc il parlait de Pigna, du Stork,
qui géré avec Pigna, etc.
Donc t'as une personne qui parle,
c'est un podcast direct, c'est marrant.
Excellent, auto-génération de code de contenu.
Et limite, qu'est-ce qu'on se fait chier Patrick ?
Pourquoi ?
Tu vois, on va faire ça,
on vient cloner nos voix,
et puis on balance là-dessus,
et puis terminé, c'est fait quoi.
Je suis pas fan.
Je t'avoue que je sais plus,
c'est Jérôme Colombin qui fait les podcasts,
je sais plus le nom de ton podcast.
Tant en tant, il en sort, généré avec des voix, tout ça.
Franchement, je suis pas fan,
mais je n'aime pas trop à écouter.
Ce n'est pas très agréable en fait.
Après, ça va s'améliorer certainement,
mais pour l'instant, ce n'est pas génial.
Je pense que ça va vraiment s'améliorer dans le temps.
Ok, donc tout ça,
il y a plein de petites utilitaires,
qui est quand même sympa,
où on va pouvoir automatiser des tâches
à partir de notre repo Github.
Sympa ?
FordGithub.com
Excellent, à tester.
Allez, on bascule dans l'univers PHP
avec la sortie de 8.5,
alors 8.5, c'est une sorte,
c'est une mineure si je ne me trompe pas.
Donc, on n'est pas sur une solution majeure.
Clairement, c'est quoi la 8.5 ?
Ça apporte des...
Des nouveaux trucs, notamment le pipe opérator,
comme tu peux voir là sous tes yeux.
Donc, c'est une nouvelle façon de gérer.
Je crois que ça remplace un switch,
il me semble, je ne sais plus.
C'est une nouvelle syntaxe qui est assez bizarre en fait.
Mais ça existe dans d'autres langages a priori.
Mais si tu descends, tu as un exemple, normalement.
Voilà, un peu plus bas.
Voilà, celui-là, tu vois.
Et en fait, ça va te chaîner des fonctions
en fait sur la string HeliWords.
Et du coup, ça va te chaîner des fonctions
pour avoir un résultat final.
C'est assez bizarre, je trouve l'écriture,
mais pourquoi pas ?
C'est...
Ouais, OK.
Parce qu'en javascript, tu peux le faire chaîner des trucs,
mais pas forcément PHP.
Parce que PHP, tu n'as pas le point,
fonction, parenthèses, etc.
Alors moi, qui ne suis pas du tout familiarisé
avec l'univers PHP, en fait,
je ne comprenais pas le nouveau truc,
mais en fait, historiquement,
ce n'était pas possible en PHP.
Et ce pipe opérator nous permet de faire
la même chose qu'on pouvait faire en JS.
OK, excellent.
Et après, ça reste une...
Ouais, ouais, ouais, il y avait plein de trucs.
Ouais, ouais, ça reste une...
ArrayLast.
ArrayLast, c'est pas mal.
Ouais, mais tu vois, tu te dis,
mais c'est dingue, en fait,
c'est toujours pas...
Bon, voilà, il combles des manques, en fait.
Alors, il y avait toujours des façons de faire,
comme en JS, d'ailleurs,
il y avait toujours des façons de faire différemment,
mais quand c'est natif, c'est quand même plus sympa.
Bien sûr, ce qui est fait en cette évite
d'entretenir toute ta panoplie,
peut-être ta bibliothèque de fonctions utilitaires
qui payaient à ça.
Bon, là, tu le fais en natif, c'est encore mieux.
Excellent.
Donc, deux articles, voilà, deux articles,
tiel.com qui ont sorti un,
et après, il y a la Ravel France qui a sorti aussi
avec la Ravel Jutsu.
Je sais pas si on l'appelle encore comme ça, tu sais,
tu sais, qu'on a fait une...
Je sais pas du tout.
Une, deux, deux.
Une, deux, deux, deux.
Ouais, ouais, anciennement la Ravel Jutsu.
Je pense qu'il s'appelle plus comme ça, maintenant.
Ou peut-être.
Après, c'est un pseudonyme, donc ça peut changer.
C'est pas gênant.
Allez, on rebascule dans l'univers du JavaScript
avec Bun, qui devient en fait compatible
nativement chez Vercel.
Et donc, même si on pouvait déjà l'utiliser
depuis un certain temps,
il me semble que c'était sous beta
ou sur Red Flag, pas Red Flag,
mais sur Flag Feature,
on devait activer quelque chose.
Là, c'est désormais complètement officiel
et ça passe directement.
C'est ça ?
Disons qu'on regarde là-dessus.
Remonte légèrement, s'il te plaît.
Non, un petit peu plus bas.
Il y avait marqué, en fait,
que le Bun install était déjà dispo depuis 2023.
C'est ce que je vois juste avant.
Mais c'était pas...
Non, en fait, c'était pas...
Là, à runtime, il n'était pas dispo.
Tu avais le install qui était dispo,
mais pas la runtime, a priori.
Enfin, après, tu avais peut-être testé en beta,
dernièrement, mais...
Ouais, moi, j'ai tout tourné.
Et ce que je vois aussi,
c'est que maintenant, en fait,
on a un accès à tout l'écosystème Bun
et ça, c'est plutôt intéressant.
Parce que, nativement,
Bun a intégré plein de SQL, S3,
des bras, des cryptos,
des choses comme ça pour hacher les passwords.
Et c'était pas toujours pris en compte.
Et là, je vois que tout est pris en compte nativement.
Donc, c'est plutôt top.
C'est bien.
Ça met une compatibilité totale
sur Versel, au moins.
Après, je ne sais pas si t'as des projets
qui tournent en production
avec Versel ou pas.
Moi.
Non, je n'ai plus rien chez Versel.
C'est plutôt sympa
et ça mène une pérennité.
On redit encore ce qu'on avait dit
il y a très longtemps,
mais cette guéguerre,
un peu des runtime.js
nous fait gagner nous,
en tant que développeur.
Et c'est les hébergeurs
qui se mettent la guerre
pour ça.
Et au final, c'est quand même nous
qui sommes les grands gagnants
dans l'histoire, clairement.
Je reviens, mais je fais sur Versel.
On fera peut-être un autre épisode là-dessus.
On en parlera peut-être un jour.
Mais personnellement,
de plus en plus, plus le temps passe,
et plus je me retire des services américains.
Je privilégie l'Europe,
voir la France, voir la Suisse.
C'est un choix personnel.
Oui, c'est un choix personnel.
Mais c'est intéressant.
On pourrait faire une émission de débat là-dessus
en mode souveraineté numérique,
Versel.
Super intéressant.
Carrément, je suis méga chaud.
Oui, il pose beaucoup de docteurs en Europe,
qui sont aussi bons,
voire des fois meilleures.
Et on a tendance à utiliser par facilité
les services américains.
Mais il faut chercher un petit peu.
Il y a pas mal de choix.
Je sais que tu es aussi protombeille.
Oui, clairement.
À suivre, on va en reparer.
Patrick, dites-le nous dans les commentaires
si vous êtes sensible à ce type de sujet-là.
Parce que ça prend de plus en plus,
un peu partout.
On déroule.
Petit documentaire,
si on veut rester dans l'univers
un peu du divertissement,
mais rester dans l'univers du monde.
Petit documentaire sur VIT.
Oui, c'est ça.
Comme on a eu les documentaires
sur REAC, sur VU, etc.,
ils en ont fait avec
Evany Wu, évidemment.
C'est lui le créateur.
Ça parle de VIT,
la génèse, pourquoi il l'a créée,
comment il l'a créée.
Excellent.
C'est toujours
des documentaires
qui sont assez faciles
à voir, léger,
et qui
restent dans l'univers de Boulot.
Il faut encore aimer
et s'intéresser un peu au sujet
pour pouvoir regarder ce type de documentaire.
C'est toujours sympa, je trouve.
On voit tout ça en génèse.
J'en gêne, par contre.
Avant, c'était Onipote.
Oui, c'était un peu un peu un peu un peu un peu un peu.
Maintenant, ils sont changés, c'est culte,
tripeau,
ils ont rebrandé le truc.
Mais le concept reste le même.
C'est pareil, c'est clair.
Yes.
Allez,
dans un dernier épisode,
on avait,
en tout cas, dans un dernier épisode, on avait parlé
de Better Haute.
On avait parlé de Better Haute,
donc la solution
pour gérer
ces
identifications
de propres
l'hébergé nous-mêmes,
en tout cas de la self-hosté,
de gérer nous-mêmes
l'authentification en côté JS,
avec le côté modulaire.
Si vous n'avez pas écouté l'épisode,
je vous invite, en tout cas, à écouter.
Et là, il y a une version canary
qui sort.
Et qu'est-ce qu'elle amène cette version canary ?
Les versions canaries, c'est des versions qui sont un petit peu en avance.
Et donc la future version,
ce serait quoi ?
Je t'avoue que je n'ai pas tout regardé,
mais ce que j'avais noté surtout,
c'était qu'on pouvait
se passer de database
avec cette future version,
quand tu te connectes
avec des providers,
et du coup, tu n'as plus besoin de database, donc tu peux
te passer.
C'est en state list connect.
Alors après, c'est vraiment des cas particuliers,
j'imagine, mais
de pas avoir besoin de database tout ça,
et juste de se connecter via GitHub
ou des trucs comme ça, mais voilà.
Ce sera faisable dans les prochaines versions.
Après, c'est aussi super facile,
parce que better hot,
c'est facile à installer. Et si en plus,
on n'a pas besoin de gérer
une base de données,
donc toutes les migrations,
toutes les sessions, tout ça,
si on n'utilise que des social providers,
objectivement,
là, l'expérience d'authentification
est encore beaucoup plus simple à mettre en place,
encore plus rapide,
encore plus facile, et donc
c'est super intéressant,
super intéressant.
Ça peut pallier
à plein de solutions.
C'est cool.
Le projet évolue,
je vois beaucoup de personnes
enthousiastes sur le projet,
ça fait plaisir.
J'en suis.
C'est gros projet,
beau projet.
Allez, on bascule.
Alors, ça ne va pas te faire plaisir,
parce que c'est porté par Versal,
mais on est quand même obligé.
On est quand même obligé
d'en parler
d'une nouvelle librairie
qui sortit, qui s'appelle Workflow.
Et
grâce à
un petit mot-clé qu'on va utiliser,
qui s'appelle Use Workflow,
on va pouvoir en fait châner
plein d'actions.
On va pouvoir répéter
des...
On va pouvoir gérer le retry
s'il y a eu un échec
dans une des fonctions.
Et en fait, c'est
une sorte de processus.
Et ça va...
On va enchaîner l'exécution
de différentes étapes dans un processus.
Et si ce processus
ne va pas au goût, on va être
notifié, on va pouvoir rejouer
les étapes qui ont échoué, tout ça.
Et ça, en fait, avant
à mettre en place, c'était un peu compliqué.
Ça nécessitait vraiment de déployer
une architecture un petit peu plus complexe.
Et là, en fait, grâce à cette librairie
qui vient, en fait, donner
un niveau d'abstraction
plus, plus, plus, plus, bah tout va être
fait, on va dire, un peu sous le capot.
Et on n'a pas à mettre en place
nous-mêmes toute cette logique
là. Et
moi, là, dans ma tête, ça fait
juste...
C'est juste ouf.
Je l'ai pas encore implémenté
parce que je n'ai pas eu le temps.
Mais c'est clairement
quelque chose que je vais implémenter parce que
c'est juste hyper
hyper intéressant.
Ouais, c'est... Alors,
je t'avoue que je n'ai pas non plus creusé
beaucoup sur le truc, mais j'ai vu
qu'ils annoncent des workflows.
Ça permet vraiment de faire
des pipelines et des workflows.
Et apparemment,
il peut s'arrêter, par exemple.
Alors, ils disent que si t'as le serveur qui
crache, ça peut être repris
un mois après ou plusieurs semaines après
ou même en droit, etc.
Ça, c'est un peu étonnant.
Et bah, en fait, ça ne l'est pas.
En fait,
parce que moi, j'ai dit, ok, c'est
trop bien leur truc, mais
comment ils font ?
Là, l'exemple est vraiment
exactement.
Là, l'exemple est très, très parlant.
C'est ok, j'ai un
workflow quand la personne
en fait s'inscrit
sur mon service, un truc
classique. Bah, je vais
créer l'utilisateur.
Après, en fait, je vais
générer un mail et je vais lui
envoyer et je vais, par exemple,
l'ajouter à ma newsletter ou les choses
comme ça. Donc, je vais avoir différentes actions.
Et en fait,
si ça crache au milieu,
il va reprendre là où il est.
Et là, je me dis, ok, mais normalement,
en fait,
si on veut mettre ça en place, il faut
mettre un système de pipeline
avec des queues.
En fait, et chaque action
est une queue à part entière.
Et donc, je peux refaire
mon retry, ainsi de suite.
Parce que, le truc
classique. Et en fait,
ce système de workflow,
c'est la fusion
entre une base de données
et un clé
valeur
de queue. En fait, ou à chaque
étape, en fait, il va enregistrer
dans une base en disant, ok,
telle action,
telle execution,
en fait, la
dernière étape, c'était celle-ci, elle est
valide. Et donc, c'est pour ça que, si
ça crache, ça va pouvoir reprendre
exactement là où ça la
laissait. Parce que, ça
vient en fait, faire une abstraction
de... En fait,
comme si t'avais un espèce de redis
et une DB, qui enregistrait tout.
Et en plus,
ils viennent mettre de la télémétrie là-dessus.
Donc, tu peux savoir combien de temps ça a mis.
Et, l'avantage
aussi, c'est qu'ils annoncent
en fait, des pouvoirs, de mettre des pauses.
Donc, c'est-à-dire que, par exemple,
ton auto-réponder,
tu peux déjà, en fait, le
câbler directement
dans ton workflow
de sign-up. C'est-à-dire, à jour
1, tu lui envoies un mail,
à jour 4, tu lui envoies un mail, et
bah là, en fait, tu vas mettre un slip,
donc ta fonction
va s'arrêter pendant X temps
et
elle va reprendre au moment opportun.
Tu vois le truc ?
Ouais, ouais, je vois le truc, totalement.
Mais, comme tu dis,
normalement, c'est
des trucs que tu fais avec des queues, en fait.
Parce que c'est vrai que,
par exemple,
pour le coup, sur l'exemple,
où tu vas à quelqu'un qui s'inscrit,
normalement, c'est une mauvaise pratique
de mettre
l'envoi du mail tout ça, dans
un instant-ané, en fait. Tu vas juste envoyer
l'email via un event, dans une queue, et il va l'envoyer plus tard,
dès qu'il y a des disques.
Du coup, voilà, normalement, tu fais comme ça,
quoi. Là, ça te permet
de faire plus simplement, c'est clair.
Ouais, mais en fait, comment tu fais
pour chêner ? Parce que,
tu vois, par exemple,
si
ton processus, en fait,
est dégagé et
complètement hors contexte,
c'est-à-dire, ok, je vais envoyer un newsletter,
mais je vais lui envoyer
l'email de bienvenue.
Mais, s'il n'y a pas de corrélation,
en fait, tu mets ça
dans une queue, oui.
Sauf que, si tu crées ton user,
mais
tu...
La création
de ton user a été un échec.
En fait, tu ne vas pas l'ajouter
en disant, bienvenue.
Il faut que tu attendes la validation que,
oui, il a bien été créé,
et après,
tu envoies un email de bienvenue,
et après, tu l'ajoutes
à la newsletter,
sous couvert, qu'il a dit, oui,
à la newsletter. Mais en fait,
il y a cette notion de
chénage.
C'est là où tu dis, ok, on met
une queue d'accord. Sauf que,
si tu viens chéné plusieurs actions,
tu vas avoir plusieurs queues,
et là, tout de suite, ça devient
beaucoup, beaucoup,
beaucoup plus complexe.
Et grâce à ce système-là,
moi, quand j'ai fait ça, je fais, non, mais là, c'est ouf.
Comment ils font, quoi ? Comment ils font ?
Et j'ai creusé, en fait,
c'est une librairie
qui s'appelle Word.
Alors, c'est un peu bizarre,
tu dis, ok, c'est quoi, ce truc de Word ?
Et en fait,
c'est
vraiment tout va en database,
quoi. Tout va en database,
et ils enregistrent toutes les actions,
et c'est pour ça qu'ils peuvent, en fait,
rejouer
ou exécuter le temps
là, en voie,
dans l'exemple visuel.
Exactement. Là, tu attends
cinq jours,
et tu exécutes la suite.
Ça, c'est juste
extraordinaire.
Ça, c'est juste trop, trop fort.
Parce que tu n'as pas
tout été géré dans le code.
Oui, tu gères dans une seule fonction.
Oui, tu gères dans le code, et tu n'as pas
à mettre en place des pipes
en termes d'architecture. Là,
il y a une extraction de l'architecture
et de la complexité,
mais qui est juste hallucinante.
Mais du coup, attend,
c'est ça, parce que
c'est uniquement sur
Versel
disponible, ou tu peux l'utiliser
sur un node.
Exactement. On y arrive.
J'ai vu qu'il y avait beaucoup de trucs
et des dispos, notamment NUX, NITRO, tout ça.
Et puis c'est normal, puisqu'il est parti de Versel.
Exactement.
Donc ça, c'est plutôt bien.
Par contre, sur le déploiement,
c'est Versel Ready
tout de suite,
mais Versel Ready tout de suite.
Par contre, ils disent
qu'ils sont en train de travailler
sur les local worlds.
Donc en fait,
dans l'environnement local, pardon.
Ça, c'est bon.
Tu peux l'exécuter
sur ta machine, parce que
ça va marcher, tu vas exécuter
sur ta machine. Par contre, si tu veux
déployer
dans ton propre world,
comme ils disent,
là, c'est encore un peu
en expérimental.
Ouais, voilà.
C'est le problème habituel avec Versel,
qu'on a déjà sur Next.js
ou évidemment, ça marche super bien
sur Versel, mais dès que tu veux le cell-foster,
c'est plus compliqué, la gestion du cash, etc.
Après,
pour le coup...
En même temps, c'est la piscine, si c'est un peu comme les banques,
c'est empêcher de partir,
donc du coup, ils te proposent des fonctionnalités
qui ont que tu vas utiliser chez eux,
du coup, tu vas rester chez eux.
Mais tu ne peux pas
non plus
dire qu'ils ne font rien, parce que
là, on est dans un déploiement.
Ok, tu es sur ta machine,
si tu veux tester ça,
tu vas installer ce type
de workflow, de work data.
Tu es sur Versel, c'est Out of the Box,
donc ça, c'est plutôt cool. Par contre,
tu es dans un univers
post-gresse, donc par exemple,
sur ta machine, tu vas installer
ça, tu vas configurer
ton
la DB que tu as provisionnée
pour ce workflow-là,
et tu vas mettre toutes les identifications.
En fait, il t'explique que tout marche,
après, je n'avoue ne pas avoir testé,
donc ça, je ne sais pas
encore comment,
si c'est facile à mettre en place,
mais en tout cas,
ils ouvrent la porte à...
Bon, a priori, ça marche
avec post-gresse, ça marchera
avec des fichiers aussi.
Bon, ok.
Si ça marche à l'extérieur, ça va.
On ne peut pas...
En fait, c'est basé sur une librairie
qui s'appelle PG-BOSS,
qui a pour
vos vocations de faire
les Q, en fait, mais
côté DB.
Et donc, ils
utilisent aussi les
évents de la base de données.
Donc...
En fait, j'ai pas envie...
En background, c'est exactement
ce qu'on disait, les évents, les Q, tout ça,
sauf que ça se fait tout seul, tu n'as pas le géré.
Exactement, et c'est là
toute la puissance. Et donc,
si c'est
juste une histoire de config, ok,
peut-être que ça sera plus compliqué,
j'en conviens, mais
il semblerait que ça soit possible
de déberger
nous-mêmes ces workflows-là.
Et là, en fait, on aurait le meilleur
des mondes, donc peut-être qu'on va se prendre
la tête à héberger ce world,
mais derrière, en fait, tout
va être centralisé dans une seule
welcome-function
avec l'exécution
de tout le process. Et ça, en fait,
c'est vachement plus simple, parce que
ça devient nous faire une abstraction
de toutes ces Qs qui s'imbriquent
les unes dans les autres. Très compliqué.
Très compliqué.
Pas mal, pas mal.
Moi, je suis méga-hypée par ce truc,
parce que j'ai eu un potentiel direct.
Mais vraiment, un étanguel.
Non, c'est très bien, parce que ça te simplifie,
tu regroupe tout le code dans une seule fonction.
Après, en plus,
si ça fonctionne à l'extérieur de Versailles,
c'est cool.
Et puis, notamment, ça marche déjà
sur Nitro, sur Next, sur Next.
Et tu peux, en plus, brancher
des hooks
dans l'exécution de tes steps
ou de tes flots.
Non, franchement, ça me paraît
très, très, très, très, très puissant,
ce truc. En tout cas, je vais garder un oeil
dessus, ça, c'est sûr.
Et je vais l'implémenter,
parce que moi, j'ai des clients
qui sont sur Versailles
en pro.
Donc, j'ai accès,
je vais tester, clairement.
D'accord.
Très bien.
Et on a...
On mettra aussi en exemple
à côté des...
dans les commentaires, pardon,
dans la description du podcast.
On mettra aussi le lien
avec un repo où il y a tous les exemples.
Et pour le coup, c'est assez intéressant
de voir comment ils ont
implémenté ça. Et avec différents
use cases, c'est plutôt
pas mal.
Ouais, non, mais c'est pas mal.
C'est vrai que, tu vois, par exemple,
Bête, mais
tu... un système de location
d'appartement, ou de...
comme ça, où tu vas lui dire, ben,
deux jours avant, tu vas lui envoyer
un rappel, le jour de... où il doit prendre
les clés, ben, tu renvoies un truc. Et tout ça,
gérer par des slips et... voilà.
Ouais, c'est pas mal, c'est pas mal.
Eh ben ouais, eh ben oui, eh ben oui.
Oui, oui, oui.
Allez, on bascule
dans... dans... dans l'univers
de Composeur
et de nos meilleurs outils
pour nous développeurs. Je pense que ça reste
quand même aujourd'hui les modèles.
Et aujourd'hui Cursor, en tout cas
le 29 octobre, Cursor a
lancé son propre modèle
qu'il a appelé Composeur.
Rien à voir avec
l'utilitaire PHP.
Rien à voir.
Rien à voir.
Non, ouais, alors c'est toi qui est...
Toi, tu es plutôt utilisateur du Cursor, alors
je suis pas... je vais pas
pouvoir, je vais pas pouvoir en fait
voir les benchmarks
et pouvoir tester si c'est pertinent
ou pas. Je pense qu'il faut
donner plus de temps. Et même si
très vite on va se rendre
compte qu'il y a une sorte de... de
hate. Il y a de hate
des... sur le... sur X
tout de suite ça s'enflamme en disant
que c'est pas pertinent, que c'est pas bien, c'est pas...
Oui, il faut aussi
laisser du temps et
n'oublions pas quand même qu'on a des outils
à notre disposition
qui sont quand même juste ouf
pour des prix symboliques
d'hérosoires.
Et donc
je trouve qu'on a le lynchage
d'outils
informatique
pour nous développeurs
assez faciles et surtout qu'on est
pour faire court on est
jamais content quoi. Il y a toujours
c'est trop machin, c'est
trop cher. Ouais non mais
c'est pas cher par rapport à
ce que ça nous apporte
ou c'est pas gratuit
ouais mais à un moment donné
il faut y arrêter aussi ça. Donc
ouais je... je... je trouve
un peu les critiques un petit peu durs
je trouve que ça le mérite d'exister
et est-ce que c'est pertinent, est-ce
que ça va évoluer, je sais pas
on peut pas lâcher
le... le fait que
bah Cursore veut essayer
de sortir son
propre modèle pour
construire
son idée et en fait enrichir
son idée, ça se tient, c'est logique
ça a été entraîné pour que
que du code. Est-ce que c'est une réponse
marketing, tu vois, est-ce que c'est une réponse
marketing à... à d'autres
à Codex, voilà
on va pas se mentir. Ils annoncent
ouais ils annoncent un modèle ya interne
alors j'ai fait un résumé
ils annoncent un modèle ya interne
optimisé pour la génération et la compréhension
du code avec gestion de contexte large
et respect des conventions du projet
et disent qu'il est 4 fois plus rapide
et il a l'apprentissage
renforcé, calibré pour les
Borgflow agentielles, agentique
voilà. Donc il est vraiment super optimisé
je pense qu'il y a aussi une notion de coup aussi
peut-être que c'est leur coûte moins cher de faire tourner leur propre modèle
que de
passer par des provider qui sont vers leur coûte
une fortune et notamment
je sais que j'entends beaucoup parler
de l'imitation de token avec
Claude etc. Les gens sont vite
arrivent vite, très vite à la limite
il en en parlera après d'ailleurs
alors après
dans cette cure sort v2
il y a aussi une interface agent first
qui privilégie
maintenant les interactions avec
l'agent plutôt que par fichier
etc. Donc voilà on peut leur confier
des tâches complexes, multi-agent
et pas l'annification parallèle
il peut travailler en parallèle ton agent
avec un autre etc.
il y a un navigateur intégré
voilà un navigateur
après ça
c'est les nouvelles fonctionnalités
de cure sort
il y a un navigateur intégré
et donc il va plus facilement
identifier
les erreurs et faire de la remontée
d'erreurs, on en avait parlé
et donc ça sera beaucoup plus intéressant
pour lui clairement.
Là on a aussi, après moi sur
VSCOT, j'ai une liaison
avec le browser où il est capable
d'avoir les erreurs consoles
et ça change beaucoup
ça change beaucoup
tu lui dis attends regarde les erreurs
et dis ok c'est ça machin
il y a aussi un mode vocal
je sais que tu devrais être fan de ça
mais on va en reparler un petit peu plus tard
parce qu'on a un petit tool qui est plutôt sympa là-dessus
possible de dicter les promptes
du code, vocalement tu peux écrire ton code
en dictant, j'avais entendu un mec aussi au jour
sur x qui disait qui codait en parlant lui
c'est un peu bizarre mais bon
je me vois mal à collat avec ce
égal, tu vois c'est trop bizarre
après je pense qu'il fait
que des agents
en fait c'est des agents qui codent
pour lui par contre il doit envoyer
ses instructions, je pense
à l'oral ouais
pas super surpris
Cursor évolue
je sais que par contre
toi tu l'utilises mais
il se plait beaucoup aussi les mises à jour
apparemment il y en a tout le temps
des updates de Cursor
à chaque fois que tu le démarres c'est une update
oui, so what
c'est quoi le problème
en fait j'ai une notification
en bas à gauche qui me dit
Cursor doit être mis à jour
je clique, ça s'éteint
ça se rallume et je code
ça me prend 5 secondes j'ai la dernière version
avec les dernières features
c'est ce qui devrait par grouper
un peu plus les features
faire des mises à jour un peu moins fréquentes
et plutôt envoyer
un gros paquet plutôt que
tous les jours, deux fois par jour
et toi
tu fais une release par mois
ou tu déploies
3 mois même
tu vois
si tu suis la logique
de comites
d'intégration
de déploiement
tu fais une release tous les 2 jours
ou à ce moment on va d'être
moi ça me gêne pas
mais attends
ça prend 5 secondes les gars
c'est quoi le problème
ça me fait halluciner
je comprends pas que
les gens puissent s'offusquer de ça
tu as un logiciel à jour
et potentiellement il a corrigé des bugs
tu vois tu avais un bug il y a 4 jours
il était corrigé
j'avais l'impression qu'à une époque
je répète je n'utilise pas Cursor
j'avais l'impression qu'à une époque
il y avait des mises à jour
et des fois ça introduisait des bugs
et qui étaient corrigés dans la mise à jour suivante
est-ce que ça les met un peu trop vite
à un moment donné
je fais un peu le journaliste
tu fais surtout le hater
moi je préfère un logiciel
qui se met à jour régulièrement
plus régulièrement potentiellement
il va corrigé plus de bugs qui vont en amener
parce que sinon
ça veut dire que à chaque release
tu as introduit plus de bugs
mec non c'est pas possible
tu vois ce que je veux dire
j'ai du mal à comprendre
mais une fois de plus c'est les
haters
les devs sont jamais contents
exactement les mecs ils sont jamais contents
il y a des clients aussi
tu fais mes mecs
tu as une release ça te prend 5 secondes
ta machine elle démarre
et en plus tu n'as pas envie de faire ta mise à jour
pour x raison
tu la fais pas
et puis c'est pas grave
tiens j'ai une question
en niveau dev est-ce que tu es plutôt
à laisser ton éditeur ouvert
tout le temps avec le projet
ou tu le fermes tous les soirs
et tu le réouvres le lendemain
tu es dans le camp toi
moi je suis dans le camp où en fait
j'ai un environnement
par client
c'est à dire
j'ai une fonction
avec un raccourci
sur mon stream deck
le truc qu'on utilise pour le podcast
en fait j'ai configuré un truc
pour le dev et en fait j'appuie
sur un bouton et je suis dans le contexte
de mon client
tu vois
sur rose
ou un autre client dans mon client x
mon client a mon client b
et en fait quand j'appuie sur a je vais avoir
mon terminal qui va s'ouvrir avec le code
je vais avoir mon curseur qui va s'ouvrir
avec le code
je vais avoir mon database
qui va s'ouvrir avec la database
de dev et ainsi de suite
donc en fait quand je switch
d'un client à l'autre je ferme tout
et j'ouvre tout
d'accord est ce que j'ai répondu
et j'ai aussi la disposition des fenêtres
qui est enregistrée
tu as été très loin toi
donc tu fermes le truc
et tu réouvres en un
coup de bouton
exactement
exactement parce que
je trouve c'est sympa
et en fait
oui
je crois que tu me fasses une petite vidéo alors
pour me faire voir comment tu as configuré ça
c'est pas compliqué
ouais mais tu t'es fait une vidéo de 10 minutes
tu vois pour nous dire comment tu as configuré
ça peut être intéressant
ouais ouais et j'ai des tools qui vont bien
pour ça mais ouais ça marche plutôt bien
et je trouve c'est
c'est important en tout cas
moi ça m'aide à être
bien focus
et être dans le contexte
du client tout de suite d'accord
ok
allez on reste
où on revient peut-être
dans l'univers IA
où on sait que
un des librairies en fait
majeurs aujourd'hui c'est
Versel
IAI
IISDK
qui est en fait un SDK qui va interagir
avec n'importe quel modèle
néanmoins il existe
encore des manques
et c'est pour ça qu'il y a quelqu'un qui est venu
en fait étendre
et améliorer
comme il le dit
ce SDK
de Versel IAI
pour en fait
lui donner le surbooster avec
d'autres fonctionnalités
oui
l'IISDK de Versel
c'est un truc de base
ça te permet de communiquer
c'est la base pour communiquer avec différents providers
avec la même API
que tu sois sur clô de OpenAI
ou n'importe quoi, Mistral
tu vas juste changer le provider
mais après les fonctions seront toutes les mêmes
les réponses etc tout est normé
TypeScript etc
donc c'est vraiment un SDK de base
et ensuite évidemment ça prend pas en compte
tout ce qui est mémoire etc
les toolings, MCP
donc on a déjà
on parlera juste après mais on a déjà Mastra
qui existe mais là c'est un gars qui a créé ça
pour sa boîte
donc il pose dans une boîte, il a créé
tout un système pour faire un agent
l'idée c'était de faire un agent pour l'intégrer
et puis du coup, petit à petit
il a créé carrément
un framework presque
un SDK beaucoup plus, il a étendu le truc de base
pour gérer tout ce qui est mémoire
ce qui est très important, le cache
tout ce qui va
autour de ça pour créer un agent soi-même
donc il a rendu Open Source
et c'est plutôt cool
mais on est très proches de Mastra
je répète, on est vraiment dans un
donc voilà
et il avait fait des petites tweets
pour expliquer pourquoi il l'avait fait
ce que ça incluait et puis tu vois
les agents, mémoires, artifact, DevTools, Store, Cache
donc il sortait en v1
pour l'instant, v1 n'est pas publié
mais ensuite il expliquait
qu'il devait faire
pour sa boîte
un business assistant pour midet
et puis il a commencé à coder
et puis il a rendu Open Source quand c'était fini
trop bien
c'est cool
bravo ces mecs, c'est top
il aurait pu le garder pour lui
il le partage donc c'est bien
clairement
tu parlais tout à l'heure de Mastra
il sort en version
officielle
en v1, beta
c'est en beta
mais on est très proches
je suis pas loin
là pour le coup
c'est pas un projet qui a été incubé
en interne, c'est vraiment une boîte
qui s'est montée là dessus
autour de ça
c'est leur business
on crée
des agents spécifiques
et on vous donne
tout le tout ligne qui va bien
pour pouvoir faire
des agents
production ready
avec toute l'expérience
et toutes les ressources
qui vont bien donc
le cloud, le workflow, l'observabilité
les rags, les multi agents
les multiconexions
stateful, state lace
tout ça
beaucoup plus
chéné, enfin beaucoup plus puissant
beaucoup plus élaboré
je pense
beaucoup plus de maturité
il y a une équipe
solide derrière
même si c'est l'équipe de
je vais toujours quitter
en fait
j'avais peur, je dis ok
est-ce que je me mets là dessus ou pas
en fait j'ai regardé c'est juste un mec
de gasbille en fait
c'est juste un mec de gasbille c'est pas tout l'équipe
c'est pas toute l'équipe
et ça se trouve lui
enfin on connaît pas l'historique
vraiment
tu vois au state
les gars ils créent
enfin c'est comment ça marche quoi
ils créent des frameworks, ils créent des trucs pour les vendre
principalement
et tu sais pas qui ça va être vendu
et quand c'est netlify
le truc disparaît quoi
merci pour gasbille
ils ont repris gasbille et le truc a disparu
même ce qu'ils avaient repris le hub
là qu'ils avaient repris de gasbille qui s'avaient créé
on sait pas ce que c'est devenu
pour l'instant rien
c'est dommage
donc c'est pas impossible qu'un jour
mastra soit repris et puis disparaît
mais bon après on en sait rien du tout
donc ça peut continuer en tout cas c'est une équipe
qui bosse dessus depuis un peu plus d'un an
je crois
et donc la v1
c'est cool parce que ça permet d'avoir enfin
un code stable qui risque de moins changer
en tout cas au niveau de la v1
parce que là pour l'instant ils avaient tendance
à faire des...
à casser des fonctions et tout ça
ils ont beaucoup évolué donc là on arrive
un outil qui commence à être assez stable
qui permet de créer
en fait c'est l'équivalent d'un outil piton
pour créer tout ce qui est agent
mcp etc
faire du chunk
mettre dans une base de nez
comme ça s'appelle
vectorial
voilà il y a vraiment tous les outils
gérer la mémoire
tout
donc c'est le truc est vraiment complet
comment ils vont gagner de l'argent avec le cloud
évidemment
ils vont proposer un système de cloud
tu pourras héberger ton agent
et après voilà
donc c'est là dessus qu'ils vont gagner de l'argent
ils sont en train de développer aussi
alors il y a beaucoup de boîtes en ce moment
qui internent
notamment des boîtes françaises
qui vont des systèmes en interne
pour des chatbots etc
pour répondre
à des questions pour les utilisateurs tout ça
et ils internalisent ça
ils y tèrent en fait, ils s'agméliorent les promptes
etc et tu vois qu'il y a pas mal de personnes qui se mettent dessus
notamment j'ai vu qu'il y avait des gens aussi
qui par exemple il y a une boîte je sais plus la quelle
où ils avaient des gens qui étaient
au service client
tu vois ils répondaient à des mails
toute la journée et qu'ils ont
déplacé pour les mettre au niveau de leur
équipe IA
parce que c'est des gens qui savaient
comment améliorer le prompt
ce qui devait répondre
qui étaient capables d'évaluer en fait
si les réponses étaient bonnes ou pas du rag etc
du chatbot
du coup tu vois on a des gens qui se sont retrouvés
de service client à équipe IA
donc déjà monté en grade vachement plus intéressant
et tu vois on a trouvé des compétences
vraiment au delà de
des devs et tout ça
donc super intéressant et donc eux en fait
Mastra, faut quand je m'en parle de ça
c'est que Mastra ils sont en train de faire un système
dans le cloud aussi pareil
ou on aura un système comme ça pour
partager un équipe et améliorer les prompts etc
et tout le monde pourra le faire en fait
après le reinforcement
aujourd'hui c'est le coeur du métier
enfin c'est le coeur du business
je pense que tous les modèles en fait
ont été poncés ils ont aspiré
je sais pas combien de fois le web
et donc ils ont aspiré tous les bouquins
à un moment donné les modèles
en fait ils savent déjà tout
par contre ce qui n'ont pas
c'est l'expertise
c'est l'expertise la réalité du terrain
en fait elle est pas toujours
réelle entre la théorie
et la pratique
il y a plein de la
il y a souvent un gap
et donc la personne qui est au service client
depuis des années en fait elle sait comment tourner
elle sait comment aller récupérer les informations
et donc en fait sa vraie valeur
ajoutée elle est là dessus
et donc en fait ils viennent entraîner
ou sur entraîner en fait
les modèles pour les rendre plus spécifiques
avec une expertise métier
et ils font ça en fait pour des cas
ultra ultra ultra précis
des chimistes experts
dans tel sujet et bah en fait ils vont venir
réenforcer le modèle
et demain en fait le modèle sera beaucoup plus malin
et donc Mastra en fait
s'inscrit aussi et donne le tout ligne
pour faire ce genre de système
ils sont vraiment dans
dans les bons outils
mais c'est vrai que
enfin pour
toutes les boîtes font essayer de faire de l'illet
en ce moment avec des chatbots etc
et clairement si tu n'intègres pas
des personnes qui
connaissent les questions qui sont posées
qui savent améliorer les réponses
améliorer le contexte etc
parce que en fait il suffit pas de prendre le contexte
que tu as sur le site pour que le chatbot répond correctement
c'est beaucoup plus complexe que ça
donc ouais c'est vrai que les équipes gagnent
à intégrer des personnes qui savent
ce qui gérer
les services clients
et bah pour en revenir à Mastra
sinon on l'avait un il y a eu un nouveau logo
super ils ont changé le logo
et puis sinon ils ont fait une conf
la semaine dernière
qui est un petit peu catastrophique au début
puisque la conf plantait etc
le lien a changé etc
mais conf qui dure assez longtemps
où il y a plusieurs personnes qui interviennent
pour parler des agents etc
comment construire des chatbots
etc donc c'est vraiment intéressant si ça vous intéresse
sur youtube y a toutes les vidéos
et toutes ces vidéos sont
évidemment
disponibles dans la
description de l'épisode
plutôt
intéressant
TypeScript ICOF
Tu vois TypeScript encore
Du TypeScript encore exactement
c'est ce qu'on disait tout à l'heure
et non pas les pitons
Allez on reste
sur une partie
un petit peu plus tout ligne
où là on va présenter
une librairie qui s'appelle Arc et type
et qui va nous permettre
de quoi c'est un mélange
de regex avec des types
qu'est ce que ça fait ?
En fait ça te
Arc et regex ça te
va utiliser la fonction pour créer
une regex classique
pour sortir des éléments
d'une chaîne de caractère
et en fait c'est capable de sortir
ça te va te typer la regex
et tu vas avoir un typeage de ce qui va sortir
de la regex tout simplement
Ce qui t'évite
de mettre des ennemis partout
Ah mais de toute façon
normalement tu peux pas mettre de ennemis
avec ta config non ?
J'espère
Mais en tout cas
sur des regex un peu
poussé en fait
tu mettais ok
c'est une string
mais si tu voulais
apporter quelque chose d'un petit peu plus complexe
et de peu un petit peu plus sub style
c'était compliqué mais en tout cas
grâce à cette librairie
tu vas pouvoir en fait typer tes regex
Ouais c'est ça
Après la librairie Arc type c'est un système
pour un peu la zone
pour faire des typesages
Donc ça fait partie
de leurs outils
de validation
Yes
Allez on rebase
cool dans l'univers PHP
Dans l'univers PHP
Alors si
vous êtes nouveau sur le podcast
vous n'avez pas connu
l'époque où on était
des fervents ambassadeurs et on le reste
des sites statiques
avec toute la jam stack
Mais
AID PHP
qui est un générateur de sites statiques
basé sur PHP
et la Ravel
vient de sortir en v2
C'est ça une v2
AID PHP
qui est un générateur statique basé sur la Ravel
il y a du
Tailwind
et voilà ça gère le mcdown
donc c'est plutôt complet
et ça marche bien et donc du coup
tu peux l'étendre avec toutes les fonctionnalités de la Ravel
etc
Il est cool
Nice
Et statique il se donne new dynamique
on est d'accord et je vous rappelle
C'est toujours top
Et le site du podcast
Exactement
Tu m'enlèves les mots de la bouche
mais le site du podcast est
complètement statique
Donc
top top
Donc il n'y a plus d'excuse pour faire
entre AID PHP
ASTRO
NUXT
et tout l'écosystème
Aujourd'hui
le statique est devenu un mode d'export
à part entière
On ne va pas vous redire que
ça ne sert à rien de faire tourner des serveurs
s'il n'y a pas besoin
il n'y a pas besoin de mettre du javascript
quand il n'y en a pas besoin
Et vous mettez tout en statique
et vous optimisez grandement
les performances de votre site internet
sans parler de la sécurité
évidemment
Tout est dit
Faites du statique les gars
Faites du statique
Allez on reste dans l'univers PHP
Composeur
Composeur, le NPM de PHP
Si je peux dire comme ça
Donc version 2.9
Ouais 2.9
Et notamment je l'ai noté
parce qu'il y a une autre... Alors il y a une autre chose
C'est l'automatique security blocking
En gros on en parlait encore dans les épisodes précédents
par rapport au NPM, au FI
de tous ça de package
On retrouve sur Composeur à peu près le même système
où ça va bloquer automatiquement
les packages qui sont identifiées
comme problématiques
donc ils vont pas te l'installer
ça va pas te l'installer donc c'est pas mal
Et tu peux aussi, tu vois une option
tu peux bloquer les packages abandonnées aussi
éventuellement
Donc c'est cool
sécurité, sécurité, sécurité
Ouais, importe
Très bien
Allez pareil, toujours de sécurité
en termes de mise à jour
si vous êtes développeur
sur Mac
sur Mac OS
En tout cas il y a le de forte chance que vous ayez
des home-grews
des... le suggestionnaire un peu d'applicatif
qui vient d'être mis à jour
en version 5
et qui prend en compte
de manière officielle et définitive
la dernière version de Mac OS
c'est un peu inodore
un color mais en termes de sécurité
c'est quand même important
T'as mis le gré ?
Pas encore
Ah moi non plus
J'attends toujours plusieurs mois avant de migrer
Alors plusieurs mois non
parce qu'en fait je me rends compte
qu'il y a toujours un décalage entre home-grews
et la version de Mac OS
Home-grews en fait
prend vraiment du temps
pour mettre à jour
sa version compatible
complètement avec la
dernière version de Mac OS
et
quand eux ils le font
souvent moi je le fais
mais ça se fait pas tout de suite en fait
il y a déjà un gros gros gros laps de temps
et donc
non je suis assez confiant
sur les mises à jour
j'ai arrêté de mettre à jour Mac OS
tout de suite à la sortie
parce que ça par contre ça ça faisait problème
parce que tout justement tout l'écosystème
home-grews n'était pas
prête et donc ça pété
dans tous les sens
donc maintenant que je fais ça
j'attends que la version officielle
de home-grews le soit
et dans la majorité des cas en fait
ça passe c'est très rare sur les dernières migrations
j'avais plus du tout de problème
donc je vais le faire
Moi le plus gros problème c'est quand on est passé
sur M1 là c'était problématique
sur ARM donc
mais sinon depuis ça va
beaucoup plus facile
beaucoup plus finis
clairement
allez on commence
à se faire vieux mais
il y a quasiment
un an en fait
oui pratiquement un an
anthropique en fait introduisait
le concept de MCP
et
ça fait déjà un an
quoi
ça fait un an et c'est vrai que
au début ça n'a pas pris des masses
jusqu'à ce que je ne sais pas ce qui s'est passé
l'étincelle prenne
et là c'est une explosion MCP
dans tous les sens on en a de partout
ça semble être
être le protocole idéal
pour tout
et ça fait que un an
c'est assez récent et pourtant on en a déjà partout
dans nos éditeurs, dans nos agents
dans partout donc c'est cool
donc ça fait
pour fêter les 1 ans il y avait EGINFACE qui a fait un concours
je crois pour le 1er anniversaire
où il donnait des cadeaux machin tout ça
voilà avec
je suis plus qu'il y avait comme cadeau
il y avait des cashmoney
c'est plutôt sympa
après ce qui est sûr
c'est que
le MCP
une fois qu'on a codé notre MCP
en fait il va interagir
avec notre service
mais c'est quand même beaucoup plus facile
à faire évoluer qu'une API
oui c'est hyper simple en fait de faire un server
MCP
donc beaucoup plus intéressant
et justement de faire
un server MCP
petite formation
de comment créer son propre
MCP
directement dans EGINFACE
en fait c'est quoi c'est un article
c'est dans la section
c'est une formation avec plusieurs étapes
tout ça, comment créer une application MCP
tout ça
si vous avez jamais allé
sur les formations EGINFACE
y en a vraiment plein
sur eginface.co
et t'as plein de trucs
tout est gratuit et tu peux apprendre plein de choses
donc avant de payer une formation
d'un guru youtube
aller plutôt sur EGINFACE
c'est gratuit et c'est intéressant
excellent
top
pour créer son propre MCP
et y en a un autre article
qui est sorti aussi sur
l'équipe de NUXT
justement où ils expliquent
comment ils ont
créé leur MCP
comment ils l'ont implémenté le MCP
server pour NUXT
pour la DOC NUXT
et pour la DOC NUXT UI
donc ils expliquent tout simplement
comment ils l'ont fait
avec toutes les étapes
le code donc c'est super intéressant
et à la fin il t'explique
comment toi tu peux créer ton propre MCP
du coup c'est pas mal
c'est intéressant
ça me donne des idées pour cibes du podcast
très inspirant
tout ça
top top
donc on voit que c'est pas très compliqué
non c'est plus accessible qu'on le pense
en fait je pense
oui carrément
mais surtout avec Nitro qui t'gère le server
facilement
et c'est NUXT content
je te couvres
aucun problème
dernière aussi
un autre article qui est sorti
où justement Riche de cette expérience
de 1 an de MCP
Anthropique en fait vient aussi
revenir sur les agents
et elle fait un énorme article
sur les MCP
ou comment on peut interagir
avec
les agents
pourquoi c'est intéressant de faire des MCP
parce qu'on va optimiser
les contextes
et on va optimiser la consommation
des tokens pour faire court
et en fait c'est un article un petit peu poussé
donc
si vous êtes débutant en MCP
ou vous n'avez pas super familiarisé
avec le contexte
de MCP allez voir le premier article
qui date de 1 an
comprenez le système
et après vous pourrez aller voir celui-ci
qui est beaucoup plus détaillé, beaucoup plus spécifique
mais en clair
on peut
il nous explique en fait comment
les agents peuvent optimiser le contexte
si c'est bien fait
et comment on peut
via les MCP
optimiser la consommation
de tokens et donc moins d'énergie
moins de tune aussi à la fin du mois
et on grille moins des tokens
pour rien parce qu'en fait on a fait
les choses correctement
et donc c'est un peu des best practices
et des guidelines
plutôt intéressantes
oui, on en parlait
sur CurSort
justement des gens qui se plaignent
des tokens limités
sur Claude notamment mais c'est certainement
parce que c'est mal réglé etc
parce que dans cet article ils expliquent
que
c'est les outils qui
surcharge le contexte
qui font qu'il y a plus de tokens
consommés et que les outils
c'est vraiment les outils
donc il faut bien gérer ces outils
mais en fait c'est un truc tout con
c'est le
développeur
ça va être ma chance que je veux dire mais le développeur de base
il a dit que les MCP c'est trop cool
les MCP c'est la révolution c'est trop bien
et en fait il a branché
tous ses MCP
mais tout, c'est à dire
il a Stripe, parce qu'il a utilisé Stripe
il a
et en fait il est laisse ouvert
il est laisse ouvert à chaque requête
et donc en fait chaque MCP va bouffer
un slot
de tokens donc à la fin
en fait il lui reste
beaucoup moins de contexte
donc un truc de base
vous voyez ça comme des extensions
dans VS Code
ou KSAGE
si vous n'utilisez pas l'extension
dans ce projet là
des activés là
et en fait le MCP va faire
exactement la même chose
donc si vous n'utilisez pas Stripe dans votre projet
ne mettez pas le MCP Stripe
activé, ça ne sert strictement à rien
donc réduisez
au minimum le nombre de MCP
que vous utilisez ou à minima
les MCP qui ont de la valeur pour votre agent
si vous promptez
mais sinon c'est complètement débile
et en fait
le gros problème aussi
c'est que les gens ne savent pas
utiliser les agents
et en fait ils ouvrent un agent
et pour eux c'est là que tu disais
ils vont ouvrir une fenêtre de VS Code
et là ils vont ouvrir un agent
ils vont tout mettre dedans, tout mettre dedans, tout mettre dedans
et en fait ça rajoute, ça rajoute, ça rajoute
du contexte et à la fin c'est complètement débile
et ça va croquer
tout et token et ça va être complètement débile
parce que ça va chercher partout plein d'informations
non, il faut être ultra spécifique
et si je n'utilise pas
le MCP de NUCST
parce que mon serveur
et je bosse sur un serveur astro
je débranche
mon MCP NUCST
je n'utilise pas et ça
ça va me faire gagner beaucoup de token
et donc du contexte et donc de la pertinence
après dans
dans Queso, je sais pas mais dans VS Code
tu définis les outils en général
quand dans ton prompt
mais après je sais pas comment ça marche
après le MCP se coupe tout seul aussi
après sur Queso
tu vas pouvoir les activer
ou les désactiver
le seul que je laisse quasiment tout le temps
activer c'est contexte 7
d'ailleurs, épisode de podcast
sur contexte 7, on avait fait
je rappelle, on a fait un épisode
non ? ok, oui peut-être
non, c'était un workshop, je crois que c'est une vidéo
je crois que c'est une vidéo
je crois que c'est une vidéo
workshop où justement on explique
comment on utilise le
MCP contexte 7
justement limiter ses hallucinations
optimiser la véracité
des informations qui sortent des modèles
limiter les hallucinations
et être toujours
sur la dernière version à jour
ou en tout cas notre version
à nous
dans
contexte 7
super youtube
vidéo
on peut quand même
parce qu'on a peut-être des gens qui nous écoutent
et on parle de MCP depuis tout à l'heure
c'est quoi MCP ?
vite fait
je pense qu'il faudra faire un épisode sur l'MCP
puisqu'on a déjà fait des épisodes sur les rags
sur l'IA
ce sera peut-être le troisième épisode de l'année
les MCP en gros c'est simple
on crée un serveur MCP
c'est comme une API
t'as des routes qui sont accessibles
et ces routes là on va les donner
au LLM
et du coup ça lui fait des outils
donc l'exemple plus commun qu'on donne
c'est la météo
donc tu vas lui donner la météo sur Lyon
et donc le LLM
sait qu'il a un outil pour trouver la météo
où il donne en query la ville de Lyon
et donc il va appeler
ce serveur MCP
avec la ville de Lyon
et le MCP va lui répondre
et du coup il va générer une réponse grâce à ça
en gros c'est comme une API
qui donne des outils à un modèle
simplement pour vulgariser vraiment le truc
pour moi
c'est vraiment
l'API
DLLM
c'est ça
pour les développeurs
souvent avec un développeur
il va largement comprendre
mais je pense que ça peut être intéressant
une fois de plus
petit commentaire
motivez-nous à faire cet épisode de
MCP
allez on
rebascule
dans notre
signal de Claude Flair
qui vient avec des giving choice
qu'est ce que c'est que ça
attend on voit plus ton
navigateur
ok
Claude Flair on a déjà parlé dans d'autres épisodes
il faut un petit peu la guerre
entre guillemets
pour
leur faire respecter un petit peu le contenu
parce que c'est un peu tout
c'est le farouest en ce moment
les bottes viennent sur tes sites
prennent ce qu'ils veulent et repartent
notamment
la problématique c'est que ça amène
beaucoup de charges supplémentaires
pour rien
puisqu'en fait finalement ils viennent te voler ton contenu
et ils te font des visiteurs en plus
ils te font une charge serveur en plus
sur ton site sauf que bah toi
tu gagnes rien là dedans donc Claude Flair se bat
un petit peu contre ça
donc on avait déjà parlé
d'un système où ils essaient de mettre en place
un crawl to pay
c'est à dire que pour les gros médias
en fait
les openai etc. paierait au crawl
pour récupérer les data
donc ça c'est toujours en cours
et là celui là c'est un nouveau
système qui serait sur les robots.xt
donc un nouveau
comment dire, nouvelle indication
sur le robot.xt
qui le content signal
policier qui dirait
au bot, ce qu'il a le droit de faire
et ce qu'il a pas le droit de faire
donc en fait dans l'interface
Claude Flair tu vas l'activer
donc en gros du coup
maintenant c'est le Claude Flair qui va gérer ton robot.xt
donc il va récupérer ce que tu avais déjà dans le robot.xt
pour le mettre à la fin
et lui il va rajouter des directives au dessus
donc notamment tout un texte
au début qui explique
au bot, il y a, parce que le bot comprend
il sait dire, bah ce qu'il a le droit
de faire etc. par rapport à la loi européenne etc.
donc voilà et ensuite
il y a des indications
donc cette nouvelle indication
qui n'est pas encore pris en compte par tout le monde
notamment pas par Google
pas par OpenAI, OpenAI a dit
qu'il le prendrait en compte le jour où ça sera
officiel, mais par contre
il y en a plusieurs qui le prennent déjà en compte
donc c'est ce content de signal où tu vas dire
search yes ok donc tu peux
croller pour la recherche
par contre pour le high train tu peux pas
voilà tu ne vas pas entraîner ton modèle
sur mes données, voilà donc ça fait partie
ces indications
qui sont en train d'essayer de faire
normaliser et généraliser
en fait ils font du lot une sorte de lobbying
proactif en disant
nous on vient mettre une technologie en place
et on essaye que ça devienne
une sorte de standard
pour qu'on vienne un petit peu réguler
tout ça
évidemment que tous les gros opérateurs
qui se crapent de la donner à tout va
vont se réfugier
en disant bah tant que c'est pas légal
nous on sait pas
et donc tout le monde se regarde quoi pour faire court
tout le monde va se regarder
au moins l'avantage c'est que
Claude Fer en fait essaye
d'être proactif et de
vient de donner un breed
de solution
et c'est plutôt
c'est plutôt à restriction
c'est à dire on donne la permission
ou pas
donc on prend en compte
le web
et l'auteur et les droits d'auteur
et tout ce qui va derrière
donc c'est plutôt une bonne démarche
je trouve de
Claude Fer
d'essayer de pousser leur propre
nomenclature soit
mais au moins de
mettre
à disposition la possibilité de dire
toi tu viens pas se craper mes données
ouais c'est ça mais c'est intéressant
parce que en plus derrière
tu as dans le dashboard de Claude Fer
une fois que tu as mis ça en place
tu as les stats des bottes quand ils sont venus
s'ils sont pas venus, s'ils ont été bloqués etc
donc c'est vraiment très intéressant
et c'est vrai que c'est
on en a encore qu'au début
mais c'est vrai que
aujourd'hui c'est
mitigé entre l'éditeur de site
qui a envie de faire
on a déjà parlé 8 fois mais
d'apparaître dans les
dans les réponses de
chat gpt mais en même temps il ne veut pas
que ça soit entraîné sur ces données
tu vois la
décision n'est pas évidente mais en tout cas
Claude Fer avance dans ce sens pour décider
si tu veux ou pas que le bot
vienne se craper
si on laisse le choix aux propriétaires
du site c'est plutôt bien
donc là dessus
on est d'accord
allez, petite
utilitaire
alors moi je suis sur mac
toi aussi t'es sur mac mais
qu'on soit sur d'autres plateformes
il y a la possibilité aussi d'utiliser
ce super outil
qui va en fait faire
de la transcription automatique pour nous
et de manière open source
aujourd'hui whisper
le modèle
OpenIA de transcription
donc de parole vers
du texte
et accessible
et donc il y a plein de gens qui l'ont
décliné
en plein de logiciels plus ou moins payants
par contre l'avantage de celui-ci c'est qu'il est
gratuit
open source et qui tourne dans le local
ouais
c'est un super outil alors whisper
et si vous l'avez certainement déjà essayé
mais il est vraiment très bon
pour transcrire
de la voix en texte
la plupart du temps il se trompe jamais
en fait très efficace
et c'est un modèle qui n'est pas énorme donc on peut le faire tourner
sur une machine sans avoir une machine de guerre
il peut tourner en local
et c'est vrai qu'il y avait déjà des logiciels
mais là celui-là en dit est compatible
toutes les plateformes ça tourne un local
et en fait tu peux
bien raccourci clavier
d'être dans n'importe quelle application
une fois que tu as le curseur
par exemple l'exemple c'est dans Word
tu as le curseur qui est dans ta page
tu parles et il va écrire tout ce que tu as dit
directement
c'est vraiment bien fait
tu viens déclencher
l'écoute
là tu vas parler, tu vas stopper l'écoute
et lui il va prendre ce segment d'écoute
il va le transcrire
de manière très rapide
et comme tu l'as dit avec une pertinence
plutôt
assez élevée
et
moi je trouve trop fort
ça marche dans tous les applicatifs
ça marche sur ta machine
et donc c'est crosse
partout
et ça c'est vachement top
c'est là où tu peux taper
tu peux utiliser et tu peux dicter
c'est un peu le concept
et ça c'est vachement fort
on en parlait tout à l'heure en off
mais moi j'écris
tous mes e-mails avec ça
aujourd'hui je dicte tous mes e-mails
je gagne un temps de ma boule
derrière j'ai un petit script
un petit prompt qui vient
reformater de manière propre
corriger l'effort d'orthographe
s'il y en a
ou de grammaire
tout est corriger automatiquement
mais je gagne un temps de ma boule
vraiment
moi je n'ai pas encore ce réflexe
je suis pas trop vocal
mais par contre je fais corriger
par Kerlig
les e-mails, tout ça, le texte
pour des petites quotes
moi je n'ai pas l'effort
on bascule sur des choses un petit peu plus légères
et un petit peu plus visuelles
alors on est bien loin
du terminal
et de
de cloud code
ou de CLI
on est en fait sur
un article de
Emile Kowalski
qui est un designer-ingénieur
et qui vient nous donner
des recommandations
sur les animations et les interactions
clairement on est sur
de la petite subtilité
là on est vraiment sur
sur vraiment le détail
quand on est là
c'est que ton projet il est parfait
et tu as juste à corriger quelques détails
d'animation, c'est beau
j'aimerais bien un jour en être là
mais pour le coup
on pourrait dire c'est vraiment bidon
mais ça fait
en fait c'est ce tout petit truc
qui fait que
l'animation
ou l'effet ou l'interaction
ça donne
une autre dimension
clairement
après
ça reste
vachement de travail
pour mettre ça en place
mais ce petit extra
ce travail extra
va donner vraiment une autre dimension
on est bien d'accord que quand vous êtes
sur un truc MVP
qui va être pété
ou une V1
vous êtes tout seul
ce niveau de détail le client n'est pas prêt à payer
ce prix là
donc c'est plutôt pour des boîtes
déjà en place
qui veulent améliorer
après c'est pas de la maturité
c'est du lit l'article
c'est pas des choses très compliquées
à mettre en place il explique juste de faire les bons choix
comme la bonne transition
il explique
comme de pas mettre une transition sur le scale
en fait c'est juste des petits détails
qui changent en fait d'animation
qui la rendent beaucoup plus pro
finalement c'est pas très compliqué
ce qui donne comme type
tu vois ça peut être la durée du
là par exemple sur ça
sur le select c'est l'ouverture du select
c'est juste réduire la durée de l'ouverture
et c'est vrai que c'est plus agréable
quand c'est plus rapide que de la version lente
c'est tout bête mais finalement
de passer de 400 à 180
ça change tout en fait
mais ouais c'est vraiment
et c'est là où toute la subtilité
elle est quoi
c'est qu'il y a
cette notion de
ça va rien changer
en fait si ça change
parce que c'est des micro-trucs
mais on voit la différence
en fait c'est la perception
de la qualité du produit
qui change en fait de l'utilisateur
qui lui forcément il saura pas pourquoi
il trouve que c'est plus qualitatif
mais toi tu sauras parce que
tu auras travaillé ces animations
mais lui en fait il va pas savoir pourquoi
mais il voit que putain c'est mieux
il a un truc de mieux
c'est un peu à la apel
c'est subtil
très subtil
et bah sur cette touche
de subtilité je te propose Patrick
qu'on en reste
pour cet épisode
un grand merci à vous
d'être resté jusqu'au bout de l'épisode
comme d'habitude un petit pouce, un petit like, un petit commentaire
partagez la bonne parole
et pour ceux qui le souhaitent
le GitHub sponsor est là pour vous
un grand merci à vous
et on vous dit à bientôt
ciao
Episode suivant:
Les infos glanées
DoubleSlashPodcast
Double Slash, un podcast sur le développement web. Retrouvez-nous régulièrement pour parler de sujets variés tels que la JAMStack, l’accessibilité, l’écoconception, React.js, Vue.js, Next.js, Nuxt.js, le CSS et des retours d’expériences sur des implémentations.
Tags
Card title
[{'term': 'Technology', 'label': None, 'scheme': None}, {'term': 'Technology', 'label': None, 'scheme': 'http://www.itunes.com/'}]
Go somewhere
🤖 News Décembre 2025 : de l'IA, de la bêta et des pannes