Les news web dev pour mars 2025 RC2

Durée: 61m37s

Date de sortie: 26/03/2025

Dans ce deuxième épisode de news pour mars 2025, nous évoquons la réécriture de TypeScript en Go, Electric SQL dans sa version 1, l'arrivée de Lynx JS pour le développement cross-platform, Nuxt v3.16 avec l'hydratation différée, et PGLite qui vous permet d'utiliser Postgres dans le navigateur. Nous aborderons aussi un outil pour créer des Grids avec Tailwind, ainsi qu'un article comparatif entre Next.js et TanStack. Enfin, dans la rubrique IA, nous vous présentons la montée en puissance du MCP, Cline Bot AI, Triplex (2D/3D), la Meilisearch Launch Week, le Vercel AI SDK v4.2, et les toutes nouvelles réponses des APIs d'OpenAI. Retrouvez toutes les notes et les liens de l'épisode sur cette page : https://double-slash.dev/podcasts/news-mars-rc2/

Bonjour à tous, bienvenue sur ce nouvel épisode de Double Slash. Bonjour les devs. Salut Alex,
comment ça va ?
Salut Patrick, salut tout le monde, ça va bien. La saison de ski continue donc c'est
cool. On revient sur cette RC2 donc la candidate release deuxième version du Bonne Mars avec
l'actualité où on va parler de TypeScript, où il y a une petite fusion avec du go je crois,
on va parler de synchronisation de DB, on va parler évidemment d'IA, on va parler du
nouvel acronyme qu'on voit partout, MCP, à quoi ça sert, donc on va aborder un peu tout ça
sur ce nouvel épisode de Double Slash. Mais juste avant de commencer on pourrait déjà remercier
tous ceux qui nous sponsorisent via le GitHub sponsor qu'on a mis en place. Il y a des gens
qui nous donnent One Shot, il y a des gens qui nous donnent tous les mois un grand merci à eux,
ça nous fait super plaisir que vous nous écoutiez sur YouTube ou sur Spotify ou sur votre
appli de podcast préféré. Sachez que vous pouvez nous soutenir aussi et si vous pouvez pas le faire
financièrement, faites-le avec un petit pouce, un petit commentaire, ça fait toujours extrêmement
plaisir. Merci à vous. On attaque, on rentre tout de suite dans le vif du sujet avec une punchline
qui est assez forte où on nous annonce TypeScript qui va être dix fois plus rapide. Est-ce que
on n'est pas rentré dans un truc un peu marketing où on nous promet des trucs de ouf juste pour dire
c'est juste plus rapide et ça va être mieux ou vraiment il y a un gain significatif ? Non,
c'est un vrai truc. A priori ils ont écrit TypeScript en go. Alors il faut savoir que TypeScript,
tu vois, j'ai fait une recharge pour se me dire mais en quoi c'est écrit TypeScript au fait ? Je me
suis dit c'est peut-être en C ou un truc comme ça. Et puis en fait non c'était écrit en TypeScript,
en fait TypeScript et t'écris en TypeScript, c'est inception. Et du coup ils l'ont écrit en go.
Alors tout le monde a commencé à mettre mais pourquoi pas en Rust ? Oui, c'est vrai pourquoi pas en
Rust. Mais bon, je ne sais pas s'il l'explique pourquoi en go mais en tout cas ils ont fait
toute la récriture et après les premiers tests, la compilation de VS Code par exemple,
elle est juste dix fois plus rapide avec cette version go. Donc gros gain de performance,
donc c'est vrai que pour les grosses applications ça peut être intéressant. Ça sera beaucoup plus
rapide, ça va répondre plus vite au niveau du type page et donc ça va être déployé.
Par contre est-ce que c'est plus rapide pas spécialement à l'exécution ? C'est au moment
de ton build, parce que vu que ton TS en fait il va être construit donc ton appliquatif,
elle elle ne va pas être plus rapide, c'est juste au moment de ta construction de ton
application, de ton build, vous là ça va être beaucoup plus rapide ? Oui de toute façon oui,
au niveau du build même si petit à petit il y aura de moins en moins de build puisque c'est
censé, enfin bon, le live type script, nod, le live type script donc de moins en moins de cible.
Mais par contre, enfin je ne connais pas le process de quand tu écris des fichiers en type
script, je pense qu'à un moment donné les fichiers compilés à la volée et puis peut-être
analysés tu vois, peut-être ça va aller plus vite, enfin après je n'ai pas testé encore
pour l'instant mais en tout cas ils annoncent quelque chose de beaucoup beaucoup beaucoup plus rapide.
Donc pour l'instant c'est pas encore déployé et ça sera déployé totalement je crois fin d'année
ou en tout comme ça, ils le notent mais on peut déjà tester et puis l'installer etc.
Yes, autre mise à jour un petit peu plus graphique cette fois-ci, on est dans le rebranding,
tout l'écosystème thaiouine avait explosé dû à une librais qui s'appelait Thaïwyn UI et Adam Watan
qui est le créateur de Thaïwyn annonce en fait via le blog qu'il rebattise cette librairie on
pourrait dire ou cette librairie de composants Thaïwyn plus, ça s'inscrit un peu dans l'évolution
de la version 4, ils font un rebranding, ils changent le UI et ils mettent plus quoi.
Il n'y a pas de coups supplémentaires, il n'y a pas de besoin de se réinscrire,
quoi que ce soit de repayer, c'est vraiment du rebranding, il n'y a pas de gros changement.
Mais dans le dernier épisode il y a un auditeur qui a mis un commentaire comme quoi on n'avait pas
parlé alors voilà c'est fait, on en a parlé.
Merci d'avoir laissé un commentaire de nous dire, hey les gars vous n'avez pas parlé de ça
et effectivement on va dire que dans l'écosystème Thaïwyn c'est quand même important donc très
bien, chose qui est désormais faite, merci à lui en tout cas.
Là j'ai passé des projets sur Thaïwyn 4, est-ce que tu as réussi à faire ta migration?
Non j'ai pas.
Parce que la dernière fois tu me disais que c'était la merde quand même.
Non j'ai pas eu le temps de me remettre dessus, par contre j'ai un starter theme que j'utilise qui
était sur Thaïwyn 3, j'ai passé sur 4 et j'ai du modifier pas mal de choses parce qu'en fait ce
système de variable CSS ça change beaucoup de choses et c'est à dire qu'on ne peut pas récupérer
des infos, tu fiches, en fait si tu suis vraiment le système avec les variables CSS tout ça,
le thème et tout ça, tu ne peux plus faire comme avant récupérer des variables, enfin rajouter des
variables dans le JS, dans le Thaïwyn.com, ça change pas mal les choses, j'ai dû faire un système
qui va générer un fichier CSS avec des variables dedans que je vais chercher ailleurs etc.
Tu vois ça marche pas du tout de la même façon mais par contre après ça va nickel,
là j'ai repassé sur un 3 en ce moment et tu me réadapte au niveau du cerveau.
Ouais c'est toujours pareil, c'est à chaque fois que tu fais une migration, il y a une nouvelle
manière de faire et c'est vrai que parfois ça peut amener de la friction pour passer sur cette
dernière version et souvent quand on passe à la nouvelle, bon ben c'est complètement adopté,
je me rappelle de la version 3 avec survue ou avec la composition API et là tu dis
ah mais non, mais non, mais non et en fait tu mets, il y a tellement de friction au départ
que quand tu fais l'effort après tu dis ah ouais en fait non mais c'est super bien et revenir en
arrière c'est très difficile mais on est dans la période où là ça va on passe cul de l'un à
l'autre et c'est jamais agréable parce que on a les deux configs qui tournent un peu en même temps
et il faut qu'on fasse le switch mental à chaque fois. Il y a des trucs super intéressants tu vois
par exemple les variables CSS tu peux les utiliser maintenant avec un bg tirer tu fais des
parenthèses et tu mets url de point et la variable en fait sans marquer le var et là du coup si tu
as une image dans une variable en fait ça te génère le truc et tout c'est bien intégré en
fait les variables CSS je trouve ça vraiment pas mal si bien qu'au bout des moments je sais ce que
c'est justement ça c'est tu te dis je peux pas le faire avec le 3 c'est un petit peu gênant tu vois
voilà on s'habite vite toujours non c'est pas mal yes on avait déjà parlé de
htt pie qui est alors on avait fait un workshop où justement on l'utilisait pour en substitut on va
dire à au fameux commande curl curl qu'on connaît tous dans le terminal il ya un autre système qui
s'appelle htt pie mais il existe aussi une version desktop et une version web app qu'on peut
directement utiliser c'est clairement dans du même acibi que insomnien ou postman voilà c'est
exactement pareil on va ou bruno aussi on avait parlé de bruno et donc et donc c'est une autre
possibilité c'est vrai que si on utilise sur le terminal htt pie ça peut raisonner et les
requins dirait faire sens de l'utiliser aussi pour donc en tout cas on voulait en parler on voulait
aussi rappeler que on avait abordé dans un précédent épisode quelque chose qui s'appelait htt
pie et aille et donc c'était une version amplifiée on va dire assisté pour aller récupérer les api
plus ou moins public et en fait on écrivait notre phrase on va dire en français littéral et ça
allait automatiquement générer et créer la requête directement basée sur l'api qui a été
plus ou moins public donc ça super super rapide on voit la démo par exemple comment récupérer
des hippo github on va automatiquement avoir la bonne url avec les variables à remplir donc
plutôt plutôt intéressant mais il me semble qu'on avait déjà parlé je crois non mais il me semble
exactement exactement c'est un super outil c'est un super outil on vous invite à aller checker
c'est dans les apes les apes qu'on avait dit on parlait dans l'épisode sur les apes mais je me
referais voilà c'est fait autre autre nouvelle mise à jour d'un sujet aussi qu'on avait
teasé un peu je crois que c'était en beta et là maintenant ils sont sortis en version 1.1
non 1.0 donc vraiment la version ok il sort de la beta c'est électrique et électrique comment
on pourrait simplifier le truc c'est ça fait quoi exactement sur notre base de dénivement
alors j'ai pas lu totalement le truc mais en partie c'est une sorte de synchronisation de
data mais sans faire du fetch en fait donc c'est ce qui c'est ce qui explique beaucoup c'est une
nouvelle approche où tu dans ton app en fait on veut te faire des fetches pour les chercher
des data pour se synchroniser toute seule et en fait le système c'est ça en fait c'est une
synchronisation de entre alors je sais pas exactement comment ça marche en local par
rapport à la base de données en remote mais j'ai pas approfondi à fond faudrait que je teste
quoi mais en gros c'est ça c'est une synchro au lieu du fetch et d'ailleurs ils opposent un petit
peu les deux le fetch contre le fin la différence entre les deux donc voilà en fait tu vas rajouter
imaginons que tu fais que tu vas faire un formulaire où tu vas rajouter quelque chose des data et
tu les envoies et après tu t'occupes pas du reste ça va automatiquement synchroniser et ça va
s'afficher dans la liste et surtout toutes les personnes qui ont les droits sur cette table en
fait on recevoir les informations directement dans leur inviguateur et donc ça vient un peu supprimer
toute cette phase d'api en fait où on va envoyer de l'information récupérer de la mise
des informations il ya quelqu'un qui va faire une mise à jour ça va être automatiquement
synchronisé avec toutes les toutes les toutes toutes les toutes la sémantique qui a sur ce
qu'on appelle de l'optimistique c'est à dire ok je t'envoie l'information je vais t'afficher comme
si la réponse était bonne mais j'attends la réponse du serveur là pour le coup en fait c'est
vraiment un autre paradigme et je pense que pour toutes les applications dit local first c'est
à dire qu'on va enregistrer les données directement sur la machine que ce soit dans le
navigateur ou par exemple sur un téléphone en fait les données vont d'abord être synchronisées
sur le téléphone et après potentiellement envoyer sur le cloud ou sur un serveur distant pour aller
enregistrer ces données là pour les synchroniser avec d'autres personnes possiblement ouais moi
je suis complètement IP et malheureusement j'ai pas trop le temps de tester ça en ce moment mais
ça me paraît une super techno par contre je pense que c'est un shift total en termes de
développement quoi il ya plus de pays ou de mutations de query de tout ça là en fait tu vas
uniquement synchroniser tes autorisations de ta base de données locale et distante et c'est lui qui
va faire un peu tout seul en fait ouais après alors ouais il ya un nouveau langage où il parle de
en fait si on va voir dans la doc tout ça il y a les shape il peut il ya un nouveau langage il y a
aussi alors ce qui est bien c'est qu'ils sont ils s'adaptent à beaucoup de frameworks quand tu
vas dans la doc il y a des adapteurs tout ça machin il y a plein d'exemples sur les différents
frameworks donc pour l'implementer il ya pas mal d'aide et puis après il ya aussi deux alors
c'était marrant parce qu'hier je m'amusais il ya deux démo j'étais sur la démo hier et puis en même
temps il y avait d'autres personnes et rajouter des data et tu les vois y apparaître enfin voilà c'est
ça c'est marrant quoi c'est ça a l'air pas mal du tout mais moi aussi j'ai bien envie de tester
là ouais ouais ouais et je pense que sur sur des applis un peu où il ya vraiment du monde ou en
local par exemple quand on est en montagne il n'y a pas toujours de réseau bah l'idée ça serait
d'envoyer les infos sur la base de données locales de ton téléphone et quand le réseau
réc... quand on récupère le réseau beam ça synchronise directement ça ça peut être super
intéressant comme comme comme techno quoi top ouais c'est pas mal allez on reste sur la partie un petit
peu native et téléphone téléphone avec un est ce que c'est à quoi c'est un nouveau framework c'est
une nouvelle un nouveau manière de faire en tout cas c'est tout un écosystème qui a pour but de
faire d'écrire une seule fois du code et de générer plusieurs applications android ios et du web
est ce qu'on pourrait dire que ce nouveau système qui s'appelle l'unx l'unx js est ce qu'on pourrait
dire qu'il rentre en concurrence direct avec react native ouais ouais c'est ça c'est tout à fait ça
c'est un framework était on lancé par by dance by dance c'est les mecs qui font tick tock donc
c'est grosse boîte quand même et donc ils ont petit appui ouais ouais et donc c'est qui valent
un acte natif c'est un peu le même système avec flotteur react native donc on a un troisième
challenger alors évidemment ce qu'on l'écosystème est très très nouveau on va dire qu'on n'a pas
l'écosystème de réact natif qui existe depuis dix ans déjà maintenant donc qui quand même
assez fourni en librairie et tout en component et tout ce qu'on veut mais mais l'idée est plutôt pas
mal et puis voilà il est concept intéressant alors le c'est ça fonctionne sur deux runtime en fait
c'est donc c'est du js d'accord d'accord d'une runtime js qui va c'est le main trade qui va s'occuper
de tout ce qui est pixel affichage pixel etc et ensuite un background trade sred qui s'occupe de tout ce
qui est en background qui n'a rien à voir avec l'affichage donc tu as deux traits séparés donc
déjà concept un petit peu nouveau quoi tu vois deux runtime ouais ça a l'air franchement pas mal et
surtout en fait ça te permet de de de de de concevoir nativement fait de manière par design en
fait ton frémoire qui est déjà câblé comme ça où tu vas pouvoir exécuter des tâches en tâches de
fonds sans pour autant altérer la performance de ton appui visuel ça ouais donc surtout ça c'est
ce qu'on reproche beaucoup enfin les développeurs natifs reproche souvent la performance etc
sur rapport au modèle hybride comme ça donc ils ont fait ça donc c'est relativement performant
d'après ce qu'ils disent après il y a des choses qui sont eux ça prend en charge le css par défaut
il n'y a pas besoin de faire enfin tu vois là tu mets les css normales dans tes éléments ça marche
puis après voilà il y a des éléments qui sont tu vois les éléments texte images etc qui sont
déjà après des components et puis normalement c'est framework agnostique donc là il y a il met
en avant les exemples avec réacte tout ça mais normalement ça fonctionne aussi avec vue etc
ouais par contre ça ça ça peut être super intéressant parce que c'est beaucoup plus inclusif
on va dire et ça s'inscrit toujours dans cette tendance de framework agnostique on donne une
technologie par contre tu viens avec ton background et ce qui pour le coup en fait est vachement plus
facile de faire une migration sur ce type de technologie parce que tu n'as pas à tout récrire
ou à faire l'effort d'apprendre un nouveau framework voilà si tu as plutôt l'habitude d'utiliser
angular bah potentiellement tu vas pouvoir créer ton ton appli android ou us avec avec ce système là
quoi donc intéressant après ce que je voudrais voir c'est est ce que tu es obligé de tout écrire
dans leur système ou tu peux faire une espèce de portage si tu as déjà fait du web tu viens porter
pour tu as je sais pas c'est jamais c'est jamais simple non de toute façon la solution c'est pas
aussi simple que sur la doc après ce qui est sûr c'est que ça reste même si derrière comme tu
dis il ya tiktok qui est quand même une grosse boîte ça reste un framework qui ou en tout cas
une librairie ou en tout cas un outil plutôt récent donc avant de se jeter corps et âme sur
un site en production sur ce type de système ouais peut-être qu'il faut laisser le temps au produit
de maturer un petit peu avant de se jeter directement dessus quoi mais en tout cas c'est prometteur et
ce qui est sûr c'est que nous on va garder un œil dessus pour voir comment ça évolue carrément
et donc il ya même un petit article ou il vient expliquer tout le tout le concept évidemment
toutes les tous les articles tout ce que vous voyez et si vous nous écoutez sur le téléphone
en podcast audio sachez que tous les liens de l'épisode vous pouvez les retrouver évidemment
sur le site internet directement de double slash podcast hop allez petite mise à jour du framework
next nukes petite grosse alors gros grosse grosse évolution sur 3 point 16 qui est le plus gros
truc selon toi à pas moi je sais ce que je fais selon moi c'est pour ça que je l'avais je voulais
en parler c'est que c'est l'hydratation en fait tout système de nouveau système d'hydratation donc
c'est au niveau de la performance et on peut décider les components si ils sont hydratés
de suite ou plus tard ou à quel moment ou à tel événement etc donc ça c'est pour moi c'est
génial parce que c'est alors on en parlait avant l'épisode j'ai déjà oublié le nom du
assez quick voilà le framework quick qui avait ça un petit peu intégré par défaut ou des choses
qu'on peut retrouver sur astro voilà des éléments qui vont être chargés en fait tout le javascript
va être chargé au moment où il va être visible à l'écran et pas avant donc ça c'est pas mal
parce que ça permet de te délayer comme on dit en français différents différents
et retardé en fait le chargement de ressources qui peut être assez lourdes du coup ta page est
chargée rapidement et tout le reste il est chargé uniquement quand il est visible ou quand il y a
un événement donc c'est un gain de performance énorme et ça on peut le gérer avec ce nouveau
système de component les y machin alors on pouvait déjà le faire avec par exemple du on
mettait du vif et la révision c'était que ça soit dans le viewport tous les choses comme ça
sauf que là maintenant en fait c'est intégré de manière native et donc c'est le framework qui
gère ça donc t'as pas à coder un espèce de sur couche pour implémenter ça et on se rappelle
qu'on pouvait déjà faire du lazy on mettait le lazy et derrière on mettait la condition pour que
ça se déclenche là c'est totalement intégré c'est beaucoup plus visible et facile on a plein de
possibilités clairement c'est une source qui est là on parle bien par contre de d'hydratation de
non pas des données mais bien des composants c'est les composants et donc à l'intérieur de ces
composants si on doit faire appel à des données bah si les siles composants n'est pas chargé de toute
façon il ne va pas appeler les données mais mais en tout cas c'est top ça c'est vraiment vraiment
puissant et je pense que en termes de de rapidité d'exécution après au niveau pour les utilisateurs
finaux je pense que c'est un vrai gain et je pense que ça vaut vraiment le coup de se plonger
dans ce système là pour pour aller chercher de la perte quoi vraiment c'est primordial c'est
pas d'usir si tu l'utilises pas c'est dommage parce que c'est ça permet vraiment de gagner en perte
avec finalement c'est pas très compliqué comme je dis comment on discutait de tout à l'heure c'est
ce serait des formuleurs que t'en bas de page ou des choses comme ça qui sont peut-être jamais
vues par les mecs qui va charger la page ça sert à rien de charger la ressource de ce formuleur
alors qu'il n'est jamais vu tu vois donc c'est un truc que tu peux hydrater plus tard donc ça c'est
un exemple il y en a plein comme ça où tu peux vraiment gagner du voilà et c'est toi en moins
aussi chargé et c'est un côté écologique ouais ouais moi je m'occupe surtout surtout de l'utilisateur
quoi c'est je prends toujours l'exemple un peu alors c'est un peu méchant et un peu facile mais
je charge l'intégralité de mon site wordpress pour afficher pour afficher une seule page la page
de login quoi tu vois non mais je t'acquine je t'acquine je t'acquine non mais dans l'idée même
si aujourd'hui beaucoup de donc nex next tout ça vient viennent faire en fait du du trichaking
où ça vient découper en fait tout tout toutes tes pages et ces pages sont chargées au fur et à
mesure et là en fait avec cette nouvelle technique on a un niveau de granulométrie encore plus
élevé où au sein de la page on peut découper les composants pour justement en fait les chargés
au fur et à mesure de la navigation ce qui fait que la première impression waouh c'est super rapide
quoi donc ça c'est c'est bien et surtout on n'affiche pas l'intégralité du site pour consulter
qu'une seule page quoi donc donc top ça c'est le debug je t'avoue ça c'est top même si aujourd'hui
sur next le dev tools natif de nukest est vraiment super bien fait ça nous permet de voir tous les
états les states les payloads qu'est ce que j'ai chargé qu'est ce que j'ai pas chargé est ce que
voilà c'est vraiment top est ce que le module est bien chargé le module n'est pas chargé le plugin
est chargé le plugin n'est pas chargé et là en fait il vient de nous donner encore accès à encore
plus de features de debug et donc top top ici top ici et ça me fait penser ça me fait penser il
a une nouvelle j'ai oublié son nom comment c'est son nom son pseudo sur twitter gât bordo
qui fait du pas mal d'open source il a sorti une nouvelle librairie de fetching pour vu là et
j'ai oublié bah ça sera dans le prochain épisode on en parlera dans le prochain épisode top ouais
c'est ça et toujours toujours nitro évolution de nitro ni nitro c'est la partie back end donc c'est
la partie vraiment serveur de nukes et pour le coup on tend vers du e s n e s m pardon e s m en
lit et donc grosse mise à jour de toutes ces de toutes ces librairies grâce à tout l'écosystème
en js si vous êtes développeur js je vous invite à les découvrir toutes ces collections de tous les
petits outils en fait qui nous permettent de d'utiliser par exemple l'url ou ou des cookies
ou le chemin de fichier ou des choses comme ça tout est open source et disponible directement
dans cet écosystème en js top top ici yes allez on repart un petit peu sur ces bases de données
dans un peu dans le même acabique électrique en même temps c'est un peu écrit par la même société
un outil qui s'appelle pg light c'est une base de données pos grèce dans ton broseur et qui
est un peu plus léger et tu as pas toutes toutes les fonctionnalités quoi c'est à dire est ce que tu
as des trucs des fonctions des choses comme ça regarde remonte un petit poil juste en dessous
là attend c'est marqué donc c'est trois méga bit jésiper et support formini pour l'extension tu
vois ils ont pg vector tu peux utiliser pg vector dedans donc oui ça supporte des extensions
tout ça après il n'y a peut-être pas tout non plus parce que du coup un moment donné mais les
extensions c'est c'est déjà c'est déjà hyper avancé et non parce que une fonction une fonction
d'en post gré voilà déjà tu peux faire beaucoup de choses tu peux custom déjà beaucoup de choses
et donc toujours dans ce même délire de de synchronisation local en tout cas là tout est dans
le navigateur grâce au module wasm quoi top tu vois tu peux très bien en parler de l'inx juste
avant bah si tu peux tu as un vais tourner dans l'inx avoir à voir ça serait cool d'avoir une pg
light d'implication native l'inx etc mais de toute façon après il y a peut-être un espèce de fusion
qui va se faire dans de tous ces nouveaux outils en fait et donc ça nous force en fait une fois
de plus à repenser le paradigme d'ailleurs ok qu'est ce qu'on a à notre enfin qu'est ce qu'on
a sur la table en fait pour écrire la fonctionnalité qu'on veut quoi et souvent on dit bah voilà je
vais faire mon appli en programmation objets comme ça je vais faire une api tout alors que
possiblement il y a d'autres manières de fait il y a d'autres manières de faire des nouveaux
paradigmes qui nous permettent en fait d'aller chercher beaucoup plus de perf ou de rapidité de
synchroniser de synchroniser du real time des choses comme ça super intéressant et super
excitant aussi parce que notre manière de faire en fait potentiellement elle peut vite changer
et elle peut vite évoluer vers vers autre chose quoi ouais puis c'est surtout que c'est beaucoup
aujourd'hui c'est vachement plus facile de faire des choses avancées alors qu'on est vieux mais
à une époque c'était compliqué des choses que tu n'étais pas possible là tu vois aujourd'hui
tu peux avoir une base de données dans ton application c'est quand même quoi ouais je suis
d'accord avec toi mais quand tu discutes avec des jeunes qui débutent et pour le coup dites-moi
en commentaire si vous êtes d'accord avec ça c'est que il y a aussi l'effet inverse c'est à
dire que quand t'es junior en fait il y a tellement de choses que tu sais par quoi commencer en
fait il y a tellement de solutions tu vois des diens non mais en fait ta base de données tu la mets
en local non mais non mais tu la mets dans ton navigateur avec du wasm mais non mais pas du tout
tu la mets sur du cloud maintenant tu t'en fous t'as partout une connexion tu vois et en fait
beaucoup de juniors disent non mais en fait il y a tellement plein de manières de faire que au
final on sait pas comment on sait pas choisir tu vois et on et c'est hyper difficile et donc
ouais pour le coup et tu fais un peu l'ancien tu vois en mode ouais non mais en mode montant c'était
super du tout tu vois et au final je pense qu'il faut trop toi tu le choix exactement mais exactement
exactement en fait on est dans un confort technologique ou à notre service on a
multiples solutions par contre qu'est ce qu'on va choisir la pertinence là on revient sur
sur sur sur des sujets qu'on aborde souvent dans sur sur le podcast et voilà comment
choisir une librairie comment choisir une techno quelle est la maturité de la techno l'équipe
voilà il ya plein de facteurs qui vont faire que on va choisir une solution particulière
mais c'est pour ça qu'on est quand même vachement bien c'est pour ça qu'on écoute double slash
exactement allez on repasse un petit peu sur sur des choses un petit peu plus légère et colorée on
va dire si vous êtes adeptes de tellouine et si vous avez déjà pranchi le pas de passer sur des
gris pour organiser vos composants vos layouts ou en tout cas pour structurer vos votre html
et ben peut-être que vous avez été confronté au fait que tellouine plus gris c'est un petit
peu plus compliqué à mettre en place et c'est là où ce super outil vient à notre aide où en
fait on vient rentrer notre grille et ça va automatiquement en fait nous des si nous mettre
en avant en fait le html qui va être directement à générer dessous qui qui va être généré
dessous parce que sur tellouine il ya ses concepts de gris de de de de gris de il ya aussi la
spécificité tellouine qui peut être un petit peu plus compliqué avec ses les spannes voilà
c'est pas toujours facile quand on commence ouais mais c'est tout y est sympa alors je
je rentre à ces arts et c'est régi trichard qui en a parlé donc je lui ai piqué de lien et j'ai dit
j'en ai parlé dans les news donc l'outil est plutôt pas mal en fait c'est parce que moi je
pousse mes clients à faire des bentos donc ce style de choses là qu'on voit à l'écran plutôt que de
faire des carousel parce qu'ils me cassent les pieds avec leur carousel en mettre partout
je suis poli oui et je leur dis mais faites des bentos c'est vachement plus cool en plus c'est
plus tendance en design en ce moment et voilà donc un outil là qui permet un peu de faire les
bentos avec des taillements classe et pour le coup c'est un peu dans l'air du temps les bentos
complètement mais complètement après il faut convaincre le designer ou en tout cas c'est pas
hop hop hop je critique c'est pas bien je vais proposer des stages d'intégration au designer pour
leur faire voir comment ça s'intègre sur les mobiles leur design comment ça péter des
câbles en ce moment donc en tout cas un super bel outil qui nous permet en fait de générer des
grides des bentos assez facilement et donc et c'est hyper visuel et on a notre code qui est
automatiquement généré on ne peut pas faire un épisode sans parler de next patrick t'es d'accord
en bien ou en mal mais on en parle voilà je sens une petite pointe d'amertume dans le bon
moment c'est comme c'est en ce moment ils en prennent plein la tête ils sont beaucoup attaqués mais
c'est normal ceux qui sont leaders sont toujours plus attaqués que les autres mais c'est c'est sûr
en tout cas un petit article qui est écrit par cal jeal qui est un software engineer très bien
et qui met en avant en tout cas next js contre tan stack on va dire qui est l'écosystème un peu
en le on va dire le nouveau le nouveau truc ouais c'est le nouveau challenge exactement merci
ouais c'est exactement ça les grosses hype sur sur tan stack en tout cas beaucoup de gens font le
switch et là il nous il nous met en avant en fait bah un comparatif très clair sur sur les deux
manières et sur les deux approches pourquoi ça peut changer petit article sympa si vous êtes
avec de lecture évidemment je me fais penser j'ai oublié de le mettre dans les news il y a une petite
faille de sécurité sur le next js là depuis deux trois jours et il faudra donc il y a des versions
qui vont corriger donc si vous êtes sur le next js c'est de vous informer là dessus parce que il
faut enfin en envoyant à édder une certain édder tu peux injecter un ex-js donc attention à ça
fait voilà allez voir sur la doc next mais on mettra peut-être le lien à posteriori
exactement on mettra le lien sur sur sur l'évolution yes et pareil tu parles de sécurité
là on a un petit article aussi qui on vient aborder en tout cas l'auteur vient de vous démontrer les
dix plus grosses erreurs que font les développeurs php en 2025 qui peuvent complètement casser leur
leur application et donc on les prend une par une et il nous explique comment en fait éviter de
faire ces erreurs là est ce que c'est pas un peu ces bateaux ou ces niveaux un petit peu plus plus
non c'est intéressant parce que c'est toujours intéressant de rappeler un peu les bonnes
pratiques qu'on a tendance à procrastiner ou des choses comme ça mais bon voilà nettoyer les
données avant des insériments d'attent en base de données etc il ya plein d'exemples comme ça
qui sont assez oui basique c'est la base mais c'est toujours intéressant de les rappeler
ouais gérer les erreurs et tout ça les écriptions des trucs à la con que tant
d'applications ne marchent pas et tu sais pas pourquoi parce que tu n'as pas levé une exception
parce que le json il marchait pas il était pas là où il était pas présent et tu cherches
pourquoi ça marche pas alors qu'il suffit de lever une exception un try catch voilà les versions
de php attention la connexion de la base enfin voilà il ya plein de voilà des bonnes pratiques
voilà d'accord et alors moi pour le coup je n'ai aucun noy critique là dessus ce que je ne fais
pas de php donc je ne pourrais pas dire si c'est un niveau on va dire basique ou c'est déjà un niveau
assez avancé quoi aucune non c'est vraiment des rappels voilà et qui peuvent être très
intéressant pour des gignants comme pour des seniors parce que parce que par flèvres exactement
exactement par par soucis de rapidité on dit ouais non mais je presse à plus tard je presse à plus
tard et au final tu ne fais pas et tu ne s'en prends et bien sûr bien sûr donc autant apprendre
tout de suite et une un petit des petits guidelines sont toujours les bienvenus amateurs de php on vous
invite à lire cet article super intéressant et on bascule dans notre brique ya avec ce nouveau
la chrony me qu'on trouve partout et qu'on voit partout qui est le mcp ça y est le le mot est
lâché on devait en parler dans les yeux ben oui on n'a vraiment pas de choix donc ce mcp ce modèle
contexte protocole alors clairement qu'est ce que ça va nous amener en fait c'est mcp et pourquoi
c'est annoncé comme la nouvelle révolution en fait le mcp ça a été lancé en novembre je crois
2024 moi j'avais testé dès le début j'en avais parlé mais ça n'intéressait personne c'était marrant
et à la base t'essayais avec claude dextop donc tu faisais mcp serveur sur ton ordi et puis après
tu t'installais claude dextop et tu branchais ton mcp serveur à claude dextop et puis tu le faisais
faire des choses mais moi j'ai vite atteint les limites parce qu'il n'arrivait pas à ouvrir
la fichier depuis de x méga je suis plus enfin voilà j'ai dit mais c'est quoi cette merde enfin j'avais
arrêté j'avais laissé tomber assez rapidement et puis et puis là ça explose complètement depuis
peut-être 15 jours trois semaines voilà depuis février on va dire et ben pourquoi ça explose
ben tout simplement parce qu'en fait avec curseur avec queen surf etc et ben ces éditeurs de code
sont devenus des mcp clients sur lesquels tu peux brancher des mcp serveur et donc ça veut dire
que via ton éditeur de code tu peux demander à ton nia qui est dedans donc ça veut être claude ou
n'importe de d'exécuter des choses via ce protocole en fait donc qu'est ce que c'est le mcp c'est un
protocole c'est une sorte d'app.i avec voilà qui est qui c'est écrit comment on doit voilà faire la
p.i et donc maintenant il ya plein de mcp serveur d'app.i de ça peut être github plein de choses
et ton nia va utiliser ce mcp serveur pour exécuter des choses en fait via le protocole ok donc
est-ce qu'on pourrait dire que en fait ce mcp c'est une sorte de substitut d'app.i c'est à dire
que ça va aller pareil on va on va prendre l'exemple d'une base de données au lieu en fait de coder
tous les endpoints ou de coder la requête SQL c'est le mcp serveur dédié spécifique à
posgré qui va s'occuper en fait de traduire ta demande que tu as écrit de manière littérale
ou de vie à ton prompt ou via ton instruction et lui en fait il va interpréter ça et il va
aller exécuter la requête que tu as demandé spécifiquement dans dans posgré et c'est pour ça
qu'il ya une explosion de mcp parce qu'il va avoir un mcp pour google calendars un mcp pour
posgré pour super base et voilà on va dire tous ces services là pour plein de trucs en fait
exactement et donc ok ok et donc en fait on pourrait dire que c'est un peu l'app.i.dl.l.m on pourrait
dire que voilà c'est ça c'est le moyen de connecter en fait directement et d'utiliser les
fonctionnalités au sein de notre code donc beaucoup plus rapide quoi hyper facile et en
plus tu l'ajoutes assez facilement dans ton editor enfin curseur moi j'utilise pas mais
en ce moment je suis sur windsurf tu te rajoutes en quelques... ouais je te suis windsurf et voilà
moi j'ai une mauvaise expérience j'ai mis un mcp serveur guitable au drawer dessus et puis je lui ai dit
fais-moi une release une version là de 1.0.2 tel machin tel ripo ou un mcp et je sais pas ce qu'il a
foutu il m'a enlevé du code il m'a changé du code et puis en plus il m'a fait une release mais c'était
juste un tag il m'a mis il m'a pas fini le truc bon bref j'ai dû revenir en arrière machin
bidule donc c'était pas très concluant mais voilà après je pense que je m'y prends mal peut-être
si on donne les clés de notre base de données à ce mcp serveur posgré par exemple est-ce
qu'on lui donne pas les clés et potentiellement si la requête est mal faite ou si ce code mcp là
il est plus ou moins bienveillant malveillant est ce qu'en fait on n'a pas un peu des problèmes
de sécurité à utiliser ce type de service en fait de mcp serveur justement moi moi ça
fait un peu peur parce que tu le dis que ouais c'est un peu enfin les gars qui s'occupent de la
sécurité dans des sociétés où ils ont des développeurs j'ai ils vont vite essayer de
fin faut vite s'y intéresser parce que les devs peuvent installer plusieurs mcp serveur sur un
éditeur et on peut potentiellement se retrouver du code verrouler ou quoi dans un mcp serveur et
oui donner des clés à pays et donner l'accès à la base de données ou n'importe quoi et là on
a ouais il ya potentiellement des failles de sécurité parce qu'on est sur un écosystème qui est un
peu à la plug in extension et du coup ça devient vite ça peut être utilisé à des fins malveillantes
donc je pense qu'il faut faire supergaffe à ce qu'on installe déjà et pour le coup après est-ce
qu'il n'y aura pas aussi tout un écosystème qui va qui va se développer sur des mcp on va dire
officiel tu vois c'est par exemple là on est chez néon donc il ya un service de cloud qui va
jamais de la base de données hyper rapide qui va scale et tout ça automatiquement et donc est-ce
qu'on aurait pas tout intérêt à utiliser le mcp serveur qui est officiel ou accrédité en fait par
néon parce que sinon en fait potentiellement il ya une espèce de fork qui est fait et on récupère
des tokens d'accès ou des choses comme ça et là par contre je pense qu'on a un vrai sujet en
termes de sécurité ou c'est super warning quoi parce que en plus on donne les on donne les accès
mais c'est pas qui en lecture là on va exécuter du code donc potentiellement on peut vraiment pas
tout péter mais presque en fait ouais c'est clair attention attention à ce que vous installez parce
que là il ya des listes au somme mcp machin qui en a plusieurs et c'est vrai que potentiellement
dans dans une liste de mcp serveur on peut très bien injecter un mcp serveur verrouler et puis
puis après tu fais ce que tu veux quoi tu récupères les requêtes et tout enfin c'est tu peux facilement
détourner le truc et deux exactement grosses gros gros méfiates méfiates mais en tout cas on
a mis le fameux au somme ouais il y en a plusieurs tous les ripos en fait au somme viennent
de faire une énorme collection de toutes les ressources qui sont spécifiques au mcp et en
tout cas celui ci c mcp serveur mais après tu vois j'ai envie de dire toi je t'expliquais
ma mon histoire de guite bleu jean mais en fait c'est long quand même enfin j'ai trouvé ça assez
long et je me suis dit mais attend c'est le temps que ça le fasse en fait j'aurais pu déjà faire
ma release machin enfin voilà en fait est ce qu'à un moment donné c'est pas c'est pas too much un
peu de c'est un peu high pensement les mcp mais est ce que vraiment certains trucs t'es obligé de
passer par ça et pas tirer pas plus vite en le faisant toi même la mano ça prend 5 minutes
au lieu de 10 minutes avec le serveur c'est je me suis posé la question de jour est ce que est ce
qu'à l'aïe et surtout qui va l'exécuter c'est surtout ça c'est que si tu te donnes ton ton ton
ton applicatif dans la main en fait de quelqu'un qui n'est pas tech potentiellement lui il va pas
pouvoir le faire tu vois et donc en fait moi ce que je vois surtout c'est que ça donne accès à
des noms d'ev en fait de pouvoir récupérer des données de la base de données sans pour autant
passer par un dev pour récupérer ces types de données tu vas pour faire de la l'agrégation
un mec au marketing bah en fait tu lui tu lui donne accès en fait via ce mcp là lui il fait ça
il fait sa requête vas-y donne moi tout tout tu vois la somme de tout ça de tous les articles qu'on
a vendus au mois de juin 2024 et tu l'as et tu es d'un autre côté tu me les compares avec 23 et
tu me le sors sur un tableau bah ça en fait toi tu tu vas le faire une fois mais lui il va peut-être
le faire plein de fois et demain il va vouloir rajouter une option bah il lui suffit en fait de faire
sa phrase correctement et potentiellement le mcp va être assez intelligent pour pouvoir sortir et
extraire les données quoi c'est surtout ça que je vois moi mais t'as raison t'as raison c'est l'exemple
que tu donne c'est vrai que t'as raison parce qu'en plus j'ai vu une vidéo où le mec il avait
branché sur mcp et retable donc il avait fait un faux rt bel un tableau avec les dépenses
chez je sais pas chez amazon machin bidule et après il posait des questions à son nia en disant
bah comment j'ai dépensé ce mois-ci en janvier comment j'ai dépensé chez amazon et combien j'ai
dépensé chez machin et il y a les chercher les colonnes tout ça et j'ai sorti la somme et tout ça
donc oui oui effectivement c'est vrai que pour quelqu'un de non technique ça peut lui apporter des
réponses intéressantes il y a sûrement plein de possibilités mais là c'est vraiment c'est
vraiment il faut quand même savoir que l'mcp c'est enfin le protocole est super récent il a 4 mois donc
encore qu'au début quoi ça reste encore super super en listage quoi oui ça marche allez on reste
dans cette dans dans cet univers un peu il ya tech avec klein kleinie je sais pas comment
kleinie on a plus d'écran ah oui pardon voilà on revient sur sur sur klein on va dire qui est un
collaboratif ai codeur ok ça nous permettent de faire de travailler de manière collaborative
on a tous on a tous les buzzwords on a il ya on a codé on a collaboratif on a open source
full extensif et surtout qui va donner beaucoup d'impact pour les développeurs voilà le marketing
est bon déjà aucun problème on a tout ce qu'il faut un mec qui bosse là bas les chouettes le
qu'est ce que ça fait en fait ça trans alors ça pour l'instant ça marche que sur vs code si je
me trompe pas mais je crois que c'est ça et ça transforme simplement ton vs code en wincerf ou
curseur dans le mode assistant donc voilà tu peux lui poser des questions et il prend la main sur
ton code il va rajouter son pence changer le code etc donc on est vraiment sur un mode va c'est une
extension qui est assez avancée et qui évidemment a des mcp serveurs qui peuvent se brancher dessus
la suite on vient d'en parler donc c'est vrai et du coup sur le site qui est à carrément un
onglet mcp serveur avec toute une liste d'emps et serveurs tu peux chercher les serveurs donc
voilà on en a sous les yeux la rt belg google calendaire super base etc donc tu peux te connecter
et puis demander d'en y a de faire des choses de donner des infos etc nice ok top bien ça
du bon ok et donc ça s'installe directement dans vs code quoi ça ouais ouais ouais nice install
direct vs code par contre niveau tarif pour l'instant et j'ai pas vu d'onglet pricing
ou un truc comme ça donc c'est gratuit c'est open source sur quand même payer les gens mais je
sais pas ok à un moment donné ou en tout cas pour l'instant ils ont pas encore trouvé leur
business model donc pour l'instant c'est gratuit ok il ya des jolis icônes ça paraît pas mal à tester
pour le coup parce que là je pense que la boîte va pas s'intégrer va pas s'amuser à faire des
intégrations de service avec des plugins plus ou moins verrôlé quoi donc potentiellement
passé par ce genre d'écosystème ça vient aussi assainir un peu tout peut-être leur business
c'est leur business model c'est de c'est de toucher de l'argent par rt belg ou des trucs comme ça
quand ils ont des plugins je sais pas peut-être ils créent des serveurs pour les marques j'en
sais rien en fait ce que c'est leur business model mais il y en a certainement mais en tout cas
tu n'arrives pas à le voir et on n'arrive pas à voir et on n'arrive pas à dire ok où est-ce qu'on
met la carte bleue ou à quel moment je vais je vais me faire soit assis ouais parce que tu vois
ça va payer les sources il y a marqué quoi en bas je sais plus open source c'est un peu plus bas
je crois oui t'expliques comment un fouli open source tu vois ouais mais c'est bon tu commence
ok mais vs code ils te disent attendez ça un peu hop donc installe vs code c'est topcline et après
tu tu tu crées ton compte mais pour pour l'instant en tout cas il n'y a pas de il n'y a pas de
business model vraiment non il n'y a pas de carrément établi quoi à tester et puis et puis
si ça passe payant ça passera payant et puis et puis et si c'est justifié et c'est exactement ça
yes allez on reste dans cet univers il y a et là pour le coup c'est pour un petit peu plus les
développeurs un peu plus design 2d 3d qui veulent faire des de la 3d directement mais plus ou moins
sans coder c'est quoi c'est une sorte de de plug-in pour faire de la 3d directement bah et si en
fait ça t'ajoute un rd d'is un visual workspace dans ton éditeur de code donc ça serait pour curso
et vs coach crois oui et qui permet de développer donc après ouais tu fais avec la il y a tout ça tu
va lui dire ouais j'aimerais pour enfin j'en sais rien ce que tu peux dire parce que je fais pas de 3d mais
tu demande un truc en 3d et il va te faire un objet 3d avec avec un visionneur en fait et
après tu vas pouvoir l'incrémenter tout ça donc oui c'est ça c'est un environnement pour développer
des projets avec la 3d de la 2d donc voilà la même même système un peu que client je leur ajoute
à ton éditeur de code et tu vas pouvoir interagir avec l'assistant pour développer un truc en 3d
nice on en finit plus on va n'avoir je pense qu'à chaque épisode maintenant on va parler
d'extension il ya tout ça machin et c'est un peu la suite la suite logique des choses on reste
toujours dans cette dans cet univers il ya on on peut dire que on est tous les deux plutôt fans
de melly search qui est une solution à la base pour le coup pour le coup c'est une solution qui
nous permet de faire du un moteur de recherche au sein de nos propres data c'est clairement un
concurrent open source à algolia mais c'est open source pour le coup c'est franchise et ils annoncent
cette semaine alors on est en plein coeur de cette semaine de lancement marketingement c'est un peu
la tendance on fait non plus une journée de lancement mais on fait une semaine où chaque jour
en fait on sort des des fonctionnalités et là en fait ils ont annoncé de manière officielle donc
c'est disponible on va dire nativement la fusion de la du sémantique et du full texte donc full
texte on va aller chercher les data à l'intérieur la sémantique on va utiliser en fait la
représentation vectorielle de l'image enfin de l'objet en tout cas de toutes les données pour aller
pour aller refaire sortir en fait ce cette recherche et donc la grosse nouveauté qui
met en avant c'est justement cette fonction hybride où on va en fait pondérer entre du full texte
donc des data pur et la représentation vectorielle et donc c'est ce qu'ils appellent
l'hybride search et c'est ce qu'ils annoncent cette semaine sur la première journée ouais c'est ça
tu vas mettre le curseur en fait c'est des paramètres que tu rajoutes pour mettre le curseur
si tu en fait c'est de 0 à 1 et plus tu vas faire le 1 et plus tu vas du vectorielle et plus tu vas
05 au milieu 07 à plus de vectorielle que de texte voilà c'est pas mal
maintenant c'est pas défaut quoi enfin je veux dire tu c'est juste avec quelques paramètres ça
fonctionne et qui dit sémantique qui dit vector dit obligatoirement un modèle et donc ce modèle
il faut prendre notre nos données il faut les injecter dans un modèle pour qu'on sorte cette
représentation vectorielle et donc là ça s'appelle des embedders donc on va prendre l'objet
on va l'embedder pour avoir un autre notre représentation vectorielle qui n'est trop qu'une
succession à un énorme tableau avec plein de points et donc là on peut en fait utiliser à la
open eye, muging face mais aussi aux lamas pour faire en fait toutes ces générations en local et donc
ça c'est super intéressant via en fait via l'arrest API et surtout document template au lieu de
lui injecter en fait toutes les données brutes en agissant un peu sans valeur on va pouvoir lui donner
un template où en fait on vient écrire le prompt et à l'intérieur de ce prompt en fait on va injecter
toutes les données ce qui lui donne beaucoup beaucoup plus de contexte et donc intéressant par
exemple c'est un produit de la catégorie bâbâm le nom de la catégorie le nom du produit s'appelle
bâm il est édité par la marque beam et il a une description produit bâm et en fait ce genre
d'infos en fait va vraiment venir augmenter la qualité de ta recherche sémantique top top
on est au deuxième jour donc il y aura plus de fin voilà sous les jours il y a une petite annonce
c'est assez rapide c'est cinq minutes les vidéos en général trois quatre minutes propre propre super
outil mais le search super outil évidemment versel mais à jour son eai sdk pour parler de
de raisonnings modèles non ils ont intégré les mcp clients évidemment donc ils pouvaient
utiliser des tools mcp des serveurs là et les raisonnings modèles aussi qui donc on a vu arriver
enfin qu'on voit arriver petit à petit et donc c'est un petit peu différent pour les interroger
tout ça et donc la pays se met à jour à pays qui est plutôt bien fait assez simple à utiliser
et voilà sous forme de module npm tout ça donc elle est voilà tes projets de chez versel pour
l'utiliser c'est vraiment une des packages que tu utilises que tu branches sur les différents
modèles provider et puis et pour le coup ils ont réussi à uniformiser tout ça quoi et c'est
plutôt confort quoi parce que si tu veux utiliser un autre modèle ben ben t'as juste à changer un
paramètre mais t'as pas à tout réécrire ton code tout donc c'est très très très très confortable
c'est vachement bien fait allez là tu nous as fait un petit guiste ouais t'es venu utiliser
une nouvelle fonctionnalité de open eye ouais alors open open open a mis à jour en fait ils
sont mis à jour un petit peu leur API pour créer des agents alors maintenant on parle beaucoup
d'agents d'agentique etc donc on est en train de changer les noms on parle plus de chat comme ça
on parle d'agents beaucoup et donc ils ont fait ils nous ont mis à jour leur toutes leurs API
et ils ont sorti notamment une nouvelle response API s'appelle comme ça c'est un peu bizarre mais
ce qui te permet en fait d'utiliser dans ces dans ces appels des outils en fait et donc il y a
différents outils qui sont un par défaut mais après il y a je pense qu'il y en a d'autres qui vont
arriver donc on a notamment celui là le web search preview en fait que tu vas utiliser en
tant que tools quand tu fais ton ton appel et tu vas donner là moi je vais donner les informations
de ma location location et donc je lui ai demandé une question de simplement quel est le prix
moyen d'un appartement paris et il a été cherché sur le net en fait donc il utilise l'outil d'aller
chercher sur le net en plus de générer la réponse et il m'a sorti des liens etc et tout ça
voilà le code est juste sous vos yeux là c'est vraiment juste ce code et ça m'a sorti la
réponse qui est en bas avec les liens etc ça lui donne la possibilité d'utiliser des outils
d'aller chercher sur le web on peut aller chercher dans des fichiers etc donc c'est pas mal ce qui est
super ce qui est super intéressant c'est qu'on voit que en fait on est à la fusion entre des
modèles qui ont été entraînés avec une base de données avec de la data sauf que le modèle
potentiellement lui il va ne plus être mis à jour au moment où il arrête d'être entraîné les
données ne sont plus persistentes c'est fini et là en fait on est en train d'assister à une sorte de
fusion entre la recherche et il y a avec le modèle quoi et les deux sont en train de converger
super intéressant super intéressant ouais c'est pas mal donc ils vont la déployer petit à petit
je crois que jusqu'à mi-2026 elle va encore évoluer tout ça mais voilà c'est une première
version et bah ça rejoint un petit peu voilà il y a tout là et il y a l'article qui explique un
peu tout on n'en est pas entendu beaucoup parler encore mais je pense qu'on entend de plus en plus
parler mais voilà il y a toute cette API qui permet de faire des agents etc qui ressemblent un petit
peu on en parlera dans l'épisode sur les règles de Mastra là à I on avait déjà parlé mais c'est
pareil une notion de tous ce qu'on va rajouter pour qu'il aille faire des requêtes etc donc c'est un
peu le même principe sauf que là bah tu utilises le système d'open AI et ses modèles donc voilà
ils ont tout intérêt à avoir une API qui est quand même assez bien faite pour qu'on continue à utiliser
leur modèle quoi on va vers des choses un petit peu plus sympa quoi une fusion entre au lieu d'avoir
le le le search classique et en opposition avec les lm on est une sorte de dibride qui
reste d'être beaucoup plus sympa une uniformisation aussi des API des SDK pour appeler et pour nous
en fait construire des des agents et voilà plein de solutions qui vont utiliser en fait tout
cet écosystème pour que nous on puisse les pluguer et les utiliser dans nos applicatifs c'est
top mais c'est pas mal nickel patrick écoute on en reste là pour cet épisode ça te va ça roule
grand merci à tous ceux qui sont restés jusqu'au bout de l'épisode un grand merci pour les
pouces les commentaires et pour propager la bonne parole de double slash auprès de tous vos
collègues et on vous dit à très très vite pour un nouvel épisode ciao ciao

Les infos glanées

Je suis une fonctionnalité encore en dévelopement

Signaler une erreur

DoubleSlashPodcast

Double Slash, un podcast sur le développement web. Retrouvez-nous régulièrement pour parler de sujets variés tels que la JAMStack, l’accessibilité, l’écoconception, React.js, Vue.js, Next.js, Nuxt.js, le CSS et des retours d’expériences sur des implémentations.
Tags
Card title

Lien du podcast

[{'term': 'Technology', 'label': None, 'scheme': None}, {'term': 'Technology', 'label': None, 'scheme': 'http://www.itunes.com/'}]

Go somewhere