
Les news sur le développement web et l'IA pour septembre 2025 RC2
Durée: 35m58s
Date de sortie: 17/09/2025
Un épisode news dans lequel nous évoquons : une page Nuxt changelogs, Dia et Arc qui partent chez Atlassian, Google qui conserve Chrome, plusieurs packages NPM compromis, une librairie AI Elements qui devient open-source, Telex IA, comment créer des fichiers llms.txt, comment bloquer les bots AI, FeedSmith qui passe en V2, un article pour conserver son package.json sous contrôle, Codex qui passe sur GPT-5, Apertus, une IA vraiment open-source, et un SDK PHP pour faire des serveurs MCP. Retrouvez toutes les notes et les liens de l'épisode sur cette page : https://double-slash.dev/podcasts/news-sept25-rc2/
Bonjour les devs, bienvenue sur Double Slash, un podcast indépendant qui parle de développement
web EDIA et vous êtes sur un épisode de news, c'est notre deuxième épisode pour septembre
2025 et puis comme d'habitude, nous sommes avec Alex, salut Alex !
Salut Patrick, salut tout le monde !
Donc, épisode de news, on va parler beaucoup d'IA, en fait on en parle de plus en plus
mais c'est un peu obligatoire quoi, je pense.
En fait, est-ce que c'est pas propre et inhérent à notre activité où aujourd'hui
on a des tools, si tu veux, avant on avait des logiciels qui nous aidaient, un algorithme
qui nous aidaient dans notre boulot, aujourd'hui en fait, c'est tools, il y a de l'IA dedans.
Donc, est-ce que d'ailleurs, est-ce qu'on devrait encore utiliser une section dédiée
à l'IA ? En fait, ça fait partie intégrante de notre job, on utilise tous les jours au
quotidien et c'est une suite logique.
Est-ce que notre métier est en train de changer et d'évoluer ? Oui, ça c'est sûr.
Est-ce qu'on va être grand remplacé par l'IA ? Perso, j'y crois pas encore mais peut-être
que je peux me tromper mais en tout cas, ce qui est sûr c'est qu'à nous, d'en tirer
profils et de savoir utiliser ces nouvelles fonctionnalités, ces nouveaux outils qui nous
permettent de faire du meilleur travail plus rapide et donc ça c'est top et donc autant
les découvrir et autant les partager sur WSLASH, tout simplement.
Oui, oui, t'as raison, c'est vrai que peut-être pour... d'ailleurs c'est un peu le cas sur
cet épisode, c'est un peu tout mélangé de l'IA donc petit à petit on va enlever la
nourriture qu'il y a et ça sera juste une news en fait, t'as raison.
Ok, allez on attaque tout de suite avec NUXT, qui s'est fait racheter par Vercel, NUXT
Lab et qui vient en fait avec son nouveau change log avec l'extension Vercel.app quoi.
Ouais c'est un classique.
Déjà le rachat ça fait beaucoup parler, ça c'est clair et puis ouais j'avais justement
dit, bon je vois que t'as remarqué que c'était un point versel, enfin un versel.app donc
là ça marque vraiment le rachat et c'est juste une page de change log qui est assez
stylée je trouve.
Voilà et au fur et à mesure des sorties de nouvelles versions, ça fiche là, je la
trouve très stylée cette page en fait.
Ouais non non elle est vraiment classe, elle est vraiment classe, vraiment top.
Donc on voit quand même qu'il y a encore des, pour le coup en passant on voit qu'il y a
encore des mises à jour sur la version 3, si jamais tu sais, encore la version 3.
Oui c'est encore mis à jour.
Et perso j'ai encore beaucoup de projets qui sont en version 3 et qui ne vont pas passer
en version 4 tout de suite, donc le gros sur lequel je suis là, je vais attendre tout
de suite, pas tout de suite en tout cas.
D'ailleurs le site du podcast a été passé en version 4 pour le coup.
Et non sans mal, on peut le dire que tu t'es quand même fait bien mal à la tête sur cette
migration.
Ouais c'était pas facile, c'était surtout sur Nox content où j'ai, je me suis cassé
un peu les dents mais tout est super à jour là, on est dans les dernières versions
de top.
Au top.
Allez voir Double Slash et vous pouvez directement écouter les épisodes directement sur le
site internet directement.
Autre point qui a fait grincer des dents où on ne sait pas mais c'est Atlation qui
est, on va dire un mastodon qui est venu à racheter Arc mais Arc Dia.
Donc la course au navigateur est un peu terminée ou pas du tout ?
C'est un peu une déception, après c'était pas étonnant j'ai envie de dire.
Alors cette boîte là Atlation, ils sont tendance à racheter beaucoup d'outils et
à les intégrer chez eux, plus ou moins bien on va dire.
Enfin Arc avait été plus ou moins abandonné, ils sont partis sur Dia, ils ont fait un nouveau
broseur avec des intelligences dedans, ça partait un petit peu.
Je ne sais pas le dessous de l'affaire comment est-ce que les fondateurs avaient du mal à
gérer le truc tout ça, je ne sais pas au final c'est racheter par Atlation.
Pour moi à mon avis le broseur est plus ou moins mort, enfin Dia et Arc je pense mais
c'est dommage.
Moi à mon avis c'est fini, ils vont l'interer, ils vont l'utiliser, l'intégrer dans un
autre outil mais je pense que ça va disparaître.
Par contre on avait noté le fait que Google était dans un système de monopole avec son
navigateur Chrome et donc ils avaient dit oui peut-être on va s'en séparer pour éviter
et au final non il ne se passe rien.
Ils étaient obligés, il y avait un procès qui avait été démarré en 2020 sur le monopole
de Google, il y avait plusieurs propositions dont se séparait Chrome etc.
Démanteler en fait ce monopole et finalement le verdict a été rendu et finalement Google
s'en sort plutôt bien, alors après on ne va pas revenir sur toutes les décisions parce
qu'il y a beaucoup de podcasts qui en ont parlé.
Ce qui nous intéresse c'est surtout notre navigateur Chrome qui va finalement racheter
chez Google et c'est plutôt une bonne nouvelle j'ai envie de dire parce qu'en fait vu les
acteurs qui se positionnaient pour racheter Chrome dont OpenAI, c'était pas forcément
une bonne nouvelle de devoir passer ces d'autres gros acteurs donc je pense que finalement
c'est pas mal qu'il reste chez Google et on a quelque chose qui reste stable parce
qu'il fait quand même partie intégrante du web, il est énormément utilisé donc
suivant dans quelle main ça peut passer, on ne sait pas ce que ça peut devenir donc
là c'est plutôt rassurant quand même.
Après et puis au-delà de Chrome même s'il a une pénétration de marché qui est hyper
forte, c'est surtout le moteur qui est utilisé dans plein d'autres navigateurs et tout le
monde.
Donc c'est vraiment le moteur quoi.
Donc il y avait cette question là de Chromium et éventuellement ça le mettaient en péril
et c'est vrai que comme tu dis il y a beaucoup de navigateurs qui sont basés sur Chromium
et là ça fait des compliqués quoi.
Carrément.
Carrément.
Autre pas super bonne nouvelle mais qui nous impacte nous développeurs c'est des
packages qui ont été compromis dans NPM et pas des petits packages en fait.
Non, c'est une mauvaise nouvelle, ça date du 8 septembre 2025 donc c'est très récent.
C'est plusieurs packages, une vingtaine de packages très populaires qui ont été infectées
et compromis et donc c'est une mauvaise nouvelle puisque en fait ces packages sont intégrées
un peu partout en fait on peut les retrouver dans différents frameworks.
Ça fait partie de dépendance de packages et donc ça c'est facilement retrouvé si
vous avez mis à jour très rapidement votre astro comme ça ça peut être potentiellement
intégré dans un des packages de dépendance et c'était une très mauvaise nouvelle parce
qu'en fait l'histoire elle est un peu c'est assez simple c'est qu'en fait un des
maintenance de ces packages c'est tout simplement fait avoir avec un piching en fait.
Il a piching email il s'est fait avoir ça a pris ses accès à GitHub et les personnes ont
injecté du code malveillant dans les packages tout simplement c'est aussi bête que ça et on a eu
pas mal de problèmes puisque c'est des packages qui sont je crois qu'il y a un autre article qui
donne 20 milliards de téléchargement ou 2 milliards de téléchargement.
2 milliards de téléchargement.
C'est énorme.
Fiché tout ça et script a envoyé une nouvelle release sur tous ces packages
là avec du code malveillant à l'intérieur c'est ça.
Alors le truc c'est qu'il s'est fait il a reçu un email provenant d'une adresse qui
imitait NPM en demandant une mise à jour de l'authentification double facteur sauf que
ce n'est pas le vrai site donc il s'est fait avoir ils ont récupéré les jetons double authentification
et ils ont publié des versions malveillantes en fait des 18 packages.
C'est fort.
C'est fort.
C'est très fort.
C'est très fort et en fait il y a de plus en plus d'attaques sur les packages NPM ça devient
quand même inquiétant entre les gars qui intègrent les communautés discrètement et qui mettent
des codes malveillants plusieurs mois après ou ce genre d'attaque c'est quand même inquiétant
parce que c'est ça c'est beaucoup de téléchargement c'est intégré dans tous nos outils et ça fait
un petit peu flippé quand même heureusement ça a été vu très rapidement mais par contre le truc
c'est que le code malveillant il était difficile à lire il est obusqué et ça concerne principalement
tout ce qui est comment ça s'appelle les hétéraumes tout ça des crypto monnaies en fait ça détectait
dans le navigateur des mouvements de crypto monnaies et ça récupérer enfin ça a essayé de récupérer
les crypto monnaies pour les récupérer avec le token machin tout ça.
Une fois de plus la communauté qui est en alerte et qui est plutôt bien doule importance en fait.
Oui ça a été très rapidement en fait alors apparemment 5 minutes après que les versions
malveillantes étaient publiées ça a été détecté donc il y a une alerte dans l'heure et ensuite
voilà ils ont patché etc mais c'était vraiment un gros panique quoi.
D'où l'intérêt et d'où cette solution qui pourrait en fait pallier à ce type de problème
là c'est quelqu'un qui fait une suggestion pour NPM pour PNPM pour en fait essayer de bloquer les
versions pour pas qu'elles se mettent à jour automatiquement.
En fait son idée ça serait apparemment sur PNPM mais est-ce que ça existe que sur PNPM si c'est
le cas c'est dommage il faudrait peut-être intégrer sur les autres outils aussi des gestionnaires de
package mais de définir une date à laquelle tu ne vas pas télécharger la version qui est plus récente.
Enfin il faut aller au-delà de 24h ou 48h ce que tu veux pour dire tu ne me télécharges pas la version
qui est trop récente en fait donc est ce qu'il aurait pu éventuellement tu vois éviter ce problème
si vu que là ça a été détecté très rapidement il n'aurait pas téléchargé et tu n'aurais jamais
eu d'injection du paquet compromis quoi donc ça serait éventuellement une solution donc à voir
mais ça peut être une, ça peut être pas mal à mettre en place.
Après je suis sans doute débile on en parlait tout à l'heure en off mais moi je fiche toutes
mes versions de package pour éviter ce genre de problème là après je sais pas si c'est une bonne
pratique ou pas mais quand je fais ma mise à jour c'est moi volontairement qui fait ma mise à jour
de tous les packages quoi tu vois donc ouais l'installation automatique tu vois.
Non mais ça peut être automatique ou pas des fois tu sais tu peux être après tu peux tomber
au mauvais moment tu te dis t'as fait mettre à jour mes packages tu y vas et tu tombais pile
poil au moment où il y avait des dépens qui ont promis bien sûr donc pas de chance quoi et oui
effectivement on va fixer ça peut être pas mal et tu fixes après quand t'as beaucoup de dépendance
tu veux tester que ça casse rien en fait mais c'est un peu le principe aussi de
beaucoup de cms tout ça où tu vas avant de mettre à jour pour pas péter le site tu vas tester
en local tout ça voilà oui il y a différentes méthodes mais faire attention quoi. Ce qui est
sûr c'est qu'il faut rester vigilant clairement ouais c'est clair. Allez toujours dans cette
dans cette batterie d'open source il y a Vercel revient avec son SDK dédié qui nous permet de
centraliser toutes ces infos et en tout cas qui est une sorte de SDK unique pour aller taper tous les
modèles plutôt bien pratique par contre aujourd'hui il vient sans richir de composants.
Bah ils ont High Element c'est une bibliothèque de composants spécifique pour développer des
interfaces de chatbot qui viennent de rendre open source donc on peut l'utiliser et ça permet
bah voilà il y a des composantes de développer une interface avec les réponses tout ça la
batare le prompt l'input de prompt etc donc il y a plein il y a des artifact pour tout ce qui est
code etc donc tout est là tout est présent donc c'est plutôt pas mal et donc ça c'est open source
c'est uniquement react et c'est chat cn UI donc voilà ça respecte ça respecte les standards un
peu ouais excellent c'est pas mal toujours dans cette délire de chatbox et de pouvoir échanger avec
des composants aujourd'hui automatique donc quelle a société derrière WordPress on est d'accord
WordPress.com tu as raison d'automatique c'est une boîte qui fait alors WordPress est
open source automatique développe des plugins autour de WordPress donc et donc WordPress.com
qui est un débergement que tu peux utiliser un peu comme Shopify tu vois pour développer ton site
c'est une grosse boîte qui fait beaucoup de business et ils ont développé ce alors si une
expérimentation pour développer des blocs gutembert donc spécifique gutembert avec une partie
réacte etc et une partie fronte soit du PHP machin ce ce générateur de code en fait qui s'appelle
tlx qui permet tu dis ce que tu veux comme bloc etc il va te générer le code que tu vas pouvoir
utiliser pour intégrer un nouveau bloc dans ton site donc c'est plutôt pas mal je n'ai pas testé
réellement encore mais apparemment le code qui sort est pas trop mal pas parfait mais assez bien
le code généré est plutôt plus ok quoi voilà c'est de l'expérimentation mais on voit que voilà
dans toutes les comment on appelle ça des générateurs de code je sais pas un peu comme je ne
sais pas comment on pourrait appeler ça mais voilà on voit qu'on les spécialise de plus en plus dans
certaines techno-codes pas mal de toute façon c'est un peu dans c'est un peu la suite logique de
tous ces modèles d'IA on arrive sur de l'ultra l'ultra spécifique et donc le modèle généraliste
qui répond à tout moi j'y crois pas mais en tout cas sur des tâches dédiées bien spécifiques un modèle
soit réentraîné soit spécifié avec des consignes très très claires on arrive à quelque chose de
plutôt qualitatif quand même plutôt plutôt qualitatif donc ça c'est plutôt c'est plutôt pas
mal toujours dans ces dans ce dans cette dynamique en fait d'intégrer toutes ces informations qui
viennent du des modèles il nous faut avant il nous fallait gérer le SEO maintenant il nous faut gérer
aussi ces lm et donc autant générer automatiquement des fichiers plutôt propres pour faciliter la
lecture de ces lm à travers ton site et aujourd'hui fire crawl donc il y a un service qui permet
de d'aller un peu scraper d'aller récupérer de la donnée là il nous viennent avec une cli qui nous
permet en fait de générer automatiquement ces fichiers c'est fameux fichiers alors ils avaient
une interface en ligne qui était disponible ou tu mettes tes tokens et ça générait ça en ligne
ils ont fermé je crois progressivement cette interface pour rendre ce touti disponible ou
tu vas l'utiliser en ligne de commande c'est du piton je crois et il va te générer via l'url de
ton site les fichiers lms.xt et lms tirer full point xt donc le lms.xt c'est une sorte de résumé de ton
site et le full c'est toutes les pages de ton site enfin en tout cas en partie qui sont dans un seul
fichier.xt et après tu vas mettre ça à la racine et le robot est censé venir lire ça plus facilement
alors c'est pas un fichier qui est officiel encore même si moi je l'ai mis sur certains sites il n'est
pas encore reconnu officiellement donc mais bon ça n'empêche pas de le mettre on peut le générer
facilement avec ce touti donc c'est un plus jamais ça fonctionne quoi bien sûr après est ce
que est ce qu'en fait il y a des conventions ou des choses comme ça ou des standards qu'ont
été établis ou aujourd'hui ça reste encore un peu des frichages et d'expérimental.
Honnêtement je crois que c'est plutôt des frichages et expérimental mais après justement
en utilisant cet outil tu as déjà un exemple de format que tu peux reprendre donc éventuellement
modifié tu vois donc non non c'est pas mal après tu sais que j'ai essayé j'ai testé ça marche
nickel. Oui bien sûr après ces boîtes type firecrawl ou d'autres acteurs en fait vont
essayer de vrai pour mettre en place des standards pour justement les gros acteurs en fait après
décideront ou valideront ces standards là mais chacun et chaque société va essayer de pousser un
standard quoi ce qui est logique et après c'est la guerre quoi. Je sais pas si t'as testé
dernièrement mais je me suis rendu compte fiers à mesure que qu'on avance les résultats de chat
gp t ou autres sont de plus en plus ressemblant au résultat de google et voilà donc ça commence
en fait finalement le gi o devient finalement du simple et si au fait finalement c'était bien placé
sur google tu sors les réponses en fait donc perplexity perplexity et enfin le concept de
perplexity de faire une fusion entre du sio et du g et de la génération totale il y a une sorte de
fusion qui est en train de s'opérer clairement. Donc en fait finalement ça change pas grand chose
en fait pour être cité ça revient à peu près même que le si o donc à voir comment ça va évoluer
mais bien sûr. Par contre on a quand même encore le droit de pouvoir bloquer ces agents
il y a à l'inverse. Tu viens pas chez moi je te bloque parce que je ne veux pas que tu viennes
utiliser les données pour venir nourrir ton modèle et donc c'est un peu le pendant de ce
qu'on vient d'évoquer en tout cas l'autre l'autre facette c'est de dire ok comme on a des robots
txt à où on vient spécifier en disant disable tu ne viens pas là on pourrait avec ce standard là
en fait on dit au robot tu ne viens pas. C'est un repos qui contient plusieurs fichiers de
configuration dont le robot txt après acheter access c'était sur des vappages du nj nix du
caddy du haproxy donc t'as des différents fichiers de config qui te permettent de dire au robot
non tu ne crawl pas mon site alors après c'est respecté plus ou moins ça dépend les robots mais
voilà tu as dans ce repos des exemples de fichiers à utiliser pour les intégrer dans tes configs
pour bloquer les robots tout simplement. Alors c'est une question assez assez comment dire c'est
une fois il me dit non mais moi je préfère bloquer ouais mais comme finalement non peut-être pas en
fait parce que j'aimerais bien citer quand même donc tu vois c'est assez mitigé entre je veux bien
être cité mais je veux pas qu'il se crape toutes mes données tu vois. Mais est-ce que tu peux l'un
sans l'autre ? Bah non tu peux pas de toute façon il faut savoir que la plupart des données ont déjà
été scrappées et les modèles ont été entraînés dessus donc c'est déjà trop tard mais à part si
tu sors un site maintenant mais donc voilà la question est plutôt difficile à répondre parce que
je veux bien être cité parce que ça m'a mis une trafic mais en même temps j'ai pas envie que mes
données soient utilisées c'est ça aussi la difficulté tu vois c'est que tes données sont
publiques donc elles sont forcément utilisées donc ils en font ce qu'ils veulent. Malheureusement
Allez on bascule sur un autre standard qu'on utilise souvent en tout cas nous en
tant que podcasteur on a du des fichiers RSS c'est un vieux standard et là en fait c'est une
librairie qui nous permet de mieux les générer ou de les parcer ? Non ça permet de les parcer
ouais principalement c'est une fitness donc il vient de sortir en v2 c'est pour ça qu'on en parle
c'est un système qui permet de parcer différents formats les RSS, générateur on va être raison
pardon c'est marqué aussi parceur et générateur pardon qui permet de parcer des RSS du atome
du tout ce qui est xml en fait ce format là et json aussi donc pour pouvoir les utiliser donc
c'est assez simple tu as une fonction tu mets ton json dedans ton contenu et après tu l'utilises
comme tu veux tu peux typer comme tu veux etc donc c'est une librairie qui est plutôt bien faite
en fait et qui est pratique parce que des fois c'est pas évident de lire du RSS tout ça
ouais bien sûr sur sur sur sur la lecture après je pense qu'un exemple typique ou sur il y a des
services en fait qui font des événements et qui publient en fait ces événements sur du RSS
et donc toi ton site tu vas pouvoir câbler récupérer ce flux RSS et le réinjecter le
reformater autrement mais en tout cas pour faire ton sourcil de données utiliser ce type de librairie
ça peut être super intéressant clairement pour venir les balises spécifiques au RSS tout ça
ça prend puis après je sais pas si c'est dans cette page là mais tu sais tu as du format spécifique
pour Spotify Apple machin tout ça donc voilà des balises spécifiques donc tu vas utiliser
donc il est capable de tout lire en fait c'est ça qui est vraiment en toi youtube et tout toi tu as des
yct de points et tout donc vraiment bien fait quoi typé etc donc très bon très bon outil
à utiliser si vous avez besoin de jouer avec du RSS que ce soit en entrée ou en sortie excellent
article article de blog peut-être un petit peu plus global sur sur les dépendances
c'est un article sur dépendance comment garder le contrôle sur son package point de zone en fait
donc il revient c'est tom mack white qui revient alors il gère une application qui s'appelle val town
je sais pas ce que c'est une application réacte après oui il explique comment il a géré avoir
des bonnes pratiques en fait pour gérer les dépendances et on sait que ça peut être très vite
compliqué sur un projet qui qui dure dans le temps où on installe des dépendances à une époque
est-ce qu'on les utilise encore est-ce qu'elles sont à jour est-ce que des fois il y a des versions
majeures c'est jamais évident en fait donc il donne différents conseils et voilà comment gérer
correctement les dépendances pour que son projet tienne dans le temps et qu'il n'y a pas de problème
justement de package compromis ou des choses comme ça à savoir ce qu'il y a dedans etc donc
ils donnent plein d'outils le npm ls le voilà tout plein de astuce analyser complètement la taille
des modules tu vois là on voit le graphique pour ceux qui sont en vidéo on voit exactement
la taille des équipes que chaque module prend dans ton application voilà choisir comment choisir
les bons modules par exemple critères pour choisir un beau module c'est maintenu activement
documentation correcte type et en type script voilà éviter les modules qui sont pas adaptés
ils donnent par exemple si un autre un autre conseil c'est pour les petits quand tu des fois tu es
un petit librairie un petit module au lieu de l'intégrer dans ton package bah pourquoi pas
bah prendre le code et l'intégrer dans ton application directement comme ça ça bouge plus
t'as pas de package à mettre un jour etc voilà et donne plein d'astuce comme ça et après ils
ont aussi des astuces pour supprimer ce qui n'est pas utilisé gardez les dépenses à jour donc
ils parlent de renovate renovate outil qu'on a mis en place sur le site du podcast qui va dans
github t'indiquer ce qui est à mettre à jour etc et propose de les mettre à jour et après c'est
toi qui publie et il parle de knip aussi qui permet de détecter les dépendances déclarées mais
non utilisées ou les fichiers non utilisées ça c'est pas mal par contre c'est vraiment ce concept
de purge ou ok j'arrête d'utiliser en fait j'arrête d'avoir quelque chose qui traîne dans mon
nod dans mon nod module et package si je ne l'utilise pas et cette petite outil nous permet en fait
de dégager tout ce qui n'est pas utilisé quoi et donc potentiellement de récupérer un peu de l'espace
surtout quand tu surtout quand tu travailles en équipe ou tu récupères un projet que tu n'as pas
mis en place des fois tu sais pas alors pourquoi c'est tout il est là pourquoi c'est pas biège en fait je
sais pas bon éventuellement que ni peut t'aider à dire bah ça c'est pas utilisé tu peux l'enlever
et puis donc il conclut par que les dépendances sont inévitables on construit toujours sur le
travail des autres mais il dit l'idée de pas d'avoir zéro dépendance mais d'avoir les
bonnes bien choisis bien maintenues etc voilà du bon sens du bon sens et je vois qu'il le site
du NGS petite petite petite écosystème js qu'on ne saurait que vous recommandez si vous êtes
développeur js allez voir c'était tout cet écosystème qui reprend soit des fonctionnalités
natives soit des extensions mais en tout cas c'est toutes les briques technologiques sur lesquelles
l'équipe de nux lab a construit nitro donc toute la partie serveur et nukest la partie
serveur et front et donc tout est basé sur sur des briques open source qui font partie de l'organisation
ngs très très bon ça roule yep top vu qu'on est des codeurs et qu'aujourd'hui on ne peut pas
coder sans notre assistant quel qu'il soit github copilote curseur clot si elle a il ou que c'est
on est dépendant de ces modèles d'IA et le nouveau modèle codex n'est pas encore disponible mais
pas tout va pas tarder à l'être si il est il est dispos depuis le 15 septembre donc là on enregistre
le 17 donc ça fait deux jours ils ont annoncé ça codex qui est un vrai comme tu dis un modèle qui
est spécifique pour le code et qui est dérivé de gpt 5 qui sortit début août je pense qu'il
avait déjà testé gpt 5 tout ça l'évolution où il est capable de automatiquement soit répondre
soit les faire une recherche sur le web sans qu'on lui demande voilà c'est lui qui décide ce qu'il
doit faire je sais pas c'est à faire moi sur vs code gpt 5 il est ultra lent en fait je sais pas
c'est déjà essayé toi sur sur curseur toi ouais moi je suis sûr que ça j'ai pas été super
concluant et je les tests ont pas été concluant du coup je suis revenu sur sur sur mon sonnet sur
clône sur sonnet ouais moi j'ai un peu groc aussi j'ai du groc excellent il est pas mal et donc là
codex c'est vraiment la version code quoi vraiment royanté pour les codes est ce que est ce
qu'il est installable en local est ce qu'il est où il se fait que à travers la pays dédiée
donc tu dois pouvoir l'utiliser directement en ligne de commande mais un peu à la clôte tu vois
par contre j'avoue que j'ai pas pu tester dans cette façon là par contre il est pas alors il
est je regardais pas c'est vu que c'est sorti il y a deux jours j'ai regardé dans mon vs code hier
encore il est pas encore dispo en copilote j'ai que gpt 5 et gpt 5 mini mais il devrais pas tarder
à arriver je crois que sur curseur c'est pareil donc voilà à tester et voir voir le potentiel si
la pertinence en tout cas des des informations qui sort et ouais et plus intéressant et surtout
d'ailleurs il déconne même avec contexte 7 je sais pas pourquoi il arrive pas à se connecter
au mcp je sais pas c'est bizarre ok on verra en tout cas si ça amène plus de possibilités et de
toute façon on redit encore la même chose mais on tend vers une spécialisation des modèles et donc
ça sera super intéressant pour nos applis métier d'ailleurs dans cet article là que tu as sous
les yeux c'est un autre article de collègue c'est ils expliquent que c'est pour par rapport à
claude tout ça qui voilà qu'ils ont remis à jour parce que justement claude est très performant
et du coup du coup il genre fallait chez open eye un modèle performant en code forcément c'est la
réponse normal allez on reste dans ces modèles diam et pour le coup quelque chose de peut-être
un peu plus souverain ou un en tout cas à vocation à l'être à pertus il y a un modèle suisse c'est
ça ouais développer en suisse ouais totalement développer en suisse à le pfr pfz donc pfl c'est
école polytechnique fédérale de losanne et pfz c'est azurique et après d'autres organismes ils ont
modèles qui est totalement open source donc il y en a d'autres qui existent en open source
contrairement à ce que à l'amat tout ça qui n'est qui ne sont pas totalement open source puisqu'il
y a des choses qui ne sont pas dévoilées mais là ceux là sont totalement open source tout est
dévoilé tous les réglages tous les données d'entraînement tout tout tout tout tout tout
tout et donc voilà ils ont sorti deux modèles un aperçu suite b un aperçu 70 b qui a été
entraîné sur que des données publiques une exclusivement voilà qui a été entraîné sur
40% de données non anglaises ce qui change aussi pareil pour les modèles américains qui sont
entraînés quasiment à 95% de modèles de données en anglais donc voilà il est capable de parler
1811 langues donc c'est pas mal et il est plutôt pas mal il répond bien par contre il est pas très
bon en maths et en code mais bon voilà la seule question qu'il faut qu'on lui pose c'est est ce
qui connaît mieux la recette de la fondue quoi c'est ça la fondue moit moit et donc et donc ok
intéressant intéressant parce que voilà on est tous d'accord pour dire que de toute façon ces
modèles entraînés aux états unis ont un billet de de de de lecture moins un billet civilisationnel
même sans faire de la grande métaphysique mais en tout cas la culture américaine va être imprégnée
la façon de parler la façon de de dire les choses donc quelque chose là de un peu plus ouvert et un
peu plus on va dire européen du moins sur le l'échelle du continent pas spécialement mais c'est
suisse c'est bien on peut on peut au moins soulever la souveraineté suisse là dessus quoi
reste en deux qu'est bien c'est qu'il est plutôt fin pour l'avoir testé un petit peu il fonctionne
bien les réponses sont corrects et tout et alors il est disponible sur une face donc tu peux
l'utiliser si tu veux et sinon la interface chat qui est disponible pour pouvoir le tester en ligne
il ya une API en fait déjà c'est basé sur une API alors qu'elle limitée à 20 requêtes par minute
pour l'instant donc c'est plutôt une utilisation pour soi-même personnelle voilà tout est
disponible tout est voilà c'est 100% transparent donc c'est magnifique quoi j'ai envie de dire
c'est beau un truc qui marche bien qui est public et tout c'est génial quoi top top allez on reste
dans cette dans cette veine de dia et de mcp qui mcp je sais pas pour toi mais moi j'ai un peu
l'intendance vraiment le sentiment que c'est en train de devenir un standard et demain en fait on
aura on fera nos API et dans la suite logique on fera notre mcp dédié à notre service quoi
ouais alors ouais alors j'ai découvert que si il y avait d'autres standards équivalents mcp qui
était développé en parallèle qui était annoncé etc ibm en a senti un autre truc à cp ou je sais plus
comment il s'appelle enfin voilà il n'y a pas que le mcp mais c'est vrai que le mcp prend vraiment
moi j'ai presque une mcp fatigué parce qu'on m'annonce qu'ils annoncent un mcp tous les
cinq minutes il y a un mcp qui sort mais c'est vrai que c'est devenu un peu le standard pour
toutes les documentations tout ça d'ailleurs je crois que t'avais partagé sur twitter il ya
nukst ui qui a fait un mcp pour la doc je crois exactement voilà en fait tout le monde sort son
mc pour sa doc donc on va tous connecter via notre éditeur au mcp de chaque doc etc donc voilà
mais oui le contexte c'est le contexte c'est ouais donc quoi il y a vraiment tellement de choses
qu'on sait plus ou donner de la tête c'est vraiment incroyable mais en tout cas il y a désormais un
sdk php officiel pour développer des serveurs mcp voilà puisque à la base c'était beaucoup javascript
et pitton et donc maintenant on a un serveur en peu développer des serveurs avec du php donc voilà
ça a été développé avec l'équipe de symphonie me semble et ça c'est propre voilà et php fondation
et l'équipe d'entropique qui est l'équipe de symfo on se fusionner leur jus de cerveau pour
en fait sortir un sdk officiel pour pouvoir sortir des mcp en php donc top top belle belle
belle collaboration majoritaire du web donc c'était nécessaire bien sûr top écoute patrick
un grand merci pour toutes ces pour toutes ces news un grand merci à tous ceux qui sont restés
jusqu'au bout de l'épisode un petit pouce un petit like ça fait toujours plaisir à propager la
bonne parole propager l'information de double slash auprès de vos collègues un grand merci à
tous ceux qui nous sponsorisent directement via le github sponsor et on vous dit à très bientôt
pour d'autres épisodes ciao ciao à bientôt ciao
Episode suivant:
Les infos glanées
DoubleSlashPodcast
Double Slash, un podcast sur le développement web. Retrouvez-nous régulièrement pour parler de sujets variés tels que la JAMStack, l’accessibilité, l’écoconception, React.js, Vue.js, Next.js, Nuxt.js, le CSS et des retours d’expériences sur des implémentations.
Tags
Card title
[{'term': 'Technology', 'label': None, 'scheme': None}, {'term': 'Technology', 'label': None, 'scheme': 'http://www.itunes.com/'}]
Go somewhere
Architecture logicielle