
Les news web dev et IA pour juin 2025 RC1
Durée: 68m42s
Date de sortie: 18/06/2025
Nous évoquons Cursor qui passe en V1, NightWatch pour surveiller vos applications Laravel, PHP qui tourne dans Node.js, Prestashop 9 avec une nouvelle Admin API, un nouveau navigateur qui intègre l'IA et évidemment les nouvelles dans le monde de l'IA. Retrouvez toutes les notes et les liens de l'épisode sur cette page : https://double-slash.dev/podcasts/news-juin25/
Bonjour à tous, bienvenue sur ce nouvel épisode de Double Slash, un épisode de News pour
juin 2025. Et comme d'habitude, nous sommes avec Alex, salut Alex.
Salut Patrick, salut tout le monde.
Donc l'épisode de News, tu nous fais un petit sommaire pour...
Exactement, on revient, ben oui, on va parler de Nux qui va bientôt passer en version 4
avec toute l'évolution qui va derrière. Spoiling alert, il n'y a pas de gros breaking
change, mais il y a quand même des choses qui changent un petit peu.
On va parler de Laravelle Night Watch, on va parler de PHP Node avec une fusion, un truc
un peu sympa. On vient, on va parler d'Apple et qui vient attaquer le monde des conteneurs
et de Dockers. On vient, on va parler des menteurs, des mecs qui ont codé, en tout cas,
qui ont fait de l'apprentissage sur des modèles et nous ont mentis sur des benchmarks.
On va parler de MCP, on va parler de l'Int, où on peut l'inter maintenant des milliers
de fichiers en quelques millisecondes. Voilà, ça c'est le programme de cet épisode de
News.
De Curesor, t'es un éditeur préféré en ce moment.
Ben oui, il faut tester, il faut tester. Et effectivement, il y a des trucs plutôt
sympas quand tu commences à fusionner avec des MCP, il y a vraiment des choses très
très intéressantes. J'étais plutôt pas trop emballé, il y a vraiment une hype.
Et au final, quand tu test, il y a des gains quand même significatifs. Mais on va en reparler
tout à l'heure.
Oui, ça roule. On va merci nos sponsors, évidemment. Merci à tous les sponsors qui
nous soutiennent tous les mois via GitHub sponsor. Merci à eux.
Et toutes les personnes qui font l'effort de nous mettre un petit commentaire, de partager
la vidéo, ça nous aide aussi à gagner en diffusion et ça nous fait toujours extrêmement
plaisir. On attaque tout de suite.
Allez go.
On rentre dans l'annonce de NUXT qui passera en V4 pour rappel, il y a une grosse, grosse
migration qui a été faite de NUXT2 à NUXT3 parce que déjà, il y avait cette version
de vue aussi qui évoluait. Ils sont passés de l'option IPI par défaut à la composition
IPI par défaut. Ils ont tout réécrit. Ils ont pris chaque brique. Ils l'ont toute
réécrit totalement. Là, la version 4, c'est plus une évolution classique. Ils réorganisent
un petit peu les fichiers et la structure des dossiers pour que les gens de NUXT s'y
retrouvent aussi parce que tout vient de basculer dans un app, dans un dossier qui s'appelle
app. Donc, ça se rapproche. C'est un peu ce qu'on dit depuis pas mal de temps. De toute
uniformisation sur des bonnes pratiques, ce qui fait que passer de Next à NUXT, on
vient réacte et on met vue. Mais, mine de rien, ce n'est pas non plus un shift monstrueux.
Et donc, tout même si de toute façon, NUXT, c'était quand même vachement mieux. On est d'accord.
Non, c'est intéressant. Je n'avais pas suivi ça comme quoi. Il y avait un dossier APP. D'accord.
Après, il n'y a pas de grosses nouveautés. C'est surtout des petits changements,
des optimisations, des choses comme ça. De toute façon, il y a eu un grand changement entre la 2 et la 3
que, bon, on va se calver la 4 tranquille et puis on verra peut-être pour la 5.
Exactement. Après, il y a plein de petits trucs qui sont vraiment sympas. Genre des utilitaires.
Tu as une fonction utilitaire et tu es obligé de la déclarer côté serveur et côté client. Si tu
étais obligé de l'utiliser, si tu voulais l'utiliser dans les deux. Donc, tu avais les personnes qui
disaient, nous, on fait un monoripo. Donc, on met dans un paquette, je séparais. Et là,
en fait, ça va être intégré nativement dans NUXT où tu vas pouvoir partager des utilitaires
côté fronte, côté bac sur des fonctions. Là, tu as plein de petites modifications comme ça.
Et surtout, en fait, ils expliquent vraiment que maintenant, ils vont partir sur des releases
beaucoup plus fréquentes pour justement limiter ce breaking change à chaque fois,
pour arrêter de faire peur sur des versions majeures. On se rappelle encore de la version
angula où ils avaient tout pété. Et ça a fait vraiment beaucoup, beaucoup de mal à l'écosystème.
Et le framework ou la librairie, on n'avait pas dit. Donc, l'idée, c'est de minimiser justement
cette crainte en faisant des releases un petit peu plus récourantes et régulières.
Réguilement, tu montes en version, jusqu'à la version. C'est ce que font WordPress,
c'est un peu le même style aussi pareil. Ils font beaucoup de versions comme ça.
Ça fait moins de choses qui cassent quand tu passes à une version majeure.
Exactement. Et donc, de manière, on va dire, classique et suite logique, ils bossent aussi sur
H3 la version 2. Par contre, H3, on se rappelle, c'est l'équivalent de pas de express,
mais vraiment le petit serveur HTTP qui va gérer en fait tout le routine et tout ça.
Et là, ils sont en train de le réécrire. Par contre, il s'est déjà annoncé qu'il
ne sortira pas sur la version 4 de Nuxt, mais sur la version 5. On gagne en rapidité,
en exécution. Pour le coup, on avait fait un espèce de workshop sur Nitro,
en fait, qui est la partie backend de Nuxt, où en fait, on vient expliquer. La grosse partie de Nitro
utilise H3 pour faire son routine et pour faire un micro serveur web, micro, mais vraiment super puissant.
Et surtout, il est totalement portable sur n'importe quel environnement, que ce soit note,
des nômes, burn. Et donc, ça, c'est plutôt intéressant. On peut faire du WebSocket, on peut
faire du SSE, on peut faire du stream. Il y a plein de choses qui sont intéressantes.
Donc, il travaille derrière pour qu'il s'y ait cette nourriture.
C'est au coeur de Nuxt et d'autres frameworks aussi qui l'aura adopté. En fait, la principale
nouveauté, c'est qu'il repasse sur du native, en fait, comme les responses, tout ça. Tout ce qui
est native web plutôt que réécrire les choses. Et la grosse force, c'est qu'il est vraiment compatible.
Tu peux le mettre partout, hyper portable. Et ce qu'ils expliquent aussi, c'est qu'ils ont fait
une hybrérie, H, comme elle s'appelle, SRVX, pour autant des nômes et burn, ils sont déjà
EdgeWorker, tout ça, machin compatible. Apparemment, c'est plutôt note qui pose problème, puisqu'ils
ont réécrit les responses sous ça. Donc, ils ont dû faire une sorte de wrapper pour englober ça,
ils le rendent compatible, note, burn, etc. Mais c'est un gros travail, mais c'est toujours aussi
propre ce qu'ils font. Après, tout l'écosystème, NGS, pour toutes les personnes qui font du
JavaScript, franchement, c'est un caviar. Ils ont pris toutes les fonctionnalités, ils ont toutes
découpé dans des paquets de Jopen Source. C'est ouf. Ce qui est fou, c'est qu'on entend,
finalement, on ne les voit pas beaucoup devant de la scène, mais le travail, c'est une petite équipe
énorme et fantastique. C'est une petite équipe, mais le boulot qui s'abat, c'est monstrueux.
Non, vraiment, très, très, très, très, très, très, très fort. En tout cas, nous, on gardera
l'oeil sur NUXT4, H3 et tout cet écosystème, parce que de manière personnelle, je suis impliqué,
je suis fervent utilisateur au quotidien de toutes ces utilisations. Donc,
oui, premier fan et premier utilisateur, clairement. Allez, on passe sur cette nouvelle
version aussi majeure de CurseOr, donc CurseOr l'IDE sur Boosté avec Delia, qui vient en fait avec des
MCP un petit peu plus facile à installer en mode OneClickInstall. On ne peut pas dire que
c'était compliqué avant, mais là, c'est encore plus simple et qui vient aussi avec plein d'autres
fonctionnalités, dont des agents qui vont exécuter en background, les gens qui viennent de Jupiter
et NB, ça va être beaucoup plus simple aussi. Toi, tu n'utilises pas CurseOr.
Non, je n'ai jamais trop accroché. Je n'arrive pas. J'avais testé Windsor,
je vais tester, comment il s'appelle, j'ai oublié le nom, celui qui était Z,
aussi qui est écrit en Rust et qui est ultra rapide. Là, je suis repassé sur VS Code avec Copilot,
qui marche très bien. Mais CurseOr, je n'arrive pas à accrocher. Après, ma machine n'est peut-être
pas assez puissante pour le faire tourner aussi. Quand tu dis OneClick, MCP install,
les MCP viennent de où ? Ils viennent d'un ripot, ou c'est toi qui mets une URL.
En fait, tu vois sur VS Code, parfois, ça va t'envoyer sur le store,
il faut que tu installes ton extension dans ton VS Code. Là, c'est exactement le même concept,
sauf que c'est pour un MCP. On est complètement d'accord que ça ne va pas changer le fait que
si tu installes un MCP tout pourri, qui vient de liquer des infos, ça, ça ne va rien changer.
Par contre, l'installation, le fait que ça soit auto-installé, ça te met en fait toutes tes
configs déjà un peu propres. C'est quand même vraiment sympa et ça facilite l'adoption de
tous ces modes MCP, clairement. Et tu as un moyen de faire des bugs,
des codes review de manière plus ou moins natif. C'est un truc qui est plutôt sympa d'avoir quelqu'un
ou un assistant qui te dit, là. Ok.
D'accord. Mais toi, ça fait un petit moment que tu l'utilises.
Non, ça ne fait pas un petit long temps. Non, ça ne fait pas si longtemps.
J'ai fait mon switch. Pour moi, il me faut encore du temps pour trouver mes repères et intégrer
dans ma routine. Par contre, il y a un MCP que j'utilise quasiment tous les jours,
qui est vraiment, vraiment bien. Mais on en parle à la fin de l'épisode.
Ouais, ok. Ça marche. La suite. On parlait de MCP tout à l'heure,
mais potentiellement, on peut aussi installer un peu n'importe quoi. Et donc, en termes de sécurité,
il y a eu un gros mis à jour potentiel sur les NPM packages qui vont installer,
mais le but, c'est d'aller hacker CurSort. C'est ça ?
Ouais, c'est ça. Il y a eu des packages qui ont été verroulées. Donc, tu les installais dans ton
projet et il ciblait les utilisateurs de CurSort. Il allait modifier le main.js,
désactivait les updates de CurSort et il prenait la main dessus. Du coup, il récupérait
des choses confidentielles, etc. Donc, il les a vite détectés, heureusement, et modifié.
Comme quoi, c'était hyper ciblé sur CurSort pour pouvoir récupérer des infos.
Donc, on a toujours fait attention au package NPM. C'est important.
Après, tes packages, mais là, en fait, on atteint un niveau de complexité qui est vraiment
impressionnant et limite beau. Dans la mesure où c'était un bière à deux bandes, maintenant,
c'est trois bandes, maintenant, il y a quatre ou cinq bandes. Et c'est ouf, c'est un package
que tu vas installer dans un contexte de CurSort qui va les récupérer, les infos ou tout.
Non, c'est très, très bon. Après, baisse practice, on n'installe pas des packages comme ça,
on n'installe pas des MCP comme ça. Et déjà, si on reste sur ces baisse practices, déjà,
on va en supprimer beaucoup. CurSort a tellement de pouvoir, en fait, capable de tellement de choses.
C'est vrai qu'après, si tu arrives à mettre la main dessus, tu peux accéder à pas mal de choses.
C'est ça qui est intéressant. Après, pour tester les packages NPM, tout ça, il y a des outils pour
tester la sécurité, la performance, le poids, etc. Maintenant, il y a plus d'outils, d'audits en ligne.
C'est assez rapide. Et c'est vraiment pratique avant d'utiliser un package de vérifier si il y a
pas de problème, etc. Il faudrait que tu me mets le lien. On en parlera dans un autre épisode,
mais c'est super intéressant ça. Allez, on déroule. Je ne connais pas cet univers,
la Ravel par contre, quand je vois la qualité des outils qui arrivent à déployer. C'est juste
hallucinant. Et là, il revient avec Nightwatch. Ouais, Nightwatch, c'est un outil pour monitorer
ton application la Ravel. Donc, c'est bien de sortir. C'est tout neuf. Alors, évidemment,
c'est des... Alors après, la Ravel sort beaucoup de services comme ça, mais la plupart sont payés
et c'est normal, puisque c'est de la qualité. Du coup, ça s'installe très rapidement. Tu mets
le package Nightwatch sur ton application la Ravel, tu mets la ID, la clé, et ensuite, tu as créé
l'application de Nightwatch. Nightwatch est de suite connectée. Donc, ça se fait très rapidement et
tu as toutes les infos et tu peux détecter des anomalies de requêtes, etc. S'il y a des problèmes
de la base de données, s'il y a des requêtes qui mettent du temps, etc. Donc, tu as tout plein
d'infos et tu peux détecter très rapidement des anomalies dans ton application. Trop bien.
Et il y a un fritier qui est assez généreux. Donc, on peut même détecter.
Ah, c'est pas... T'as quand même un fritier.
Ouais, il y a quand même un fritier. Ouais, 200 requêtes, tu vois, inclus, 14 jours.
En 200 000. 200 000, pardon.
200 et 200. Ça, c'est 200 000. C'est énorme.
En jour de rétention de data, etc. Donc, tu as quand même de quoi faire, de quoi tester.
Et puis après, si tu as besoin de plus, c'est 20 dollars, mais franchement, la qualité de
ça, ça s'installe en deux secondes. Donc, c'est étatouillement, les queries,
les requêtes, les queues, les jobs, tout ça. Enfin, tout, tout, tout.
Ouais, c'est top.
Vraiment, le trait est vraiment nickel.
Ouais. Et toujours propre, toujours bon design,
efficient, pas de bling-bling, straight to the point. Non, très, très bon.
Très, très bon. Comme tout l'écosystème.
Alors, après, est-ce qu'ils sont rattachés à la Ravel ou c'est une boîte à pas,
ou c'est vraiment incubé dans la société La Ravel, quoi ?
Ça dépend des outils. Ceux-là, je ne sais pas trop, mais c'est souvent un clou.
Ouais, c'est souvent la société, enfin, qui développe La Ravel,
je ne sais pas comment le s'appelle.
La Fondois, une sorte de fondation ou la boîte ou tout ça.
Ok, parce que là, c'est nightwatch.laravel.com.
Donc, c'est un soule mène. Ouais, ouais, c'est dépend de les outils.
C'est un QB et chez eux, quoi. Très, très bon.
Allez, on est toujours en incubation, là, mais il y a une plateforme de...
Placeformique. Alors, non, pas placeformique.
Plate, je ne vais pas y arriver.
Placeformique.
Platformique.
Platformatique.
Platformatique, je ne sais pas lire.
En fait, et une société d'hébergement sur tous les cosysètes,
un peu GES, mais ouais, en fait, c'est le mec qui écrit l'article,
qui s'appelle Matteo Colina, qui a peut-être,
qui fait encore partie du corps de Oudnod sur la décision.
En tout cas, il a monté cette structure pour gérer,
en fait, toute l'infrastructure des applications.
Et là, en fait, il revient avec une proposition ou c'est quoi ?
C'est du PHP dans du Node ?
Ouais, c'est ça. C'est un truc assez bizarre.
C'est la possibilité de faire tourner du PHP via Node, en fait.
Donc, c'est assez étrange.
Tu te demandes pourquoi ? Oui, d'accord.
Et du coup, tu peux créer des collections entre des projets PHP,
des projets Node, faire des requêtes,
faire tourner des fonctions PHP, faire tourner du code PHP.
Et là, à la fin de l'article, il fait carrément tourner sur du Node,
un Next en front et un WordPress en back, en headless.
Voilà, sur une instance.
Il y a tout l'exemple et tout ça, il explique tout.
Donc, apparemment, ça tourne sur du Rust, PHP Node.
Et ça fonctionne, tu peux faire tourner du PHP via Node,
tu appelles des trucs, des fonctions, etc.
Après, j'ai du mal, mais peut-être que je manque de recul,
mais je vois difficilement l'intérêt,
ou c'est quoi, c'est de centraliser l'hébergement,
de tout mettre chez un hébergeur pour éviter d'avoir
deux infrastructures différentes.
Là, c'est pas du tout vieil à l'hébergement.
Là, c'est un projet open source, normalement.
Donc, tu fais tourner chez où tu veux.
D'ailleurs, le projet d'exemple avec WordPress,
là, tu peux le cloner et puis le faire tourner
cette machine, si tu veux, en docker.
Le franquer.
Donc, ça fonctionne partout.
Ouais, l'intérêt, j'explique, ça peut être pour un projet
que tu migres, qui est à moitié migré,
ou t'as encore des choses chez PHP ou des choses comme ça.
Honnêtement, l'exemple d'utilisation, je l'ai pas,
mais il faut trouver.
Ouais, ouais.
Mais ça, c'est tout le temps quand même d'arriver à faire tourner ça.
Après, ce qui est intéressant, c'est de voir qu'ils arrivent
à en fait, sans faire de la virtualisation,
parce que sinon, une virtualisation, c'est une machine.
Et donc, avec deux univers différents,
là, pour le coup, grâce à Rust, si j'ai bien compris,
ils arrivent en fait à extrapoler le deux environnements
sur une seule et même machine,
deux environnements d'exécution de code qui sont bien dix-teins.
Je pense à Node et à IAPHP.
Et pour le coup, ils arrivent à le faire tourner
sur une seule et même machine.
Donc, oui, ce qui peut en fait réduire les coûts
et les infrastructures et la maintenance de différentes machines,
ce qui veut dire aussi toutes les communications
entre ces machines, tout.
Non, non.
Ok, intéressant technologiquement.
Après, je ne vois pas tout de suite le cas d'usage,
mais pourquoi pas ?
Ouais, ouais, ouais, c'est clair.
Non, non, c'est assez surprenant.
J'aurais jamais cru que ce serait possible
et pourquoi enfin quelqu'un le ferait,
mais voilà, ça fonctionne en tout cas.
Nice, nice.
On reste dans l'écosystème PHP avec un acteur majeur
qui est prestachop, toutes les personnes ou les âges
qui bossent en agence ou même sans agence,
mais qui gère en fait du e-commerce,
sans doute sous prestachop ou en tout cas,
connaissent cet écosystème.
Il est sorti en version 9, grosse mise à jour ou suite logique ?
Non, non, grosse mise à jour.
Il y a des évolutions, tout ce qui est coeur,
symphonie, montée de version, etc.
et PHP 8, tout ça, donc supporte de PHP 8.1.
Et surtout, il y a un nouvel système d'API admin.
Donc pas encore malheureusement d'API headless.
Headless ? Ah ouais.
Pour le coup, pas encore,
mais peut-être ça viendra pour les versions 10.
Mais en tout cas, ils ont fait tout une nouvelle API admin
qui marche sur, j'ai oublié, non.
Comment ça s'appelle ?
API Platform.
API Platform, c'est ça.
Donc c'est tout basé sur API Platform
qui fonctionne très bien avec symphonie.
Tout l'admin est repensé, redesigné et fonctionne avec cet API.
Et tu peux connecter via cette nouvelle API,
des CRM externes, etc.
Plein d'outils, plus facilement.
Tu vois, tu as toutes les routes disponibles, etc.
Donc grosse évolution au niveau de l'admin API
qui offre beaucoup de possibilités pour connecter avec plein d'outils.
Et c'est propre, c'est un standard,
c'est Platform API, c'est clean,
et tu peux l'étendre en plus.
C'est à ce niveau là qu'il y a vraiment une grosse évolution sur la version 9.
Ok, top.
Et je vois, ils ont mis aussi du support pour des formats négifs.
Voilà, c'est tout.
Vous le faites ça, ouais.
Ouais, mais au AP, maintenant c'est le minimum.
Ça rentre dans les standards.
Donc ils se mettent à jour aussi sur les standards.
Ça parle de SEO aussi pour faire de la redirection et des choses comme ça.
Ok, ok, ok.
Allez, on bascule chez Apple qui a sorti,
qui a fait ça, WWDC,
donc la conférence vraiment orientée développeur.
On ne va pas parler des annonces design
qui ont fait sur les nouvelles,
l'uniformisation de iOS avec macOS et tout ça.
Pas que ce qu'on pense.
Ah si, on peut en parler.
Moi je pense que c'est...
Ah, tu es fan ou pas ?
Je ne suis pas fan du tout.
Et je trouve que en tant que développeur,
avoir l'espèce de liquide glace,
franchement, c'est useless total.
Et en fait, quand je vois à côté que les mecs de chez Google
ou de chez Amazon ou tous les autres ou Openia,
ils boostent des modèles, des fonctionnalités,
des trucs de fou.
Et Apple, en fait, ils sortent le liquide glace.
Ouais, ça me rend triste.
Ça me rend triste.
Donc, je trouve que ça fait déjà des années
qui ne s'abouchent pas trop.
Et je ne parle pas de hardware.
Je parle vraiment de software.
Ils sont très mous.
Ils ont dû attendre d'être le couteau sous la gorge
avec cette histoire de Fortnite,
sur les paiements, sur les PWA,
sur les abus de position dominantes, tout.
Ça fait plusieurs fois que je le dis,
mais ça m'a triste.
Mais le Apple 2025,
c'est le Microsoft des années 90,
où tout est verrouillé.
Je comprends que c'est du business.
Il n'y a aucun problème là-dessus.
Mais là, en fait, je trouve ça triste.
Je trouve ça très très triste.
Après, il y a des trucs sympas qui sortent.
Et pour le coup, Contenère en fait partie.
Donc ça, c'est plutôt bien.
En fait, ok, c'est cool.
Mais bon.
Pour les utilisateurs de Mac, c'est pas mal.
Mais malheureusement, c'est pas encore complet.
Alors, perso, je l'ai installé sur l'ordi.
Il faut la version 15 de MacOS.
Donc, j'ai dû faire l'upgrade parce que j'étais encore à la 14.
Je traîne beaucoup pour faire les upgrades.
Et donc, je l'ai installé.
Et là, déception.
Alors, ça se lance, c'est facile,
t'as le ligne de commande, tout ça.
Déception parce que le Docker Compose n'est pas pris en charge.
Donc, du coup, c'est pas trop utilisable.
Donc, c'est que sur du monopackage.
Pour l'instant, c'est que tu peux lancer via un Dockerfile.
Mais ce qu'on utilise tous, on utilise tout ce Docker Compose.
Mais en fait, tu peux pas.
Donc, je ne vois pas comment c'est utilisable sans Docker Compose.
Mais c'est pour lancer un petit Docker.
C'est un peu light.
C'est un bon pas.
Oui, c'est un bon début.
Après, c'est natif.
Mais oui, après, on est très loin de l'écosystème déjà en place sur Docker.
Avec Docker Compose et tout l'écosystème qui a pour builder les images et tout ça.
Donc, c'est bien.
Mais à suivre, s'il y a de nouvelles solutions derrière.
Et qu'il y a une prise en charge de Docker Compose et là, ça va tout changer.
Bon, après, évidemment, on parle de Mac uniquement.
Là, ça fonctionne sur Mac parce que ceux qui ont des Macs qui nous écoutent savent à quel point
c'est compliqué Docker Docker desktop sur Mac.
D'ailleurs, ce n'est pas utilisable.
Orbstack.
Oui, voilà.
C'est Orbstack.
On utilise tous Orbstack maintenant.
Parce que Docker desktop, il est inutilisable en fait.
Il prend trop de RAM, tout ça, etc.
Donc, container est une bonne solution pour l'instant.
Enfin, quand ça sera abouti, ça sera peut-être un remplacement d'Orbstack.
Et qui fonctionnera au premier sur Mac.
Pour l'instant, je pense qu'on en est encore un peu loin.
On est encore de la marge.
Après, c'est tout neuf.
Voilà, container.
Ça vient de sortir.
Tu vois, c'est la 0.1.0.
Donc, dans quelques versions, peut-être on en a raccomposé.
Exactement.
À suivre.
Donc, il faut rester branché dessus et suivre.
On parle de nouveautés.
C'est tout nouveau.
Pareil, on sait que les utilisateurs d'Arc sur le navigateur Arc n'aient plus.
C'est fini.
Ils arrêtent le développement.
On s'est dit, mais pourquoi ?
Qu'est-ce qu'ils font ?
Qu'est-ce qu'ils font ?
Qu'ils s'appellent DIA.
Ouais, après l'abandon des utilisateurs d'Arc, mais vraiment en plus assumé.
Tu vois.
Ouais, ouais.
C'est annoncé vraiment.
Ils ont dit que l'Arc est trop différentiant par rapport aux autres navigateurs.
Du coup, on n'arrivera jamais à rentrer sur le marché.
Voilà, rentrer sur le marché est trop différent.
Voilà.
Presque ils ont fait une erreur.
Bon, bref.
OK.
Ils ont arrêté le développement total depuis mesdames.
C'est pas assurant pour les prochains produits.
Et là, ils arrivent avec DIA.
Donc, DIA qui est en version beta, qui est uniquement accessible si tu as un compte Arc.
Ça tombe bien en un avis.
Oui.
Donc, DIA est censé être la vision du futur du navigateur en quelque sorte.
OK.
C'est pas...
Voilà.
Donc, DIA est intégrée dedans directement.
Quand tu l'ouvres, tu as une box en fait de chats.
Soit tu lui poses une question, soit tu mets une URL et il va ouvrir un onglet comme Chrome n'importe quoi.
Voilà.
Donc, tu es en mode chatbot ou en mode navigation.
OK.
Est-ce que c'est pas un peu une fusion entre du Perplexity et un navigateur classique, quoi ?
C'est-à-dire la première chose que tu ouvres, c'est non pas un onglet, mais c'est une chatbox en fait où tu vas souhaiter taper ta recherche,
soit ton URL, soit...
Tu vois, il y a une sorte de...
Moi, j'ai l'impression que c'était fait un peu Perplexity, quoi.
Non ?
Ben oui, tu vas lui poser une question en citant chatbot.
Tu vas lui poser une question et après il va te répondre avec différents liens et tu vas pouvoir cliquer et du coup, ça vous rêve des onglets directement.
Et ensuite, la force de DIA, c'est que tu vas pouvoir, via un panneau à droite du navigateur, donc un chatbot encore,
interagir avec la fenêtre que tu as.
Donc, il rentre en contexte ta fenêtre, donc ça peut être YouTube n'importe quoi, à ton nom, celle qui est ouverte.
Et là, tu vas pouvoir lui poser des questions sur ce contenu et il va pouvoir faire plein de choses, traduire, te résumer, plein de choses.
Et tu peux aussi jouer, si tu as plusieurs onglets ouverts, par exemple, l'IdenExample avec Airbnb, où tu aurais 4 onglets ouverts,
tu vas lui demander de faire un résumé sur ces 4 onglets de prix, tout ça, dans un tableau, etc.
Donc tu peux interagir avec le contenu que tu as dans ton navigateur.
C'est pas si mal, en fait.
Alors, je sais pas si on peut définir que c'est le futur du navigateur, mais dans ce modèle là, les sites sont toujours là, on va toujours naviguer.
Par contre, on interagit avec les sites et on lui demande des choses, résumé, etc.
Donc, je sais pas.
Pour l'instant, je l'utilise beaucoup pour résumer des articles, etc.
Donc c'est pratique.
Il est capable de résumer des vidéos YouTube.
Tu as une vidéo YouTube ouverte, tu lui demandes de résumer ou tu lui demandes,
par exemple, j'ai fait un test avec de lui faire le sommaire en timestamp de la vidéo.
Et il est capable de faire des chapitres.
Donc il interagit avec plus que du texte, il est capable de lire une vidéo, etc.
C'est pas mal.
C'est la fusion de l'assistant et du navigateur.
Ils avaient fait beaucoup de buzz.
D'un côté, c'est un peu déceptif parce que tu as tendé à un truc vraiment game changer.
Et puis finalement, on se retrouve avec un truc où, Macron, ils ont intégré Gmini, Edge.
Tout ça, tu peux le faire déjà avec des extensions que tu installes.
Là, leur paradigma, c'est que tu n'installes pas des extensions, c'est natif intégré.
Et l'intégration se fait de manière hyperfluide.
Donc, ça se tient.
Après, je pense, c'est moins geek.
C'est plus Monsieur Landa.
Et donc pour une pénétration de marché, pour être, comme dirait l'Ericain, mass market.
Vraiment, avoir une audience la plus large, c'est peut-être un move intéressant à voir.
C'est intéressant.
Il faut le tester.
Alors, si vous avez un compte Arc, c'est intéressant de le tester pour se faire une idée.
Le concept est intéressant.
Alors, si ils font comme pour Arc où ils écoutent les utilisateurs et ils font beaucoup d'évolution,
on peut s'attendre à ce que DIA évolue très vite avec des fonctionnalités qui vont être rajoutées au fur et à mesure.
En tout cas, s'ils suivent le même développement.
Oui, bien sûr.
On essaye de sortir un tout petit peu de ces dépendances américaines.
C'est une géant de la tech américaine.
Et on propose là un site qui nous propose une sorte d'alternative à tous les gros agents américains.
En tout cas, c'est toutes les solutions qui font un peu la même chose.
Mais basé en Europe, c'est ça ?
Oui, c'est ça.
C'est tous les services, il y a plein de trucs, mais qui sont pas américains.
Encore une fois, un peu comme le premier truc qu'on a présenté.
C'est toutes les alternatives européennes.
Il en manque quand même, mais on peut voir qu'il y a beaucoup de bons produits en Europe.
Ils ont quand même mis quand même quantes.
Oui, il a été financé à coup de 2 millions.
Je troll.
On va pas revenir là-dessus.
Non, mais plutôt intéressant.
En tout cas, je pense surtout pour des clients qui sont plus en plus.
En fait, ils cherchent à avoir une sorte de souveraineté.
Et dire, ok, moi je veux pas, pour raison éthique, ne souhaitent pas s'attacher à des solutions américaines trop fortes.
Et donc, s'ils peuvent avoir une alternative, c'est super intéressant.
Il y a beaucoup de bons produits.
Tu peux trier par catégorie.
Il y a énormément de bons produits américains qui viennent de l'Ithuanie, de Norvège.
Et ce directeur va permettre aussi de découvrir des services qu'on connaissait pas.
C'est ça qui est intéressant.
C'est exactement là où je voulais venir.
Potentiellement, on ne connaît pas ces produits-là.
Et ok, peut-être qu'on n'est pas spécialement à cette fibre européenne.
Mais on peut tout simplement aussi s'en servir pour découvrir des produits qu'on ne connaissait pas.
Et qui nous permettent de faire des trucs super sympas.
Oui, parce que c'est vrai que les américains ont souvent une force marketing assez impressionnante.
Et voilà, ils se mettent beaucoup en avant.
Mais les européens ont peut-être moins de marketing, moins d'argent.
Donc ça permet de découvrir des bons produits aussi.
Oui, parce qu'ils sont régulés.
Je déclame.
Je te rel.
Allez, autre produit super sympa pour le coup américain.
Mais Upstache.
Bravo.
On connaît Upstache sur vraiment leurs produits phares.
Ça avait été le redis en mode serverless, donc compatible Edge et tout ça.
Et là, ils reviennent avec une nouvelle fonctionnalité qui est le search.
Parce que tout simplement, ils ont déployé une solution de base de données vectorielle.
Et donc nativement, en fait, ils ont, on va dire par suite logique, ils ont intégré un service de recherche.
Donc où on va pouvoir faire de la recherche full text et vectoriale.
Donc c'est utilisé tout le champ sémantique.
Et c'est clairement une alternative à Melly Search ou à Algolia.
Par contre, on est beaucoup moins poussé sur les fonctionnalités.
Et sur là, il n'y a pas d'analytique, il n'y a pas possibilité de faire une gestion et un affinement de la recherche ultra précis comme on peut faire sur Melly Search.
Néanmoins, c'est facilement installable.
C'est ultra rapide.
C'est un service hébergé.
Franchement, c'est top.
Oui, c'est pas mal. C'est pas mal. C'est simple à utiliser.
C'est à mon avis très rapide au niveau des requêtes, tout ça.
Puis pareil, au niveau tarif, ça reste raisonnable.
Après, leur politique tarifaire est toujours, il y a toujours un frontier qui est assez généreux.
Et après, en fait, c'est toujours à la demande.
En fait, moi, je trouve ce système-là plutôt équitable.
Dans la mesure où ton service n'est pas utilisé, tu vas payer que dalle.
Et si ton service est beaucoup utilisé, tu vas commencer à payer.
Et je trouve ça plutôt pas mal.
Au moins, tu n'as pas à gérer toute cette scalabilité.
Et quand tu commences à payer des factures vraiment, vraiment onéreuses,
c'est que tu as un bon problème.
Potentiellement, là, tu peux soit faire un switch de produits, soit passer sur un autre plan pro.
Donc top.
Par contre, plusieurs bases de données, plusieurs indexes, des API déjà tout à côté,
prêts codés de la recherche sémantique, du full texte, top.
Vraiment petit service de search à mettre en place.
Le service qui marche bien, qui est facile à utiliser.
On l'utilise pour le site du podcast.
C'est hyper simple à utiliser.
C'est hyper simple.
Ça marche super bien.
Enfin, voilà.
Il n'y a rien à faire.
Non, non, non.
C'est fiable.
C'est hyper facile à mettre en place.
Donc c'est plutôt intéressant.
Allez, autre système fiable, on ne sait pas.
On ne sait pas encore.
Rapide, rapide, ça, c'est sûr.
On connaît tous ESLint avec l'enfer du lintage et des conflits.
Je ne sais pas si ça se dit d'ailleurs le lintage.
Mais l'exécution de lint dans le cadre pour formater selon des règles.
Tout l'écosystème VoidZero, qui est porté par Evanew, le créateur de VIT,
a monté une structure qui s'appelle VoidZero, qui a pour but d'uniformiser
tout l'écosystème de développement en JS.
Et un produit, en tout cas, oui, pour linté qui se veut le concurrent de ESLint,
ça s'appelle OXLint.
Et sur le papier, il est ultra, ultra, ultra rapide.
Parce que...
Alors pour le moment, j'ai assez fait en reste.
Pour le coup, je l'ai installé sur mon repo.
T'as essayé ?
Oui.
C'est très rapide.
Il y a ZeroConfig aussi, de ce que j'ai lu.
C'est ça qui m'a fait passer, qui m'a fait faire le switch.
C'est le ZeroConfig.
Pour le coup, il part des conventions.
Après, je veux respecter les conventions.
On va dire native, je n'ai pas des règles de ESLint particulières.
Je me fie aux conventions et ça me va bien.
Et ça marche plutôt bien comme ça.
Et là, pour le coup, c'est ultra rapide.
J'ai linté ma codebase en 2.2.
Mais vraiment...
Non, plutôt bien.
Moi, c'est genre d'outils.
J'installe et je l'oublie.
Je ne veux plus m'en oser.
C'est le but.
C'est le but qui est simplifié, que tu n'as rien à configurer.
Que tu n'es pas 200 000 packages ESLint tirés, je ne sais pas quelle règle.
Simplifier aussi le package.deison.
Parce qu'on a dans certains projets,
les packages de dev sont énormes.
Rien que pour ESLint, la plupart du temps.
Donc si ça simplifie le package,
si on a moins de choses à configurer,
et en plus, il est 50 fois à 100 fois plus rapide que ESLint,
c'est ce qu'ils annoncent.
C'est top.
Bien oui, carrément.
Moi, je n'ai pas eu le temps de le tester,
mais je vais essayer de le tester dès que je peux sur un projet.
J'ai été prêt à passer sur Biome.
Je suis sur Biome.
Et pour le coup, je n'avais pas fait le switch.
Et là, je dis, ok, je le fais.
C'est inodorant, colorant, fluide rapide.
Allez, bi, me termine.
Biome fait le linter et le formateur.
Ce que je n'ai pas...
Après ce que j'ai lu, OXLint pour l'instant.
Après, peut-être il y a un autre truc en plus.
Mais c'est ça l'avantage de Biome, c'est que tu as les deux.
Du coup, ça te remplace prêtier et OXLint.
Oui, et il est ultra rapide aussi, Biome.
Ça va arriver, ça va arriver.
Ouais, je pense, ouais.
Allez, petit article hyper intéressant pour le coup,
qui nous explique qu'on utilise Cursor,
mais plutôt...
En fait, on ne sait pas l'utiliser.
Et je pense que c'est un article qui, moi, m'a aidé, en fait,
à mieux appréhender l'outil.
Parce que c'est sûr que quand on arrive,
pour la première fois sur Cursor,
on va utiliser le chatbot, on va faire un des agents.
La qualité n'est pas si bonne que ça.
Nativement, il y a des choses un peu par en mode hallucination,
mais pas loin.
Et donc, là, c'est un super article
qui nous explique comment paramétrer,
comment structurer ces règles dans Cursor
pour, justement, minimiser ces hallucinations
et orienter pour le projet spécifique
sur lequel on est en train de bosser,
même si Cursor vient scanner la base de la codebase.
Donc, il va augmenter son contexte.
Néanmoins, si on lui donne des infos de manière explicite,
il sera d'autant plus précis.
Et en fait, c'est un article assez complet
qui nous explique justement comment,
là, par exemple, ce qu'on voit à l'image,
c'est quelles sont les règles de convention
pour écrire des comites,
parce qu'on peut facilement cliquer sur le bouton,
là, pour faire les messages de comites.
Parfois, c'est pertinent,
parfois, ça ne l'est pas toujours.
Néanmoins, si on lui donne des règles,
il va toujours respecter, en fait,
les conventions comites un peu standard
avec les AdFix refactors, testdocs,
Steel, Perf, voilà,
ce genre de préfix sur le nom du comite
qui va respecter la convention.
Et donc, le fait de venir surcharger
avec ces rules, en fait,
ces règles, on vient gagner vraiment
en qualité de sortie.
C'est un article assez long, assez poussé.
Je pense que pour les personnes
qui utilisent Curso,
il y a grande chance que vous n'utilisez pas
tout le potentiel de Curso,
parce que c'est quand même
outil très puissant,
mais il faut quand même dompter un peu la machine
et lui donner des règles,
sinon, ça part vite dans tous les sens.
Ouais, ok.
Tu penses que quelqu'un qui se met sur Curso,
il faut combien de temps d'apprentissage
pour commencer à l'utiliser correctement ?
Une semaine, deux semaines ?
Moi, je dirais que de toute façon,
tu vas tout le temps le faire évoluer
et donc, tu vas tout le temps changer
ta manière de faire.
Par contre, le vrai problème,
à mon sens, c'est d'accepter
de changer ton process de travail.
Et c'est là où c'est super dur.
C'est le plus dur.
Mais oui, mais bien sûr.
Et donc, c'est là où c'est plus difficile.
Par contre, très vite,
tu vas choper des nouveaux réflexes
où le fait d'avoir mis toutes ces règles,
les autosugétions de table
sont beaucoup plus précis
et vont prendre en compte
la convention de nommage que tu as donnée
ou des choses comme ça.
Et donc, c'est beaucoup plus agréable
parce qu'il y a moins de trucs...
Enfin, il y a pas des hallucinations
mais il n'y a pas l'effet...
Non mais là, tu me dis n'importe quoi, mec.
Là, tu me fais de la merde.
Il y a beaucoup, beaucoup moins
cet effet, what the fuck, quoi.
Et donc, ça, c'est agréable.
Par contre, ce qui est sûr,
c'est qu'il faut venir surcharger
ton copilote, pardon,
tes règles.
Il faut lui donner de la matière.
Il faut lui donner un contexte
et on va revenir...
Ça ne marche pas tout seul. Il faut le régler.
Il faut le configurer.
Ok, ça marche très bien
sur des pages HTML
ou des choses comme ça.
Mais dès que tu commences à avoir
ton application un petit peu plus sérieuse
avec des...
sur des applis frontes,
avec des stores,
des composables,
ou ton code est expliqué
un peu partout,
ça va être plus dur
d'avoir de la pertinence.
D'où le fait de centraliser
les données
et de lui donner de la matière
pour que lui, il respecte ses règles.
Et là, la qualité intrassec
de ce qui va sortir,
sera beaucoup, beaucoup meilleur.
Pour répondre à ta question
de manière plus rapidement, combien de temps?
Ça va dépendre de toi.
Par contre, ce qui est sûr, c'est qu'il faut
que tu te formes et donc
quelle est ta capacité
à te former à ce nouvel outil
pour en tirer vraiment
le 100%
En clair.
Ce qui est sûr, c'est que
si tu veux passer sur CurSort,
il faut prendre du temps
pour se former et l'utiliser correctement.
C'est obligatoire.
Sinon, tu n'es que sur un fork
de VS Code.
Mais en fait,
le fork de VS Code,
il est pour moi
intéressant parce que
tu ne vas pas être déboussolé.
Tu es dans ton univers
VS Code. Donc en fait, c'est facile.
Mais il y a juste le côté
agent
qui va être intéressant
ou tu vas pouvoir
surcharger toutes ces infos-là.
Ça, c'est intéressant.
Je pense que
le fork
est limité la friction
du nouvel
IDE.
Là, on l'a de manière native.
C'est facile. Par contre,
on a tous ces...
pour profiter
de tous ces agents et de toutes ces règles,
il faut se former un petit peu.
Et je pense que justement, cet article-là
nous montre bien la possibilité
de mieux régler tout ça.
Mais en fin de vidéo
ou en fin d'épisode,
on va
présenter un outil qui nous permet
d'alluciner beaucoup
d'allucination.
Allez, on déroule.
Ils nous ont mentis
sur
les supermodels
avec tous les benchmarks.
Non, pas celle-là.
C'est une avance. On n'est pas encore sur celui-là.
OK. Ah merde.
Là, c'est Fred Kamadza qui parle
de Vivatec,
qui a eu lieu la semaine dernière.
Et donc, il fait un petit constat.
De la déconnexion entre les...
l'entreprise, enfin, le buzz qu'il y a
autour de l'IA generative et de ce qu'on
nous vend et de la réalité sur le terrain,
en fait. Donc, il explique que
dans Vivatec, c'était l'IA
outrance. Tout le monde
essaie de vendre de l'IA, d'intégrer
des chatbots, etc. Sauf qu'on n'en est pas
encore là au niveau des entreprises.
L'adoption est assez lente et
les besoins ne sont pas vraiment...
Il n'y a pas de réponse au vrai
problème. Donc, voilà, ce qu'on nous...
En gros, on est dans une période où
beaucoup d'entreprises intègrent l'IA
parce qu'il faut l'intégrer. Mais c'est
intégré d'une façon qui ne répond pas
aux problématiques des entreprises. Donc, du
coup, voilà. On est plus
dans un marketing
plutôt que... On pousse la techno,
mais il n'y a pas de problème, quoi.
Disons que, voilà,
ça ne répond pas aux besoins.
Donc, les entreprises, bah, ouais, c'est
cool. Mais l'utilisation
se fait lentement. L'adoption se fait
très lentement dans les entreprises. Donc, on
n'en est pas encore là. Donc, voilà, il y a
une décorrelation entre l'offre et la
demande, etc. Donc, c'est un peu un
article qui revient là-dessus. Voilà, il
explique que 40% des exposants
proposaient des solutions avec de l'IA
à Vivatec la semaine dernière. Donc, voilà.
Enfin, voilà. Donc, article
intéressant. Fred Cavadra, je ne suis pas
fan de tout ce qu'il écrit, mais celui-là, il est
assez intéressant
à lire. C'est toujours intéressant
pour un état des lieux
à un moment donné, sur une techno.
OK.
Voilà. Et...
Etat des lieux. Ah, non, mais
complet. Moi, je
pense que s'il n'y a pas de problème,
pousser des solutions, ça marche pas.
Enfin, je veux dire, c'est... C'est clair.
C'est du sens commun. Et
on a vraiment
nous, dans la tech, en plus, on a
vraiment le coutume
de chercher des nouveautés.
Et donc, parfois, en fait, on va
trouver
une énorme solution, sauf que le
problème n'est pas assez réel,
n'est pas assez douloureux
pour justifier l'achat de cette solution-là.
Et donc, c'est pour ça qu'il y a
autant de startups qui meurent.
C'est qu'ils essayent de pousser
une solution, sauf que le
problème n'est pas assez gros, n'est pas assez
fort. Et donc,
ça marche pas. Tout simplement.
Est-ce que... Est-ce que
il y a un génératif
et...
Peut-être, en fait,
il manque encore de maturité
et
l'offre, en fait,
qui s'appuie sur LIA
n'est pas encore assez
développé.
Je m'explique. En fait,
le client final, lui, il s'en fout
que ça soit fait avec de LIA ou pas.
Il veut résoudre le problème.
Et je pense que, là, aujourd'hui,
on essaye de pousser LIA en disant,
ouais, c'est fait que de LIA, c'est top.
Mais ça reste ou pas
le problème que j'ai. Et donc,
celui qui va gagner
un paquet de dollars, je le pense, c'est celui qui arrive
à solutionner le problème
du client.
Et s'il le fait avec de LIA, c'est bien,
parce qu'il pourra aller voir les investisseurs
et il pourra lever des pognons
parce qu'il utilise LIA.
Mais, en fait,
toujours le même délire. Le client, il s'en fout
que ça soit fait avec LIA ou pas.
Donc...
Moi, je suis vraiment pour...
Tu vois, on critique beaucoup Apple
en ce moment en disant qu'ils sont en retard
sur LIA, tout ça. Et moi, je ne suis pas persuadé qu'ils soient tellement en retard.
Et je suis fan
de leur intégration de LIA au niveau
des outils, du logiciel.
Parce qu'en fait, ils font une intégration
qui...
ou tu ne te rends pas compte que c'est de LIA. Par exemple,
trier les photos, des choses comme ça. Ils ont déjà commencé
à intégrer LIA. On l'a déjà dans les IP-PUN tout ça
et on s'en emmène pas compte. Et je pense que c'est ça la vraie
utilisation de LIA. C'est-à-dire que tu vas utiliser
une application que tu utilises habituellement. Et LIA
va t'assister, va te faire des choses en plus
que ce que ça faisait avant. Et c'est ça, en fait,
la vraie utilisation de LIA. C'est pas un chat bot
où tu vas poser des questions. Oui, ça c'est cool.
Mais si tu... Alors nous, on est dans la tech
et on utilise au quotidien, surtout les devs,
on a beaucoup d'outils développés à notre destination.
Mais si tu fais un petit sondage
autour de toi, des gens lambda,
tu verras que la plupart n'utilisent pas
ni chat GPT, ni... Voilà.
Du tout au quotidien. Ah, clairement.
Nous, on est souvent déconnectés un peu du monde normal
et faut se méfier de ça aussi,
beaucoup. Donc je pense
Apple est dans le juste
au niveau d'intégration de LIA.
Et je crois plutôt à ça, dans l'avenir, en fait,
une intégration transparente. Voilà.
Il me dort un color.
Et en fait, quand tu cliques sur le bouton,
c'est juste une fonctionnalité.
Mais...
Le mass market, intéressant.
J'avais pas vu ça comme ça.
Mais c'est vrai que nous, on est peut-être
trop la tête dans le guidon et sur eux.
Sur la hype techno.
Mais c'est vrai que l'approche
tout le monde, tous les journalistes,
en tout cas tous les mecs
qui est gratteur de buzz peut-être,
disent que Apple a beaucoup de retard
sur LIA.
Mais peut-être, sur
l'intégration
des fonctionnalités LIA,
peut-être ils sont en avance en fait.
Ouais, et surtout, c'est quelque chose
que j'aime beaucoup.
Si tu n'as pas vu la keynote, la présentation,
ce qui est génial sur l'iPhone,
ce qui est vendu, c'est
que LIA va tourner en local
sur l'iPhone. Il n'y aura pas d'appel réseau.
Ça c'est clair.
C'est ça qui est contrairement aux autres.
Tout va rester sur l'iPhone
et ça va tourner sur les pluss Apple
qui sont performants pour ça.
Et c'est peut-être pour ça aussi que ça prend du temps
parce que faire tourner une LIA en modèle
en local sur un iPhone, c'est pas si simple.
Sans que ça bouffe toute la batterie tout ça.
Après, on revient
sur un peu ce qu'on avait déjà
discuté sur certains
épisodes. C'est le fait
d'avoir de plus en plus de modèles
mais des modèles ultra-dédiés
spécifiques
qui seront tellement petits
qui pourront tourner en local
mais ils feront des tâches
ultra-spécifiques.
Mais il n'y aura pas
un super model
qui va tout faire
et qui sera dans le cloud
parce qu'après, il y a un business model
où tu vends des tokens aussi.
Donc pousser cette solution
décentralisée est là aussi son business model.
Donc là pour le coup,
ça va s'affronter.
Et c'est deux approches
de LIA, deux approches
de vision différente entre Google et Apple
c'est intéressant
d'assurer.
On se centralise tout
et donc non, intéressant.
Néanmoins, les Google,
les OpenIA
et tout ça, pour le coup
ils nous ont mentis non ?
Ouais, il y a
une vidéo, alors c'est
plus comment il s'appelle, il fait des vidéos
assez techniques sur les LIA
et les modèles etc.
Alors si je vous est intéressé vraiment par le côté technique
des modèles, je ne sais plus
tous les combien, il fait une vidéo, c'est Artificial
Code, la chaîne.
Et donc, dans cette vidéo, au début de la vidéo
il explique qu'il y a eu
de la triche sur les benchmarks,
au niveau des modèles open source.
Tout simplement et Zuckerberg a avoué
dans un interview qu'il l'avait fait
et comment ils ont fait, tout simplement
au niveau du benchmark, ils ont
mis plusieurs modèles en privé,
ils les ont entraînés sur les données
du benchmark, ils ont
écarté tous les modèles qui étaient moins bons, ils ont gardé que les bons
et ensuite, ils ont publié
le modèle qui était entraîné etc.
et donc ça fait un meilleur classement.
Et donc, ils ont triché
sur les benchmarks pour avoir des meilleurs classements
et pour avoir plus de
vue, plus de digitisation et plus
de levée de fonds certainement.
Ouais, ils ont
chité. Bon en même temps
ils ont, enfin
je veux dire, ça fait partie du jeu,
il y a des benchmarks, les règles
sont écrites donc
tu fais
évoluer ton modèle
on se rappelle
du diesel gate avec
les vols wagon. C'est exactement
pareil, c'est ok.
Dans le contexte d'évaluation
du benchmark, les stats
sont bonnes. Après, de là
à dire que tous les benchmarks sont pipés
et que tout est faux, tout...
C'est compliqué. Après
je pense que c'est dédonné
et après, c'est pas la messe non plus, je pense.
Il faut savoir s'en toucher.
Ouais, donc tu as choisi un peu les messes par contre.
Mais ouais,
qui croire, qui croire.
Allez,
encore plus
bizarre mais en tout cas
ultra puissant
quelqu'un a utilisé
des vidéos
pour stocker
et utiliser
des vidéos comme base
de données vectorielles.
C'est complètement ouf ce truc.
Ouais, c'est assez fou. Il utilise des mp4
pour stocker
toutes les données vectorielles
et donc faire des requêtes pour retrouver des informations
et tout ça dans un mp4. Donc du coup
c'est un fichier
que tu peux mettre en orline etc.
Alors j'ai pas testé le truc.
Il y a un repo GitHub qui dispose, on peut tester facilement
mais c'est assez fou en fait
de se dire
sa database c'est le fichier mp4
en fait.
Forcément très très lourd
et tu vois tu peux le mettre en offline,
tu peux le mettre en service worker
tout ça,
c'est juste assez fou en fait
d'avoir pensé à faire ça.
Un peu comme le note de PHP en fait.
Et alors moi
il est que
déjà technologiquement je trouve ça intéressant
comment le mec a pu
intégrer ça.
Par contre moi ce que je vois
c'est potentiellement
en fait
un article
où en fait tout,
ta page est intégrée dans ta vidéo
et donc en fait
dans ta vidéo,
il y a toutes les infos que tu as besoin
tu vois,
il y a toutes les infos.
Et donc tu viens surcharger ta vidéo
avec plein d'infos
et ça
ça c'est intéressant quoi.
Parce que je me dis
tu n'exposes que ta vidéo
mais au final dans ta vidéo
il y a toutes les infos
que tu as voulu, je sais pas, un bout de code,
un snippet, du texte
des choses
comme ça quoi. Et donc
wow intéressant,
très intéressant.
Après
tu as des milliers de livres
dans un seul fichier vidéo
tu vois par exemple
Newscase, du style lipréhéry
il y a plein d'exemples
mais c'est
franchement j'ai vraiment envie de tester
juste pour voir ce que ça donne
le poids du MP4 final
pour voir ce que ça donne.
Et ce qu'il faudrait voir aussi c'est
est-ce que ta vidéo
en fait
est-ce que
elle est
t'es obligé de la lire, enfin est-ce que tu peux
la lire de manière nativement
est-ce que quand tu l'exportes
et quand tu la compresses
ou des choses comme ça, est-ce que tout est
supprimé
enfin tu vois moi j'ai plein de questions
techniques et après
il faut vraiment que je regarde
mais ouais je vois des cas du usage
intéressant.
En même temps
si tu fais
ouais j'ai obligé.
Il y a une version js qui va arriver
on sait pas.
Ouais à voir.
Allez
petite version de Copilot
qui vient
s'agrémenter d'un agent
qui nous permet en fait de faire des reviews
de code c'est ça ?
Non c'est alors, oui alors
oui déjà il y a la nouveauté
alors en ce moment j'ai
Copilot qui me fait des reviews de PR
et ça c'est super
ça veut faire une semaine que je l'ai
et top il me trouve des trucs
du coup tu te retrouves alors ce que je disais
je crois que j'ai fait un message en suite
c'est hyper pratique pour les mecs qui travaillent
les devs qui sont seuls
sur un projet etc
parce que ça te fait des reviews
t'as quelqu'un qui te fait des reviews de tpr
donc tu peux mettre en place un système de PR
tout ça, que tu vas valider
donc Copilot va te valider ta PR
enfin en tout cas va te faire une review donc ça c'est pratique quand t'es tout seul
mais ça c'est autre chose
c'est carrément un agent
qui tu vas lui assigner
une issue
dans github et il va
faire le code, ce que tu lui as demandé
et il va ouvrir une PR et après tu valides
etc donc c'est quand même petit développeur
dans un coin qui te fait
des fonctionnalités
alors apparemment c'est que pour des petites fonctionnalités
pour l'instant il va pas faire des trucs trop compliqués
mais c'est un début d'avoir
quelqu'un qui peut te gérer certaines
fonctionnalités dans ton code
et directement sur github
il faut former le PO
à bien
expliciter ses erreurs
dans les issues comme ça après on exécute
cet agent et qui solde
le problème directement, parfait
ouais finalement ça devient un prompt en fait
ouais
ouais on est intéressant
ça par contre c'est payant
c'est soucouvert
c'est dispo que sur Copilot Plus
et la version entreprise donc c'est pas la première
version où tu payes 10 dollars
c'est la version au dessus où tu payes je sais plus
29 dollars entre comme ça
ok
peut-être ça descendra après
dans les budgets je sais pas
petit
site intéressant qui vient en fait
nous faire
c'est quoi c'est un annuaire avec
tous les agents
qui sont déjà disponibles
là sur le marché, là tout de suite
ouais peut-être pas tous
mais il y en a un bon paquet
c'est par catégorie
enfin en tout cas service
ou fonctionnalité, enfin service rendu
et tu peux l'étrier
en open source tu peux voir ceux qui sont open source
donc il y a vraiment plein plein plein d'agents
voilà
que tu peux free open source
ok non donc il y en a vraiment plein
il en manque quelques-uns mais
j'en ai vu certains qui manquaient
mais ouais c'est intéressant
si tu as besoin de faire des vidéos
enfin il y a plein plein de trucs
il y a toute catégorie
ok donc c'est un annuaire
avec tous les agents
de l'écosystème
top
bah il y a tous les agents disponibles que tu peux utiliser
après je pense que pour être soumis
cet annuaire il y a quand même
un minimum de review
il faut que ça soit à peu près propre
c'est pas est-ce que
potentiellement tu pourrais retrouver
des agents
un peu malveillants là-dedans
alors je crois qu'il faut soumettre
ils font déjà un peu taf
j'espère qu'ils font une petite vérif
avant quand même
je sais pas
yes intéressant
et
si on veut éviter
évidemment
petit outil
de mcp
si vous utilisez
cure-sort ou d'autres
d'autres agents
en tout cas d'autres
IDE avec
des mcp
grâce
à ce petit mcp
de contexte qui s'appelle contexte 7
en fait on va diminuer
les hallucinations par
je sais pas 90
ou au moins 80
tout simplement parce que
aujourd'hui
tous les énormes sites
en fait
ont soumis
leur documentation
en fait à ce service-là
et ce service en fait vient récupérer
et vient mettre à jour
la documentation
et ce qui fait qu'au lieu de
poser la question au modèle
qui est derrière donc si c'est
Claude
ou
ou
chat gpt
ou les choses comme ça qui ont été
entraînés avec des données assez vieilles
potentiellement
là on va récupérer la doc
et donc on va injecter dans le contexte
d'où son nom contexte 7
on va injecter les données
à jour
et là en fait on voit la date de l'update
il y a 17h
la base de données de next.js
la base de doc
excuse moi
a été injectée et donc
ils ont directement injecté
toutes les données ce qui fait que
dans notre
contexte de chatbot
ou de notre agent quand on va lui demander
des informations on va lui spécifier
tu vas utiliser contexte 7
pour répondre à ma question
ce qui fait que même si la dernière
fonctionnalité qui a été implémentée
il y a 5 jours elle est présente dans la doc
donc elle a été envoyée à contexte 7
et donc au moment où moi je vais me demander
l'information
ça va directement aller chercher
la mise à jour
comment ça marche
tu fais un arro base
next.js
moi je me suis fait un snippet
qui dit
en fait
tu fais un use
contexte 7
à la fin
de ton prompt
quand tu lui demandes
et tu lui dis use contexte 7
et il va
se connecter au mcp
et il va les récupérer si tu lui as dit redis
voilà
donne moi
les ACL
du user
temps
ou comment je fais pour lister la liste
des commandes autorisées
de cet user dans redis avec les ACL
use contexte 7
et lui il va te sortir
tu tapes telle commande
parce qu'il est venu se connecter
à la base de documentation
qui a été mis à jour
là sur la base de redis
elle a été mise à jour il y a une semaine
bon alors stop on arrête d'en parler
parce que tu vas nous faire
une petite vidéo
pour expliquer l'utilisation
de contexte 7 avec Curseur
ça marche je fais une vidéo
mettez un pouce
et mettez
contexte 7
tu mets juste contexte 7 en commentaire
et comme ça moi ça veut dire que je fais la vidéo
et c'est super intéressant
tu nous montre tout
comment on utilise contexte 7
moi ça m'intéresse de voir
ok feu
et bah on fait ça
ça marche
écoute patrick on en reste là pour cet épisode
du mois de juin
ouais ça roule
ça te va ?
écoute un grand merci à toi
un grand merci à tous ceux qui sont restés
jusqu'au bout de l'épisode un petit pouce
un petit contexte 7
et puis comme ça on fait la vidéo
je fais la vidéo qui explique tout ça
ciao à très vite
ciao à plus
Episode suivant:
Les infos glanées
DoubleSlashPodcast
Double Slash, un podcast sur le développement web. Retrouvez-nous régulièrement pour parler de sujets variés tels que la JAMStack, l’accessibilité, l’écoconception, React.js, Vue.js, Next.js, Nuxt.js, le CSS et des retours d’expériences sur des implémentations.
Tags
Card title
[{'term': 'Technology', 'label': None, 'scheme': None}, {'term': 'Technology', 'label': None, 'scheme': 'http://www.itunes.com/'}]
Go somewhere
L'art de "logger"