GIMP prend les ARM de Warp pour coder des app de maraichage open source avec l’IA

Durée: None

Date de sortie: 18/04/2025

Voir sur Youtube Animé par Horacio Gonzalez - @lostinbritany Avec la participation de :- Mathias Herberts - CTO de SenX @warp10io- Erwan Rougeux @Erougeux- Quentin Adam @waxzce Chapitrage et Liens 00:02:07 Les news de Warp10https://www.warp10.io/00:21:27 Windsurf et l’usage de l’IA en développementhttps://windsurf.com/https://lg.substack.com/p/the-death-of-product-developmenthttps://codeium.com/refer?referral_code=r64p5iubmbtm7o21 00:40:12 Une nouvelle version de GIMPhttps://www.gimp.org/news/2025/03/16/gimp-3-0-released/ 00:44:09 Brinjel, une solution Open source pour la planification agricolehttps://brinjel.com/ // article brinjel: https://www.clever-cloud.com/fr/blog/entreprise/2025/04/18/deployer-de-brinjel-sur-clever-cloud/ https://www.youtube.com/watch?v=cISfNkFilds&ab_channel=GDGFrance Keynote Mathieu Passenaud DevFest Toulouse avec Bertrand "Mieux cultiver et mieux manger grâce au logiciel : la tech au service de l’agriculture" 00:52:40 Softbank rachète AMPERE computing, vers des serveurs IA sans GPU ?https://www.lemondeinformatique.fr/actualites/lire-avec-l-appui-de-softbank-arm-convoite-ampere-computing-95704.htmlhttps://www.usine-digitale.fr/article/softbank-rachete-ampere-computing-pour-6-5-milliards-de-dollars.N2229193https://frame.work/fr/en/products/deep-computing-risc-v-mainboard Image Bonus du jour : La team MACI 129 vu par ChatGPT en mode Ghibli

Bonjour et bienvenue à ce nouvel épisode de messages à caractère informatique, épisode
numéro 19.
Nous sommes les Bantuymars de Milban Sanké, je suis toujours à Céron Salés et aujourd'hui
je suis accompagné de Jean Merveilleux tel que Erwan Ruyé.
Bonjour Erwan, comment tu vas ?
Bonjour, ça va et toi ?
Ça va, Mathias Herberts.
Bonjour.
Bonjour.
Et ça fait un moment qu'on n'avait pas avec nous, cantaladam.
Yeah ! On fait encore une podcast.
Ouais !
On le fait presque chaque semaine mais voilà c'est difficile de réussir à l'écaler
dans ton agenda.
Donc, je vous propose comme d'habitude qu'on fasse un petit tour de table.
Erwan, tu nous rappelles qui tu es ?
Eh ben moi c'est Erwan, on charge la croissance internationale de Claver Claude et qui vous
a rejoint depuis maintenant une petite année.
Oh, ça passe vite le temps.
Mathias, qui tu es ?
Eh ben moi je suis le cofondateur d'une boîte qui s'appelle SEN, c'est qui fait
un produit utilisé entre autres par Claver qui s'appelle Warp Ten.
Et, cantan, on n'a pas besoin de te présenter mais quand même pour l'auditeur perdu dans
Saint-Quain qui sait pas qui tu es ?
Donc chez Claver Claude j'ai le rôle de CEO, chief, evangeliste, officier, ce qui veut
dire que je cours partout en essayant de faire des bidules pendant que la boîte grossit.
C'est assez drôle à faire.
Carrémane, et moi va toujours, espagnol perdu en Bretagne, je m'occupe de la
partie des frères de Claver.
Bon bah aujourd'hui je crois qu'on a un plan de souhait.
Mais quand on est en train de préparer ça, on se dit, tiens non, Mathias, avec nous,
ça fait un sacré moment que on n'a pas parlé de Warp Ten.
Et en plus il y a un sèche de nouveautés pour que Mathias nous raconte un petit peu.
Donc Mathias, c'est que tu peux nous présenter bref, man, qu'est-ce que c'est Warp Ten ?
Et surtout, quelles sont les nouveautés que vous savez sortir ces quelques derniers mois ?
On est d'accord que là, c'est les notes de version, de la version qu'on a reçu par mail,
mais qui n'existe pas en vrai comme lien, c'est ça ?
N'époil pas, n'époil pas !
Bah Warp Ten, c'est une solution pour gérer et analyser des données issus de capteurs
des séries temporelles, enfin des données euro-datées quoi.
Donc c'est un produit qu'on a commencé il y a presque 12 ans maintenant, ça fait un petit moment.
On va suivre d'ailleurs, tu as contribué à un moment cette aventure.
Et puis, il a bien grossi, puisqu'on est passé d'un truc qu'on installait sur un serveur,
quelque chose qui aujourd'hui peut faire tourner sur des infras beaucoup plus grosses comme celle de Clever.
Et puis, on a diversifié les usages, on a en plus fait en sorte que la techno serve à plein d'autres choses
au-delà de simplement stocker des données.
Quand on dit ça peut servir en plein d'usages, il y a quand même des gens qui collent du Warp Ten sur un Raspberry,
première génération.
Et ça marche en stand-alone.
Et ce qui est bien c'est que Warp Ten c'est une archi où tu peux le coller un peu en mode cache,
c'est-à-dire tu peux bourrer de la data dans une petite machine, par exemple un Raspberry.
Lui faire faire du prêt-traitement, mettre tes trucs bien propres avec par exemple des R's bien propres
et envoyer derrière sur un autre Warp Ten de la data.
Donc c'est un truc qui peut être comme ça.
Et après, ton autre Warp Ten, ça fait des gros, donc il y a toujours une version stand-alone,
il y a une version distribuée, ça que vous appelez, la HSTOR.
Elle a une version distribuée, qui appellait la version distribuée.
Et qui stock sur elle-même.
Qui stock sur FoundationDB.
Il y a pas la version aussi où tu distribues mais que tu es sur tes fichiers.
Ah, mais ça c'est encore autre chose.
Ok, une version sur FoundationDB qui est celle que nous chez Cléver en utilise,
la grosse version, donc là ça scale, on ne connaît pas les limites.
Parce que régulièrement on annonce nos chiffres à Matias et qu'il fait, ah tiens c'est nouveau.
Ouais, ça peut aller jusque là, bah c'est cool.
Je mets un jour la doc.
Donc ça, ça grossit très bien, c'est la version qu'avant on foutait sur HBase.
Et que maintenant on fout sur Foundation.
Et je ne vais pas vous mentir depuis que le bordel est sur Foundation,
les gens qui font la strange chez nous dorment vachement mieux.
C'est un peu le jour et la nuit.
Et donc il y a donc la petite version, il y a la version en Closter.
Et il y a une version intermédiaire aussi qui s'appelle Stand alone Plus.
Donc il y a en gros l'équivalent de ce qu'on peut mettre sur un Raspberry Pi,
mais qui tourne avec FoundationDB derrière et qui permet de faire la transition
entre les trois versions finalement et d'avoir quelque chose de graduel
quand on fait la transition.

On sait qu'on va monter en charge.
Donc ça, c'est le produit originel, on va dire.
Et puis au fil des ans, on a tissé tout un écosystème autour.
On a rajouté des fonctionnalités et puis on a fait des ponts avec d'autres solutions.
Donc aujourd'hui, on est intégré dans tout un tas de trucs externes
comme Spark, Databricks, Trino, on travaille sur Snowflake.
On a une intégration avec des outils comme Kafka Streams, comme Nififl.
Enfin voilà, on a tissé des ponts avec plein de choses.
L'objectif étant toujours le même, c'est-à-dire d'apporter notre savoir-faire,
notre expertise sur la partie manipulation de net-capteurs
dans ces environnements qui, nativement, sont faits pour traiter des données,
mais pas du tout de façon spécifique les données de capteurs.
Donc on a ça, on a des outils de visualisation.
Donc on a un outil qui s'appelle Discovery, qui permet de faire ce qu'on appelle
des dashboards dynamiques, c'est-à-dire des dashboards dans la structure
et on va changer en fonction de ce qu'il se passe.
Donc en gros, on a un truc de supervision au mur,
quand tout va bien, il affiche des petits chats,
puis quand tout va pas bien, il tue les petits chats.
C'est un truc dont on ne sert pas et qu'on devrait utiliser nous.
On est d'accord.
Vous avez pas de télé au mur, c'est pour ça ?
Mais la télé va bien tu arriver, on est dans les nouveaux locaux de Brest.
Il faudrait qu'on boule à Brest.
C'est à dire que les télé sont en littéral.
Et on vient d'avoir une livraison de télé à poser dans les murs,
donc on n'a plus d'excuse.
Voilà, donc ça c'est sur la partie Tech
et puis on a construit l'année dernière un SASS
qui permet de rendre plus accessible ça aux gens
sans qu'ils aient à mettre les mains dans le cambouis.
Et puis récemment, on a fait un truc encore plus avancé
pour élargir le spectre des gens qui peuvent manipuler cette typologie de données,
un assistant qui s'appelle Spoky,
à qui on peut poser des questions et qui va de lui-même
générer les requêtes, les analyses en utilisant nos technologies sous-jacentes.
Donc quelque part, ça permet à des gens qui n'ont peut-être pas la connaissance
très fine de comment manipuler toutes ces séries temporelles
d'accéder quand même à une certaine donnée avec des langages naturels, c'est ça ?
Voilà, c'est exactement ça.
En fait, le truc que j'aime bien, c'est
R2 bloque tous les broyeurs du niveau 2.
C'est un peu ça, c'est d'être capable de parler à un truc ou d'écrire à un truc.
Peut-être que demain on pourra lui parler en verra
et de faire en sorte que lui, il soit capable d'extraire ce que tu demandes,
de l'info sémantique et puis d'aller retrouver à la fois les bonnes données
à les tripoter, les bonnes manipulations à faire
et potentiellement la bonne visualisation à te présenter derrière.
L'intérêt de ça, c'est très simple, c'est que 1, ça fait gagner beaucoup de temps aux gens
et puis 2, ça permet d'avoir des populations qui sont pas du tout techniques
qui bénéficient de l'accès à la donnée.
Donc ce qui est un peu notre mission de démocratiser l'accès à la donnée brute
puisque nous on pense que les KPI c'est un truc du passé
et que si votre visualisation des données, la seule chose que vous visualisez c'est les KPI,
vous passez à côté de beaucoup de choses parce qu'en fait sur des équipements industriels,
sur des avions, sur des voitures, sur des camions,
il se passe des choses qu'on ne peut voir que dans le détail de la data.
Et quand on est en train de préparer l'épisode,
et on a parlé de l'index utilisation de Spoky qui te fait s'amparment pour de tes coups,
c'était tiens, il y a un problème quelque part,
donnez-moi les dashboards et composez qu'il y a un problème
avec la métrique intéressante pour l'analyser.
Voilà, en fait ça fait partie de la simplification,
c'est à dire que quand il y a une merde en prod, les gens sont toujours un peu stressés,
donc soit l'expert est là et on va tous jouer les sacs à dos
et on va regarder ce qu'il est en train de faire,
soit si on a la capacité de poser la question en engage naturelle,
c'est plus facile de dire, j'ai tel système qui est parti en VRAC,
les symptômes c'est ça, qu'est-ce que je peux faire pour essayer de diagnostiquer ce qui ne va pas bien.
Et donc ça c'est quelque chose qu'on a commencé à faire sur le périmètre industriel
et puis on va travailler ensemble avec Clever sur le périmètre monitoring
justement pour faire en sorte que ce soit quelque chose d'accessible à plein de gens,
sur un périmètre qui est plutôt du cloud et puis de la partie monitoring à IT.
Et bon,
Warten et Open Source, bien entendu, licence Apache et Erwan me racontait
Ah mais Warten, j'ai commencé à jouer, j'ai même fait un,
j'ai même les mises en pratique sur un projet
et je n'ai pas voulu demander quel projet c'était parce que
je voulais que nous les racontait en live, donc Erwan,
toi pourquoi tu t'es servi ?
Alors en fait le truc c'est que lors d'une mission
où on était qu'on s'allait aéroport avec Steven, notre site CEO préféré,
je jouais avec Windsurf pour tester la technologie
où je lui ai rebossé sur un projet que j'avais déjà développé
avec le chat GPT il y a quelques temps et j'ai disais...
Petite asterisque, c'est pas la dernière fois que vous allez entendre parler de
Windsurf dans ces massies, on reviendra plus tard.
Et ouais super outil, c'est devenu ma nouvelle drogue.
Mais le truc, je demandais à l'application, j'avais besoin de prendre
une série temporelle qui était du son, une note enregistrée sur un instrument
et être capable de faire une transformée de fourrier dessus pour
m'assurer que je retrouve bien la note, son octave supplémentaire et sa tierce
automatiquement quand on joue la note de cet instrument,
en panne pour la petite note.
Et du coup je galerais à essayer de développer un truc en rust avec Windsurf
et du coup la Steven me dit mais pourquoi t'utilises pas la fonction de Wharton
Fast Fourier Transformation, tu fais juste en sorte que ton fiche
chez Wave y soit sectionnée en tronçon de quelques secondes histoire de faire
la série, t'envoie la série et Bim Bam Boom c'était fait.
Ça nous a pris 30 minutes en attendant notre avion à l'aéroport avec la
connexion d'habit de Jean. Donc vraiment pour le coup tu vois Wharton,
ça sert aussi pour les instruments de musique.
Ça sert à plein de trucs en fait ?
Je l'avais collé dans les respirateurs
dans les Wharton, je l'ai collé dans un autre truc dont je ne peux pas
trop parler depuis dans le genre d'espace aérien, dirons-nous.
Il y a beaucoup de choses qu'on peut faire avec Wharton qui sont hyper cool.
Nous on s'en sert, enfin c'est tout le coeur de l'observer visiter de Clever
et c'est aussi le coeur d'un produit chez nous,
qui s'appelle Matéria TS, qui est pour Matéria Time Series,
qui très sincèrement quand tu colles à côté,
comment ça s'appelle ? Time Space, c'est quoi le bordel d'eau chez Amazon déjà ?
Time Stream.
À côté, c'est quand même à se taper le cul par terre.
Même Amazon a du mal à positionner Time Stream je crois.
En plus ils ont mon ancien deuxième Time Stream.
Alors là, le truc est hyper bien construit aussi si tu as des usages industriels.
En fait, si tu as des usages industriels, c'est hyper bien.
Il y a quelques trucs qu'il faut connaître qui sont utiles.
En fait, ce que Wharton t'apporte de base,
qui est en fait le truc le plus pénible de la Time Series,
c'est une fonction que ça s'appelle Bucketize.
Et en fait, c'est quand tu récupères un flux d'informations,
t'auras toujours ton capteur qui a envoyé plus ou moins une info propre,
à une fréquence variable, etc.
Et quand tu vas vouloir soit l'analyser, soit même l'afficher,
en fait ton premier problème dans la vie, ça va être de nettoyer ton truc de fréquence.
Parce qu'imagine que tu vas lui afficher 24 heures,
si t'envoies 24 heures de donner à 40 kHz à ton navigateur,
on n'est pas d'accord du tout, en fait. Il n'est pas content du tout,
il prend des gigates d'attentat dans la gueule, ça se passe hyper mal.
Bucketize, c'est le truc qui va te dire, tu veux t'adonner à quel niveau,
quand, quel taux d'échantillonnage, qui va être capable de déstimer la donnée
qui lui manque et qui va mecair un truc bien propre.
Et ça, rien que ça, je crois pas avoir, parce que le Bucketize,
il n'existe pas dans les flux.
En fait, ils considèrent que c'est un groupe baï,
mais notre Bucketize, il est quand même un peu plus sûr que c'est un groupe baï.
Mais grosso modo, dans des approches SQL, il y a des simulacres de Bucketize.
Mais c'est pas du tout la même puissance.
Et ça, si vous avez beaucoup géré déjà de données de capteurs, ça change tout.
Vous pouvez l'utiliser aussi sur des flux financiers.
Nous, on l'avait fait dans une banque où on se servait de Warp Ten
pour faire de la détection d'anomalie et de la détection de fraude,
de patterns anormaux sur les transacs.
Il y a énormément de use case hyper intéressante cette technologie-là.
Et du fait qu'elle galère des fois un peu à se positionner,
en fait, elle est venue hyper versatile.
C'est-à-dire que vous pouvez utiliser quasiment Warp Ten comme une librairie
que vous apportez dans votre code.
Si vous n'avez pas tant de données que ça à traiter,
vous pouvez vraiment l'utiliser comme ça.
Donc je trouve que c'est une technologie qui a bien vécu.
Et là, du coup, on va sur une release, c'est la 3500.
C'est quoi la nouveauté de la 3500 ?
La 3500, c'est en lien avec notre super agent AI, la Spoky.
En fait, on s'est rendu compte que pour que Spoky puisse travailler efficacement,
c'était mieux si on pouvait stocker des résultats intermédiaires,
des trucs un peu sympas dans le process de raisonnement.
Et donc, plutôt que d'avoir des outils externes sur lesquels on va rajouter du clé valeur
avec un Redis, un Valkyrie, un même KHD, ou que sais-je encore,
on s'est dit que ce serait super si on pouvait juste se servir de Warp Ten.
Et donc, on a rajouté la possibilité de stocker des clés valeurs génériques dans Warp Ten.
Et donc aujourd'hui, on peut faire le traitement complet, c'est-à-dire,
à la limite, quand on fichait Wave, tu pourrais le stocker temporairement dans Warp Ten,
sous une clé valeur, et puis le récupérer facilement,
faire ta transformation de fourrier, et puis faire ce que tu veux derrière.
Donc ça, c'est une des grandes nouveautés.
On l'a intégrée dans toutes les versions, donc la InMemory,
celle qui est installable sur un Raspberry Pi,
celle qui marche avec FoundationDB, c'est compatible avec la réplication.
Enfin bon, bref, le truc qu'on a rajouté, c'est plutôt sympa.
Donc ça, c'est la grosse nouveauté de la 3500.
Et puis, on a fait des évolutions liées à la performance,
parce qu'il y a quelquefois-là, on fait des fonctions,
parce qu'on a besoin du truc à un instant T,
et puis on optimise pas tout de suite,
et puis ça marche sur le premier périmètre,
et puis un jour, il y a un client qui arrive,
ou un utilisateur qui arrive en disant,
« Ah, là, votre truc, c'est un peu de la merde.
Pourquoi ça démarre ? »
Ah ouais, vous avez quand même 10 millions de points, non ?
Ça marche plus pareil.
Et donc forcément, il y a des problèmes de perte.
Donc on a optimisé la perte d'un truc qui est un peu lié à Bucketize,
qui s'appelle filler, qui permet de boucher les trous
avec différentes stratégies, parce que les capteurs,
je suis d'accord avec toi, de temps en temps,
ils en voient de bonnes données, mais souvent,
ils en voient quand même des trucs pourris.
Il faut quand même compenser un peu toutes ces...
En fait, dès que tu fais de la time series,
tu te retrouves assez facilement dans un monde étrange
qu'on appelle le traitement du signal.
Et le traitement du signal quand même,
ça t'apprend que les capteurs, c'est bien de la merde.
Ouais, c'est ça.
45% des cas où tu fais du traitement du signal,
ça finit par, en fait, cette capteur qui était dobée du cul
et qui fait n'importe quoi,
parce qu'il était au edge de ses capacités de captage.
Et voilà.
Ouais, ils étaient trop chauds, ils étaient trop froid.
Enfin bon, bref, ça fait des trucs un peu mérdiques.
Donc on a augmenté les pertes de cette partie fil.
On a dû augmenter les pertes, je sais pas,
on est passé de...
Enfin, sur l'exemple de tests qui nous posaient problème,
je crois qu'on est passé de 47 secondes,
de 48 secondes à 300 milles secondes,
c'est plutôt mieux.
C'est la fin de tes tests.
Je suis plutôt bien même, hein.
C'était marketing, Mathias.
Tu ferais le levier de différence, tu vois.
47 secondes, 300 milles secondes,
tu vois, tu ferais improving performance
by 200...
200 fois, ouais, ouais.
T'as raison, pas avant.
Mais je suis pas marketing, en fait.
Donc il y a ça,
dans cette release, il y a des trucs qui ont été faits par Clever.
Pour Clever.
Ah ouais ?
Il y a des maitris que FoundationDB,
vous aviez besoin que vous avez rajouté.
Donc merci pour la PR, super.
On aime bien que des gens qui servent de l'outil
d'une façon dont on ne se sert pas nécessairement,
soient contributeurs, donc ça c'est plutôt cool.
Et puis après, il y a des petits bugs,
des trucs à droite à gauche,
mais le gros morceau c'est ça,
c'est le clé-valeur qui arrive
et puis la partie augmentation des pertes de film.
Et pour donner une idée de capacité d'analyse
de série temporelle,
à combien de fonctions on est actuellement...
Il doit y avoir pas loin de 1300 fonctions
dans la bibliothèque de base,
donc dont la transformée de fourrier,
dont la transformée en ondelet,
dont la transformée de fourrier inverse, etc.
Donc, ouais, il y a plein tort de fonctionnalité.
Alors évidemment, tout le monde ne va pas
se servir des 1300 fonctions,
mais elles sont là et l'intérêt,
c'est que c'est autant de fonctions qu'on n'a pas à réécrire.
Et ça va très loin de fonctions
assez intéressantes comme une bombe de régression linéaire.
Ouais, il y a des régressions linéaires,
du travail sur les quaternions
pour les gens qui font des jeux vidéo,
il y a du truc de traitement du signal,
il y a un langage intégré
qui s'appelle Processing qui permet de faire des images.
Oui, c'est vrai.
C'est pas mal.
C'est pas mal.
Il y a un truc qui permet de faire des...
C'est des fonctions cons, mais qui sont très pratiques.
Il y a des trucs qui permettent de faire des moyennes
sur des Windows.
Des moyennes anglais.
Ouais, mais il y a de ça.
Après, voilà, la fonction que j'aime beaucoup,
à part Nohop qui fait rien,
mais bon, c'est là, elle fait rien.
Il y a une fonction que les gens ne connaissent pas vraiment,
qui sert pas à grand chose,
c'est pas l'RTFM,
qui te donne l'URL de la doc,
plutôt pratique.
C'est moi la chronyme,
parce que je suis presque sûr de le connaître,
mais je pense que mon chef n'aime pas les chronymes.
C'est toi, mon chef ?
Tu connais pas le chronyme ?
Oui, c'est 5 manuels.
Alors, c'est parce qu'en interne,
j'essaie d'empêcher les gens de jargonner.
Et donc, si tu veux, notamment le codire,
donc le codire de Clever, maintenant,
les gens rédigent un truc,
on le lit tous ensemble, un peu méthode Amazon.
Et du coup, tu me vois dans le document collaboratif,
repasser sur tous les chronymes,
les remettre en plaines,
tu vois, en fait,
parce que ça me gonfle, en fait.
En fait, ça me gonfle que les gens jargonnent
avec des chronymes,
qu'en fait, personne ne comprend pas.
C'est un chronyme.
C'est un chronyme.
Donc, il y a ça,
et puis après, il y a d'autres trucs.
Il y a quelques fonctions, des trucs tout bêtes,
mais un truc comme LTTB, par exemple,
qui permet de dire,
« Ah, putain, j'ai une courbe avec 10 millions de points,
finalement, j'en veux que 2000,
parce que j'ai que 2000 pixels de large.
Et tu me choisis 2000 points parmi ces millions de points,
mais tu me les choisis pour que la courbe ressemble
grosso modo à la courbe d'origine.
C'est pas de faire une moyenne, etc.
Dans cette choisir des points très spécifiques dans la courbe.
Et ça, des points représentatifs
exactement de la forme globale.
Donc ça, c'est un truc tout bête,
mais on s'en sert,
mais tous les jours, quoi.
Tous les jours.
C'est vachement bien.
Donc, il y a vraiment pléthore de fonctions.
Chacun peut trouver un peu son bonheur là-dedans.
Et puis, ce que je disais,
c'est qu'on est intégré dans d'autres plateformes.
Donc, en fait, le bénéfice de ces 1300 fonctions,
c'est qu'elles sont utilisables dans Wharton,
mais elles sont aussi utilisables dans Databrick,
elles sont utilisables dans Spark de façon générique.
Elles sont utilisables dans une appli
si on veut faire une appli sur la GVM.
Il y a plein de possibilités de réutiliser ça
à droite et à gauche.
Elles sont utilisables dans un aéroport
pour décomposer nos musicales.
Exactement.
Je dis, c'est de mieux en mieux, Massy.
On fait les news avant qu'elles soient sorties.
Bah oui.
Parce que là, on avait les releases,
et nous, on a des news,
juste que les sorties,

et on a des news,
mais quand on a mentionné tout à l'heure,
Windsor,
et on a des sentis,
des trépignées, des patients,
on parle pas de Windsor.
En fait, c'est plutôt un sujet global
que je trouve pertinent,
qui est développé avec Delia
pour être tout à fait sincère pendant un long moment,
j'ai trouvé que c'était un sujet
pourrie.
La limite des fois, il était bon,
on auto-complait.
On a fait un peu tout, on a joué avec...
C'est quoi le truc que tout le monde utilise ?
Je n'oublie toujours le nom qui est dans VS Code.
Cursor.
Il y a Cursor.
Cropilot, je le trouve carrément con,
pour être tout à fait sincère.
On avait l'abonnement chez JetBrains.
On a toujours l'abonnement chez JetBrains
avec leur truc d'IA,
qui n'est pas si mauvais que ça,
il te fait des auto-complis plus pertinents,
tu gagnes du temps.
Tu gagnes du temps sur du cas vraiment pas pertinent à écrire,
tu vois.
La Toyota Rih, comme il l'appelle,
du Boiler Playlate.
Du Boiler Play, c'est la con.
Et par contre, là, on s'est mis à jouer
avec Windsor.
Donc Windsor, c'est les gens qui faisaient codéignum,
codéignum, un truc comme ça,
qui faisaient une extension
qui se font dit qu'en fait, c'était trop chiant
de faire des extensions.
Ils ont fait leur propre IDE,
qui est en fait un fork de VS Code très manifestement.
Mais je pense qu'ils n'avaient pas assez
de point d'accès dans le système d'extension
et que ça les conflait.
C'est hyper chiant pour voir le contexte.
Et du coup, ils ont fait un IDE.
Et très sincèrement, c'est la première fois que ça m'a bluffé.
Et donc,
c'est un IDE qui vous permet de coder.
Et pour le coup,
tu lui décris ce que tu veux.
Et pour le coup, c'est un des premiers trucs
où je lui ai fait faire des soft-entiers,
mais des trucs compliqués.
Une plateforme Rust qui parle à une API
qui est, bon, j'ai juste la doc,
mais qui est une API interne.
Et puis qui parle à une PG
qui fait de la PG et qui doit avoir des jolies...
Enfin, c'est un truc avec des jolies...
Juste les open-downs.
On a des jolies migrations, etc.
avec du SQLX.
Et puis, ce truc-là,
un front en AngularJS,
en VueJS.
Enfin, tu vois, un truc un peu compliqué.
Puis ça se connecte en utilisant des services
d'authentification.
Des trucs un peu chiants comme ça.
Je n'ai pas tapé une seule ligne de code.
C'est une coderie interne.
C'est du vraping en interne, mais ça rend service
essentiellement au commerciais.
Ce sont des trucs qu'on pouvait faire à grand coup de ligne de commande.
Mais tu ne peux pas demander à tes commerciaux
de faire des jointures de fichiers audio
à coup de ligne de commande.
En plus, j'ai tout un truc dans ce truc-là où je suis du FFMpeg
en wasm dans le browser.
Un truc un peu lourd dans un grand M à coder.
Et je n'ai pas tapé une seule ligne de code.
Et après, je m'en suis servi pour Dothios Case,
de Windsor.
Je m'en suis servi pour comprendre des bouts de code.
Quand tu interviennes dans un projet,
tu poses des questions en lui demandant
c'est quoi l'architecture,
si je devais modifier quel truc, tirer dans quel coin.
Ça, il le comprend à peu près.
Je ne te dis pas qu'il est bon à chaque fois.
Je le dis qu'il le comprend à peu près.
Et après,
tu peux t'en servir.
Enfin, moi, je m'en suis servi.
Plus le langage
est précis dans sa compilation
et dans ses retours,
mieux tu te portes quand même dans ce truc-là.
Clairement,
c'est ça le point.
Il ne faut pas avoir de trop gros fichiers.
Il y a un problème de contexte.
Globalement, part des fois où Windsor fait du Claude,
sonné.
Mais il a aussi Gmini.
Il vient de réaliser le Gmini Pro.
Il a un gros contexte Gmini.
Il a un très gros contexte.
En certains cas, quand il a une grosse code base,
ça t'aide un peu le fait de pouvoir lui tasser
plein de mer dans le contexte.
Mais ce qui est bien, c'est qu'en fait,
le vrai boulot de Windsor,
c'est en fait, c'est vraiment de façon agentique
de comprendre le contexte
de comment il code et tout.
On vous a mis le lien de referrals
que les crédits Windsor coochers.
Vous pouvez vous inscrire en utilisant
notre client de referrals.
Et là, il y a plusieurs personnes de la boîte
qui sont passées dessus.
Et clairement, on a une de la productivité.
C'est la première fois que je suis un peu bluffé
par la productivité qu'on gagne.
Je ne suis pas du tout en train de dire,
par contre, on ne soit très clair.
Je ne suis pas du tout en train de dire,
on n'a plus besoin de développeurs.
Il suffit de balancer le cahier de specs
dans l'IA et ça va faire un soft.
C'est plutôt au contraire même.
Et là, on parle de la certaine
certaine et toute qui commence à sortir.
Nous, on la vit en interne.
En vérité,
un développeur qui a de l'expérience
il peut servir carrément
de ce type d'outil
que un développeur junior
et nous on la vit certaine
de l'interne, de l'impérite
et de ça, et son test et le retour.
Un de les retours que
m'a interpellé
l'expression, mais c'est de l'itéralement ça.
C'est comme si il y avait un junior
à côté de moi,
qui m'a fait très vite
tous les parties, il y avait
Nel et Corriller, un peu de pierre Codine
et il repartait Codé.
Littéralement, c'est ça l'impression
qu'on a eu beaucoup à avoir
pour toute la partie boilerplate,
que c'est un projet pour la partie
comprendre en bas de code, par où on
l'attaque et plus tu sais
comment les guider et plus tu es
précis, quand tu définis ton architecture,
quand tu définis ton appli, quand tu le demandes
pas à pas ce que tu veux,
mais il se porte parce que effectivement
tu le dis, fais un bon appli, que fais ça, ça,
ça, le résultat
au moins pour le moment, je ne sais pas
si moi, mais pour le moment, c'est de
se vanille, il va se voter, ça va pas marcher
et si tu sais pas, tu le dis
par contre, tu les découples
bien, tu l'expliques, comme tu l'expliquerais
à un junior, tu la compagnes
dans le pas à pas
et le résultat est
carrément sensationnel
Non et puis le truc
qui est bien, c'est que quand tu lui
dis, voilà mon application
je pense elle est prête pour aller en production,
j'aimerais la mettre sur du cléver cloud
il est capable d'aller lire toute la
documentation de cléver cloud, dire
ok, je vois que ton application, ça va être dur,
d'une autre js ou whatever
et ben voilà les commandes qu'il faut que je rajoute
et en une question
en un prompt, t'es en production
sur cléver, c'est
impressionnant, vraiment
le seul truc avec l'outil
qui est un peu pénible
c'est quand il se met un peu à halluciner
tu vois, il loupe un peu le contexte
et il va commencer à te faire des duplicatas
ou une nouvelle organisation, une nouvelle architecture
ça me fait souvent un peu penser
tu sais, il met des grands coups de hache dans quelque chose
et après il peut filmer pour corriger ses erreurs
tu vois, à chaque fois il va un peu
comme un bourrin
mais par contre, ça te fait gagner
un temps de fou furiux
et il y a un autre truc pour lequel c'est génial
et là
il me cache pas un truc génial
c'est quand il lui dit
je sais pas
je vais le finir, je le retourne
mais la documentation se passe
tu préfères impasse, je documentais tout le fonction
mais je n'ai rien ridimé
et le procédure d'installe
et en bonus, la procédure pour le déployer
c'est cléver, s'il te plaît
il passe partout
il te documente chaque fonction
avec des commentaires pertinents
et il vous dit
si ça vous dit, il vous dit
il te fait un rythmie bien fait
et là
tu passes derrière, tu corris
les erreurs qui restent
tu test génial
l'autre truc c'est
ouais, je gros
j'ai tel libre
dont je me serre, j'ai telle dépendance dans mon
dans mon projet
est-ce que tu veux pas qu'on switch de dépendance
et ça
ça il se démerde assez bien
après moi je le trouve
plus ton langage
il a un compiler un peu strict, un peu pénible
mieux il se porte
il se comporte assez bien sur du type script
il se comporte très bien sur du rust
il sait très bien lire la sortie du compiler
mais il y a des fois je le laisse
tous les trucs un peu pénibles
en rost de fixer les arcs, mutex, machin, etc
je dis pas que c'est impossible à faire en tant que développeur
je l'ai fait plein de fois
c'est juste qu'en vrai tu passes des fois ta vie
à chercher, ou est-ce que t'as oublié
de cloner ton arc mutex de mes deux
et tu perds une demi heure
et là, tu le laisse faire, à part ce temps-là
tu vas répondre à un mail
mon use case à moi c'est que je fais toujours 14 trucs en même temps
donc quand j'ai un peu de temps pour coder
en général je le fais
je suis en même temps en train de faire d'autres trucs
ou je suis en train d'attendre que
donc Leveria, l'autre con
est fini la génération d'une note diplomatique
en général j'ai toutes mes yaks
en train de bosser, moi je fais du contexte switching
d'un space à l'autre dans mon pc
genre, lâche code
lâche écrue merde
lâche génère des images pour la prochaine conf
je les regarde
les uns après les autres
en attendant que les trucs qui se traînent
avance
mais en vrai
moi je trouve que c'est un
là je commence
à réellement sentir une traction
d'usage du truc
ou c'est pas mal et là il y a pas mal de gens qui s'en sort
en interne et c'est assez cool
c'est
enfin moi j'aime bien le
j'aime bien le truc, j'ai également vu des use case
où ça avait donné des idées
à des développeurs de trucs qui connaissaient pas
j'ai un pote qui s'en aissait envie sur un truc
où il cherchait une solution
et en fait
Claude qui lui a dit mais il y a
tel algo, une espèce de bidule issu d'un papier
des années 70, où personne
n'avait détéré depuis une éternité
il y a tel algo, c'est le priori ce que tu veux
et effectivement c'était ce qu'il voulait
et en fait il n'y avait rien
il n'y avait pas de lits mais tout, enfin c'était un truc un peu désoé
mais comme le machin a été se bouffer le nat
dont une chier de papier
académique, en fait le truc lui a
remonté exactement le truc dont il avait besoin
parce que c'était une use case, par contre il faut apprendre
à bien le fronter, donc c'est
alors 1, les bidules comme ça, agentiques
à qui tu laisses le contrôle
parfois ils partent en live, il faut quand même surveiller ce qu'ils font
gros spécialités
installées plein de merde
là où tu n'as jamais demandé d'aller
mais ça c'est parce qu'il a vu la doc de Mevan
il a vu comment Mevan se comportait
non mais des fois tu tournes la tête
et tu fais genre, alors en fait ça se passait pas
comme je voulais du coup je t'ai installé
je t'ai installé vagrant
et puis du coup j'ai téléchargé
une Ubuntu et dedans j'installe docker
il est du fou là, gros
on ne compte pas du tout
ce n'est pas du tout ce que je t'ai demandé
mais du coup
il y a ça
dans vos prombes
il faut un truc qui est super important
quand tu écris des prombes, il faut souvent lui dire
est-ce que tu as bien toutes les infos ou est-ce que tu as des questions imposées
pour être plus pertinent
ça c'est un truc que tu oublies en permanence de dire à ton nia
mais qui change ta vie et ça c'est vrai pour tout
tu rédiges un bout de texte
tu machins enfin
c'est important
ce qui est important aussi
c'est comprendre comment l'IA
fonctionne d'un point de vue technique
si vous voulez être bon en l'utilisant
parce qu'en fait le truc c'est que tout le monde a l'impression
de parler avec quelqu'un qui a une mémoire et qui est persistant
mais pas du tout
votre raison neurone c'est jamais qu'il y ait un truc
c'est une fonction donc je lui filer un truc
il va en faire un espace de vecteur
regarder comment sa table dans l'espace de vecteur
sortir un bidule
et c'est ça que fait votre LLM
mais votre LLM il est pas persistant
donc par exemple quand vous avez une discussion
avec ChatGPT
en fait à chaque fois ChatGPT il prend la conversation
et l'envoie au LLM
la conversation en entier
il faut vraiment que vous soyez conscients de ça
il n'y a pas de persistance
dans le réseau neurone
et donc toute la contextualisation est
autour c'est pour ça que c'est important d'avoir un bon éditeur
intelligent et c'est ce que Windsor
fait bien dans le cas présent
c'est qu'ils arrivent à bien contextualiser
après je sais pas comment ils le font
on ne peut pas être si sorciés que ça
mais je pense qu'ils trouvent un certain nombre d'astuces
j'ai remarqué aussi dans les projets dont je fais
une fois de temps en temps je lui dis
mon lapin t'es fichier de 800 lignes
de 1000 lignes, tu te dépatois pas dedans
est-ce que tu peux me faire un coding style
un peu propre, diviser les fichiers
s'assurer, c'est manifestement quand ces fichiers
te viennent trop gros il a du mal
de passer dans ces contextes
et il s'éclate quelque part un peu plus loin sur la route
il y va sans ligne par sans ligne
à chaque fois ou alors l'idéal c'est
tu lui sélectionnes tout ton code
et puis tu fais envoyer cette sélection
à Cascade et là comme ça
il est sûr de bien prendre d'un coup tout le contexte
parce que des fois si ta fonction elle est
tu as entre la 80e ligne et la 140e ligne
il ne manque que la moitié du contexte
ça se blérot et là il part en live
il y a un mode en live aussi
qui n'est pas Cascade mais
c'est très très très intéressant
il y a une fonctionnalité aussi qui est planquée
mais qui est génial c'est d'aller
dans ton compte
à un endroit où tu as parlé avec lui il dit
revenir à cet endroit-là parce que parfois
cette espèce d'endouille part en cake
et là il démonte tout
moi je l'ai déjà vu te déplomber tout le projet
qui marchait très bien, le truc déplombe tout
parce qu'il oublie un bout
il très écrit intégralement
les fichiers dans un autre fichier
tu sais pas pourquoi il est doublant
et après tu es obligé de le passer en analyse
en lui disant bah écoute mon lapin
t'as foutu de bordel est-ce que tu peux pas essayer
de récupérer tes petits quoi
donc au global c'est assez intéressant
nous en interne les gens sont plutôt devenus
efficaces dessus
très utiles pour générer
des SDKs
il y a des usekies où vraiment t'es très très rapide
et c'est assez utile
aussi pour prototyper très très très rapidement
des trucs
des UI et des bidules
qui t'as après recodé de base
mais en fait un truc que du coup t'as pu tester
t'as pu jouer avec
t'as pu te poser la question de comment c'était foutu
donc c'est un peu
comme
quand j'avais fait les make-up
tout le monde disait venez me voir en me parlant
de l'impression 3D et vous avez fait un respirateur
d'impression 3D
mais grande réponse avait été de dire
à la fin il y a très peu d'impression 3D
voire pas d'impression 3D dans le respirateur
par contre l'impression 3D a permis de prototyper
vous imaginez pas combien et on a fait
des tonnes de trucs grâce à l'impression 3D
où on aurait été beaucoup plus loin à un release
parce que tu peux prototyper
et je pense que c'est aussi un des facteurs de ce que tu peux obtenir
moi j'essaye aussi de pousser des fois
des gens
sur récupérer un projet open source on comprend pas comment ça marche
tu poses la question
ou des gens qui disent gros ça marche
comment c'est bordel
et ça c'est assez cool
franchement il y a des trucs
très intéressants
et il sait aussi trouver des failles de cq
j'ai déjà demandé là dedans
tu vois pas un problème de cq
il s'analyse tout le code et il dit en fait si il se passe ça
ça et ça t'es marron
et c'est un truc qu'on n'avait pas vu
donc il peut servir un peu d'auditeurs cq aussi
et la prochaine nation sera
mettre des failles de cq
voilà je m'envoie
surtout s'il a aidé ça vers un pépignon
exactement
et dans les liens que vous mettez
il y a aussi un lien intéressant
qui parle de comment ça
on a un peu de chance
les panoramas de start up
la wavan, les start up qui arrivaient avec une idée
et après tu commences peut-être
à implémenter un maquette
et ensuite un prototype
et l'adaptation c'est que la phase de prototype
et la phase de test
et les fails fast
deviennent beaucoup plus rapides
et surtout ce qui est bien c'est que maintenant
on va pouvoir avoir des start up sans mecs techniques
parce qu'ils sont quand même pénibles les mecs techniques
dans les start up
oui
la France t'aie que ça
mais
justement, c'est la raison
que ça devait
c'est la technique que vous avez
qui sait servir et dans la phase
de prototype, de test, de cidé
vous êtes vraiment efficace
tu peux beaucoup plus vite
fermer de voie
qu'en améliorant le parc
tester de vrais prototypes avec
le premier appro, c'est pas simplement
arriver avec un power point
que c'était un de problème
qu'il y avait beaucoup de start up
codé vite fait la partie
de technique un peu dégueulasse
ou tu sais que tu vas devoir la recoder
ou en fait tu fais tout en vibe coding
devant ta télé rouge
toute cette partie là tu sais que c'est un peu
une cathédrale de merde
mais tu retoureras un autre jour
et ça tiendra
tu laisseras ton agent y aller
oui oui ça se trouve, l'agent va se perfectionner
en tout cas si pour l'instant
vous ne se jouez pas avec
l'IA dans le code c'est un peu dommage
parce que ce qui est en train de se produire
est assez intéressant
oui et surtout ce que je trouve
dommage c'est que si les gens techniques
ne se mettent pas à jouer un peu avec
en fait l'espace médiatique
il va être rempli de gens pas techniques
qui vont se dire en fait les mecs techniques
ça sert à rien, regardez j'ai fait
une super appli alors que
c'est un outil qui en fait est sans doute
plus utile à des gens qui sont déjà développeurs
qui savent développer pour être
ou en tout cas qui comprennent les arcs
du développement pour être vachement plus efficace
plutôt qu'à des gens qui comprennent rien du tout
à croire qu'ils sont devenus développeurs
quoi donc moi je trouve
c'est effectivement
c'est une erreur de pas s'y intéresser
en se disant ouais c'est de la merde
ça va prendre mon job et non ça va pas prendre ton job
aucun risque là dessus
si les gens
ça va faire des bons prombes et des bons specs
ça fera longtemps qu'on aura de bonnes appels
oh oui
c'est toute l'époque où j'ai fait du service
le nombre de fois où tu récupères des specs
les mecs qui ont écrit 200 pages de specs
ils sont persuadés qu'ils ont pensé à tout
la réalité c'est qu'il n'y a absolument pas
les réponses attaquées dans dedans
toi ça te casse tes couilles de lire les 200 pages de specs
mais alors au dernier du dernier du dernier
et pour finir au moment où t'as besoin
d'une réponse à ta question elle est pas dedans en fait
et voilà
mais la seule chose qui fonctionne
c'est l'iterration
sur un produit, sur du service, sur whatever
c'est l'iterration
donc voilà mais du coup c'est assez cool
on joue beaucoup avec
nous on s'en sert pour l'instant
dans du front, dans du escalade, dans du rust
ce qu'elle est quand même un peu moins bon
tout ça qui est un peu moins de base de training
il se chie un peu dessus parfois
des fois il écrit carrément n'importe quoi
ou alors il comprend vraiment pas
comment fonctionnent certains trucs
on l'a mis à faire du PECO
il a foutu le bordel dans les acteurs
enfin il comprenait pour les contextes d'acteurs les machins
vraiment il faisait de la merde
Rust pour l'instant il s'est plutôt bien comporté
je dis pas moi il m'a fait des horreurs
aussi où je disais genre non pas du tout
mais
franchement il est assez intéressant
enfin bref c'était ça
et là du coup je viens de voir que Winsor
vient de rajouter un bon support
de Gemini ce qui est encore une fois
c'est intéressant parce que le contexte
de Gemini étant très très gros
ça veut dire qu'il va faire moins de la merde
sur des grosses bases de code donc ça vaut le coup
de se tester et c'est moins cher que du clou
donc plus à la requête
surtout avec ton lien de référence
surtout avec mon lien de référence
voilà
boba, chanjian de souya il est un souya
que peut-être c'est le mo'a tout cell
le cell qui va être
épaté mais
enfant après des années
des années GIMP
et en version 3.0
ils ont réussi à sortir
une nouvelle version
de mémoire la dernière version
minère la D.10
date de
bien avant le Covid
si pas de 1012, de 1019
la première alpha de
3.0 date de 1020
de l'année de Covid
la dernière version
officielle la D.10
minère va
s'adapter
bien avant le Covid
donc c'est quand même
ça apprit de tant
mais le proyé va
il le vivant, ils ont réussi à sortir
une version maillère
avec plein de petits
nouveautés à droite à gauche
c'est pas de tout en révolution
mais qui marx
c'est mo'la
je suis peut-être un nostalgique
mais je continue d'utiliser GIMP
très souvent comme un
pour le côté
graphique de l'ordinateur
il est presque toujours ouvert à côté d'Inkscape
donc pour moi ça fait un grand de nouvelle
ça fait plaisir de voir un produit
Open Source comme GIMP
et réussir à
maintenir
est-ce qu'ils ont un tégal de liat dedans ou pas ?
non, c'est ça qui est chouette
si, quelque part
il n'y a pas de marketing de la release
tu vas voir, tu vas
maintenant on peut
on peut faire de
éditions non destructives
et sont infénétres d'histoire beaucoup plus grandes
pour enlever les filtres
et pouvoir y aller avec ça
type de nouveau format de fichier
type de faire
de dessin encore plus grand
parce qu'il est limite pour autant
par la taille de la mémoire
il fait plein de choses mais
il n'a pas ajouté l'interface
pour ce qui connait GIMP
c'est aussi joli
aussi moche
qu'il y a des années
il y a beaucoup de gens qui contribuent en GIMP
je n'arrive pas, c'est ce que je cherchais
désespérément je suis dans un
je galère comme un connard
mais c'est un communauté
qui est quand même
un
un communauté
assez actif
de Yanki, c'est là en général de Puy-Lontan
de mémoire, je crois pas
que ça se renouvelle énormément
par contre c'est assez divers
il y a 408 contributeurs
listés sur Github
oui
il y a plein de contributeurs
qui te contribuent avec un
filtre par si
entre par la Loutique
qui sont besoins
c'est toujours du piton pour faire des filtres
parce que tu pourrais faire des filtres en piton
tu peux le faire en piton, je ne sais pas
tu peux pas faire du gail un moment donné
il y a une sorte de skim
oui, à une époque je crois
mais quand j'ai tout ce filtre
c'était toujours en piton
écoute, je suis ravi
voilà, et là c'était un peu la news
que je mettais pour mon plaisir
en édition d'image je demande
à Chat GpT de me changer mes images
est-ce que j'ai joué avec le
filtre studio Ghibi de Chat GpT
oui comme tous les connards
j'ai joué avec le filtre studio Ghibi
je peux mettre 2 ou 3 exemples
je peux mettre
les exemples si tu veux
on peut faire
si tu veux on peut faire une photo
et des gens qui ont fait l'épisode
je ne sais pas trop
ce que ça donne le Ghibli
rastablant concernant Airwan
je suis assez curieux du truc
il faut prendre une photo d'Airwan et tester
Airwan tu n'as pas testé toi
non non non, je n'ai pas testé
un peu peur du rendu surtout avec le filtre
pour que tu ailles voir des choses
qui n'ont jamais été dessinées
donc ça va être bizarre
je le sens
pour que tu aies
un peu de news
que tu as dit ?
ah oui
l'idée un peu de partager
un petit projet
sur lequel je suis tombé
récemment qui m'a beaucoup plu
qui s'appelle Brungel
qui est un outil open source
de gestion culture
et de plan de culture de maraîchage
j'ai un ami à moi
tu serais mal de mettre les liens
non non il va les mettre
t'inquiète pas
les liens s'y ont mis
oui oui j'ai même rédigé
un article pour ça chef
le truc en fait
c'est le suivant
c'est un outil open source
qui est fait en sas
fait par un développeur sous elixir
et on s'en rend pas compte
mais c'est vrai que l'agriculture
en général on l'imagine
complètement
sans internet, sans informatique, sans cloud
ce qui n'est pas vrai
puisque t'as des millions de serres
qui tournent avec des capteurs aiotiques
les gps de tracteurs
tout ce monde là il est connecté
et dans un monde où on se pose toujours la question
de savoir qui a notre données
et qu'est ce qui en est fait
parce que je ne voudrais pas que mes données soient vendues
un tiers qui puisse déterminer
ma marge de production
et donc venir négocier
plus agressivement mes ventes
et mon cours de marché
donc des logiciels comme brinjels
et c'est vachement intéressant
parce que du coup ça te permet d'avoir récupéré un contrôle
sur tes data et surtout
là où moi c'est
intéressant c'est que on voit
cette problématique arriver dans beaucoup de pays
émergents
actuellement qui se disent
auxquels j'ai besoin
d'industrialiser, moderniser
ma flotte sur les sujets d'agriculture
mais j'ai pas d'outils qui me permettent
d'avoir une autonomie stratégique
donc en découvrant le logiciel brinjel
je me suis dit
why not essayer de l'adapter
sur du clever plot testé
l'outil
était fait en elixir donc je vais être transparent avec vous
j'ai jamais fait d'elixir de ma vie
du coup je lui ai demandé à Windsurf
en lui disant
et, à peine moi
j'ai besoin de rajouter un storage
sur du pgsql version 17
pour que ça marche bien
le storage object
s3 et puis
l'interface de mail tout ce qu'il faut en e
par clevercloud et des merdes toi pour que ça soit en ligne
en une demi heure
pardon une demi journée
de boulot il avait fait
toutes les modifications j'étais en production
sur clevercloud
et il avait fait les merge request
pour le
pour le développeur principal en lui disant
et voilà ce qui a été développé si ça vous intéresse
trônez les
mais voilà c'est un bel outil
bel découverte
je trouve parce que c'est rare qu'on voit
des logiciels open source
aussi niche
dans des domaines qui ont une interface
aussi bien léchée
et surtout un usage qui correspond vraiment
aux besoins et là avec
une solution comme ça open source
tu peux très facilement imaginer
des gens qui le localisent
qui la culture par rapport
à leurs besoins agrères
en asie en afrique
en amérique du sud etc etc
donc voilà
joli petit projet qui est un peu niche
mais que je voulais pas faire partager
aux gens qui ont la merte
et revenant sur ce qui était la agriculture
il a mis dans les liens
une conférence de Mathieu Pasnot
et Haudé Festeoulou
qui était sur justement
la agriculture
et comme tout se milieule
sont loin d'être technophobies
sont plutôt très technophiles
et sont de s'utilisation très pertinente
de la technologie
et il y a aussi
plein de souillets par rapport
à la donnée
je pense pas tout le monde
mais en termes de
souverainité de donnée
la plupart d'outils qui s'utilisent
sont très propriétaires
et
beaucoup d'agriculteurs
et sont même pas propriétaires
de donner que tous les
tous les outils tracteurs
et moissonneuses qui s'utilisent
récoltes en plaquois
ouais c'est tout à fait ça
c'est d'arriver
vas-y
aujourd'hui t'as quand même un vrai sujet stratégique
qui est la plupart des infos
qu'on va voir chez John Deere
John Deere
te vente
tes engrais, ton matos
et de l'autre côté
John Deere vente
tes data au broker c'est réallié
et du coup les mecs savent
combien tu produis, pourquoi et dans quel sens
et quand est ce que tu produis
et donc t'achètes en te faisant
faire une marge dégueulasse
il y a un énorme sujet
mais comme souvent
en fait
l'énorme sujet c'est
on a laissé passer le logiciel et la big data
on s'en est pas occupé
à son juste niveau
et on se retrouve dans une catastrophe
et il faut vraiment qu'on soit capable
à un moment donné de se rendre compte
qu'on génère des catastrophes sur des catastrophes
sur des catastrophes
en ne gérant pas le sujet du logiciel
c'est vraiment on est en train d'automatiser les cerveaux
et on traite le dossier
mais par dessus la jambe
et là on voit avec l'IA
la rapidité avec laquelle le monde change
est délirante
et en plus de l'autre côté de l'Atlantique
tu as une bande de fou furieux
le truc est
complètement dingue
et puis John Deere, à moins que ça ait changé
mais je pense que c'est toujours le cas
mais John Deere est à l'agriculture
parce que le F-35 a la défense
c'est un truc où tu dois t'abonner
pour avoir le droit à la maintenance
c'est eux qui ont absolument le droit de vie et de mort
sur ton firmoir
demain ils peuvent désactiver ton truc
je serais pas étonné que à distance
tu puisses désactiver tous les tracteurs John Deere
si tu veux le faire donc
d'un point de vue géopolitique
c'est quand même assez magique comme moutique
tu peux déjà les tracteurs
qui vont se mettre à dériver dans la campagne
ou ils vont balancer trop de
pesticides et puis on te nique des cultures
tu peux faire des trucs super
pour moi c'est hyper stratégique
il y a de la question
comment on reprend la main
sur les outils de production
de la bouffe
mais quand on parle de gens
ça n'a pas l'air d'être préoccupant
et tu crois des lobbies jeunes de dire
à tous les étages, à chaque fois que tu évoques le sujet
alors que l'open source
dans le domaine de l'agricole
ça devrait être un truc
enfin ça devrait être un truc énorme
mais c'est comme d'hab
en fait il y a énormément de sujets, tu les aaux
et là tu te rends compte qu'il y a un énorme acteur américain
qui fait la loi
et tout le monde regarde notre truc passé
on nous a dit oui c'est bien
mais qui fait des trucs des tracteurs
ils sont des contracteurs
oui, du coup il a toutes vos datas
ce qui sont obligés en fait
en Bruxelles t'es plus ou moins obligé
de dire ce que tu fais après
il y a globalement toute une partie des montants
qui ne sont pas donnés parce que tu arrives
à les faux filer, mais aussi il y a un déclare
combien on dépense, on apparaît pas dans le graphique
qui t'as joué 37 ?
pas 37
mais du coup c'est ça le sujet
et en fait il y a un énorme sujet
qui a un manque de compréhension
de la technicité
ce qui est en train de changer
et l'IA va absolument tout changer
on va se retrouver avec
j'en parlais avec des gens qui ont des projets
sur les récoltes etc
l'IA vision va changer
mais absolument tout
et comme c'est corrélé aussi
à de la robotique
je pense que c'est le moment de se préoccuper
de beaucoup de choses
et par contre les bons développeurs
vous avez énormément de travail
par contre
tu peux utiliser l'IA pour aller plus vite
dans ton travail de tous les jours
parce qu'on a énormément de travail
on est vraiment dans la phase d'automatisation du monde
mais c'est génial le projet Brungel
le fait que ce soit sur l'exur
est quand même extrêmement savour
je vais te reconnaître quelqu'un
et que ça va beaucoup plaire
on sait les quelques news là ?
oui on sait qu'il est à l'étire
parce qu'on approche les 54 minutes
d'un registre main
on a eu beaucoup de métres
avant de démarrer un autre épisode
on prend l'empérez
bon news
je sais pas si vous l'avez vu
mais Empérez Computing a été acheté
par Softbank
et là j'ai perdu tout le monde
qu'est-ce que c'est un peu Computing
qu'est-ce que c'est Softbank
et pourquoi c'est important ça ?
c'est quoi l'ARM ?
alors première information
Softbank
troisième opérateur japonais
derrière NTT
et KDDI
NTT Dokomo
et KDDI
le troisième assez loin c'est Softbank
ça reste une très grosse entreprise
Softbank a toujours une grosse stratégie
de venture capital international
ils sont connus pour certains gros succès
notamment c'est eux qui avaient
acheté la petite boîte de robots
les robots français
c'est le Nao
oui le Nao
oui oui oui je ne me rappelle plus
je vous dis cherchis
le Nao
le Nao, le robot
ils autonomisent
le débarant Robotics
ça s'avait été acheté par Softbank par exemple
ils sont connus pour avoir mis
énormément de pognon
dans le fameux superbe projet
qui était WeWork
c'était moins avantage
sur ce coup-là
voilà
mais sinon c'est quand même des gens qui ont une grosse stratégie
et Softbank
ils ont acheté
puisque Nvidia s'est fait jeter quand ils se sont achetés
Softbank a réussi à acheter ARM
alors pour ceux qui ne leur réponsent
sur ARM, ARM c'est une architecture
de processeur
qui est une architecture
qui est une architecture développée à Cambridge par des Anglais
à la base ARM c'est une boîte européenne
et donc anglaise
et c'est les processeurs
que tu vas retrouver dans tous les smartphones
dans beaucoup de trucs comme ça
et c'est une architecture
qui est sous licence
ARM ne produit pas de CPU
ils produisent des dessins de comment faire des CPU
et après c'est à chacun de reprendre ces dessins
pour faire en vrai son CPU
de rajouter des ébloques d'IP
de décider de son processus industriel
et de produire des CPUs
ce qui est encore du boulot
c'est beaucoup beaucoup de travail
et il y a un certain nombre de boîtes qui font ça
notamment Marvel
qui est connu comme fondeur ARM
Samsung Electronics
qui fait leur CPU pour tous leurs téléphones
une petite boîte
connue pour faire des téléphones
qui s'appelle Apple
donc à la série A
qui met dans les iPhones
mais également les M
qui sont dans les laptops
et les iMac
et dans tout en fait maintenant
qui sont les processeurs M
donc qui sont des ARM
qui sont
qui sont reconnus pour la rapidité
qui ont
un grand succès, il y a aussi une autre petite boîte
un peu connue en service web qui s'appelle Amazon
qui fait des gravitons
avec les processeurs ARM
de chez Amazon
de celui donc
c'est vraiment une architecture
qui est extrêmement partagée
et dans tous les gens
qui ont fait des architectures
enfin dans tous les gens
il y avait
une VIP chez Intel
qui s'appelle Rone
je ne sais plus quoi, j'oublie le nom de
Rone
ce n'est pas bien
Ronegems
qui était
VIP, je ne sais plus quel était
chez Intel Ronegems
ça va être marqué
elle est
R&D
et Global Manufacturing
voilà, elle était vice-présidente
R&D Global Manufacturing chez Intel
voilà
vice-présidente
chez Intel
elle s'est engueulée
avec la stratégie d'Intel
parce qu'elle pensait qu'Intel allait n'importe où
et elle a créé une boîte s'appelle Empere Computing
donc, la but était de faire
du
processeur ARM
pour le serveur
ce n'était pas les premiers mais je dirais
que c'était la première boîte qui a
assumé une vision ARM
sur le serveur point
t'avais des gens qui faisaient des ARM pour le serveur
de façon opportuniste
mais c'était vraiment la boîte qui disait
on va mettre des ARM sur le serveur point
avec une vraie stratégie
que les serveurs ARM seraient viables
et que ça consommerait moins
il avait une vraie vision de ce que ça peut apporter
à des data centers la qualité
de ça ARM sur le serveur, oui
oui, alors le gros avantage de l' ARM
par rapport à l'Intel, ça bouffe pas des lecs
non, ça bouffe pas
ça bouffe pas beaucoup des lecs
ça bouffe beaucoup moins des lecs
voilà
c'est pour ça que vous le retrouvez en fait dans vos téléphones portables etc
et c'est pour ça qu'Intel
que Apple a souhaité d'un Intel
à du ARM, c'est pour augmenter la durée
de vie de la batterie
c'est pour ça que la batterie de Mac
c'est maintenant aussi excellentissime
moi je me souviens
il y a très longtemps
quand j'étais jeune
quand il y avait les netbooks
moi j'ai bossé pour faire des softwares
pour ça, il y avait
Guimo Corp, donc vous avez tous oublié
ce qui est Guimo Corp mais dans les grandes boîtes
de la famille Guimo
Guimo qui était
c'est les frères Guimo, c'est eux qu'on fait Ubisoft
GameLoft et Compagnie, ils avaient une boîte
c'était pas de l'infograme
c'était
infograme, c'était celui qui est
au commissaire
France 2030
au SGPI
c'est brudon bonnet de l'infograme
qui maintenant est en politique
et donc
les frères Guimo, ils avaient cette boîte
qui faisait à l'époque des cartes graphiques
c'est à dire que les processeurs graphiques, les chips graphiques sortés
et Guimo Corp c'était des gens
le processeur graphique sortés de chez NVIDIA et chez ATI
et ils sortaient la carte graphique
en quatre semaines
c'est à dire le temps de l'ingénierer
la production industrielle, écrire des drivers et tout
quatre semaines, c'était dans les rayons des supermarchés
à l'époque, enfin je sais pas si
vous voyez la dingue vie du niveau technique
des mecs. Je me demande s'ils sont pas mentionnés
dans le bouquin sur l'histoire de Pixar
si Pixar avait pas utilisé
des trucs
que eux faisaient
c'est possible
Guimo c'était eux
qui faisaient RQL aussi
la première carte audio
de Home Studio
de musiciens
qui avait huit entrées et huit sorties
qui étaient branchés en je ne sais plus quoi
comme porc à la con
c'était la RQL
chez Guimo Corp
enfin des gens qui en termes
et puis faisaient aussi des volants
de jeux vidéo, des trucs comme ça
beaucoup d'accessoires aussi
c'était une espèce de mini logitech
ils faisaient beaucoup de choses, ils existaient toujours
il y a
entre 15 et 20 ans
quand il y avait des netbooks, souvenez
des petits netbooks, les tout petits pc
machin, eux ils avaient sorti
un truc qui s'appelait le Maccafé
qui était un netbook
sous ARM
donc un petit Linux qu'ils avaient
fait eux-mêmes, sous ARM
le bidule avait 12h de batterie
enfin c'était mais dingue quoi
et ils n'ont jamais réussi
à s'imposer sur le marché
parce que Linux, parce que plein de problèmes
parce qu'en fait vente des netbooks
c'est hyper compliqué quand t'es pas un gros
et en fait ils se sont fait massacrer
sur le marché mais le produit était dingue
je vais essayer de vous retrouver le Maccafé
il y a un Maccafé
au bureau clévercloud de Nantes
parce que du coup c'était là-bas qu'on avait
développé des trucs donc
et la machine elle était mais dingue
donc tu vois c'était tout petit, c'était le machin
et t'avais 12h de batterie, ça pesait rien
t'avais 12h de batterie
c'était dingue et donc voilà
bref
ARM, moins de consommation électrique
donc hyper intéressant pour ça
et donc voilà
pour vous donner une idée de ce qu'on peut faire
les processeurs
emperrés de mémoire ils ont
156 coeurs je crois
ou 152 coeurs
je sais plus, d'exécution
tu te peux en mettre
2 par l'âme
Open Compute
et donc dans des Open Compute 2U
sur 3
donc tu peux mettre 3 serveurs, x2, x150
en clair tu peux mettre quasi
1000 coeurs d'exécution dans 2U
dans une B, juste pour vous donner
une petite idée de ce que ça veut dire
en termes d'exécution, enfin t'es sur un truc
ça bon part quoi et après
tu virtualises au dessus
donc c'est quand même assez impressionnant
nous on fait des tests avec
parce que ça nous intéresse pour pas mal de sujets
et voilà et ça nous intéresse pour Cyper
qui est un fournisseur d'ARM
totalement européen et français
donc le processeur
sera bientôt tape out
et donc du coup
voilà ça c'est le landscape
ARM et là ce qui vient
d'être annoncé c'est qu'en fait Softbank qui est venu
d'acheter ARM vient d'acheter
Empere
qui est donc
formellement un des processeurs très intéressants
du marché et donc en fait Softbank est en train
de faire une espèce de play à la intel
sur l'ARM
avec la volonté d'intégrer
ARM empere ensemble
et ça c'est très impressionnant
enfin ça me l'emmène
ensemble
ça peut donner
les coups de l'EVNCSR
parce que
Empere accélère encore plus
et ça devienne en réalité
à part d'être anecdotique
dans quelques services cloud
etc
ouais je pense que ça va donner une réalité
après je pense que ça pose une question
c'est que tout le monde va avoir un peu peur que ARM
ferme
ça c'est la question
moi je trouve que ça serait particulièrement con
parce que là ils sont en train de
ils ont la possibilité de devenir leader
des architectures
il y a un truc que les gens savent pas mais la boîte
qui possède le plus de patent sur les IP
ARM c'est Intel
donc en fait Intel pourraient
switcher provider ARM
quasiment overnight
à l'échelle du monde de semi-conducteur en 2 ans
le temps qu'on se parie
voilà
le temps qu'ASML provoie de l'imagine
et de quand ça va donner
mais non mais il pourrait vraiment switcher très rapidement
provider ARM en fait Intel
il y a juste AMD qui est un peu dans la loose
en fait dans un genre de cas
pour être tout à fait franc
mais ils ont
beaucoup de patent
et donc en fait on pourrait imaginer que ARM
devienne
le truc et moi je vois pas
ARM aller dire à Apple
bah écoutez allez vous faire cuire le cul
tu dis pas à Apple et à Amazon
à dire allez vous faire foutre
mais c'est sûr qu'il n'y a pas un intérêt
c'est très bien d'avoir un peur
et de l'intégrer
mais avec ARM qui un peur puisse accélérer
mais ça ne s'écoopa pas les autres
il va falloir livrer des sacrés bécanes
parce que tu aurais une intégration
en térés ARM qui sera monceau
tu aurais une amplémentation de référence
exemplaire
donc assez excitant
je sais pas ce que ça va donner
dans l'aptop parce que ça va pousser
ARM dans l'aptop au-delà du Mac
je veux dire
un peur n'avait de mémoire
n'a presque rien fait quand t'es l'aptop
il y en a rien vu non c'est pas des douleurs scope
non non non on ne perds pas du tout leurs délires
non je pense que c'est d'autres fournisseurs
qui vont les tuer
Marvel
Marvel pour le faire
il y a plein de seins de ARM
sur les laptops souvent avec
une version de grader de Windows en plus
mais pour l'instant
il n'y a eu aucun review que soit
satisfactoire
non sur les Mac
les Mac c'est durer
mais les laptops
qui sont en stop ARM sinon Linux
sans doute
Windows galère un copieus dans le sens
Windows version de Windows
qui n'est pas la Windows 11 Pro
mais c'est la version
qui est surtout sur des surfaces
avec ARM
je sais pas quelle est la relation
est-ce que Microsoft
a une grosse relation avec Intel
et du coup ils veulent pas
pousser du ARM je sais pas
ouais je sais pas
le relation peut changer
assez vite
et RISK 5
je crois pas que
tu pourrais commencer à avoir
ah si mais c'est génial
donc RISK 5 c'est
une autre architecture
de processeur
qui pour le coup est complètement ouverte
ce qui fait qu'elle est extrêmement poussée
par deux trucs qui sont les chinois
d'un côté
les chinois aussi ont des très bonnes impréventations
ARM d'ailleurs j'avais oublié mais la boîte
qui est plus ou moins collée à Huawei
qui fait de la prod foule chinoise
y compris la gravure en chine
toutes les autres boîtes dont on a parlé
globalement fait sa gravure chez TSMC
mais comme les chinois non plus accès à TSMC
ils font leur propre gravure
et j'ai oublié le nom de la boîte de silicone
qui bosse avec Huawei
mais c'est assez impressionnant leur proche
il est pas mal
j'essaye d'expériment de me foutre la main dessus
pour faire des vrais tests
mais voilà
et donc non alors RISK 5
donc c'est pour le coup complètement ouvert
il n'y a pas de licence c'est l'open source
MIT
de l'architecture CPU on peut le dire comme ça
d'ailleurs c'est poussé par un truc
ça s'appelle la Open Hardware Foundation
et la Open Hardware Foundation en fait c'est
une sous-fondation de Eclipse
donc c'est sous droit européen
ce qui est très important dans les temps qui courent
et donc RISK 5 c'est très cool
la commission européenne est à fond sur RISK 5
c'est à dire que tu as RISK 5
de citer dans quasiment tous les projets collaboratifs européens
même quand la RIL event
c'est discutable genre
il faut un nouveau processus d'authentification
et d'autorisation
des identités compatibles
RISK 5
oui
toujours on va le coder en Java
RISK 5 ou un autre
voilà
les Chinois sont vachement
enaffonsu
parce que
les restrictions d'exports
par contre d'un point de vue industriel
RISK 5 on est au très très très très très très très très très très très très très très très très très très très très
très loin il n'y a pas de gros producteurs RISK 5
il y a des petites puces pour l'instant
qui sont utiles
pour des sujets industriels
mais pour l'instant un PC risk 5
ou un serveur risk 5
je le vois
il n'y a pas les produits sur le marché
il n'y a pas des acteurs. Tu regardes framework, tu peux acheter une carte mère risque 5.
– Sur le framework ? – Est-ce que tu veux rien expliquer ce qu'est le framework pour les gens ?
– Ouais framework, c'est une boîte qui fait des ordinateurs réparables,
réparables sur lesquels on peut switcher des composants modifiables.
– C'est des ordinateurs, on veut bien dire, ici des laptops.
– Non, ils ont sorti un desktop. – Oui, mais ils le font aussi sur l'application,
faire des des tops que tu peux bricoler jusqu'à là où on est tous d'accord.
– Alors tu ne peux pas le bricoler en fait,
parce que pour l'instant, pour des récentes de compatibilité,
il y a de la RAM qui est soudée, etc., donc ils sont un peu faits,
mais leurs laptops, ils sont des osaps, tu peux changer juste la carte mère,
je vais regarder le truc, etc. Et donc dans leur offre de carte mère potentielle,
ils ont une carte mère qui est, alors c'est fait pour faire du prototype, etc.,
ce n'est pas le truc sur lequel tu vas faire tourner ton truc au quotidien,
ton daily driver, mais ils ont une carte mère, risque 5 sur lequel tu peux faire des expérimentations.
– Sur le 13 ? – Ouais, sur le 13.
– Je crois qu'elle doit être à 200 dollars.
– Et M.U.C. elle est extrêmement passionnée,
mais il t'explique que c'est pas pour utiliser d'un machine principal.
– Non, ce n'est pas pour ta machine principal, pas encore.
– Parce qu'ils ont des Ryzen, beaucoup d'aimes des Ryzen,
il y a une carte de... – Il y a une telle corde.
– Deep computing risque 5 mainboard,
je l'ai là, je la mets dans les fichets.
– Donc si tu veux jouer, tu peux quand même avoir un laptop avec une carte risque 5,
tu veux recompiler le réveil, faire des tests, enfin voilà.
Bon, t'auras sans doute un peu de douleur dans le processus pour l'instant,
mais moi c'est là.
– Autothebox, pardon, directement Cantilla,
il supporte Inuvunto et Fedora,
donc ça veut dire que tu peux l'utiliser, tu peux la tester,
un framework, voilà, c'est...
– Et ça coûte, je crois que ça coûte 200 balles.
– 200 balles, 200 dollars.
– 200 dollars, si tu as déjà un framework, donc c'est plus important.
– Oui, un plus un framework de base, un kit framework de base,
donc elle t'a un peu de tout, ça coûte 1200 balles, on ne sait pas.
– Oui, c'est ça, après tu peux chercher des composants,
moi il y a un framework que j'ai mis à urinfo déjà et
j'adore comme machine.
– J'aime bien le concept, parce qu'en fait, il te livre le tournevis avec,
donc c'est quand même sympa quoi.
C'est vrai, tu peux acheter un tournevis de plus,
mais par défaut, tu as déjà un tournevis.
– Messieurs, moi je suis désolé,
il va falloir que je vous laisse, je suis attendu sur une autre réunion.
– Non, mais t'inquiète, on va faire l'épisode suivant sans toi.
– On t'a pas mal donné, même si beaucoup.
– Mais comme ça au moins j'enregistre mon revoir,
bisous à tout le monde, comme ça il y en fera sa magie,
et puis tout roule.
Bon courage, au plaisir de vous revoir tous, à très bientôt.
– Merci, et on peut profiter de ça pour finaliser ici
ce premier épisode,
et on a juste le temps de leregistrer un deuxième rapide.
Sous-titres réalisés par la communauté d'Amara.org

Les infos glanées

Je suis une fonctionnalité encore en dévelopement

Signaler une erreur

CleverCloud

Tags