Édition Spéciale au FOST

Durée: None

Date de sortie: 19/12/2025

Au fil des échanges, nos invités présentent leurs approches produit, leurs choix technologiques et leurs retours d’expérience sur la conception, l’industrialisation et l’exploitation de solutions logicielles en production. Un panorama concret de l’écosystème tech actuel, entre R&D, CI/CD, data, observabilité et performance, éclairé par des profils dirigeants et techniques. Voir sur Youtube Animé par : Horacio GONZALEZ, VP DevRel chez Clever Cloud Enregistré le 9 décembre 2025 lors du FOST – Future of Software Technologies - https://www.futureofsoftwaretechnologies.com/ 00:00:16 co-animé par Carine GUILLEMET, Chief Marketing Officer chez Clever Cloudavec : Geoffroy PERRIN - R&D Software engineer @ NORMA Quentin VIGNAUD - CTO @ Cadence CI 00:11:59 co-animé par Quentin ADAM, CEO de Clever Cloud Fabrice CROISEAUX - CEO @ InTech Adrien GRIZEAU - Head of Sales @ Redirection.io 00:33:00 co-animé par Quentin ADAM,CEO de Clever Cloud Anais CONCEPCION - Co-CEO @ Grist Fabian MASSON - CEO @ AlphaEdge Montage : Yann BRESSON @ SMARTMEDIAS

Bonjour et bienvenue dans ce numéro spécial de messages à caractère informatique,
épisode sans-sancante.
C'est un numéro spécial de Yacé les sans-sancante, mais aussi, on n'est pas au bureau comme
d'habitude.
Cette fois, on est dans un salon, mais je vais vous donner plus de détails en attendant
que je suis accompagnée aujourd'hui et ça c'est nouveau par notre responsable marketing.
Bonjour Rassio.
Bonjour.
Je m'appelle Karine.
Certains m'ont déjà croisé à droite à gauche.
Je suis parmi les personnes qui sont derrière les profils réseaux sociaux de clévercloud,
derrière la communication de clévercloud.
Je suis ravi d'être là aujourd'hui pour ce tout premier épisode de messages à caractère
informatique.
Pour moi, c'est mon baptême de ma si.
Voilà.
Et tu peux raconter où est-ce qu'on est alors ?
Tout à fait.
On est au FOST.
Le FOST s'appelait anciennement API Days.
API Days, c'est un salon qui est connu et qui est décliné à l'international,
qui est très très connu.
Et sur Paris, on souhaitait cette année faire un événement qui regroupe de nombreuses
conférences dont API Days, qui devient une de ces conférences-là.
Le FOST regroupe aujourd'hui une vingtaine de conférences et on a repité avec clévercloud
pour organiser la petite sœur du clévercloud fest qu'on avait fait en février.
Petite sœur qui s'appelle aujourd'hui l'Access, qui a lieu jeudi 11 décembre pour access
pour amazing clévercloud enterprise summit.
Un nom qui nous a fait marrer.
Voilà.
Et donc, quitte à être là, va on en parler pour nous avec un stand mais aussi de stand
pour nos partenaires.
Tout à fait.
Avec nous, on a 14 partenaires, des partenaires business, des partenaires technologiques,
des startups du programme UP, des partenaires de notre marketplace.
Et on a la chance aujourd'hui aussi de pouvoir les avoir sur ce podcast.
Oui, alors bonjour.
Moi, c'est Geoffroy Perrin, je suis le co-fondateur de NORMAD, je suis développeur informatique
à la base.
Nous chez NORMAD, on fait de la data, tout ce qui tourne autour de data, on installe
des systèmes agentiques chez nos clients, toutes les solutions de web aussi qu'on
peut développer.
Et on a une partie produit qui permet de tester les agents IA, ce que c'est une partie très
importante de faire de la QA sur les LLM et sur les agents IA.
Nickel.
On aussi, Caden Ciai.
Oui, tout à fait.
Donc bonjour Asio, bonjour Karin.
Donc Caden Ciai, ce que nous faisons, c'est essentiellement de la simplification des processus
DevOps et MLops.
C'est vraiment un outil technique à destination des techniciens, basé sur la technologie
Mélodium, qui est un langage de programmation et un système d'orchestration d'infrastructures.
Donc on vient s'insérer dans les projets qui sont déjà existants, à un certain niveau
de complexité pour lesquels la maintenance est devenue compliquée et les coûts de run
et humain de maintenance sont devenus relativement conséquents et handicapants.
Nickel.
Bon, ça fait super plaisir de vous savoir là, déjà.
Bon, on a plein de trucs à raconter donc on va commencer par vous.
Qu'est-ce que, pourquoi vous avez décidé de nous accompagner dans cette aventure hoste,
pourquoi vous êtes venu, qu'est-ce que vous voulez présenter, qu'est-ce que vous
voulez mettre en avant, en étant là, dans l'écosystème clever cloud?
Allez, tout ça en même temps.
Alors déjà, je tiendrai à remercier Clever Cloud parce que vous nous avez invité et
c'est vraiment très sympa de votre part, au-delà de simplement du support déjà que vous
nous amenez au quotidien avec le programme UP, qui est donc le programme d'incubation
de Clever.
Donc nous, ça fait deux cents, quasi.
Un an et demi.
Un an et demi, vous nous accompagnez.
Vous faites partie des 1ers courts.
La première.
Et oui, tout ça fait.
Donc ça nous a permis de développer, alors certes, la partie technique d'avoir un support
au niveau de l'infrastructure et ça, c'était vraiment bien.
Et en même temps, d'avoir un support commercial, parce que nous, dans notre boîte, on n'est
que deux.
Et nous n'avons pas de commerciaux.
Avoir quelqu'un qui est simplement là pour nous épauler, pour nous dire oui, ça
peut être une bonne idée, ça un peu moins évité.
Ça paraît pas grand chose, mais c'est très précieux à notre échelle.
Donc merci.
Et donc oui, on est venu au FOST sur invitation de Clever Cloud pour nous présenter à davantage
de monde, puisque on est un projet qui débute et on cherche essentiellement à voir qui
serait intéressé pour développer avec nous notre technologie, qui est donc en cours de
développement et qui est encore très maléable.
Nickel.
Et toi ?
En fait, nous, c'est presque la même chose.
On est 18 au sein de Norma, mais on n'est que des ingéens, donc il n'y a pas du tout
de fonction support.
Donc on cherchait aussi à avoir une certaine visibilité et de rencontrer du monde et d'autres
entreprises qui peuvent adhérer à notre projet, qui peuvent tester notre produit pour voir
si ça plaît et si on peut développer à grand échelle avec eux.
Donc nous, on s'était dit, on veut tester les LLM et les agents IA, parce que c'est
ce qui se fait beaucoup en ce moment.
Et on a tendance souvent dans le dev à oublier la partie test et QA.
On se dit, oh, on se fera après.
Alors quand on fait du test web, on sait, c'est relativement facile.
Quand on commence à toucher aux LLM et à l'agentique, c'est plus compliqué.
Donc si on fait une fois l'heure, on se dit, oh, ça marche.
Une fois.
On refait une deuxième fois.
Ah non, ça ne va pas être rien de chose.
Donc en fait, on a un système qui permet de faire en plusieurs fois et on essaie de
voir si les entreprises sont OK et ouvertes à ce marché et ce qu'ils pourraient utiliser
le produit.
Alors vu que c'est un peu technique, on essaie d'aller les accompagner dans ce système-là.
Donc notamment à travers le hub, le déployer en un clic, par exemple, une solution de
test en un clic, ça, c'est sur le market pay, c'est quand même génial.
Donc c'est ce qu'on a essayé de démocratiser.
Alors, je trouve ça assez impressionnant le nombre de personnes présentes sur le salon.
Ça ne désamplie pas même quand les conférences sont lancées à savoir.
Donc c'est la première édition qui tente vraiment le Faust et ils ont eu 8000 inscrits.
C'est absolument énorme.
Je pense que ça fait de l'une des plus grosses conférences de France.
Pour les técos, c'est des fois des vox.
Vous voyez.
Donc ça doit faire la plus grande conférence de France du coup.
C'est vraiment impressionnant le travail qu'ils ont fait et assez dingue.
Parce que d'aller chercher différentes conférences qui sont toutes techs, mais ont toutes des
sujets différents.
Par exemple, il y a GreenEyeO, il y a une conférence qui est dédiée plutôt à la résilience,
beaucoup de générations et haïes.
Il y a une conférence, on pense notamment à nos amis de l'Ina Gora au Pen LLM.
Il y a de nombreuses conférences comme ça qui permettent de couvrir l'ensemble des
sujets de l'Aiti aujourd'hui et des sujets qu'on voit le plus souvent.
C'est assez impressionnant.
On les remercie beaucoup de nous avoir invité parce que ça nous permet de nous venir présenter
nos nouveautés, nous projeter aussi sur 2026.
En février, on a présenté les annonces 2025.
On va pouvoir dire un peu où on en est.
Les produits qui sont prêts, on va pouvoir annoncer jeudi qu'on peut déjà tiser parce
que...
On va spoiler un petit peu quelques cent parce que c'est un registré.
Donc vous allez avoir les annonces en live à voir écouter ce podcast.
C'est exactement.
Les gens qui sont sur le salon et qui nous entendent actuellement parce qu'on est dans
une sorte d'aquarium, mais il y a des haut-parleurs vont pouvoir découvrir ces annonces et être
spoiler en amont.
Mais on profite de ce moment-là pour les faire.
Donc notamment avec une grosse annonce qui est le lancement beta de notre off-cubernetesse.
Je pense que rassure que tu peux nous en dire un petit peu plus.
Je pense que c'est un peu plus important pour les gens qui sont sur le salon et qui

Mais pour les gens qui sont sur le salon, on va pouvoir dire que c'est un peu plus important
pour les gens qui sont sur le salon.
Et c'est un peu plus important pour les gens qui sont sur le salon.
Et c'est un peu plus important pour les gens qui sont sur le salon.
Et c'est un peu plus important pour les gens qui sont sur le salon.
Et c'est un peu plus important pour les gens qui sont sur le salon.
Et c'est un peu plus important pour les gens qui sont sur le salon.
Parce que bien entendu, il n'est pas faible de cuverner des points pour avoir une offre
manallé multitenant à tout le téléset.
D'ailleurs, la plupart de nos concursants qui ne le disent pas,
la première chose qui sont changés là, leurs cuverner, c'est étésse.
Si nous n'avons pas la chance de se faire pour un cloud provider
ou de tirer le truffe avec des centaines de clusters étésse qui ont cosmagamanallé.
Donc nous on a remplacé étésse d'aie pour notre implementation
sur le sujet de la matière étésse.
Donc on a nouveau cuverner des manallés.
On a mis le allemand de nos clients pour le moment les retours sont très positifs.
Et il y a de que l'on lance la bête publique pour pouvoir avoir à
qu'y aller encore plus de monde.
Et bon, va avant de dire au point de ne pas de premier sandwicher à qu'y aller si van.
Donc si tu voudrais mettre,
je ferai, tu voudrais mettre quelque chose en avant par rapport à Norma.
Le se que est l'infraso de la sécom?
Qu'est ce que c'est Norma?
Pourquoi?
Pourquoi s'intéresser à l'essai le moment de?
Donnez-nous votre IA et pour nous faire confiance.
Et nous allons en faire de votre outil quelque chose qui soit vraiment
qui soit vraiment fiable et efficace pour votre pour votre marché.
Parfait. Vous voulez fiabiliser votre IA à aller voir Norma?
Et c'est pour nous, je dirais, venez nous voir pour qu'on construise ensemble
prochaine étape dans le monde du DevOps.
Bien bien, c'est des slogans. Bravo.
On reprends ton marketing.
Je veux dire que
les créations des slogans sont très fortes.
Je vous remercie beaucoup.
Merci beaucoup.
Gioffreur est cantant.
Il est à peine à écart d'er.
Il ne sait pas qui s'est participé à ce podcast.
D'où je suis.
A l'air de remercier encore.
Déservoir les sé...
Traquenardé, c'est amoui.
Traquenardé pour cette enregistrement.
Merci à vous deux.
Merci beaucoup.
Il y a des surprises qui plaisent.
On est à nouveau là.
On a repris avec de nouveaux envités,
même aussi avec un nouvel partenaire.
Ce n'est plus carré.
C'est cantant.
Bonjour, cantant.
Ça fait plaisir d'être ici pour un massif.
Je pense que j'ai déserté les massifs
beaucoup trop longtemps, ratio.
Je m'excuse auprès de ceux qui ont mis à quand je passe.
Je pense que tout le monador
qui n'est pas pour un épisode sans sang cante,
ça fait vraiment plaisir d'être là.
Je pense que c'est important que les gens se rendent compte
qu'auquel épisode est un peu particulier,
mais ce que l'équipe de Médie a fait autour du FOSS,
c'est vraiment très important,
parce qu'en fait, c'est en train de rassembler
énormément de communautés,
tout autour de John Seul événement.
Il y a énormément de rencontres,
énormément de gens,
ça percole dans tous les sens.
C'est très génial.
C'est aussi, il y a aussi de profils très différents,
il y a aussi de développeurs,
il y a aussi de profils de sites,
il y a aussi de profils plus de marketing.
Il y a énormément de monde partout.
Je trouve que c'est un bel rencontre.
Bon, on a de nouveau s'invité pour se partir là.
Donc on a d'abord Fabrice Croissant de INTEQ.
Bonjour Fabrice.
Oui, bonjour et merci de la invitation.
On m'assoit.
C'est que tu peux te présenter un petit peu
et nous raconter qu'est-ce que c'est INTEQ
et qu'est-ce que vous venez présenter ici au FOSS.
Yes.
Donc INTEQ c'est une filiale de la poste
de Luxembourg qui on est le Sén de la poste en fait.
Peut-être pour les participants qui ne connaissent pas,
la poste de Luxembourg c'est toujours les PTT.
Donc ça fait la poste, ça fait la telle communication.
Finances, courriers, logistiques encore.
Une grosse banque.
Et c'est aussi, oui, qui font des drones militaires,
si ma mémoire est bonne.
Ils font des drones, effectivement aussi,
militaires je sais pas, mais des drones, c'est clair.
Et ils sont très forts aussi dans la cyber sécurité,
notamment pour les couches banniveaux,
tout ce qui est téléphonie, tout ce qui est SMS, etc.
Et donc nous, on est l'entreprise de services numériques,
le Sén, donc on fait du dev sur un peu toutes les plateformes.
Et là ici, on vient surtout accéder la présentation
sur un écosystème agenthique qu'on a créé,
c'est un framework, en fait c'est pas un produit
qu'on vend sous forme de licence,
mais c'est plus un framework qu'on déploie d'ailleurs chez Clever,
donc c'est ça qu'on est là,
parce que les démons qu'on fait ici
sont des démons qui tournent sur Clever.
L'ambition c'est aussi d'ajouter ça dans un store ensuite
pour permettre à des clients d'utiliser des add-on
pour configurer directement le rajean.
Donc on fait un écosystème, on fait pas d'IA,
en fait, moi j'aime bien dire on fait pas d'IA vraiment,
pourquoi ? Parce qu'on fait pas de l'apprentissage,
mais on va mettre la glue qui va faire en sorte
de connecter tous les building blocks
qui permettent ensuite de faire une solution
pour les utilisateurs finaux.
On va connecter des bases de données vectorielles,
des endpoints LLM, des interfaces MCP ou Open API,
etc. etc.
Tout ça autour pour faire en sorte
que l'utilisateur, il est son écosystème qui est prêt.
On avait fait un peu la même chose il y a maintenant
25 ans environ, quand les tout premiers applications
application server ver sont sortis.
Quand Java est créée, moi le premier projet que j'ai fait
c'est j'ai développé un application server en Java
avant tout le monde.
Ailleurs mes deux collègues sont les bouchers
chez Sun et Google pour faire les ref apps.
Et en fait je me retrouve aujourd'hui dans la même situation
puisqu'on parle beaucoup d'agentique, beaucoup d'IA,
mais en fait il n'y a pas encore de vrais standards
autour de ces écosystèmes, ça va venir assez.
Mais nous on est déjà là et puis on va progressivement
intégrer les standards au fur et à mesure où ils émergent
chez les gros acteurs.
Aujourd'hui on a une solution qui est qu'on déploie très très vite,
qu'on arrive à aller plus vite sur les clairs
et qui fonctionne aujourd'hui.
Excellent.
Merci beaucoup.
À côté on a Adrienne Grissot de réélection à y haut.
Réaction à y haut, on a déjà fait de ma si-o-tour
et on a fait de streaming ensemble.
Mais tu peux déjà te présenter,
présenter un peu qu'est-ce que c'est réélection à y haut,
qu'est-ce que vous venez présenter pour Crédman or Foster ?
Oui bien sûr.
Alors Adrienne je suis sales pour redirection à y haut,
ça fait quatre ans maintenant.
Je m'occupe aussi en partie des partenariats.
Rédirection à y haut qu'est-ce que c'est donc premièrement
pour ceux qui ne le savent pas on est partenaires avec Leverg Claude.
On a une solution qui permet d'augmenter la délivréabilité
en SEO technique pour les cities commerce,
mais pas que pour tout ce qui est média et ainsi de suite.
Et la plateforme qu'on a pu développer,
elle a permis au début de pouvoir faire des redirections
de manière autonome en s'affranchissant du fichier HTXS,
des développeurs aussi parce qu'on sait que les développeurs
sont souvent très débordés,
sont beaucoup de choses à faire et que leur créant tickets
et leur ajouter parfois du développement inutile.
Donc voilà on permet aux équipes SEO, marketing et e-commerce
de s'affranchir de la tech pour pouvoir optimiser le trafic HTTP de leur site.
On est une très importante aussi peut-être pour les migrations.
Du coup vous êtes, vous facilitez énormément les migrations
d'un produit à un autre en conservant les trafics
et les points de page rank durement gagnés.
Tout à fait, oui, en fait c'était moins devenu une évidence
que j'oublie carrément d'en parler parce que c'était la première brique de la solution,
donc de faciliter les migrations, de générer maintenant,
parce que ça fait partie de nos nouvelles features.
Je peux en parler au first, on a un générateur de plan de redirection,
on utilise un peu d'IA, donc on peut,
avec une URL A et une URL B,
de nouvelles mises en prod, enfin de nouvelles prods,
avoir tout le plan de redirection,
le charger au sein de notre outil,
vérifier que tout va bien se passer et faire une mise en prod de manière très serène.
Nous je sais qu'on s'en est servi aussi quand on a fait notre grande migration de domaines,
parce que nous on est en train de faire notre grande migration de domaines,
on passe de cleveur-cloud.com à cleveur.cloud.
Ça fait des années qu'on veut faire ça, mais en fait,
les gens ne s'en rendent pas compte,
mais une migration comme ça c'est un enfer sur Terre.
Tous les plateformes de paiement c'est l'enfer,
les plateformes d'audience c'est l'enfer,
enfin tous ces sujets-là deviennent très rapidement un enfer
et vous vous aidez énormément à passer de l'un à l'autre en fait.
Oui c'est ça, c'est une partie donc l'immigration
sur laquelle on a une grosse valeur ajoutée,
mais aussi au quotidien,
lorsqu'on veut répéter,
réparer des petites pétouilles, changer du contenu sur son site,
on a des pages qui changent, un article, une collection et ainsi de suite.
Donc c'est les gros chantiers et l'immigration,
c'est souvent pour ça qu'on vient de nous chercher
et ensuite au quotidien pour avoir une vie un peu plus serène sur nous.
Voilà, il y a bien les chansons.
Je m'en suis servi récemment, moi sur un projet side,
sur un use case qui n'était pas connu des gens, mais qui est intéressant.
C'est en fait au lieu d'avoir un CMS sur ce projet-là,
j'ai un site qui est intégralement généré au Gmini
comme un gros sagouin à grand coup de DIA,
et qui du coup est super joli, super cool,
mais pour maintenir en fait la cohérence de contenu du truc,
je me sers de direction IO pour en fait me dire,
le site est parti de là, le truc va là,
comment tu te débrouilles pour que je ne perde pas du contenu entre les deux,
alors qu'en fait le site à la fin c'est essentiellement du statique,
bon c'est du statique on va aider dans du note,
parce que tant qu'on y est allons-y comme des porcas,
mais ce genre de choses,
et donc je trouve que le produit il est d'autant plus pertinent
dans le cadre de l'utilisation de l'intelligence artificielle,
parce qu'il va vous permettre de rattraper vos petits
pendant que vous êtes en train de faire les gros porcas marketing sur le truc.
Ouais c'est un use case que je ne connaissais pas,
mais ça peut en faire partie, on a des applications,
enfin on peut tout faire vraiment,
et si vous voulez,
je pense que toi tu n'as plus le temps de te mettre les mains trop dans le code,
mais on a l'agent V3 qui sort, qui va être disponible,
d'ailleurs on est en train de le voir pour le déployer chez un client qu'on a en commun,
qui va être évidemment plus rapide,
va permettre de faire du blocage selon la géolocalisation,
du blocage du RL, de bot,
et aussi de pouvoir mettre du cash pour pouvoir aller encore plus rapidement,
pour resservir l'arroquette.
Vous intégrer du cash dans l'agent maintenant ?
Oui.
Excellent.
Excellent.
Et sinon,
en réponse, oui théoriquement,
il n'a plus le temps de mettre les mains dans le code,
mais canton, il est...
Je ne l'ai pas tout foncé.
Alors si je continue à vous de le voir dans le code,
et c'est la peur bleue de toute la boîte.
Mais il continue à les faire,
c'est pas seulement qu'il peut,
mais il le fait,
il continue à trouver le temps de mettre les mains dans le code.
Pour être tout à fait sincère,
je me réveille en ce moment une fois sur deux le matin,
en dormi à moitié sur mon ordinateur comme une merde dans le lit.
Une fois que tous les autres
5 millions de choses de la journée sont finies,
c'est là qu'il s'attaque au code.
Bon, pour se reposer.
Voilà.
Cool.
Juste pour compléter,
parce qu'en fait, moi je suis une tech,
mais la solution dont je vais parler s'appelle Brain,
pour sovereign brain,
on a collé tout ça,
et en fait, pour ceux qui veulent aller voir,
c'est brheign.eu.
Donc on a un site qui explique en détail tout ce qu'on fait,
en anglais, en français.
Donc là, vous verrez.
Et vous l'avez collé en open source ou c'est du...
Oui, c'est de l'open source.
Et c'est codé comment ?
Pardon ?
C'est codé comment ?
C'est quoi l'architecture de code du truc ?
Ah, en fait, c'est du Next.js sur le front,
du Next.js sur le serveur.
En DB, on a du PostgreS,
on a du Mongo,
on est en train de bouger vers la...
comment il s'appelle,
la partie doc qui est sur PostgreSQL,
le document de DB, c'est la jugement.
On va sur P.
On a aussi,
on a l'instant sur la partie vectorielle.
Tu as vraiment besoin des fonctions de Mongo,
tu peux pas tout faire dans PG sans entrer ?
C'est ce que vous pouvez faire là,
c'est ce qu'on est en train de...
Et idem pour la partie vectorielle,
aujourd'hui la partie vectorielle,
elle est sur Wii Ovi8,
et là on la bouge sur PG Vector,
parce que ça suffit largement.
Excellent, donc on a du Redman sur étayers,
tout ce qu'il faut,
parce que...
En plus on supporte le document de DB maintenant,
donc on a P. Vector aussi.
Oui, qui est à mon point.
Et en fait là on n'est pas encore connecté
à DanePoint LLM sur Clever,
mais c'est là le prochain étape,
c'est de faire ça aussi.
On peut bricole ça avec le truc qu'on fait avec Autoroshi,

avec Autoroshi ou ZLM,
ou je pense que c'est assez pertinent et complémentaire,
ou directement dans CleverEye,
si on veut simplifier,
parce que CleverEye est plus simple,
mais en fait derrière c'est Autoroshi qui fait du beau.
Le produit qui a été développé à la base par la Manif,
et qui est maintenant beaucoup travaillé
par une boîte qui s'appelle Cloudapim,
qui travaille sur ces sujets-là.
L'autre intérêt,
c'est qu'on peut mettre du biscuit là-dedans,
et surtout qu'on peut faire la quantification,
parce qu'en fait le problème d'une grosse boîte,
c'est je grille combien de tokens,
quand et à quel moment,
et qu'il y a un légère en faire,
dès que tu commences à l'utiliser dans ton produit,
coder avec,
bon c'est ton abonnement,
mais dès que tu commences à le coder dans ton produit,
tout de suite c'est un peu important,
j'ai un des produits qu'on est en train de coder avec des potes,
où globalement on analyse tout tes mails,
en fait passer sur ma boîte mail à la journée,
ça coûte assez cher chez moi.
Ok oui, oui.
Et aussi il faut qu'on puisse nous,
en fait,
est-ce que l'écosystème d'agents,
en fonction des agents,
on va se connecter à des LLM différents,
quand on est sur des agents qui font du marketing,
qui ont vocation à donner des données dans le public,
là on peut aller sur des agents,
sur du chat GPD public, etc.
Par contre si on commence à avoir des statistiques
sur des salaires comme ça,
là on ne va pas vouloir,
on va avoir des choses qui sont beaucoup plus spécialisées,
qui vont être privées.
Donc en fait on peut aussi définir en fonction de l'agent,
voir de la tâche,
quel est l'élème il utilise,
et on gère tout le contexte de conversation.
Je pense que quand Mathieu Hans-Land de Claude Apim
se gâle après demain,
il va falloir que vous discutiez,
parce qu'il y a de complementarité,
carrément entre l'écouteau toroshi,
et c'est un gateway API mais autorochif,
ou LLM, c'est un gateway pour LLM,
et ce que vous faites,
sont tous les des open source,
donc il y aurait carrément un truc à avoir ensemble.
On se règle.
Du coup, c'est assez intéressant,
parce que là on dit tout ce que nos produits
sont en train d'intégrer de LIA,
donc on voit que LIA est en train de s'inturer
la totalité de nos produits,
et en même temps on a tous cité
un certain nombre de produits qui étaient américains,
et ce week-end on a tous pris,
je pense, une petite bombe dans la gueule,
c'est que vous avez lu le National Security
Strategie Document de Donald.
Oui mais je pense que certains de nos auditeurs
n'ont donc tu nous fais le résumé.
Ah bah vous avez un document d'à peu près 30 pages
sur le site du Pentagon,
que le document de la stratégie
sécuritaire à venir des États-Unis,
donc c'est un document qui est régulièrement publié
aux États-Unis à peu près une fois par mandat,
le président aurait dit, j'en disais,
qu'est-ce qu'on fait dans la stratégie des États-Unis,
et là la Strate des États-Unis c'est clairement
bon bah l'Europe a se démerdé toute seule quoi.
Donc pour ceux qui n'auraient pas encore compris,
ça ne fait jamais que 15 ans que je vous dis
que ça va se signer comme ça,
donc voilà, mais pour ceux qui n'auraient pas encore compris,
ce ne sont plus nos alliés,
du coup faudrait peut-être se mettre à construire
des choses pour être capable de construire ça,
parce que là en fait on est tous intégralement dépendants en IA,
j'aurais dit qu'il y a quelqu'un qui cesse
de débarrasser cette clôte-cote dans son organisation.
C'est clair, non on ne peut pas aujourd'hui.
Et il y a aussi un autre message que les gens disent,
oui mais tout ça c'est une bulle, ça va péter,
la bulle IA, moi je ne pense pas du tout,
parce qu'en fait nous on voit encore en Europe
les haïes comme un domaine économique,
pourquoi ils disent que ça va péter,
parce qu'on ne va pas faire autant de revenus
que ce qu'on injecte de milliards dedans.
Mais dans le secteur de la défense,
on ne se pose pas la question,
dans le secteur de la sorte, on ne se pose pas la question.
Et en Europe on traite encore le numérique en général,
le cloud les haïes comme des secteurs purement avocations économiques,
où il faut qu'on gagne plus d'argent qu'on emmets,
alors que les Chinois et les Américains,
ils le traite comme un secteur stratégique.
Ils ne se posent pas la question,
comment ça va nous rapporter,
quel pouvoir ça va nous donner.
Et moi je dis, il faut comparer le numérique en général,
mais les haïes encore plus, le cloud aussi,
au secteur de la santé ou de la défense,
parce que quand on achète des mirages,
on ne se dit pas comment ça va nous rapporter.
On dirait comment on va développer notre pouvoir en fait,
et notre indépendance aujourd'hui,
comment on va développer ça.
Et en Europe, on va encore se poser ces questions-là,
alors que les autres pas.
Et je pense qu'on savait à tout doucement
ces messages de Trump là nous aident,
à prendre conscience,
mais c'est quand même long.
Et puis même en discuteur avec des politiques,
parfois ça les réveille à tout petit peu,
mais après on revient au...
C'est une super opportunité.
...complicé.
C'est une super opportunité.
Moi je suis toujours très surpris par le manque de compréhension,
de combien de monde bouge.
Quand j'ai créé Clever Cloud,
on m'a expliqué que le marché du Cloud
était une lubie qui durerait 6 mois.
Quand avant j'avais créé Yajas,
on m'a expliqué que le JavaScript server-side,
c'était une mode très passagère,
et que quand je retourne à l'école,
le JavaScript c'était fait pour le client.
Aujourd'hui, on voit bien...
Et je pense qu'il y a un manque de vision totale
de ce que la totalité du numérique
est en train d'imposer comme changement sociétaux.
Et aujourd'hui c'est pas pris en compte.
Et ce problème-là,
il est à mon avis majeur,
parce qu'on se retrouve avec des gens qui te disent,
ah oui mais c'est quoi le secteur ?
Si on prend le secteur du commerce par exemple,
c'est important,
on te dit oui on a un problème,
les agriculteurs se font massacrer
par les grands distributeurs.
Ok, on peut prendre le breakdown de ça.
Un supermarché c'est quoi ?
C'est 5% de marche sur l'alimentaire
qui permet de tenir la lumière allumée
et donc de chauffer l'endroit, etc.
Et 20 à 30% de marche sur le nom d'alimentaire.
Quant au nom d'alimentaire,
les achats sont sur Amazon et Aliexpress.
Et qu'il n'y a plus d'achats non alimentaires,
en fait les mecs sont obligés
d'aller faire leur marge sur l'alimentaire.
Et donc du coup on se retrouve avec un problème structurel
de notre économie et de notre agriculture.
Et en fait, tout est comme ça.
Si on prend le revenu de la pub dans les journaux
et le revenu de Google c'est un X,
c'est-à-dire que les journaux
se sont fait capturer leur marché par Google.
Et après on vient me dire,
oui il y a un énorme problème,
on se retrouve avec des médias d'opinion.
Pourquoi vous avez des médias d'opinion d'après vous ?
C'est news, c'est possible,
parce qu'en fait, itélé perdait de l'argent.
Et donc on a des milliardaires qui peuvent acheter des médias
et en construire des médias d'opinion,
parce que ça ne vous rurait en fait.
Parce que l'opinion peut être déficitaire,
mais parce que les médias ne gagnent plus d'argent,
la démocratie est repose là-dessus.
Et donc en fait, l'ensemble des changements
qui sont aujourd'hui impulsés par le digital et le numérique,
ce sont des changements sociétaux,
effectivement, de comment on se nourrit,
de comment on s'informe,
est-ce que la démocratie fonctionne,
quelles sont les boulots ?
Comment on va faire pour avoir les bullshit jobs
qui font tenir la défense
une fois qu'on a l'IA ?
Entre demander trois fois à Jean-Marc
d'envoyer des emails ou demander à l'IA une seule fois,
franchement, on sait tous comment ça va finir.
Et je pense qu'il y a un vrai manque de prise de conscience
d'un certain nombre de gens là-dedans,
et du coup, on ne laisse pas des vrais techniciens
piloter la transformation.
Parce que la transformation ouvre plein de jobs
et plein d'opportunités fabuleuses.
Par contre, il faut la piloter pour éviter de passer à notre temps
à courir derrière en essayant de dire,
« Ah tant comment on va gérer le problème ? »
OK.
De contrôle, rien ne va changer.
Et pourquoi ?
Les choses sont déjà changées, ce n'est pas la IAS,
ça fait longtemps que le mouvement est enclanché.
Et donc, à un moment donné, il va falloir sortir la tête de sable
et dire, OK, il faut qu'on fasse quelque chose.
Oui, mais même pire que ça au niveau européen,
notamment même au niveau national,
en fait, on se coupe la branche sur laquelle on a l'air.
Si on disait attention pour la concurrence,
il faut faire des appels d'offres,
mais on n'a pas le droit de privilégier
des Américains, des Européens, etc.
Il faut ouvrir et puis surtout, on ne peut pas autoriser,
même pas autoriser un pays, par exemple,
à choisir ses prestataires chez lui,
à forcer ça, c'est interdit par l'Europe.
Parce que c'est une prérogative de l'Europe.
En fait, c'est une folie furieuse.
C'est imaginer que Claver Claude se pointe
sur le contrat de Jedi de la zone gouvernementale américaine.
On sait tous que je ne vais pas le gagner le contrat,
ça n'a rien que j'ai eu à faire un appel d'offre.
Par contre, il faut que je justifie de ma propre francité
pour gagner un contrat,
où en fait, la majorité aujourd'hui
du Claude Computing de l'État français
est encore faite chez des Américains.
C'est quand même hallucinant comme situation.
Oui.
Et quand on me dit qu'on ne va pas faire ça,
j'ai quand même l'adidume qui me dit
« Ouais mais on va refaire ce que fait Claver Claude
en open source A3 ».
Bien sûr.
En tout cas, avant de vous laisser partir,
parce que vous avez des gens qui sont là,
allez, la dernière fois,
la façon de la salle de la direction de la direction de moi,
qu'est-ce que vous voulez que nos auditeurs se souvient ?
Et en tout cas,
vous faites le mien,
qu'est-ce que vous voulez faire passer rapidement ?
Allez, qui se lance ?
Donc, en fait, pourquoi on a créé Brain ?
C'est pour permettre à nos clients d'avoir un écosystème d'agents
qui soit complètement,
sous vrai, ça a bien grand mot,
qui maîtrise de A à Z, en fait, tout ce qui est possible.
C'est pour ça qu'on a laissé sur Claver Claude,
parce qu'on est en Europe, on est en France.
C'est pour ça qu'on a développé nous-mêmes tout le code source
qui se connecte aux différents modules
dont j'ai parlé tout à l'heure.
Ce code source, on le déploie chez les clients,
on le déploie en premise,
on le met à disposition sous forme de SASS,
mais en tout cas, il est 100% maîtrisé, 100% européen.
Et donc, c'est notre ambition,
c'est d'avoir, à niveau de permettre à nos clients,
d'avoir la même compétitivité qu'ils auraient en utilisant des produits
soit chez Google, soit chez OpenEye,
mais avec un stack qui soit 100% européen.
Merci beaucoup, Fabrice.
Et c'est ton côté ?
Et de notre côté, au redirection IHOO,
c'est dès qu'on est intéressés un petit peu par l'analyse de LOG,
et savoir un peu, comprendre tout ce qui se passe sur son site
en termes de trafic HTTP,
de pouvoir repérer les erreurs,
et ensuite de pouvoir les corriger au sein de notre interface
sans forcément avoir de connaissance en tant que dev,
et bien, c'est vers nous qu'il faut se rediriger.
Merci beaucoup à tous les dèves,
c'est un plaisir de vous savoir là.
Merci.
Merci à vous.
Donc, nous sommes en retour, et nous sommes en anglais.
C'est le premier pour les maîtris.
Oui, je pense que c'est le premier.
Mais peut-être que les gens qui nous écoutent,
nous en parlent en français.
Oui, parce que nous allons essayer de le faire en anglais,
on va essayer, et peut-être que ça va travailler.
Pourquoi nous sommes en anglais ?
Parce que nous avons deux plus,
deux plus de partenaires de CloudClaude ici,
et nous allons les introduire.
Commençons avec l'analyse de conception.
Analyse, pouvez-vous vous introduire et introduire Griste ?
Oui.
Je suis Analyse, je suis co-CEO de Griste.
Griste est une spreadsheet d'open source,
une plateforme de CloudClaude.
Il a l'âme de construire des apps
et une spreadsheet pour faire cela mieux.
Fabien, vous êtes de Alpha Edge.
Vous pouvez vous introduire et introduire Alpha Edge ?
Oui, je suis le CEO de Alpha Edge.
A Alpha Edge, nous sommes construits dans un modèle de AI.
Nous sommes un alternatif de l'LLM et un grand acteur de l'AI.
Nous sommes d'accord avec les ressources légales.
Nous sommes un modèle très efficace.
C'est génial.
C'est génial.
La première fois que je suis au Alpha Edge,
c'est parce que nous travaillons avec le même client.
Nous avons juste une look sur les résultats
de l'information de Alpha Edge.
C'était très très rapide, très bien.
Et avec une consommation très low power.
Vous pouvez vous décrire un peu comment vous faites ce genre de choses ?
Est-ce que l'open source est pas l'open source ?
Qu'est-ce que votre modèle ?
Je vais essayer de summariser,
mais je n'ai pas d'informations pour vous.
Nous avons juste fini deux jours avant,
et nous avons fait un benchmark.
Nous avons fait le premier benchmark contre Gemini.
Nous sommes plus de 150 fois plus vite que Gemini
pour régler des documents.
Et la performance est assez égale.
90,7% de l'équivalent.
Mais notre challenge est de comparer
le modèle OCR de Mistral,
qui est un de nos compétiteurs en France,
en comparaison avec nous.
Et le résultat était très bon,
parce que notre modèle digital
est de plus en plus vite que le modèle Mistral.
Et aussi, c'est plus efficace.
C'est plus que 10 points de précision
plus qu'un Mistral.
C'est juste mieux, et c'est une bonne nouvelle pour nous.
Et avec cette bonne nouvelle,
ou les premières clients en commun,
nous demandons de construire 22 plus de procès.
Nous sommes en développement,
et je suis en train de dormir
assez tard,
parce que je travaillais sur la nouvelle date
avec cette banque.
Bonne nouvelle.
Les nouvelles sont très belles pour nous.
Et le micro-blog est plus que un micro-blog.
Parce que les gens pensent que le micro-blog est un micro-blog,
mais quand vous commencez à toucher,
vous découvrez que il y a beaucoup de choses
qui sont vraiment puissantes.
Oui, donc,
on peut dire que c'est un micro-blog
pour commencer, parce que ça aide
avec l'adoption.
C'est moins utile,
c'est moins scariant pour les end-users,
productivité, software.
Alors, quand nos champions sont techniques,
les gens de leurs équipes ne sont pas.
Nous disons que la spreadsheet est moins scariante,
mais vous êtes absolument bien sûr,
c'est plus que la spreadsheet.
Et l'une des choses qui s'étendent
de tous les autres hybrides de la spreadsheet
des données database,
c'est la collaboration,
qui était un problème très difficile.
Les outils, comme la table d'air,
la base de base,
ont fait la partie de la spreadsheet
qui était importante.
Ça a fait la solution plus facile à la scale,
mais vous n'avez pas de contrôle de l'access.
Et le contrôle de base de grise
permet que vous travaillez sur la même spreadsheet.
Nous pouvons travailler sur la même database,
mais nous verrons différents colonnes,
différents roues, différents tables,
même si les choses sont réelles en temps.
Et ça fait que ça sent plus comme un build-up réel,
parce que ça a un feature de sécurité.
Et puis, bien sûr, ça a la puissance
avec les widgets custom,
et les APIs sont très robustes,
et tout de suite,
tout le monde qui est techniquement impressionné,
et les end-users, ils sont juste en utilisant une spreadsheet.
Ça s'abrisse à cette approche.
Oui, vraiment,
vous devez savoir que le contrôle de grise
n'est pas de votre accès,
mais ça peut remplacer beaucoup
de l'accès de l'access,
parce que vous n'aurez pas
d'access à un copier de mail.
Vous vous trouverez le problème
de qui est l'opinion du DOC 1.
Mais c'est plus comparable pour moi
qu'à l'access,
ou à l'air table,
et tout ça.
Chaque fois que vous utilisez Excel
comme un database,
ce qui est beaucoup de usage
dans le camp d'entreprise,
grise sera très utile.
Si vous voulez faire
des choses de la mail,
peut-être que ce n'est pas la meilleure solution.
Mais pour un usage réel
de l'acceleration
comme un software coordination
et un database,
ce sera beaucoup plus fort
et beaucoup plus intéressant.
Vous avez un API,
d'access à votre data,
donc ça sera beaucoup plus intéressant
pour les utilisateurs
pour le faire.
Vous pouvez vous hoster.
Il y a aussi une version hostile
de grise,
et il y aura une version hostile
sur Clever Cloud.
Exactement.

C'est très bien.
Avec la partnership, et nous avons un appareil de la production,
on va prendre un produit open source
pour nous-même,
et on va prendre du ménage.
Nous ne sommes pas d'autre que l'US,
mais de la Microsoft.
Le way de Clever Cloud,
comme nous le faisons avec nos partenaires,
en général, le way de la production
est un grand moyen de faire
des partenaires longues.
Je pense que c'est le plus clé de l'explication
de la production.
Le point est,
le comité Cloud n'est pas seulement un produit technique,
mais aussi une capacité
d'être un agrégateur de technologie
pour nos clients.
Ce qui est très intéressant,
et ce qu'on doit faire après
est de créer une bounte
avec nos partenaires.
Par exemple, un modèle de modèles
à l'air à l'intérieur
de la grise,
parce que tout le data que vous devez digitaliser
à l'intérieur de la grise,
va directement
à ce genre de plan de production.
Et on va être en train
d'être engagé par un biscuit
en utilisant un air-tour
et un clé de clé.
Ce sont les choses qu'on doit créer
dans notre partenariat de la métro
et d'être capable de dire
que ça peut travailler sur le Cloud,
mais aussi sur l'air-cap situation
pour notre purpose industrielle.
Ce sont les choses qu'on travaille
et c'est très compliqué
parce que c'est une grande mutation de la campagne
et une grande travail
pour faire tout ce genre de travail
et c'est en même temps que nous nous mutons
d'une autre organisation
de 50 personnes
à 100 personnes.
Et le management de 100 personnes
est une grande bounte pour plusieurs raisons
même si les gens sont bons et veulent
aller dans la bonne direction.
Mais le point est là,
c'est de créer un moyen de la partenariat
pour faire ce genre de travail.
Qu'est-ce que vous voyez
au marché pour quelque chose
comme ce que vous faites au modèle ?
Parce que tout le monde est en train
d'avoir un modèle
de l'oeil ouvert
de la métro, ce genre de choses.
Ou une petite campagne peut travailler sur l'oeil ?
Oui, c'est un passionnant
parce que
nous pouvons tous penser à ce point.
Il y a
la première génération
de la compagnie, qui fait
la fondation de l'oeil
avec la fameuse LLM.
Et Mistral
est une de ces compagnie.
Il est aussi comme un OpAni.
Donc, ce que vous pouvez comprendre
est que nous sommes
juste au début de l'OEI.
Et à ce point,
les premiers acteurs payent
très expensif
la construction de leur technologie.
Comme la deuxième génération
de notre startup,
nous profite de leur recherche.
Nous profite de
cette LLM. Nous utilisons
cette technologie.
Mais pour construire quelque chose
qui est plus scalable, plus efficace.
Et aussi,
la recherche fait
un grand progressement.
Même ces dernières mois, je peux vous dire
tous les secrets, mais nous travaillons
dans un nouveau papier,
dans une nouvelle architecture.
Et
par exemple, Yann Lecain
dit qu'il ne sera pas
jamais le moyen
d'avoir l'AJI.
Et nous sommes also
que LLM
est une bonne chose pour un
consumer, pour avoir des répliques
dans un problème.
Mais comme une compagnie,
LLM est une aberration.
Parce que c'est trop grand. Il peut être
très efficace
si vous avez des outils d'utilisation
qui doivent être industrieux.
Donc, nous avons construit un model
spécifique.
Pour vous expliquer,
un modèle de 0
peut être créé
avec seulement 3 mois.
Pourquoi ? Parce que
il n'y a pas beaucoup de paramètres.
Nous pouvons avoir un modèle
avec quelques millions de paramètres.
C'est très
très
petit.
Donc, quand vous n'avez pas
pas beaucoup de paramètres, quand votre modèle
est efficace,
est plus clé, est plus
réadresse, pour un nouveau casque,
par exemple, qui est
que je veux un document digitaliste.
Je ne veux pas
parler, je veux juste un digitaliste.
Si vous avez un modèle pour ce modèle,
vous avez quelque chose d'efficient.
Vous avez quelque chose que vous pouvez développer
très rapidement.
Et quand vous avez appris
pour un nouveau casque,
vous avez juste de changer le casque,
mais pas votre secret source.
Et vous vous rébuilderez un modèle
pour chaque nouveau casque.
Oui. Et après, comme le Lego,
nous pouvons ajouter
ce modèle en faisant le travail ensemble
comme un chien.
Dans le Gris,
l'introduction de l'oeil
est quelque chose
que vous parlez de.
Parce que maintenant,
l'oeil pour la documentation
et le texte est très populaire.
Votre voix, tout ça.
Mais le point est que l'introduction
de l'oeil
dans le métier
ou le spreadsheet est
clinique et pas très intéressant
de voir comment vous approchez
de ce sujet
et de problèmes.
Oui.
Donc, il y a
un assistant AI
dans le Gris et l'une des choses
qui le fait un peu mieux
que l'A.I. Add-on
pour un spreadsheet traditionnel
est que le Gris a un code-view
qui a le schéma,
le tableau, les noms, les noms, les types, les formules.
Cette information est passée
avec le code-view, la query.
Et aussi, nous avons beaucoup de documentation
que nous avons eu pour...
qui a juste été payé.
C'était juste nous, les documentateurs
qui étaient délicieux.
Les LLMs connaissent beaucoup
du Gris. Ça a travaillé très bien.
Donc,
maintenant, c'est pour
les formules Python et Gris,
les tables de la construction, les dashboards de la construction,
les tables de la linking,
les données de la reading et la summarisation.
Ça fonctionne très bien.
Ce que nous avons dit,
les spreadsheets sont utilisés pour tous les cas de utilisation.
Donc, on va avoir quelqu'un qui nous dit
que j'ai besoin d'un manager inventaire.
Mais il faut aussi faire
ces 1, 2, 3 rares choses.
Vous avez ce template? Je suis comme non.
Nous avons, vous savez, 70
des templates, mais nous ne pouvons pas avoir
un pour chaque utilisation. Et je dis
que nous ne avons pas besoin d'un. Vous pouvez juste
dire ce que vous avez dit à l'Email
dans l'assistant de l'A.I.
Et il y a un template.
C'est très intéressant.
D'adapter l'A.I.
pour faire votre produit plus flexible.
Mais ça se fait juste
de la surface. Ce que nous voulons vraiment faire,
nous ne savons pas si les LLMs sont
encore là, c'est
d'importer un excès compliquant
dans l'A.I. et de
expliquer ce que ça fait. L'a-t-il
recréé en grise?
C'est le spot de la suite.
En faisant l'LLM, comprendre
ce que l'Excel a fait.
C'est complexe.
C'est complexe, surtout car
les gens qui l'ont fait ne peuvent pas expliquer.
Si vous vous avez un excès
qui est en joueur,
c'est vraiment compliqué
d'understand ce qu'il a fait.
Je l'ai essayé de le faire
plus facilement.
J'ai un grand
document financier avec mes
investissements.
C'est assez impossible de le faire
pour l'A.I.
pour bien analyser vos documents.
Avec 40
anglais.
Je pense que c'est
assez important.
C'est pas
le manque de contexte.
Je pense que le manque
de contexte pour comprendre ce qu'il y a
a fait. Je rencontre des gens qui
travaillent sur un nouveau type de modèles
en travaillant seulement avec des membres.
Mais chaque fois qu'ils ont un problème,
c'est le manque de contexte de
ce que ce document fait.
Parce que
beaucoup de choses sont impliquées
dans le document.
Oui.
Bien,
avant de finir
notre podcast
je voudrais vous
si vous voulez
les gens qui sont en train
de
m'en souvenir,
une chose sur le grec
et l'alpha-H,
ce serait-il
dans une phrase,
qu'est-ce que ça devrait être intéressant
de garder un AI sur l'alpha-H ?
Oui.
Nous
voulons que les gens savent
que c'est possible d'avoir un AI
plus cher, d'avoir un AI
plus souverain. On peut avoir
un ortex en Europe.
Je crois dans une compagnie comme nous,
parce que le futur de l'AI
est assez possible
pour quelques compagnieurs comme nous.
Mais peut-être comme vous, si vous voulez
construire votre propre AI,
croyez dans le futur
et travaille avec la recherche
et la technologie.
Je crois que
je vais avoir beaucoup de
frais de la price de la création
de l'AI.
Nous allons avoir le design de la phase 2
de l'AI à partir de bientôt.
Et c'est le moyen
de la vie de l'alpha-H.
Il sera très intéressant de voir ça.
Merci.
Merci.
Et à la suite, à Griste.
Je dirais que pour Griste,
il y a eu
une élection de la plateforme
de spreadsheet, comme l'air,
la notion. Et en faisant ça,
nous avons donné beaucoup de contrôle et de privacy.
Et vous ne vous avez pas besoin. Je ne parle pas assez,
mais une grande valeur de Griste est la sécurité,
le contrôle de la data, la portabilité.
Et
que
si vous voulez prendre le contrôle de votre data,
soit une spreadsheet de petit,
ou une app full, que Griste
est, c'est une grande partie de notre focus.
Merci beaucoup.
Merci à Nais,
et à Fabian. Merci à
Kantam pour l'avion,
et merci à tous
pour l'entendu.
À la prochaine fois, bye.
Merci.
Sous-titres par

Les infos glanées

Je suis une fonctionnalité encore en dévelopement

Signaler une erreur

CleverCloud

Tags