A au fait maman merci pour le conseil.
Ah oui lequel ?
Ouvrir un plan d'épargne retraite à la Carac.
Ah oui.
En 2024, le fonds euro de la Carac m'a rapporté 4%.
Mais oui la Carac s'occupe bien de nous et depuis longtemps.
Et nous avons un conseiller en patrimoine dédié qui change tout.
Et jusqu'au 31 mars, la Carac me donne 50 euros si je verse 2000 euros.
Et ça peut aller jusqu'à 1000 euros offert.
A la Carac, on se bat pour vous.
Les taux passés ne préjuchent pas des taux à venir.
Taux net de frais avant prélèvement sociaux.
Offre soumise à conditions, plus d'informations sur carac.fr.
Mutuelle soumise au livre 2 du Code de la Mutualité.
Vous le savez, ici on aime bien sélectionner des projets, des applis que les gens ne connaissent pas trop.
Et c'est ce que j'ai décidé de faire aujourd'hui.
Parce que depuis une année, on commence à avoir un peu une maturation,
une maturité de toute cette nouvelle technologie d'intelligence artificielle.
Suffisamment pour que ça commence à devenir
utilisable et intéressant pour le commun des mortels.
Dans les applis que je vous ai sélectionnés, il y a à la fois des services,
des applis que vous pouvez installer dès maintenant sur votre Mac pour gagner du temps.
Ainsi que des outils un peu plus avancés si vous voulez pousser le curseur.
Si vous êtes dans la team des gens qui veulent, par exemple, commencer à améliorer des modèles vous-même,
à faire des fine-tuning, des choses comme ça.
Bon, je rentre pas trop dans le détail.
Mais je vais vous présenter 4 projets différents
qui, je pense, vont vous faire halluciner.
Le premier, il s'appelle Clap.
Clap, c'est hyper simple. C'est un service web.
À qui vous donnez une chaîne YouTube ?
Peut-être que tu l'as déjà entendu parler.
Je vais se présenter, je t'en parle après.
Vous lui donnez une chaîne YouTube et à part ça, il vous crée des formats verticaux.
Tout seul de A à Z.
C'est ça que j'ai trouvé intéressant, c'est que j'avais déjà vu des démos avec des petites bribes,
tu vois, le fait de découper une vidéo en petits extraits,
ou le fait de rajouter automatiquement des sous-titres.
J'avais vu toute cette petite brique, mais le côté vraiment de A à Z,
avec un ingrédient secret dont je vous parle juste après,
est assez impressionnant.
Et comme vous voyez, on peut voir dans les démos, on peut voir du Hugo D'Ecrit,
je sais pas si c'est parce qu'il est vraiment client, ou si c'est juste leur démo.
Je pense que c'est leur démo, mais en vrai, c'est possible.
C'est des Français qui font ça.
Et ben voilà, Benjamin, peut-être que tu...
Ben en fait, ils sont hyper cool, c'est deux Frenchies qui font ce truc-là.
On est... Depuis que je me suis lancé sur mon sas et tout,
on est en contact tout le temps, on s'envoie des messages tout le jour et tout.
Et je suis un power user de leur truc de clap, en fait,
parce que le podcast qu'on a avec William, l'ascenseur,
après moi, chaque semaine, je l'envoie dans la moulinette de clap, comme ça,
et il misole genre dix clips, dix potentiels sujets classés par ordre de viralité, en fait,
parce qu'il analyse le tout transcript, il shoppe des passages viraux, en gros,
et il me l'est sort comme ça.
Après, tu es un inditeur, si tu veux rajouter un peu d'avant, un peu d'après,
enlever quelques mots, etc., tu peux tout faire, et c'est trop, trop bien foutu.
Et pareil, je leur ai suggéré des tonnes de features en tant que power user,
je leur disais, est-ce que vous pouvez rajouter six, ça, et ça, et ça ?
Et ça, c'est trop bien, quand c'est des gens accessibles, comme ça,
c'est que les features que tu demandes, elles sont inclus dans le sas.
Ils sont vraiment implémentés, bon amour.
Ça, ça fait trop plaisir.
Et comme tu dis, ce qui est vraiment nouveau, enfin, voilà,
il n'y a aucune originalité dans chaque brique indépendante.
L'originalité, elle est d'avoir un truc de A à Z qui marche,
ou c'est pas juste un truc un peu bancail, tu vois, qui marche une façon...
Ça marche vraiment bien.
Oui, ils ont une sorte de sauce secrète,
où, comme tu dis, ils ont une...
En fait, ça se voit qu'ils connaissent bien les codes, les plateformes, etc.
Et ils ont probablement des promptes secrets
qui leur permettent d'isoler des petits bouts de ton podcast, de ta longue discussion,
et de savoir qu'il y a un potentiel de viralité sur des plateformes type...
de TikTok ou Instagram Reels.
Oui.
Je vais vous dire, la meilleure feature qu'ils ont ajoutée dernièrement,
qui est vraiment, je trouve, la clé de leur truc.
Effectivement, ils vous génèrent ces 10 sujets éventuels,
comme ça, que vous pouvez prendre ou pas prendre,
mais ils ont rajouté un truc aussi,
générer un clip par rapport à ce que vous vous souvenez que vous avez dit, en fait.
Donc, tu lui dis, j'ai parlé de ça vite fait dans le live,
j'aimerais bien avoir ce passage, et lui, en fait, il va le retrouver.
Ah, débats.
Et il va te faire le truc...
Parce que, parfois, tu te souviens que t'as parlé d'un truc pendant l'émission ?
Tu lui dis, vas-y, il retrouve moi ce passage,
boum, boum, boum, il te fait le truc, t'as ton clip qui est fait en 2 secondes, et là, tu fais...
Ah ouais.
Et ben, moi, je vous propose quelque chose.
C'est qu'on fasse un test.
Un test en direct.
Oh là là.
On a un peu fait ça depuis 2018.
Wow, un test en direct.
Mais je vous dis, leur tool marche trop bien.
Moi, j'ai jamais eu de problème, donc...
On va pouvoir vérifier.
Allez.
Moi, ce que je trouve génial, c'est que...
ça adresse un problème, c'est très chiant de faire ça.
En fait, même les monteurs et tout, ils ont le nom de...
enfin, c'est chiant.
Ça fait plaisir à personne de monter des clips à partir d'un truc très grand.
Donc, c'est cool.
Et c'est d'ailleurs pour ça que nous, un underscore, nous ne faisons pas de TikTok et de Rive.
C'est vrai ça.
Mais on se fait voler, hein.
On a la gigaflame, exactement.
Du coup, c'est...
On est quand même disponibles, mais c'est pas nous.
Du coup, ce qui se passe, c'est que si vous scroller TikTok, vous verrez des extraits de cette émission, potentiellement.
Mais ce n'est pas nous qui les avons montés.
C'est des gens qui nous l'ont volé et qui ont fait les montages.
Et voilà, qui gagnent un peu d'argent, monétisation de TikTok sur notre dos.
Mais honnêtement, c'est pas grave, parce que ça n'est pas beaucoup d'argent.
Du coup, nous, avec TikTok...
Oui, vraiment. Non, non, mais honnêtement...
Moi, à une époque, on s'est demandé...
Est-ce qu'on essayait de faire fermer ces chaînes, etc.
Et en fait, franchement, on s'en fout un peu.
J'ai même envie de le dire, si vous voulez en faire...
C'est que c'est un disque, il y a dit ça.
Mais voilà.
Au début, ce bâté l'a fait, mais en fait, faites-le.
Si vous voulez faire des montées, des extraits, amusez-vous.
Au pire, nous, ce n'est pas si grave, ça fait un peu connaître l'émission.
Et comme je disais, ce n'est pas un manque à gagner de fous furieux.
Donc, on va se consoler.
Sauf, si on se met à devenir client de clap et qu'on monte nos propres émissions.
Est-ce que, si l'on serait en mesure de faire un test ?
Absolument pas.
Ah !
Ah !
Pour quelle raison ?
Il faut se log et tout.
Ouais ?
Je le fais, continue à parler.
On meuble, on meuble.
Il demande si c'est Sponzo, c'est pas Sponzo.
C'est pas Sponzo, pardon.
Il n'y a aucun des outils que tu as présenté.
Les outils que je me sentais, les Sponzo.
Et mais moi, je n'étais pas au courant que vous alliez parler de ça.
Enfin, c'est une coïncidence...
Rente-toi !
Tu ne connais pas.
Parce que, justement, on te parle d'un truc, tu connais les gens.
Ah bah attends, il y a plein de fois, vous parlez de trucs, je suis dans le mode
de quoi il parle, putain de quoi il parle.
Quand je connais, je suis là, je prends le plat.
Je sais incroyable.
En fait, ce que j'ai trop intéressant, c'est que c'est à la fois la première démo que tout
le monde a imaginé.
C'est le truc évident, faire du montage automatique et tout.
Mais le concrétiser réellement et que ça marche bien 99% des cas, c'est beaucoup, beaucoup,
beaucoup plus dur pour tous ceux qui l'ont un peu essayé.
Et donc là, c'est pour moi un des premiers produits que je vois, debout en bout, qui est
vraiment convaincant à ce point et qui peut vraiment faire gagner du temps.
Et pour tout vous dire, ils ont de la concurrence.
Il y a d'autres trucs qui font ce procès de Hazard aussi, mais sans déconner, je les
ai tous utilisés du coup parce que je suis curieux de la manière générale.
Et à chaque fois, c'est eux qui te sortent les résumés, leurs ingrédients secrets,
comment ils ont finit une tunée, leurs prompts, quoi que ce soit.
C'est eux qui te sortent les meilleurs sous-titres, les meilleures transcriptions.
Enfin, qualitativement parlant, c'est eux qui prennent le truc haut la main et ces deux
petits Frenchies, ça fait trop plaisir.
Et ça coûte combien ?
Tu sais plus.
Je sais pas, 29 ou...
Vous voulez faire sur la chaîne Endorscore ou Micode ?
Endorscore, ça s'y prête mieux parce qu'il faut que ce soit plutôt au podcast.
Ça a plus d'interès parce qu'on a déjà un truc super à monde.
Ah quoi que ! En fait, c'est toi qui sais, ça ne marche jamais.
Qu'est-ce qui s'y prête mieux, à Micode ou à Endorscore ?
Endorscore, c'est mieux sur les podcasts.
C'est mieux sur les podcasts.
Encore, et c'est peut-être même un peu trop monté d'ailleurs.
Ok.
Attends, attends, mais là, t'as pris juste...
T'as pas mis une vidéo là ?
Il faut prendre la chaîne, il faut prendre une vidéo en particulier.
Donc...
Ne rigole pas.
Non, mais il fait quoi là, le gars ?
Oh ! Ce que je vous propose, c'est de prendre une vidéo de la chaîne YouTube.
Laquelle en choisis ? C'est vous maintenant, vous choisissez ce que vous voulez.
Non mais il faut...
Alors, laquelle on choisit ?
Reflection, réflexion...
Rabbit R1, non ?
Je crois que j'ai essayé et que ça ne marchait pas hyper bien.
Ok.
En fait, il faut une discussion où il y a eu des cours,
des cours extraits qui peuvent se prêter à ça.
Oui, en fait, faire ça sur une vidéo qui est déjà montée, c'est pourri.
Mais par contre, faire ça sur un podcast, c'est sur ce genre de trucs que ça marche le mieux.
Euh...
Je vous propose de prendre...
La deuxième, ouais.
La vidéo, non, avec l'olicien qui a construit son propre téléphone.
Très bien ça.
Oui, c'est eu son mode podcast.
Trop bien.
Parce qu'à mon avis, il va pouvoir trouver des extraits d'un téléphone en particulier,
ou des choses comme ça.
Vu que c'est un concept un peu morcelé, il y a peut-être plus de chance.
Donc là, on colle le lien de la vidéo et hop, il trouve instantanément la bonne vignette, etc.
Et nous, on va tout cocher.
On veut des shorts.
Non, ça c'est l'inverse.
Ouais, on laisse tout cocher, ouais, c'est bien.
Et on lui dit que c'est du français, mais Max, une minute de durée, est généré.
Là, j'imagine les deux gars, j'espère qu'ils ont des meufs et qu'ils sont avec leurs meufs ce soir.
Ils ont pas de vingt à démon parce qu'ils doivent être en sueur.
Mais vous, en fait, si tout le monde va sur le site, ça fait planter le site, il n'y a plus rien qui marche.
C'est compliqué.
Et c'est parti.
Et là, nous, on prend un petit cocktail, on attend quoi.
Et on se dit qu'on est pas en train de pourrir la vie à un monteur, parce que c'est vraiment comme vous le disais de tout à l'heure,
les pires trucs à éditer, ça à faire.
Ça, c'est bien une excuse de quelqu'un qui dit Zélia.
Non, mais c'était du travail pénible.
C'était pénible, ouf.
Non, mais 10 minutes à pénibilité du travail.
Blanc !
Oh, c'est ton...
Il m'a prévenu qu'il allait le faire un jour.
Moi, je propose qu'on regarde cette leding bar quand même.
C'est quand même...
C'est quand même important.
Oui, ça peut qu'elle...
Alors, attends, voyons, je regarde quand même.
J'allais dire un truc, sinon tu me passes au deuxième et on revient plus tard.
Oui, on peut faire ça.
Ok, pendant que c'est en train de faire la génération,
je vous propose de passer à l'appli suivant,
qui, pour le coup, est installable en local sur votre machine.
Elle s'appelle Better Dictation.
Meilleure Transcription.
Ok ?
Alors, pour le coup, pareil, c'est une appli qui est payante,
mais qui, elle coûte quelques euros.
Je parie qu'à la suite de cette vidéo,
quelqu'un va refaire la même chose en open source gratuitement.
Donc ne vous inquiétez pas, ça va arriver.
Ça va arriver bientôt.
Tu es en train de dire que tu es en train de tuer un business ce soir.
Non, mais c'est une petite appli fait en invité, tranquille.
Mais c'est une appli, c'est pas un abonnement, c'est juste...
Exactement, c'est un hotshot.
La raison pour laquelle je vous la présente,
c'est que c'est un truc qui peut s'installer par M. Mme Toutemonde.
C'est vraiment hyper simple d'accès.
Et ça va vous permettre de gagner énormément de temps
sur l'envoi de vos messages, notamment de vos messages privés.
Si vous êtes sur votre Mac, vous avez le choix entre
taper au clavier vos messages
ou alors utiliser la dictée vocale
mais personne ne fait ça.
Parce que ça marche très mal.
Tout ce qui est un mot un petit peu complexe,
langage métier, globalement, c'est pas ouf.
Et donc on a pris d'habitude de ne pas utiliser ça.
Sauf que un truc que moi j'ai réalisé,
c'est que sur des longs messages,
genre tu prends un particular de 4-5 lignes,
à l'oral, tu peux mettre jusqu'à 5 fois moins de temps
à composer ton message qu'elle écrit.
Il faut vraiment se rendre compte qu'il y a une différence énorme
entre ton temps de dictée et ton temps d'écriture.
Même si tu es le roi du clavier.
Oui, bien sûr.
Or on sait que depuis on a des modèles de transcription
type Whisper V3 qui sont hyper qualifs.
Mais jusqu'à présent, pour les installer,
pour avoir un workflow, une intégration agréable
dans tes messages, dans tes DM, Twitter,
dans ton Discord, ton Slack, tout ça,
c'était un peu de galère.
Jusqu'à better transcription.
Vous l'installez sur votre Mac.
Peut-être que tu peux nous trouver le site
pour voir quelques images.
Ou alors...
Oui, parce que si j'ai fait une des mois après,
monte d'approche le site.
Je m'en profite pour merci Bastille, pour le Red.
Mente juste la home page si tu la trouves.
Et sinon le petit screen rec que j'ai fait.
Je ne vais pas vous spoiler,
parce que c'est le visuel qui compte.
Parfait.
Le principe est hyper simple.
Vous allez avoir un raccourci clavier
que vous pouvez maintenir
en même temps que vous parlez,
pour faire une transcription.
En fait, ce qui est cool, c'est que c'est un push-to-talk.
T'es en train de répondre à un DM sur n'importe quel appli,
tu maintiens ton appli.
Tu raccourcis le clavier et tu te mets à parler.
À partir du moment où tu as retiré ton doigt,
il commence à transcrire ton message.
C'est vraiment très rapide.
Ce qui fait, c'est qu'il va mettre un petit listening
avec 3 petits points.
Peu importe là où est ton curseur.
C'est ça qui est cool, c'est que c'est un appli
n'importe quel endroit.
Ça écrit listening 3 petits points.
Et tu le retires, ça affiche la transcription.
Rien ne vaut une démonstration.
Pour vous montrer, commencez.
J'ai enregistré ça littéralement il y a 2 minutes.
C'est pour ça que j'étais en retard tout à l'heure.
Je vous propose de regarder ça avec du son, c'est possible.
Ceci est un test.
Je suis actuellement en train de rédiger
un très long message qui m'aurait pris vraiment très longtemps
à écrire.
Et cette émission vient de commencer
et je vois qu'ils sont en train de meubler
pendant que moi je prépare mes illustrations.
Voilà.
Ce message est bien long.
1, 2, 3.
Ça va.
Dernier.
Une taille.
C'est trop bien.
C'est bien.
Regardez la qualité.
Je crois qu'il n'y a pas une faute.
Il n'y a pas une faute.
Et là vous avez vu, il y a eu un petit temps de latence.
Ça vient du fait que j'utilise le plus gros des modèles.
Si vraiment vous êtes quelqu'un de pressé,
vous pouvez utiliser un modèle plus petit,
whisper medium par exemple.
Moi je veux que mes messages soient pixel perfect
ou m'email parce que c'est trop bien probable.
Oui, plus ça prend du temps, plus c'est efficace.
Ok, j'ai le temps.
Exactement.
Et voilà, c'est tout simple.
Il n'y a rien de plus à expliquer.
Ça marche en local sur votre machine.
Il n'y a pas besoin d'internet.
Exactement.
Le whisper était chargé.
Il n'y a pas besoin d'internet.
C'est bien.
Ça marche sur n'importe quel appui.
Combien de giga le modèle ?
4 gigas peut-être.
C'est trop bien.
J'ai vu coming soon to windows en plus en haut de leur site.
Ah bah très bien.
Là c'est sur Mac, il y a marqué bientôt sur Windows.
Je vous le disais, celui-là il est payant
mais vraiment le concept n'est pas si complexe à coder.
24 dollars.
Si quelqu'un...
Ça va.
24 dollars à vie, il y a marqué.
Ouais, c'est ça.
Si quelqu'un veut l'arrêter, implémenté, n'hésitez pas.
Ouais, même...
Ça va, hein.
Ça va, c'est pas du tout.
Oui, mais on est d'accord, c'est pas un abonnement, ça va.
Au-delà de juste t'aider à écrire des mails et tout,
parfois, écrire un message,
tu vas ordonner ta pensée d'une manière.
Votre créatif, je veux dire.
Il faut que la personne comprenne ce que je veux lui dire.
Mais il y a des fois, moi, j'ai pété,
j'utilise beaucoup cette fonction speech-to-texte avec chat-jpt,
je lui donne toute mon idée,
sans réfléchir.
En plus, je sais que c'est une machine qui va recevoir mon merdier,
donc en fait, je lui dis tout à l'oral, je lui ai écrit tout,
c'est pas ordonné, c'est pas bien fait, etc.
Mais lui, il remet tout en ordre, il a tout compris.
Et c'est une manière de poser une réflexion différente
que juste de l'écrire, en fait.
Ça te fait vraiment penser différemment, je trouve.
Surtout que là, quand vous l'avez vu,
toutes les virgules seront bien placées.
Il n'y a pas une faute d'orthographe.
Tu gagnes aussi un temps fou à ce niveau-là.
Et ce que quelqu'un a relevé dans le chat,
c'est qu'il avait tenté de coder la même chose il y a un an,
mais que pour une phrase, ça prenait une minute de faire la transcription.
Et là, maintenant, depuis cette époque-là,
on a eu une amélioration des outils,
une accélération de matériel, etc.
qui, même sans GPU,
permettent de faire ce genre de choses en quelques secondes
sur n'importe quelle machine.
Moi, j'ai un MacBook Intel,
je serais curieux de voir si ça fonctionne.
Je pense que ce sera plus loin.
Ça sera évidemment plus loin.
Mais je pense que ça marcherait quand même.
Tu nous diras.
Autre petite cas d'application.
En ce moment, je lis un bouquin qui n'est pas sur ma Kindle.
Et moi, j'adore prendre des notes
en permanence dans une Kindle quand je lis et tout.
Et là, comme c'est un bouquin normal,
je ne peux pas prendre des notes.
Alors du coup, je peux utiliser ça
pour citer la phrase du bouquin avec la page.
Et voilà, ça sera bien, ça sera cool.
Il y a quelqu'un qui disait,
c'est adapté si tu sais ce que tu vas écrire,
mais en fait, même pas forcément.
Effectivement, j'ai remarqué quand tu es en train de parler,
parfois tu te t'arrêtes au milieu, tu bugges.
Mais c'est pas grave, en fait.
Tu continues à maintenir ton truc,
tu réfléchis une minute si tu veux.
Il saura te faire ta transcription nickel à la fin.
Donc pas d'inquiétude à ce niveau.
Mais c'est vrai que dans les premières fois, c'est stressant.
Tu ne veux pas laisser, tu es stressé.
Mais en fait, quand tu prends le pli,
tu sais que tu peux prendre ta pause,
t'es pas obligé de mettre des E ou quoi que ce soit.
Et il capte trop, c'est trop bien aujourd'hui.
Parce qu'à une certaine époque,
les transcriptions marchaient comme ça.
Si tu t'arrêtes et tu es en panique,
d'où le génie de cette petite interface push to talk
qui résout tous ces problèmes.
Il y a quelqu'un qui a dit
« Vous venez d'augmenter la rapidité de mon workflow,
ça sera implémenté dans ma boîte des deux mains.
Oui c'est l'huit un peu flippant, tu vois en mode.
Ok, mais vous...
Ben non, mais honnêtement, je trouve que c'est le genre d'outil
qui devrait être par défaut maintenant dans
à peu près toutes les machines.
Les iPhone, ils ont un truc comme ça,
mais ça marche beaucoup moins bien.
Donc le jour où ça sera enlatif dans l'iPhone,
tout le monde le rend.
Rien à voir.
Je crois que la génération est bientôt finie,
mais je vous propose de faire juste mon application suivante.
Et on ira voir ça juste après.
La suivante, elle s'appelle Oliama.
Peut-être que vous en avez entendu parler.
Oliama, ce mot vous dit quelque chose
si vous vous suivez un petit peu l'intelligence artificielle
depuis récemment, c'est le modèle de Meta,
un des premiers concurrents de chat gpT
qu'on avait couvert,
qui avait fait beaucoup beaucoup de bruit il y a quelques mois.
Depuis il y a eu un florilège de nouveaux modèles,
c'est très intéressant.
La plupart d'entre vous, je pense, sont perdus
parce qu'il y a trop de choses,
trop de nouveautés tout le temps,
et vous en avez marre d'avoir ce train qui avance sans vous.
Eh bien dites-vous que Oliama,
c'est l'appli parfait si vous avez un Mac
pour gérer vos modèles justement,
pour enlever toute la friction
sur le fait d'installer un nouveau modèle
et de l'utiliser.
Pourquoi ?
Ce qu'il faut bien comprendre, c'est que le génie de Oliama,
c'est pas que c'est une application sur Mac facile à installer,
c'est surtout qu'ils ont inventé une syntaxe.
Si vous êtes développeur,
vous connaissez probablement Docker par exemple.
C'est un moyen de créer des sortes de machines virtuelles,
des conteneurs de manière déterministe.
Ça c'est hyper important,
ça permet à n'importe qui dans un fichier
de décrire un projet
qui va avoir un certain nombre de dépendances, etc.
Je vais pas me lancer dans l'explication de comment on va, d'accord ?
Mais dites-vous que le génie d'Oliama, c'est qu'ils ont inventé
une nouvelle syntaxe
pour décrire un modèle unia qui tourne en local.
Et donc ça, c'est un peu une fondation
qui leur permet après d'avoir une gestion des modèles
comme si c'était des dépendances de développeur.
Alors si vous n'êtes pas développeur, vous vous dites
comme des paquets.
Voilà, comme des paquets, je dis juste comme ça.
Si vous n'êtes pas développeur, vous vous demandez bien à quoi ça peut servir ?
Et bien, en une simple ligne de commande,
on fait Oliama Run Mistral par exemple,
dans son terminal.
Et hop, on se retrouve à parler avec Mistral.
C'est tout.
Et c'est lui qui s'est chargé automatiquement
d'aller télécharger le modèle dans sa dernière version,
de l'installer en local
et de garder un serveur toujours ouvert derrière.
Vous pouvez avoir accès à une liste très très longue de modèles
qui sont mis à jour constamment.
Et le plus intéressant, c'est que c'est un service
qui tourne toujours en tâche de fond.
Si vous avez testé quelques applications
pour utiliser un des chat GPT locaux,
comme il y a Studio LM,
il y en a plusieurs d'unis comme ça qui sont très bien,
ils ont tous un problème, c'est qu'ils réinventent tous la roue.
C'est à dire qu'ils se mettent, ils intègrent tous leur propre
leur propre système d'inférence, leur propre système de téléchargement de modèle.
En fait, on est dans une nouvelle ère
où on va avoir plein d'appli qui vont utiliser des IA local.
Ça, c'est sûr que ça va arriver.
Et on est tous en train de réinventer la roue constamment
et dans chaque appli télécharger des clones de modèles
et d'avoir des copies de la petite brique qui fait les inférences.
Et ça, c'est du gâchis, c'est hyper dommage.
Et surtout, ça ne permet...
C'est pas du tout pérenne comme système.
Au Liyama, ils arrivent et disent,
on arrête tout ça maintenant.
Maintenant, tout passe par nous.
En gros, c'est ça.
Tout passe par nous.
On n'est plus une brique que tu intègres
dans toi ta petite appli de développeurs qui utilisent des IA local.
On est un système centralisé,
un service qui tourne constamment sur ta machine
et avec qui toutes les autres appli peuvent discuter.
Je ne sais pas si vous voyez la distinction.
C'est plutôt que chacun ait sa propre brique.
Il y a un service qui tourne constamment,
tu le vois dans ta petite barre de menu sur ton Mac,
qui tourne constamment,
qui gère les mises à jour de modèle,
qui gère cette maintenance-là
et toutes les autres appli se mettent à discuter avec.
Et c'est en train de prendre.
C'est-à-dire que tous les nouveaux modèles un peu cool
ne se mettent à utiliser au Liyama,
parce que c'est une fondation super robuste.
Ce n'est pas un truc piton, un peu craquat,
c'est fait en go.
Voilà, le truc est propre.
Et c'est une bonne fondation pour tous les développeurs
et les utilisateurs
qui veulent utiliser de l'IA en local.
Vous allez me dire, ok, c'est cool ton truc,
mais qu'est-ce qu'on peut faire maintenant ?
Parce qu'on est bien content que les prochaines appli soient cool,
mais dès maintenant, qu'est-ce qu'on peut faire ?
Ce que je vous propose, c'est de combiner au Liyama
avec Recast, par exemple.
Recast, c'est une nouvelle appli de ma liste,
c'est simplement un launcher,
une alternative à la barre de recherche sur Mac OS.
Encore une fois, vous allez penser
que cette barre de recherche sur Mac marche très bien,
mais il faut vraiment voir Recast comme
une tour de contrôle
qui vous permet d'interagir avec toutes vos applications
et de lier des raccourcis claviers,
de développer des modules personnalisés sur votre Mac.
En fait, c'est l'outil de productivité ultime
des gens qui veulent être plus fast sur Mac, tout simplement.
J'ai de laissé du rire à expliquer ce que vous avez fait.
Moi, je l'utilise depuis très longtemps aussi.
C'est incroyable.
Il faut ne pas faire une erreur,
c'est de vouloir tout comprendre à Recast au premier coup.
Il faut se laisser surprendre,
tu ne vas pas pouvoir potentiellement découvrir des fonctionnalités dans un an,
et c'est très bien.
Si tu cherches à tout comprendre au début, tu vas être submergé.
Mais en fait, c'est trop bien.
Par exemple, moi, pour écrire mon mail,
je peux noter 1, at, at,
et ça me met pour l'adresse mail.
Ça me rend plus automatiquement.
Ça peut te faire des raccourcis comme ça.
Pour ceux qui connaissent Alfred,
c'est une alternative moderne
qui résout pas mal de problèmes qu'il y avait.
Effectivement, t'as des snippettes comme ça
où tu peux gagner du temps.
Tu as un...
Des fenêtres, tu peux les mettre où tu veux en un raccourci.
T'as un historique de ton presse papier.
Donc si t'as écrit...
T'as copié-collé un truc il y a 3 jours.
C'est incroyable.
Hop, tu recherches dans ta liste et tu retrouves...
Je...
Et tu peux me parler peut-être futile,
mais je ne sais pas comment je m'en passerai maintenant.
Pareil, et tu peux lancer le script.
Et en vrai, c'est trop...
Et peut-être que ça fait un lien à ce que tu vas dire.
Un peu.
Parce que cette fonctionnalité est incroyable.
C'est ça. C'est que si vous êtes du genre
à vous créer des petites automatisations perso, etc.,
mais que vous avez envie d'une belle interface par-dessus,
eh bien plutôt que de... Pareil,
réinventer la roue,
vous utilisez Recast et ça vous fait une interface
parfaite sur toutes vos automatisations, vos scripts.
Et potentiellement,
potentiellement,
si vous voulez automatiser des choses
avec des modèles locaux,
vous pouvez combiner Recast et Olyama.
Et là, ça devient dingue.
Je vous fais une petite vidéo de démonstration
avec 2 exemples vraiment hyper simples.
Premier exemple, imaginez,
vous avez envie de...
de faire rédiger des mails
sans apport aux vous emmerder.
Par exemple, vous êtes hors-tarre
pour vos clients,
ou vous êtes hors-tarre au travail,
eh bien vous avez besoin d'écrire un mail formel,
mais vous, vous avez un peu la flemme
et vous savez que maintenant, ça se fait très bien.
Eh bien, quel est le moyen le plus rapide
de faire ça avec son clavier?
Outre, ouvrir une nouvelle fenêtre,
chatchapeté, écrire le truc,
et la requête se souvenir de comment
il faudra lui demander cette question, etc.
Eh bien, ce que vous créez,
c'est un raccourci Recast,
qui va appeler Olyama
sur un modèle local
pour vous fournir une réponse
et la mettre dans votre presse papier.
C'est de la magie,
franchement, c'est de la magie,
et mon cerveau est trop petit
pour imaginer tout ce qui est possible de faire avec ça.
Et si vous, vous avez des workflow, des idées,
je demande, donnez-les nous,
parce que c'est vraiment, c'est un bac à sable de fou.
La première des mots que je vous montre,
donc c'est...
on a une petite vidéo,
si tu arrives à charger, excellent.
C'est le process.
Donc ça, c'est la fenêtre de Recast
dans laquelle on peut créer une commande custom.
C'est la première fonction
que tu peux démarrer, vas-y.
Et donc c'est là
où on va pouvoir sélectionner le modèle local
qu'on veut utiliser,
ainsi que, voilà, un template.
J'aimerais que tu rédiges un mail
avec un ton formel
qui dit ceci, de point.
Qui explique ceci.
C'est tout.
Voilà, ça m'a pris 4 secondes à créer,
ce qui est quand même un argument important.
Et je me demande juste de signer mon mail
avec une petite signature des familles.
J'ai le CEO micro.
Une fois que c'est fait,
on crée l'extension.
Donc là, je viens de faire un commande d'entrée,
et donc ça a créé le raccourci
qui est que j'appelle
Rédyge un mail please.
Donc là, en fait,
tu paramètres ta commande
pour pouvoir l'utiliser plus tard.
Exactement.
Parce que je n'ai pas compris.
Ça, c'est le paramétrage de la commande.
Une fois que c'est fait,
je peux à tout moment
l'invoquer
simplement dans le casque
en 4 secondes.
Et par exemple, je vais lui demander,
vas-y,
on imagine que je suis par exemple
dans le gmail.
J'écris, je suis en retard boss.
J'ai fait copier.
Non, je n'ai même pas besoin de le faire
pendant que je répète.
J'écris n'importe,
j'écris, je suis en retard boss.
Je sélectionne le texte.
J'invoque Rédyge-moi un mail.
Et il se met à me rédiger
un long mail formel
pour expliquer
à mon entreprise
pourquoi je suis en retard.
Là, il y va.
Il faut dire qu'il est quand même bien verbe.
Tu as fait quel modèle ?
Pendant le travail actuellement
avec toutes nos ressources
pour résoudre ce problème
et réduire le temps de retard.
Non mais,
le temps que ça m'aurait pris
de rédiger,
ça t'excuse ?
Là, tu te fais virer
si t'envoies un mélo.
Sinon, un temps boss.
Alors que tu es en retard,
t'es foutu.
Évidemment,
ce template est perfectible.
Vous avez vu,
il fait qu'une phrase,
il suffirait de l'améliorer un petit peu.
Ce qui est cool,
c'est qu'une fois que c'est fait,
c'est fait une fois pour toutes.
C'est à dire toutes les prochaines fois
où tu pourras en avoir besoin,
t'as plus à te souvenir
de qui elle était,
ton template.
Donc ça, c'est le premier exemple.
Un deuxième exemple
beaucoup plus simple
qui va en plus vous parler.
C'est un système
pour corriger vos photos d'orthographe
automatiquement.
Par exemple,
vous rédigez
une phrase pleine de photos d'orthographe.
Pareil,
juste vous la sélectionnez.
Recourci,
récaste,
corrige-moi
mes photos d'orthographe.
Tu peux avancer un peu, vas-y.
Tu peux aller loin.
Et hop.
Alors là, pareil,
il m'a mis un petit...
Vous avez...
C'est à l'effondrement,
vous avez pas vu.
La phrase, c'était...
Je l'ai oublié.
Voilà, la phrase,
c'était juste plein de fautes.
Il me l'a changé
en plein de défaut,
en rajoutant le petit S, etc.
Là, pareil,
il se trouve que mon prompt
n'est pas très optimisé.
Il faudrait que je lui demande
de sortir uniquement mon résultat.
Bref,
je referai l'ilu
pour la VOD.
Mais,
la même chose,
en 4 secondes,
vous pouvez même le bindé
sur un raccourci-clavier
et faire en sorte que...
Voilà, vous êtes en train
de rédiger un mail,
vous faites sélection
raccourci-clavier.
Toutes vos fautes sont corrégées
avec une vraie intelligence,
c'est pas un autocorrecteur de merde.
Tout ça sans aucune friction
en local, sans internet.
C'est quand même de la magie noire, non ?
Oui, de ouf.
Franchement, c'est très très cool.
Vous êtes en train
de changer un petit peu
ma perception de récaste
parce que j'ai un sécleré-caste,
mais moi, mon seul retour d'expérience
que je peux vous faire,
c'est que ça me fait chier
tous les jours.
Ah ouais ?
Pourquoi ? Parce que moi,
j'entends toute la régie
criée, etc.
Parce qu'en fait,
moi, un des trucs que j'ai utilisé
le plus avant,
c'est la recherche,
Spotlight.
Rechercher un document
dans mon ordinateur,
je faisais Command Space,
ça m'ouvrait le truc
qu'il y avait avant récaste, quoi.
Et je tape directement
mon nom de fichier
et ça me mettait
la liste de mes fichiers.
Et aujourd'hui,
il faut que je tape files d'abord.
Mais tu boulpes par amêtrés, ça.
Exactement.
Tu peux faire un raccourci
qui vous file direct, tu vois,
par exemple.
Mais tu sais que, par exemple,
fût un temps dans l'émission,
quand je changeais les titres
des émissions en live
en fonction du sujet,
je m'étais fait un truc
Raycast,
où je mettais Title,
Tab et je notais le nouveau titre.
Et parfois,
je l'avais même préchargé
et tout.
En fait, tu peux faire plein de...
Et ça a appelé un script
derrière.
C'est sûr, c'est puissant.
Et pour te...
Je sais pas si tu veux un retour
d'expérience sur Olima,
ou tu veux qu'on enchaîne.
Non, non, non.
J'ai testé Olima, pour le coup.
Parce que ça a l'avantage,
contrairement à un studio LM, je crois,
d'être justement supporté
sur les Mac Intel.
Ah oui.
Il n'est nécessairement un Mac M1.
Et j'avais essayé avec Mistral.
Donc du coup,
il faut dire aux gens
que c'est de la ligne de commande.
Sauf s'ils voulaient intégrer la Raycast.
Mais c'est ça,
parce que moi, je le vois pas
du tout comme un truc
que tu utilises direct en général.
Mais moi, je l'avais essayé comme ça.
Et ça fonctionne.
Mais c'est quand même très lent.
Donc ça fonctionne.
Enfin, je l'utilise pas au quotidien.
Ça fonctionne mal,
parce que c'est très très lent.
Mais...
Mais on va te...
Tu sais qu'on a des Mac Midi M1
qui te dorment.
J'ai faudé juste le déploiement.
Tu fais encore un main
à un Intel VTL.
Non mais parce que j'en ai pas besoin.
Et juste,
depuis ce jour-là, je dis
j'ai peut-être envie d'avoir un M1.
Mais j'en avais pas besoin.
Après cette journée,
tu vas changer.
Mais du coup,
ça m'a assez trop bien, Olima.
Je comprends.
Je vous propose
de voir les résultats quand même.
Alors,
est-ce qu'on a eu des TikTok Viro ?
Est-ce que,
grâce à cet outil,
nous allons faire
un buzz interplanétaire.
C'est maintenant
les résultats.
Smartphone DIY,
à l'aide de composants open source.
Ok, donc il a bien compris le sujet.
Et là, il nous met un score
de viralité de 80 sur 100.
Est-ce que c'est bien ou pas ?
J'ai pas mal.
Ouais, 80, c'est pas mal.
Surtout que, en général,
il dit, ouais, c'est en français.
Donc déjà, de base,
ton score de viralité,
il descend un petit peu.
Comme t'es pas américain.
Ah oui.
T'as ça qui descend un peu.
Ah, c'est logique.
Donc c'est pas mal.
C'est un bon score.
Par contre, à l'heure des charges,
vous avez un cadre-rage un peu vraiment spécial
pour votre truc.
Donc là, son cadre-rage,
il l'a fait parce qu'ils ont des cadrages automatiques
qui marchent bien,
la majeure par suivant.
Mais vous, là, avec votre layout,
il y a moyen.
Bah voyons, on voit ce que ça donne.
Salut.
Si vous appréciez un score,
vous pouvez nous aider de ouf.
En mettant 5 étoiles sur Apple Podcast,
en mettant une idée d'invité
que vous aimeriez qu'on reçoive,
ça permet de faire remonter un score.
Telle une fusée.
Ça, c'est un truc qui fait
avec des composants
qui peuvent s'acheter sur Internet.
Le projet qui open source.
Donc théoriquement, moi, chez moi,
si j'ai une imprimante 3D
et que j'achète les bons composants,
je peux refaire le téléphone.
Exactement.
Normalement, il est chargé.
On va voir si jamais il va démarrer.
Très dur.
C'est franchement.
C'est juste très zoomé.
L'interface est très cool.
Voilà.
Franchement, c'est joli.
Il faut, alors,
il faut taper avec des ongles
parce que c'est un écran résistif.
Et oui, malheureusement.
Alors comment on revient, on a rien.
Absolument.
Donc c'est vraiment beaucoup moins cher.
Je croyais.
Mais dans le futur,
dans la suite de l'histoire.
On va y arriver.
C'est trop fort.
Je l'ai coupé un peu avant.
Regarde, justement.
C'était pas encore fini.
Non mais clique sur
edit export maintenant.
Edit là.
Et ici, regarde.
C'est mes potos.
Il faut que je refasse
une belle démo.
Là, tu vas dans video,
en fait,
le tag vidéo,
là en haut à gauche,
voilà, ici.
Et là, du coup,
Mike, tu peux rajouter
du texte au-dessus
ou tu peux en enlever en dessous.
En fait, t'es quoi ?
Comme des clips.
Tu viens retravailler un petit peu
ton script.
Mais sur le texte, directement.
Ouais, là, sur le script.
Si tu sélectionnes du texte au-dessus
et que tu fais clic droit
ou tu...
Je sais pas quoi.
Non, pas clic droit.
Juste tu cliques sur le texte
que tu as sélectionné.
Exactement.
Il va te proposer
de faire ad, par exemple, tu vois.
En bas, tu as une timeline.
Tu peux agrandir
ou pas le truc.
Je pense que tu dois sélectionner
un texte
et faire ad dessus.
Et sinon après,
si tu vois,
si tu n'es pas satisfait
des cadrages qu'il a fait,
tu vas dans l'onglet crope, là-haut, là.
Pourquoi je gueule ?
Il t'entend.
Il t'entend.
Et en fait,
pour chaque tronçon en bas,
regarde,
alors,
pour chaque tronçon,
tu as tes cropes
et tu peux choisir...
Il faut que j'arrête de gueuler,
tu fous.
Tu l'ençois une chaîne de tuto.
Et en fait,
tu peux déplacer les petits points.
Arrête de me crier dessus,
Benjamin,
je t'en fends très bien.
Je suis un monstre.
Alors,
tu peux déplacer les petits points
que tu as dans la vignette
en haut à gauche.
Et ça,
c'est ton cadrage, en fait.
Voilà.
Donc tu peux...
What the fuck ?
Wow.
Tu peux retravailler chaque plan.
Mais...
C'est trop malin.
Par exemple, je l'aurais désommé un peu, oui.
C'est trop malin.
Mais c'est trop malin.
Ils ont très bien bossé,
ils ont très bien bossé, les gars.
Et surtout pour préciser,
le choix
des phrases,
de la première phrase du TikTok,
c'est le moment le plus important.
C'est ça qui fait tout
dans cet algorithme fou.
C'est ça.
C'est super bien pensé.
Je trouve comme début d'histoire,
en sachant que nos vidéos
s'y prêtent pas forcément,
parce que souvent,
on fait des longs tunnels,
des discussions
qui évoquent un même sujet
pendant très longtemps.
Et j'avoue,
je suis assez épâté
du résultat.
C'est bluffant.
On va le publier sur TikTok.
Et on verra.
Tu en verras.
On verra, c'est à marche.
Moi, ce que je dis
de mon expérience perso du truc,
malgré tout,
il y a toujours un petit peu
de retravailles
sur le premier G qui te file.
Mais ça te simplifie
déjà tellement la tâche de base
que après,
tu as 10 minutes par TikTok.
10 minutes pour faire un TikTok,
ça va, c'est...
Je sais pas.
J'ai l'impression que ça donne envie
de poster des TikToks.
Moi, de, OK, si c'est juste...
Si c'est juste ça, ouais.
M'amuser avec une petite interface
et tout,
et faire en sorte que ce soit cool,
tu les prends les 10 minutes.
Alors que faire le processus
de créer des TikToks?
Question intéressante du chat,
tu dirais que ça mettrait
combien de temps
de faire ça normalement
pour un menteur
ou pour toi?
Ah, pour un menteur
ou pour toi?
Pour moi, mais c'est
un job vraiment infernal
parce que déjà,
il faut que je me retape
une heure de live.
Déjà, pour essayer
et à noter,
pour dire, ah là,
j'ai dit un truc un peu intéressant.
Déjà, horriblement chiant.
OK, après?
Bah ensuite,
isoler 10 passages
qui te semblent OK.
Ensuite,
faire le cadrage
et le coupage,
le cleaning
de tous les E,
et machin,
tu clean et tout.
Après, foutre les sous-titres
là-dessus,
c'est d'une chienteur absolue.
C'est le passage le plus chiant.
Il y a des petites couleurs,
ces petits mots.
C'est trop chiant, c'est trop chiant.
Et non, une éternité,
générer un seul TikTok
comme ça,
sans ces tout-là,
ça peut prendre une heure, quoi.
En fait, je pense qu'il y a une grosse différence
entre s'il n'y a pas de monteur
de base du tout
ou s'il y a un monteur,
par exemple,
qui monte l'intégralité
de ton podcast.
En fait, rajout,
par exemple,
je sais que pour les actus du jour
de GoD,
je sais plus comment ils font aujourd'hui,
mais la personne
qui montait les actus du jour,
à la fin,
ils faisaient un ou deux TikToks,
et en fait,
quand tu as déjà monté
les actus du jour,
ça te rajoute quoi?
20 minutes?
15 minutes.
Il avait quand même le somme
de mettre les sous-titres.
Ah oui, ça, c'est universel.
Oui, mais du coup,
je pense que ça dépend vachement
de s'il y a de base en monteur
selon l'intégralité
de ton projet ou pas.
Sans plus attendre.
Alors attend 2 secondes,
parce que juste, je regarde le 2e,
là, mais c'est trop fort,
la 1re phrase,
elle te hooke tout de suite.
Mais oui!
Attends, c'était quoi,
déjà la 1re phrase?
Là, il parle du 2e.
Du 2e, je vais dire.
Oui, toi.
On revient à Gabriel
quand il avait 13 ans.
C'est plutôt petit, en tout cas,
j'ai toujours été intéressé
par la technologie.
C'est pas trop fort.
C'est pas mal.
Alors moi, perso,
celui-là, je le réditerai,
je sortirai le passage
de Mickod.
En fait, je commencerai là,
là où le gars, Gabriel,
parle, en fait.
Parce qu'on s'en fout
que Mickod, tu fasses une passée.
Dans l'effet, effectivement.
Pour les 1res secondes
du TikTok, c'est pas très rentable.
C'est pas souver.
Vous avez des petits cours de...
Des cours de stratégie TikTok?
Ah, tu vas dire, OK.
Désolé.
Sans plus attendre,
je vous propose de passer
à l'outil suivant.
C'est sûr que vous avez déjà eu besoin
d'un truc de ce genre
par le passé
et vous avez demandé
mais où est-ce quel truc
je pourrais utiliser?
Pourquoi il y a des paywalls
partout pour faire ça?
Alors que ça paraît
pas si compliqué.
C'est de retirer
le fond d'une photo
ou d'une image.
Vous connaissez tous
RemoveBG, par exemple,
ou des trucs comme ça.
C'est que des services
ou alors Photoshop, évidemment,
c'est faire ça.
C'est que des services
qui vous proposent d'enlever
le fond d'une image,
de faire un détourage de qualité.
Avant, c'était horrible.
Maintenant, avec l'IA,
c'est moins horrible
mais j'ai pas compris
pourquoi, pendant encore des années,
il y avait beaucoup de services
mais ils étaient tous un peu complexes
et ils te faisaient souvent
très payer
si tu voulais avoir
de la bonne résolution.
Et bien, j'ai une annonce
à vous faire, si vous êtes
concernés.
C'est que depuis
à peine quelques jours
est sorti un modèle open source
qui fait du détourage hyper cali.
Donc, c'est pas Adobe,
c'est pas des stabilités,
c'est pas des grosses boîtes
mais un modèle ouvert,
gratuit et sorti
qui permet de faire
du détourage super cali.
Et tout le monde peut l'utiliser
là de chez vous,
directement dans votre navigateur
avec cette petite démonstration
de HuggingFace.
Tu peux directement
aller cliquer sur le...
Je vois où c'est clean.
C'est eux qui l'ont fait
de la vidéo.
Désvelopper.
C'est juste qu'ils les disposent
sur HuggingFace ?
Non, non, ils les disposent
via...
Tu sais, c'est les...
Oui bien sûr.
...fascinats de la vidéo.
Mais non, c'est fait par...
Briaï.
Ah, OK.
Et ils en sont pas à leur coulisserie.
Ils ont fait pas mal
d'autres modèles.
Mais c'est pas le plus impressionnant
dans le sens où
c'est de l'édition d'image,
quoi, ça fait longtemps
qu'on sait le faire.
Mais c'est quand même bluffant
par la qualité
du résultat.
Donc là, vous pouvez voir
que les petites ombres,
les petits cheveux,
tout ça est super bien détouré.
Et je répète,
c'est Open Source.
Vous pouvez l'intégrer
dans n'importe lequel
de vos produits.
Si vous voulez juste l'utiliser,
vous pouvez prendre
cette interface-là directement.
Et je...
J'étais heureux.
J'ai vu ça, je t'en m'en...
Ben génial.
Encore une nouvelle brique
dans l'arsenal Open Source
qu'on a tous à notre dispo maintenant.
C'est n'importe quoi.
Et qu'on utilise et qu'on pille
pour créer des sas.
Ouais.
Et peut-être que tu vas faire
l'Open Source dans un an ou deux
grâce à tout l'argent
que tu as gagné dans ton sas.
Bien sûr.
Je ne sais pas.
Mais souvent, c'est des sœurs
comme ça, c'est des business
qui marchent plutôt bien
et qui se mettent à dire,
bon, là, cette brique-là,
ok, maintenant on la met
Open Source.
Et ça fait très plaisir.
T'es tout.
Non mais c'est une afflite tout.
C'est tellement simple
qu'il n'y a pas de besoin d'or.
Exactement, il n'y a rien d'autre
à expliquer, juste.
Ça fait quelque chose que
dont tout le monde a besoin
régulièrement,
ça le fait bien,
sur du GPU
de relativement petite taille.
Et ça fait trop plaisir.
Mon projet suivant,
pour le coup, est bien plus complexe.
Là, vous allez voir,
on commence à rentrer
dans des outils
qui vont seulement intéresser
les plus motivés d'entre vous
et ceux qui ont
des grosses grosses envies
d'automatisation.
Ok.
Peut-être que vous avez
déjà vu des interfaces
nodales
qui permettent de créer
des sortes de graffes
logiques
entre différents nœuds.
Ok.
Bon, c'est la fameuse
programmation visuelle.
Je vous avais parlé
de N8N à une certaine époque,
mais c'est tous ces systèmes
qui permettent à n'importe qui
de programmer
avec une interface graphique.
C'est plus joli.
Moi, je comprends.
Ça permet d'aller un peu plus vite
si on ne s'est pas développé,
etc.
Même si on sait, d'ailleurs.
Et depuis un certain temps,
des interfaces de styplas
existent pour l'IA.
Et en gros, la promesse,
elle vous dire,
on te file une brique
chaljpt,
une brique d'ali,
une brique
de détection d'objet,
une brique de transcription.
Et avec tout ça,
tu peux...
C'est un bac à sable.
Tu fais ce que tu veux.
Tu peux connecter
tous ces nœuds ensemble
pour automatiser ton travail
et partir au bas à masse.
Et faire une vidéo
comment le no-code m'a permis
de gagner...
Exactement.
40 000 euros par mois.
Exactement.
Le problème,
spoiler,
la plupart de ces outils
sont nuls.
En tout cas,
moi, je ne les aime pas.
Je vais m'expliquer.
Je vais défendre ma tech.
Mais typiquement,
des longues flows,
des choses comme ça,
on peut vous montrer
à quoi ça ressemble.
Ils ont toujours des pages
de landing page super sexy,
ces gens.
Ils ont toujours des interfaces
qui sont très lèchées.
Et pourtant,
moi, je défend que
ça ne me satisfait pas.
Pourquoi ?
Parce qu'en général,
on va devoir rentrer
un petit peu dans la technique,
mais vous allez voir
que c'est intéressant.
Ils sont basés
sur des gros, gros framework,
comme on appelle,
c'est des librairies
pour développeurs
qui sont en piton
et qui sont un peu tentaculaires,
qui essayent de tout faire
en même temps,
comme Longchain, par exemple,
pour ne pas les mentionner.
C'est très bien.
C'est un bon bac à sable.
Mais le gros problème
de créer des systèmes
comme ça,
c'est que c'est peut-être
là où
vous n'allez pas celer ton temps,
vous allez travailler,
vous allez créer des automatisations
qui ont potentiellement
beaucoup de valeur
pour vous,
pour votre travail,
pour votre entreprise,
pour vous, pour gérer votre vie.
Et donc vous avez envie
de construire sur du rock,
quoi.
Pas sur un truc un peu pété
qui risque d'exploser
la prochaine mise à jour
ou qui marche une fois sur trois.
Et le problème
de la plupart de ces outils
c'est que du coup,
ils sont basés sur piton.
Et pourquoi c'est un problème ?
Parce que piton a été
utilisé dans l'IA
et devenu le langage
par défaut de l'IA
parce qu'il est extrêmement
compréhensible
et facile à prendre en main.
Ça ressemble,
rien ne ressemble
plus à de l'anglais
que piton, finalement.
Et donc pour une audience de chercheurs
en intelligence artificielle
qui ne sont pas des développeurs,
c'est parfait
pour qu'ils puissent manipuler
les concepts qui connaissent,
mathématiques
ou de recherche,
sans avoir
la lourdeur
des langages plus bas niveau.
Et donc,
pour faire tourner
des modèles d'IA
sur des serveurs
dans le Claude,
par exemple,
ça ne pose pas vraiment de problème,
on sait gérer cette complexité
de déployer des modèles
de piton, des choses comme ça.
Mais, mais, mais,
pour
l'air d'aujourd'hui,
qui je le répète,
est lié à le local,
ce n'est pas adapté du tout.
Piton n'est pas du tout fait
pour être déployé
sur des, sur des appareils
en local à grande échelle.
Ça n'a pas vraiment été pensé pour ça.
Il y a des stratégies
qui permettent de,
là, typiquement,
dans les applis qu'on a cités,
ils auraient pu essayer de,
voilà, de,
de,
de tordre le langage,
on va dire,
d'utiliser des technos spécifiques,
genre,
je ne sais plus comment elle s'appelle,
PIN, STAL,
ou des choses comme ça,
qui permettent,
voilà, de faire une sorte de,
de gros sacs
où on, où on met piton,
littéralement,
le langage entier dedans,
pas le serpent,
et, et pote-code,
et les trucs, c'est, c'est,
en gros, c'est dégueulasse.
C'est, c'est possible, mais c'est dégueulasse.
Il ne faut pas faire ça.
Et, et donc,
on se retrouve
dans une situation terrible,
qui doit vous concerner
si vous êtes intéressés
par l'IA et l'IA local.
C'est que,
il y a une ébullition,
il y a une ébullition,
il y a plein de nouveaux modèles partout.
Tout le monde a des idées
d'appli de, de choses à faire,
mais, on n'a pas du tout
la base, l'architecture,
qui permet
de proprement déployer
des applis de ce genre
à grande échelle
sur des machines
de façon optimisée et propre.
C'est, y a un,
y a un vrai manque à ce niveau-là aujourd'hui,
tu veux commencer
en tant que développeur
à créer une appli révolutionnaire
pour Mac, ou pas,
ou sur Windows,
ou sur Linux
pour, pour, pour,
pour, pour, pour, pour,
pour revolutionner.
Je sais pas quoi, avec de l'IA local.
Tu es un peu niqué
et tu peux pas utiliser
des, des applications comme ça,
des, des systèmes de graphes
qui, qui vont te faciliter la vie.
Cette, cette longue introduction
a été importante
pour vous présenter
le projet
du jour
Flonéum, ça s'appelle.
Alors Flonéum,
vous allez voir,
attention, je vous préviens,
ça ne paye pas de mines.
Donc, l'interface
est immonde.
C'est ça.
Oh, je vous ai attendu à pire.
Tu as tellement...
Non mais, objectifement,
l'interface est assez infâme
à utiliser.
Mais comme vous pouvez le voir,
on garde ce principe de graphes
à gauche
sur lesquels on peut
éditer des entrées,
des sorties, des choses comme ça.
Donc par exemple,
tu peux avoir demandé
de, à, à un ministral
de générer du texte
en local.
Après, tu peux demander
de, de faire une recherche
sur Google,
toujours en local,
c'est à dire que c'est vraiment
le logiciel
qui fait la recherche en arrière-plan.
Tu peux demander d'ouvrir Chrome,
par exemple, et de charger
une page si tu as besoin
de faire ça.
Tu peux demander
d'écouter un son
et de faire de la transcription.
Tu peux demander d'analyser
une image,
après tout, les fondamentaux
de l'IA moderne.
Et ce qui est,
pourquoi ça,
ça est différent de tout le reste
que je vous ai montré
et pourquoi, en réalité,
c'est pas sa interface
qui est le plus important,
mais c'est ce qu'il y a
derrière qui, je pense,
pourrait intéresser
énormément
de développeurs par la suite.
C'est que tout ça
est développé
en Rust.
Ah, la passion du Rust
qui revient.
Tout ça donc se passe
de manière 100% locale,
avec, je vous l'ai dit,
des technologies
faites pour être utilisées
sur des appareils
de toutes à chacun,
de façon optimisée.
Il n'y a pas forcément
besoin d'un GPU,
donc vous pouvez comme ça
publier votre application
pour vraiment tout le monde,
même sur mobile, potentiellement.
Il y a un écosystème de plugin
qui va avec cette interface
de graphes.
Donc tu vas,
ces petits modules,
demain toi,
tu peux peut-être inventer
un nouveau module
qui permet
avec une IA
de détecter si il y a un sponsor
dans une vidéo, par exemple.
Tu pourrais publier
un module
que tous les utilisateurs
de Flonéum
pourraient intégrer
dans leur graph.
Je vous passe les détails,
mais si vous êtes
un développeur
sur ce jour de techno,
il y a tout ce qu'il vous faut,
des systèmes de base de données
qui vous permettent
d'ingérer des articles,
des PDF, des choses comme ça.
Bref, c'est un bac à sable
assez complet.
Je ne vais pas vous mentir,
c'est une alpha.
C'est vraiment une alpha
de alpha ne pensez pas
pouvoir l'utiliser
là-demain.
C'est un truc
à surveiller, à se mettre
dans les favoris
et à voir
dans 6 mois
à quoi ça va ressembler.
Parce que
ce qui est le plus intéressant
dans le projet,
ce n'est pas cette interface
par-dessus.
C'est tout ce qui a derrière,
en gros, c'est toutes les briques
qui sont utilisables
par tous les développeurs
et qui mâchent
le travail
de l'IA.
C'est aussi bête que ça,
mais demain,
là, vous êtes un développeur
Rust
ou autre d'ailleurs.
Vous voulez
d'intégrer
des fonctionnalités
locales
d'IA
qui est un peu
Utilisez
son salibre et réel
et vous allez gagner
un temps fou.
Et c'est clean
et c'est pas du piton
et ça fait plaisir.
Très, très chouette.
Cool, hein.
Ça m'a fait beaucoup rire
d'un moment,
j'ai regardé le chat
et j'ai fait Rust,
incroyable et tout.
Je me suis rappelé
qu'on était le jour
de la Saint-Valentin.
Je dis,
on a quand même
une belle audience
de geek.
Ils se sont tous
exclamés en mode
« Wouah, il a dit Rust,
incroyable ! »
Ça m'a fait un peu rire.
Je vous calme pas.
Trop bien.
La dernière appli.
C'est une appli bonus,
je sais pas si elle va être
gardée, honnêtement.
Je sais pas.
C'est vrai qu'on est pas
du tout à 4,
je sais plus.
Non, non, pas du tout.
On est montés
dans les bonus.
Là, on passe au bonus.
On est des 4, là.
Je me semble.
On verra si on la garde.
C'est une appli
qui monte encore
en complexité,
qui n'est pour le coup
pas un truc
que tu fais
tourner en local
a priori.
Je m'explique.
Peut-être qu'actuellement,
vous êtes en train
d'attendre GPT-5,
patientement,
en mode,
là, c'est cool,
mais il n'y a pas une nouveauté
depuis environ
une semaine, quand même.
Et donc, on attend
une nouvelle révolution
pour moins s'ennuyer.
Peut-être vous êtes
dans cette situation
et que vous trouvez que
les LLM ne sont pas
au niveau pour
telle ou telle tâche
de
que vous vous drier,
automatiser.
Et bien, ce qui veut,
ce moment-là,
ce moment,
enfin, quand vous arrivez
à ce moment-là,
c'est qu'il faut commencer
à faire des fine-tunes.
Voilà, c'est vraiment,
c'est vraiment
ce qu'il faut faire.
Mais peut-être que vous vous dites
qu'il faut des millions
pour faire du fine-tuning.
Donc, pour
prendre un modèle
et continuer
à l'entraîner
sur vos propres données
pour qu'ils deviennent
encore plus,
encore plus forts,
vous pensez peut-être
qu'il faut des millions
et en fait,
pas forcément.
Il n'y a pas nécessairement
besoin de GPU immense,
notamment grâce
à une technique
que les gens qui font
du stable diffusion
ou des choses comme ça
connaissent très bien.
Ça s'appelle le Q-Laura.
Ce n'est pas un jeu de mot.
C'est juste le nom
de la technologie.
Q-Laura,
ça permet
sur un GPU
de petite taille
de faire
une amélioration,
un fine-tuning
de n'importe quel modèle
avec ses propres données.
Vous vous dites
truc de gros barbu,
à priori,
ça va être super
compliqué à mettre en place.
Si vous avez regardé
un peu côté stable diffusion
et tout,
vous savez que
globalement,
c'est un monde
dans lequel on peut se perdre.
C'est très, très, très complexe
à prendre en main,
les outils, etc.
Le projet dont je vais vous parler
là maintenant,
il vous prend vraiment
par la main
dès le début.
C'est-à-dire que là,
vous maintenant,
vous n'avez jamais fait ça
de votre vie,
vous n'êtes pas les ingénieurs
en intelligence artificielle.
Et pourtant,
grâce à ça,
grâce à Unsloss,
puisque c'est son nom,
vous allez pouvoir
partir de zéro
et créer
votre propre modèle
fine-tuné
sur vos données.
J'ai pas besoin
de vous expliquer
l'intérêt de ça.
Ça permet,
beaucoup d'entreprises constatent
que parfois,
fine-tuner un petit modèle
sur des tâches précises,
leur donne les mêmes performances
que GPT-4.
Donc,
pour vous donner
un ordre d'idée de l'intérêt,
il est évident,
mais il y a une barrière à l'entrée,
il y a une complexité
qui, avec ce projet,
est complètement enlevée.
Ils vous prennent vraiment
par la main,
même si vous y connaissez rien.
Et vont vous expliquer
comment générer
des données
qui ont le bon format
pour entraîner
votre propre IA.
Ils vous ont préparé
des Google Collabs,
tout près.
Donc c'est un système de Google
qui permet de faire tourner
du code
sur des GPU
qui,
que vous pouvez louer facilement,
sont même à avoir d'ordis
très puissants.
Tout ça est préparé
pour vous baliser.
Il y a tous les tutos,
tout expliqué.
Et surtout,
ils ont optimisé
à mort
le processus
de fine-tuning
d'apprentissage.
Trop bien.
Il y a pas mal de benchmarks
qui ont été faits.
Entre eux,
le processus lambda
habituel,
les librairies standards
pour faire du fine-tuning,
et Unsloth,
ils arrivent
à faire des fois 1,5
ou 3
sur les vitesses
d'apprentissage,
combinées à des besoins
en VRAM
qui sont beaucoup plus
petits.
Donc là,
on rentre un peu
dans le vif,
dans le cœur du sujet,
mais ce qui vous limite
le plus rapidement
quand vous faites de l'IA,
c'est la quantité
de mémoire de vos GPU,
pas nécessairement
leur puissance.
Parce qu'à limite,
si tu as un GPU
qui est un peu moins puissant,
tu peux juste attendre
plus longtemps, finalement.
La mémoire,
c'est le truc
qui limite tout le monde
et qui fait qu'on est
tous là
à pas pouvoir faire
tourner les meilleurs modèles
parce qu'on a pas des cartes graphiques
avec 40 Giga.
Et donc,
la solution pour ça,
c'est d'optimiser
en utilisant Unsloth
qui vous demandera
beaucoup moins de mémoire
pour faire un même entraînement.
Donc vous n'avez plus d'excuse.
Je veux voir des modèles
créés par la communauté.
Je veux voir des coloras
spécialisées
à faire des choses variées.
Faites des trucs, par exemple,
en français.
Je trouve qu'il manque
pas mal de modèles français.
Il y a des récents
qui ont été publiés
il y a quelques semaines,
dont on n'a pas vraiment parlé
actuellement.
Je trouve que
cette barrière à l'entrée
a trop longtemps
limité
le potentiel
des modèles fin tunés.
Elle a été levée.
Il ne tient qu'à vous maintenant
de faire des modèles
entraînés sur des tâches précises
qui explosent OpenAI
C'est parti.
À vous de jouer.
Mais surtout,
alors tu parlais
de l'efficacité d'un bon modèle
fin tuné.
Il y a aussi le côté confidentiel
ou pour quasiment
énormément de boîtes.
Ils ne veulent pas forcément
faire fin tunés-sap,
en tout cas,
utiliser un GPT-4
même si c'est un très gros modèle.
Ils veulent fin tuner
leur modèle avec leurs documents,
mais principalement
pour des raisons confidentielles.
Et genre, je ne sais pas,
des rapports super complexes
d'appels à projets,
de machins,
des trucs vraiment
un métier super précis.
Oui, tu vas pouvoir lui donner
tout ce qu'ils ont fait depuis 10 ans
et qu'il va pouvoir te prendre
un rapport comme ça.
Moi, j'ai déjà eu des gens
pas techniques qui m'ont dit
OK, maintenant que j'ai un peu compris
comment ça fonctionnait,
il y a et tout,
comment je fais pour fin tuner mon truc.
Ça, c'est le futur.
On est bien d'accord.
Parce que moi,
ça m'évoque des idées
et des optimisations.
Je pense pas d'une potentielle
dans tout prix.
Avec ça.
C'est cool.
C'est très cool.
Et le chat,
poser une question importante,
à savoir le prix,
il y a bien tout ça.
Et parfaitement,
Open Source,
vous pouvez le faire tourner
sur vos propres machines
ou alors sur un Google Collab.
Ils ont une version pro, je crois,
où ils poussent encore plus loin
certaines optimisations, etc.
Ils peuvent le faire tourner pour nous, non ?
Est-ce qu'ils ont des carnet graphiques
en location...
C'est une...
Voilà, c'est le Unsloth Pro, justement,
où ils vont pousser encore les optiers
et ils vont vous accompagner
encore plus loin.
Mais, honnêtement,
déjà avec le repo GitHub,
tout simplement, avec le...
Ça, c'est un vrai artisan.
C'est à dire qu'il peut tester
avant de faire de la merde
avec des petits documents comme ça,
tu mets comme ça, vieille.
C'est ça.
Provaient.
Voilà, c'était 5 projets.
Incroyable.
Mais si je dis ça,
après, il faudra plus...
Il faut que tu le renfasse.
Il faut que tu le renfasse.
Il faut que tu as double avec la version 4.
Tu sais, comme ça, on a un choix.
C'est pas grave.
Et on est à 600 plus.
On est à 600 plus.
Voilà, les nombres...
C'est ça,
j'ai l'impression qu'on était à plus,
mais je sais pas.
Ah ouais ?
Bon, je...
On s'en fout.
D'ailleurs, il y a des gens dans le chat
qui ont demandé de récapituler
tous les noms.
Est-ce que tu veux le faire
ou je peux le faire ?
Je les ai tous sous les yeux si tu veux.
Eh bien, il y a Clap,
il y a Better Dictation,
il y a Oliama,
il y a Bria-RMBG,
Remove Background,
il y a Flonéum,
et il y a...
Un Sloth.
Ils sont...
Sur les noms,
ils se sont donné par...
Ouais, c'est vrai.
Il faut être concentré.
J'espère que vous avez fait
des petites découvertes, en tout cas,
et qu'il y en avait pour tous les goûts.
J'essaie de trouver des trucs
qui à la fois s'installent
en trois clics sur Mac
et qui vont vous aider maintenant
et des trucs pour satisfaire
les plus déterminés d'entre vous.
Gagnez du temps en gérant
tout le processus sur un seul outil.
Planifiez des entretiens virtuels,
utilisez des outils de matching performants
et accédez à une présélection de talent
dès la publication de votre offre.
Plus de 190 000 entreprises en France
font confiance à Indeed
pour leur recrutement.
Et ce n'est pas tout.
Les offres sponsorisées
reçoivent jusqu'à 3,2 fois plus de clics,
boostant ainsi vos chances de succès.
Commencez dès maintenant
avec un crédit de 100 euros
pour sponsoriser votre annonce.
Rendez-vous sur go.indeed.com
slash podcastfr
et transformez votre processus de recrutement.
Offre limité.
Ne manquez pas cette opportunité.