4 logiciels de création qui ont vraiment compris l’IA — chronique Michaël

Durée: 25m52s

Date de sortie: 10/03/2024

On passe en revue quatre outils dopés à l’IA pour créer des formats verticaux automatiquement, accélérer la dictée sur Mac et faire tourner des modèles en local. Au programme: Klap, Better Dictation, Ollama, Bria AI RMBG, avec un détour par Floneum et Unsloth pour ceux qui veulent aller plus loin. Invité sur le plateau, Benjamin Code partage ses retours d’expérience et conseils d’usage.


Sources

En plateau

  • Michaël de Marliave — animateur
  • Matthieu Lambda — chroniqueur
  • Benjamin Code — invité

Pour consulter les détails de l'offre Trade Republic : https://trade.re/Underscore_Pod

L'investissement comporte un risque de perte en capital. Les intérêts et les gains financiers sont soumis aux prélèvements fiscaux et sociaux. Les performances passé es ne garantissent pas les résultats futurs. Les fonds non-cotés sont des investissements à long terme et ne devraient représenter qu’une partie du portefeuille total.


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Juste avant de démarrer l'épisode, un petit mot pour ceux qui ont déjà pensé à mettre leur logement sur Airbnb,
le partenaire de cet épisode, mais qui se disent que ça fait un peu trop de travail.
Eh ben, Airbnb propose un truc plutôt malin.
Le réseau de CoAute.
J'ai des potes qui font ça parfois le week-end à Paris et c'est très pratique.
Imaginez, pendant que vous êtes absent, un CoAute expérimenté s'occupe de presque tout.
La remise des clés, le ménage, les échanges avec les voyageurs,
même la gestion du calendrier ou des photos si besoin.
Ça vous permet de générer un petit peu d'argent pour vous faire plaisir sans avoir à vous en occuper.
Alors, trouvez un CoAute sur rbnb.fr.
H-O-T-E.
Merci Airbnb, et bon épisode.
Vous le savez, ici on aime bien sélectionner des projets, des applis que les gens ne connaissent pas trop.
Parce que depuis une année, on commence à avoir une maturation,
une maturité de toute cette nouvelle technologie d'intelligence artificielle,
suffisamment pour que ça commence à devenir utilisable et intéressant pour le commun des mortels.
Dans les applis que je vous ai sélectionnés, il y a à la fois des services,
des applis que vous pouvez installer dès maintenant sur votre Mac pour gagner du temps,
ainsi que des outils un peu plus avancés si vous voulez pousser le curseur.
Si vous êtes dans la team des gens qui veulent par exemple commencer à améliorer des modèles vous-même,
à faire des fine tuning, des choses comme ça, bon, je rentre pas trop dans le détail.
Mais je vais vous présenter quatre projets différents qui, je pense, vont vous faire halluciner.
Le premier, il s'appelle Clap. C'est un service web.
À qui vous donnez une chaîne YouTube ?
Et à partir de ça, il vous crée des formats verticaux, tout seul de A à Z.
C'est ça que j'ai trouvé intéressant, c'est que j'avais déjà vu des démos avec des petites bribes,
tu vois, le fait de découper une vidéo en petits extraits ou le fait de rajouter automatiquement des sous-titres.
J'avais vu toute cette petite brique, mais le côté vraiment de A à Z est assez impressionnant.
Et comme vous voyez, on peut voir dans les démons, on peut voir du Hugo D'Ecrit.
Je sais pas si c'est parce qu'il est vraiment client ou si c'est juste leur démo.
Je pense que c'est leur démo, mais en vrai, c'est possible.
C'est des Français qui font ça. Et ben voilà, Benjamin, peut-être que tu...
Ils sont hyper cool, c'est deux Frenchies qui font ce truc-là.
Depuis que je me suis lancé sur mon sas et tout, on est en contact tout le temps, on s'envoie des messages tout le temps.
Et je suis un poor user de leur truc de Clap, en fait, parce que le podcast qu'on a avec William, l'ascenseur,
après moi, chaque semaine, je l'envoie dans la moulinette de Clap, comme ça,
et il misole dix potentiels sujets classés par ordre de viralité, en fait,
parce qu'il analyse le tout transcript, il choppe des passages viral, en gros, il me les sort comme ça.
Après, tu es un éditeur, si tu veux rajouter un peu d'avant, un peu d'après, enlever quelques mots, etc.,
tu peux tout faire, et c'est trop, trop bien foutu.
Je leur ai suggéré des tonnes de features en tant que poor user, je leur disais,
est-ce que vous pouvez rajouter six, ça et ça et ça ?
Et ça, c'est trop bien. Quand c'est des gens accessibles, comme ça, c'est que les features que tu demandes,
elles sont inclus dans le sens.
Ils sont vraiment implémentés, Benjamin. Ça fait trop plaisir.
Je vais vous dire, la meilleure feature qu'ils ont ajoutée dernièrement, qui est vraiment...
Je trouve la clé de leur truc.
Générer un clip par rapport à ce que vous vous souvenez que vous avez dit, en fait.
Donc, tu lui dis, j'ai parlé de ça vite fait dans le live, j'aimerais bien avoir ce passage,
et lui, en fait, il va le retrouver.
Ah, débat.
Il va te faire le truc, parce que parfois, tu te souviens que t'as parlé d'un truc pendant l'émission ?
Tu lui dis, vas-y, retrouve-moi ce passage, boum, boum, boum, boum, il te fait le truc, t'as ton clip qui est fait en deux secondes, et là tu fais...
Ah ouais.
Moi, ce que je trouve génial, c'est que ça adresse un problème, c'est très chiant de faire ça.
Oui, c'est horrible.
En fait, il y a...
D'ailleurs, pour ça que nous, underscores, nous ne faisons pas de TikTok et de live.
C'est vrai ça.
Mais on s'est fait voler, hein.
On a la gigaflame, exactement.
Du coup, ça va bien.
Vous en êtes quand même disponibles, mais c'est pas nous.
Et ben, moi, je vous propose quelque chose.
C'est qu'on fasse un test.
Un test en direct.
Oh là là.
On a un peu fait ça depuis 2018.
Wow, un test en direct.
Mais je vous dis, leur tool marche trop bien.
On va pouvoir vérifier.
Je vous propose de prendre...
La deuxième, ouais, je...
La vidéo, non, avec l'olicien qui a construit son propre téléphone.
Ouais, très bien ça.
Oui, c'est volier.
C'est volier.
Trop bien.
Donc là, on colle le lien de la vidéo et hop, il trouve instantanément la bonne vignette,
etc.
Et nous, on va tout cocher.
On lui dit que c'est du français, max 1 minute de durée.
Et c'est parti.
Et là, nous, on prend un petit cocktail, on...
Voilà, on attend quoi.
Pendant que c'est en train de faire la génération, je vous propose de passer à la pluie suivante,
qui, pour le coup, est installable en local sur votre machine.
Elle s'appelle Better Dictation.
Meilleure transcription.
Ok?
Et ça va vous permettre de gagner énormément de temps sur l'envoi de vos messages, notamment
de vos messages privés.
Si vous êtes sur votre Mac, vous avez le choix entre taper au clavier vos messages ou alors
utiliser la dictée vocale.
Mais personne ne fait ça parce que ça marche très mal.
Voilà, tout ce qui est un mot un petit peu complexe, langage, métier.
Globalement, c'est pas ouf.
Et donc, on a pris d'habitude de ne pas utiliser ça.
Sauf que un truc que moi, j'ai réalisé, c'est que sur des longs messages, genre,
tu prends pas de sorte de 4-5 lignes, à l'oral, tu peux mettre jusqu'à 5 fois
moins de temps à composer ton message qu'elle écrit.
Ah ouais?
Il faut vraiment se rendre compte qu'il y a une différence énorme entre ton temps
de dictée et ton temps d'écriture.
Même si tu es le roi du clavier, tu vois.
Oui, bien sûr.
Or, on sait que depuis, on a des modèles de transcription type Whisper V3 qui sont hyper
calis.
Mais jusqu'à présent, voilà pour les installer, pour avoir un workflow, une intégration agréable
dans tes messageries, dans tes DM, Twitter, dans ton Discord, ton Slack, tout ça, c'est
un peu de galère.
Jusqu'à better transcription.
Le principe est hyper simple.
Vous allez avoir un raccourci-clavier que vous pouvez maintenir en même temps que vous
parlez pour faire une transcription.
Ce qui est cool, c'est que c'est un push-to-talk.
C'est-à-dire que tu es en train de répondre à un DM sur n'importe quel appli, tu maintiens
ton raccourci-clavier et tu te mets à parler.
Et à partir du moment où tu as retiré ton doigt, il commence à transcrire ton message.
Ce qui fait, c'est qu'il va mettre un petit listening avec 3 petits points.
Peu importe là où est ton curseur, c'est ça qui est cool, c'est que c'est vraiment
n'importe quel appli, n'importe quel endroit.
Marte.
Et tu le retiens, ça affiche la transcription.
Rien de vous, une démonstration pour vous montrer.
Commencez.
Ceci est un test, je suis actuellement en train de rédiger un très long message qui
m'aurait pris vraiment très longtemps à écrire.
Et cette émission vient de commencer et je vois qu'ils sont en train de meubler pendant
que moi je prépare mes illustrations.
Voilà.
Ce message est bien long.
Regardez la qualité.
Il y a pas une...
Je crois qu'il y a pas une...
Je vois pas une faute là.
Il y a pas une faute.
Et là vous avez vu, il y a eu un petit temps de latence.
Ça vient du fait que j'utilise le plus gros des modèles.
Si vraiment vous êtes quelqu'un de pressé, vous pouvez utiliser un modèle plus petit,
whisper medium par exemple ou des choses comme ça.
Là, moi je veux que mes messages soient pixel perfects ou mes mails parce que c'est
trop bien pour mes mails.
Ah oui, donc plus ça prend du temps, plus c'est efficace et ok, j'ai le jeu là.
Exactement.
Ça marche en local sur votre machine, il n'y a pas besoin d'internet.
Exactement.
Du coup, le whisper est échargé.
Il est échargé, il n'y a pas besoin d'internet.
Ah ouais, ça marche.
En n'importe quel appli.
C'est combien de giga le modèle ? 4 gigas peut-être ou quelque chose comme ça ?
C'est trop bien.
Je crois que la génération est bientôt finie.
Mais, je vous propose de faire juste mon application suivante et on y va voir ça juste après.
La suivante, elle s'appelle Oliama.
Peut-être que vous en avez entendu parler.
C'est le modèle de META, un des premiers concurrents de Chat GPT qu'on avait couvert
qui avait fait beaucoup beaucoup de bruit il y a quelques mois.
Depuis il y a eu un florilège de nouveaux modèles.
C'est très intéressant.
La plupart d'entre vous, je pense, sont perdus parce qu'il y a trop de choses, trop de nouveautés
tout le temps et vous en avez marre d'avoir ce train qui avance sans vous.
Et bah dites-vous que Oliama, c'est l'appli parfait si vous avez un Mac pour gérer vos
modèles justement.
Pour enlever toute la friction sur le fait d'installer un nouveau modèle et de l'utiliser.
Pourquoi ?
Ce qu'il faut bien comprendre c'est que le génie d'Oliama c'est qu'ils ont inventé
une nouvelle syntaxe pour décrire un modèle UNIA qui tourne en local.
C'est un peu une fondation qui leur permet après d'avoir une gestion des modèles.
Si vous n'êtes pas développeur vous demandez bien à quoi ça peut servir.
Et bah, une simple ligne de commandes.
On fait Oliama Run Mistral par exemple dans son terminal.
Et hop, on se retrouve à parler avec Mistral.
C'est tout.
Et c'est lui qui s'est chargé automatiquement d'aller télécharger le modèle dans sa dernière
version de l'installer en local et de garder un serveur toujours ouvert derrière.
Vous pouvez avoir accès à une liste très très longue de modèles qui sont mis à jour
constamment.
Et le plus intéressant c'est que c'est un service qui tourne toujours en tâche de
fond.
Si vous avez testé quelques applications pour utiliser des chats GPT locaux comme
il y a Studio LM, il y en a plusieurs des comme ça qui sont très bien.
Ils ont tous un problème c'est qu'on est tous en train de réinventer la roue constamment
et dans chaque appli télécharger des clones de clones de modèles et d'avoir des copies
de la petite brique qui fait les inférences.
Et ça c'est du gâchis, c'est hyper dommage et surtout ça ne permet, c'est pas du tout
pérenne comme système.
Olyama ils arrivent et disent non mais on arrête tout ça maintenant.
Maintenant tout passe par nous.
Je sais pas si vous voyez la distinction c'est plutôt que chacun et sa propre brique.
T'as un service qui tourne constamment, tu le vois dans ta petite barre de menu sur
ton Mac qui gère les mises à jour de modèles, qui gère cette maintenance là et toutes les
autres applis se mettent à discuter avec.
Et c'est en train de prendre, c'est à dire tous les nouveaux modèles un peu cool se
pas être à utiliser Olyama parce que c'est une fondation super robuste, c'est pas un
truc piton un peu cracras, c'est fait en go.
Voilà le truc est propre et c'est une bonne fondation pour tous les développeurs et les
utilisateurs qui veulent l'utiliser de lia en local.
Vous allez me dire ok c'est cool ton truc mais qu'est ce que on peut faire maintenant ?
Bah ce que je vous propose c'est de combiner Olyama avec Recast.
C'est simplement un launcher, une alternative à la barre de recherche sur macOS.
Encore une fois vous allez penser que cette barre de recherche sur Mac marche très bien
mais faut vraiment voir Recast comme une tour de contrôle qui vous permet d'interagir
avec toutes vos applications et de lier des raccourcis claviers, de développer des modules
personnalisés sur votre mac.
En fait c'est l'outil de productivité ultime des gens qui veulent être plus fast sur mac.
Tout simplement.
Moi je l'utilise depuis très longtemps aussi, c'est incroyable.
Ne pas faire une erreur c'est vouloir tout comprendre à Recast au premier coup.
Il faut se laisser surprendre, tu vas pouvoir potentiellement découvrir des fonctionnalités
dans un an et c'est très bien.
Parce que si tu cherches à tout comprendre au début tu vas être submergé.
Par exemple moi pour écrire mon mail je peux noter un at at et ça me met pour un
adresse mail.
Ça me rend plus automatiquement.
En fait ça peut te faire des raccourcis comme ça.
Pour ceux qui connaissent Alfred c'est une alternative moderne qui résout pas mal de
problèmes qu'il y avait.
Et effectivement tu as des snippets comme ça où tu peux gagner du temps.
Tu as des fenêtres où tu peux les mettre en raccourcis.
Tu as un historique de ton presse papier donc si tu as écrit, tu as copié coller un truc
il y a trois jours.
C'est incroyable.
Hop tu recherches dans ta liste et tu retrouves que si vous êtes du genre à vous créer des
petites automatisations perso etc.
Mais que vous avez envie d'une belle interface par dessus et bien plutôt que de réinventer
la roue, vous utilisez Recast et ça vous fait une interface parfaite sur toutes vos automatisations
et vos scripts.
Et potentiellement si vous voulez automatiser des choses avec des modèles locaux, vous
pouvez combiner Recast et Olyama.
Et là ça devient dingue.
Je vous ai fait une petite vidéo de démonstration avec deux exemples vraiment hyper simples.
Premier exemple, imaginez vous avez envie de faire rédiger des mails sans avoir à vous
emmerder.
Par exemple, vous êtes hors-tar pour vos clients ou vous êtes hors-tar au travail,
et bien vous avez besoin d'écrire un mail formel.
Mais vous, vous avez un peu la flemme et vous savez que maintenant ça se fait très bien.
Et bien quel est le moyen le plus rapide de faire ça avec son clavier ?
Et bien ce que vous créez c'est un raccourci Recast qui va appeler Olyama sur un modèle
local pour vous fournir une réponse et la mettre dans votre presse papier.
Mon cerveau est trop petit pour imaginer tout ce qui est possible de faire avec ça.
Et si vous avez des workflows, des idées, justement donnez-les nous parce que c'est
vraiment un bac à sable de fou.
La première des mots que je vous montre donc c'est le process.
Donc ça c'est la fenêtre de Recast dans laquelle on peut créer une commande custom.
C'est la première fonction.
Et donc c'est là où on va pouvoir sélectionner le modèle local qu'on veut utiliser, ainsi
qu'un template.
J'aimerais que tu rédiges un mail avec un ton formel qui explique ceci.
Voilà ça m'a pris 4 secondes à créer, ce qui est quand même un argument important.
Et je lui demande juste de signer mon mail avec une petite signature des familles.
J'ai le CEO micro.
Une fois que c'est fait, on crée l'extension.
Donc là je viens de faire un commande entrée et donc ça crée le raccourci qui est que
j'appelle rédige un mail please.
Donc là en fait tu paramètres ta commande pour pouvoir l'utiliser plus tard.
Exactement.
Parce que j'ai pas compris.
Ça c'est le paramétrage de la commande.
Une fois que c'est fait, je peux à tout moment l'invoquer simplement dans Recast
en 4 secondes.
J'écris je suis en retard boss.
Je sélectionne le texte.
J'invoque rédige moi un mail.
Et il se met à me rédiger un long mail formel pour expliquer à mon entreprise pourquoi
je suis en retard.
Là il y va.
Là il faut dire qu'il est quand même bien verbe.
T'as fait quel modèle là ?
On travaille actuellement avec toutes nos ressources pour résoudre ce problème et résoudre le temps de retard.
Mais le temps que ça m'aurait pris de rédiger ça t'excuse ?
Là tu te fais virer si t'envoies un mail au salon un ton boss alors que tu es en retard.
T'es foutu.
Évidemment ce template est perfectible vous avez vu il fait qu'une phrase il suffirait de l'améliorer un petit peu.
Ce qui est cool c'est que une fois que c'est fait c'est fait une fois pour toutes c'est à dire toutes les prochaines fois où tu pourras en avoir besoin.
T'as plus à te souvenir de qui a l'été ton template.
Un deuxième exemple beaucoup plus simple qui va en plus vous parler.
C'est un système pour corriger vos fautes d'orthographe automatiquement.
Par exemple vous rédigez une phrase pleine de fautes d'orthographe.
Pareil juste vous la sélectionnez.
Recoursis, récaste, corrige moi mes fautes d'orthographe.
Voilà la phrase c'était juste plein de fautes et il me l'a changé en plein de défaut.
Il se trouve que mon prompt n'est pas très optimisé il faudrait que je lui demande de sortir uniquement mon résultat.
Même chose en 4 secondes vous pouvez même le bindé sur un raccourci clavier.
Voilà vous êtes en train de rédiger un mail vous faites sélection raccourci clavier.
Toutes vos fautes sont corrégées avec une vraie intelligence c'est pas un autocorrecteur de merde.
Tout ça sans aucune friction en local sans internet c'est quand même de la magie noire.
Oui de ouf.
Je vous propose de voir les résultats quand même.
Est-ce qu'on a eu des TikTok Viro ?
Est-ce que grâce à cet outil nous allons faire un buzz interplanétaire ?
C'est maintenant.
Les résultats.
Smartphone DIY à l'aide de composants open source.
Ok donc il a bien compris le sujet.
Et là il nous met un score de viralité de 80 sur 100.
Est-ce que c'est bien ou pas ?
Ben jamais.
Ouais 80 c'est pas mal surtout que en général il dit ouais c'est en français donc déjà de base ton score de viralité il descend un petit peu.
Comme tu n'es pas américain.
Ah oui.
Ah oui.
T'as ça qui descend un peu.
Ah c'est logique.
Par contre à l'heure des charges vous avez un cadrage un peu vraiment spécial pour votre truc donc là son cadrage il l'a fait parce qu'ils ont des cadrages automatiques qui marchent bien la majeure par suivant.
Mais vous là avec votre layout il y a moyen.
Voyons voir ce que ça donne.
Ça c'est un truc qui fait avec des composants qui peuvent s'acheter sur internet.
Le projet qui est open source.
Donc théoriquement moi chez moi si j'ai une imprimante 3D et que j'achète les bons composants je peux refaire le téléphone.
Exactement et normalement il y a chargé.
Ouais on va voir si jamais il va démarrer.
Très bien.

Franchement.
C'est juste très zoomé.
L'interface est très cool.
Voilà il y a franchement c'est joli.
Il faut alors il faut t'appliquer des ongles parce que c'est un écran ongle parce que c'est un écran résistif.
Et oui malheureusement.
Alors comment on revient.
Budget.
Seulement.
Donc c'est vraiment beaucoup moins cher.
Il y a rayou et il y a rayou.
C'est trop fort.
Bon là je vais peut-être couper un peu avant.
Regarde justement.
Attends c'était pas encore fini.
Non mais clique sur edit export maintenant.
Là tu vas dans vidéo en fait le tag vidéo là haut à gauche voilà ici.
Et là du coup Mike tu peux rajouter du texte au-dessus ou tu peux en enlever en dessous en fait.
C'est comme des films.
Tu viens retravailler un petit peu ton script.
Mais sur le texte directement.
Ouais là sur le texte.
Clique sur le texte que tu as sélectionné.
Il va te proposer de faire ade par exemple tu vois.
En bas tu as une timeline.
Tu peux agrandir ou pas le truc.
Je pense que tu dois sélectionner un texte et faire ade dessus.
Et sinon après si tu vois si tu n'es pas satisfait des cadrages qu'il a fait tu vas dans l'onglet crop là haut là.
Pour chaque tronçon tu as tes crop et tu peux choisir.
Et ça c'est ton cadrage en fait.
Voilà.
Donc tu peux retravailler chaque plan.
Et non mais surtout pour préciser le choix des phrases de la première phrase du TikTok.
C'est le moment le plus important c'est ça qui fait tout dans cet algorithme fou.
C'est super bien pensé.
Je trouve comme début d'histoire en sachant que nos vidéos s'y prêtent pas forcément parce que souvent on fait des longs tunnels des discussions qui évoquent un même sujet pendant très longtemps.
Et j'avoue je suis assez assez épaté du résultat.
Bluffant.
On va le publier sur TikTok.
Moi ce que je dis de mon expérience perso du truc malgré tout il y a toujours un petit peu de retravailles sur le premier G qui te file.
Mais ça te simplifie déjà tellement la tâche de bas et sans que j'attende je vous propose de passer à l'outil suivant.
C'est sûr que vous avez déjà eu besoin d'un truc de ce genre par le passé et vous êtes demandé mais ou est-ce quel truc je pourrais utiliser.
Pourquoi il y a un paywall partout pour faire ça alors que ça paraît pas si compliqué.
Vous connaissez tous RemoveBG par exemple ou des trucs comme ça.
C'est que des services qui vous proposent d'enlever le fond d'une image.
De faire un détourage de qualité.
Avant c'était horrible maintenant avec l'IA c'est moins horrible.
Mais je n'ai pas compris pourquoi pendant encore des années il y avait beaucoup de services mais ils étaient tous un peu complexes.
Et ils te faisaient souvent très payer si tu voulais avoir de la bonne résolution.
Et ben j'ai une annonce à vous faire si vous êtes concerné.
Un modèle ouvert et gratuit et sorti qui permet de faire du détourage super cali.
Et tout le monde peut l'utiliser là de chez vous directement dans votre navigateur avec cette petite démonstration de HuggingFace.
C'est pas le plus impressionnant dans le sens où c'est de l'édition d'image quoi ça fait longtemps qu'on sait le faire.
C'est quand même bluffant par la qualité du résultat.
Donc là vous pouvez voir que les petites ombres toutes.
Les petits cheveux tout ça est super bien détouré.
Je jetez heureux.
J'ai vu ça dans ma.
Bah génial.
Encore une nouvelle brique dans l'arsenal open source que on a tous à notre dispose maintenant.
Mon projet suivant pour le coup est bien plus complexe.
Là vous allez voir on commence à rentrer dans des outils qui vont seulement intéresser les plus motivés d'entre vous.
Et ceux qui ont des grosses grosses envies d'automatisation.
Peut-être que vous avez déjà vu des interfaces nodales qui permettent de créer des sortes de graffes logiques.
Entre différents nœuds.
C'est la fameuse programmation visuelle.
Je vous avais parlé de N8N à une certaine époque.
Mais c'est tous ces systèmes qui permettent à n'importe qui de programmer avec une interface graphique.
C'est plus joli.
Moi je comprends ça permet d'aller un peu plus vite si on ne s'est pas développé etc.
Même si on sait d'ailleurs.
Et depuis un certain temps des interfaces de stiplait existent pour lire.
Et en gros la promesse elle vous dire.
On te file une brique geljpt, une brique dali, une brique de détection d'objet, une brique de transcription.
Et avec tout ça tu peux...
C'est un bac à sable.
Tu fais ce que tu veux.
Tu peux connecter tous ces nœuds ensemble pour automatiser ton travail et partir au bas à masse.
Le problème, spoiler, la plupart de ces outils sont nuls.
En tout cas moi je ne les aime pas.
Je vais m'expliquer.
Je vais défendre ma tech.
Mais typiquement des longues flow ou des choses comme ça.
On peut vous montrer à quoi ça ressemble.
Ils ont toujours des pages de landing page super sexy ces gens.
Ils ont toujours des interfaces qui sont très lèchées.
Et pourtant moi je défend que ça ne me satisfait pas.
Pourquoi ?
Parce qu'en général on va devoir rentrer un petit peu dans la technique.
Mais vous allez voir c'est intéressant.
Ils sont basés sur des gros gros frameworks comme on appelle.
C'est des librairies pour développeurs qui sont en piton.
Et qui sont un peu tentaculaires.
Qui essayent de tout faire en même temps comme long chaine par exemple.
C'est très bien.
C'est un bon bac à sable.
Mais le gros problème de créer des systèmes comme ça c'est là.
Vous allez passer du temps.
Vous allez travailler.
Vous allez créer des automatisations qui ont potentiellement beaucoup de valeur pour vous.
Pour votre travail, pour votre entreprise ou pour vous pour gérer votre vie.
Et donc vous avez envie de construire sur du rock quoi.
Pas sur un truc un peu pété qui risque d'exploser à la prochaine mise à jour.
Ou qui marche une fois sur trois.
Et le problème de la plupart de ces outils c'est que du coup ils sont basés sur piton.
Et pourquoi c'est un problème ?
Parce que piton a été utilisé dans l'IA et devenu le langage par défaut de l'IA.
Parce qu'il est extrêmement compréhensible et facile à prendre en main.
Rien ne ressemble plus à de l'anglais que piton finalement.
Et donc pour une audience de chercheurs en intelligence artificielle qui ne sont pas des développeurs.
Eh ben c'est parfait.
Pour qu'ils puissent manipuler les concepts qui connaissent,
mathématiques ou de recherche,
sans avoir la lourdeur des langages plus bas niveau.
Pour faire tourner des modèles d'IA sur des serveurs dont le Claude par exemple,
ça ne pose pas vraiment de problème.
On sait gérer cette complexité de déployer des modèles de piton, des choses comme ça.
Mais mais mais.
Pour l'air d'aujourd'hui, qui je le répète, est l'IA locale.
Ce n'est pas adapté du tout.
Piton n'est pas du tout fait pour être déployé sur des appareils en local à grande échelle.
Ça n'a pas vraiment été pensé pour ça.
Il y a des stratégies qui permettent de,
là typiquement dans les applis qu'on a cités,
ils auraient pu essayer de tordre le langage, on va dire,
d'utiliser des technos spécifiques, genre,
je ne sais plus comment ça s'appelle, PIN, STAL,
ou des choses comme ça,
qui permettent de faire une sorte de gros sac
où on met piton littéralement le langage entier dedans, pas le serpent et les botcodes.
Et les trucs, en gros, c'est dégueulasse.
C'est possible, mais c'est dégueulasse.
Il ne faut pas faire ça.
Et donc on se retrouve dans une situation terrible
qui doit vous concerner si vous êtes intéressé par l'IA et l'IA locale.
Il y a plein de nouveaux modèles partout.
Tout le monde a des idées d'appli de choses à faire,
mais on n'a pas du tout la base, l'architecture,
qui permet de proprement déployer des applis de ce genre
à grande échelle sur des machines de façon optimisée.
Il y a un vrai manque à ce niveau-là aujourd'hui.
Tu veux commencer en tant que développeur à créer une appli révolutionnaire
pour Mac ou pas ou sur Windows pour je révolutionner.
Je ne sais pas quoi avec de l'IA locale.
Tu es un peu niqué et tu ne peux pas utiliser des applications
comme ça des systèmes de graphes qui vont te faciliter la vie.
Cette longue introduction était importante
pour vous présenter le projet du jour Flonéum.
Ça s'appelle Flonéum.
Vous allez voir. Attention, je vous préviens, ça ne paye pas de mines.
Donc l'interface est immonde.
Attendez, Appyre.
Tu as tellement...
Non, mais objectifement, l'interface est assez infâme à utiliser.
Comme vous pouvez le voir, on garde ce principe de graphes à gauche
sur lesquels on peut éditer des entrées, des sorties, des choses comme ça.
Donc par exemple, tu peux avoir demandé à un ministral
de générer du texte en local.
Après, tu peux demander de faire une recherche sur Google,
toujours en local, c'est à dire que c'est vraiment
le logiciel qui fait la recherche en arrière-plan.
Tu peux demander d'ouvrir Chrome, par exemple,
et de charger une page si tu as besoin de faire ça.
Tu peux demander d'écouter un son et de faire de la transcription.
Tu peux demander d'analyser une image.
Bref, tous les fondamentaux de l'IA moderne.
Pourquoi ça, c'est différent de tout le reste que je vous ai montré?
Et pourquoi, en réalité, c'est pas cette interface qui est le plus important,
mais c'est ce qu'il y a derrière qui, je pense,
pourrait intéresser énormément de développeurs par la suite.
C'est que tout ça est développé en Rust.
Ah, la passion du Rust qui revient.
Tout ça donc se passe de manière 100% locale
avec, je vous l'ai dit, des technologies faites pour être utilisés
sur des appareils de tout à chacun de façon optimisée.
Demain, toi, tu peux peut-être inventer un nouveau module
qui permet avec une IA de détecter si il y a un sponsor dans une vidéo,
par exemple, et tu pourrais publier un module
que tous les utilisateurs de Flonium pourraient intégrer dans leur GAF.
Je vous passe les détails, mais si vous êtes un développeur
sur ce jour de techno, il y a tout ce qu'il vous faut, des systèmes de base de données
qui vous permettent d'ingérer des articles, des PDF, des choses comme ça.
Bref, c'est un bac à sable assez complet.
Je ne vais pas vous mentir, c'est une alpha.
C'est vraiment une alpha de alpha ne pensez pas pouvoir l'utiliser la demain.
C'est un truc à surveiller, à se mettre dans les favoris
et à voir dans six mois à quoi ça va ressembler.
Parce que ce qui est le plus intéressant dans le projet, ce n'est pas cette interface par-dessus.
C'est tout ce qui a derrière, en gros, c'est toutes les briques
qui sont utilisables par tous les développeurs et qui mâchent le travail de l'IA.
C'est aussi bête que ça, mais demain, là, vous êtes un développeur Rust ou autre.
D'ailleurs, vous voulez d'intégrer des fonctionnalités locales d'IA,
utiliser son salibre et réel, et vous allez gagner un temps fou.
Très, très chouette.
C'est cool, hein.
Ça a fait beau courir d'un moment, j'ai regardé le chat.
J'ai fait Rust, incroyable.
Je me suis rappelé qu'on était le jour de la Saint-Valentin.
Je dis, on a quand même une belle audience de geek.
Ce qu'ils se sont tous exclamés en mode,
ouah, il a dit Rust, incroyable.
Ça m'a fait un peu rire.
Peut-être qu'actuellement, vous êtes en train d'attendre GPT 5
et que vous trouvez que les LLM ne sont pas au niveau
pour telle ou telle tâche que vous vous drier automatisé.
Quand vous arrivez à ce moment-là, c'est qu'il faut commencer à faire des fine tune.
Mais peut-être que vous vous dites qu'il faut des millions pour faire du fine tuning.
Donc pour prendre un modèle et continuer à l'entraîner
sur vos propres données pour qu'ils deviennent encore plus forts.
Il n'y a pas nécessairement besoin de GPU immense,
notamment grâce à une technique que les gens qui font du stable diffusion
ou des choses comme ça connaissent très bien.
Ça s'appelle le Q-Laura.
Ça permet sur un GPU de petite taille
de faire une amélioration, un fine tuning
de n'importe quel modèle avec ses propres données.
Le projet dont je vais vous parler là maintenant,
il vous prend vraiment par la main dès le début.
C'est-à-dire que là, vous maintenant,
vous n'avez jamais fait ça de votre vie.
Vous n'êtes pas les ingénieurs en intelligence artificielle.
Et pourtant, grâce à ça, grâce à Hunslos,
vous allez pouvoir partir de zéro et créer votre propre modèle
fine tune sur vos données.
Beaucoup d'entreprises constatent que parfois fine tune un petit modèle
sur des tâches précises leur donne les mêmes performances que GPT4.
Mais il y a une barrière à l'entrée,
il y a une complexité qui, avec ce projet, est complètement enlevée.
Ils vous prennent vraiment par la main, même si vous y connaissez rien.
Et vont vous expliquer comment générer des données
qui ont le bon format pour entraîner votre propre IA.
Ils vous ont préparé des Google Collabs.
C'est un système de Google qui permet de faire tourner du code sur des GPU
qui, que vous pouvez louer facilement, sont même à voir d'ordi très puissant.
Tout ça est préparé pour vous baliser.
Il y a tous les tutos, tout expliqué.
Et surtout, ils ont optimisé à mort le processus de fine tuning, d'apprentissage.
Trop bien.
Il y a pas mal de benchmarks qui ont été faits.
Entre eux, le process lambda habituel,
les librairies standards pour faire du fine tuning et Hunslos.
Et ils arrivent à faire des fois 1,5 ou 3 sur les vitesses d'apprentissage
combinées à des besoins en VRAM qui sont beaucoup plus petits.
Ce qui vous limite le plus rapidement quand vous faites de l'IA,
c'est la quantité de mémoire de vos GPU, pas nécessairement leur puissance.
Parce qu'à limite, si tu as un GPU qui est un peu moins puissant,
tu peux juste attendre plus longtemps.
La mémoire, c'est le truc qui limite tout le monde
et qui fait qu'on n'est tous là à pas pouvoir faire tourner les meilleurs modèles
parce qu'on n'a pas des cartes graphiques avec 40 Giga.
La solution pour ça, c'est d'optimiser en utilisant Hunslos
qui vous demandera beaucoup moins de mémoire pour faire un même entraînement.
Le chat pose une question importante, à savoir le prix.
Tout ça est parfaitement open source.
Vous pouvez le faire tourner sur vos propres machines
ou alors sur un Google collab.
Ils ont une version pro, je crois, où ils poussent encore plus loin
certaines optimisations.
Pour nous, non ?
Est-ce qu'ils ont des cartes graphiques en location ?
C'est une...
Voilà, c'est le Hunslos pro, justement.
Ils vont pousser encore les petits et ils vont vous accompagner encore plus loin.
Avec le repo-guitub, tout simplement, avec leur travail.
C'est à dire qu'il peut tester avant de faire de la merde
avec des petits documents comme ça, tu mets comme ça.
Vous n'avez plus d'excuse.
Je veux voir des modèles créés par la communauté.
Je veux voir des culoras spécialisés à faire des choses variées.
Faites des trucs, par exemple, en français.
Je trouve qu'il manque pas mal de modèles français.
Cette barrière à l'entrée a trop longtemps limité
le potentiel des modèles fin tuna.
Elle a été levée.
Il ne tient qu'à vous maintenant de faire des modèles entraînés sur des tâches précises
qui explosent OpenAI.
C'est parti.
À vous de jouer.
Si vous avez aimé cette vidéo,
je vous conseille vivement d'aller voir la chronique que j'ai faite sur AsaiOS.
Un système d'exploitation alternatif qui va vous faire courir, acheter un Mac.

Les infos glanées

Je suis une fonctionnalité encore en dévelopement

Signaler une erreur

Underscore_

IA, Hacking, Robotique — Des conversations de terrain avec ceux qui construisent. 🥨


Partenariats: underscore@micorp.fr


---


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Tags
Card title

Lien du podcast

[{'term': 'IA', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Investissement', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Nouvelles Technologies', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Tech', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Actu tech', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Cybersécurité', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Développement', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Dev', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Entreprenariat tech', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'IT', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Robotique', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Technology', 'label': None, 'scheme': 'http://www.itunes.com/'}]

Go somewhere