Pourquoi Banque Populaire est la première banque des entreprises ?
Je me posais des questions sur le partage de la valeur pour mes salariés.
Elodie, ma conseillère Banque Populaire, m'a proposé une solution d'épargne salariale sur mesure,
rapide à mettre en place et que je peux piloter en ligne.
C'était simple et surtout ça a fait des heureux.
Accompagner nos clients sur tous les territoires avec des solutions adaptées à leurs besoins,
c'est ça, être la première banque des entreprises, Banque Populaire, la réussite est en voulue.
Étude Quantar PMEP, mid-2023, 14 Banques Populaires, 1ère Banque des PM.
Bienvenue dans Underscore et j'espère que vous êtes bien bien installé,
bien avec nous, nous avons un programme chargé, passionnant.
On parlait de plein de trucs très cool avec des gens très cool puisque Tiffany est là.
Bonjour Tiffany.
Bonsoir tout le monde.
Ça va ?
Très bien, ouais et vous ?
Ça va, toujours avec ta tablette que je te jalouse.
Mais bientôt, bientôt, il se pourrait que nous aussi, on ait du nouveau matériel qui soit plus...
Encore mieux ?
En plus hype encore.
Écoute, je veux voir.
Ouais, ouais, ouais, en termes de hype, on va dépasser Remarkable.
Puisque il est possible que dans les bacs de la micorp, se trame un sorte de gigantesque concours
afin d'amasser suffisamment d'argent pour acheter un appel Vigine Pro.
En fait, le concours, c'est revendre des choses qu'on a en stock et dont on ne se sert plus.
Exactement.
C'est du comique qui a dit, s'il faut vous revendre pour 3000...
C'est pour ça que Tine essayait de me refiler son stream deck là ?
Exactement.
Wow, wow, dis pas tout !
C'est un peu... C'est hors de contrôle carrément ce qui s'est passé
puisque avant l'émission que l'on a fait, la dernière où on savait qu'on allait parler de l'appel Vigine Pro,
dans mon esprit, il y avait environ 0% de probabilités que on achète cette chose, c'est un objet de musée.
On sera très contents d'avoir les versions après, entre guillemets,
mais vraiment, je me disais, via Médit de la vie, qu'on allait vraiment prendre un.
Après, on l'a testé.
Finalement, vous êtes convaincu.
On l'a testé et ça doit tellement exploser le crâne à tous que...
J'ai eu une file d'attente de l'envoi de la boîte qui m'ont tous demandé si on pouvait avoir ça chez nous.
Je me méfie un peu, on l'a testé 10 minutes, c'est incroyable d'autant.
Je me meurs encore un truc de, est-ce que je l'utiliserais tous les jours si j'en avais un ?
Tu as toujours été là.
J'ai envie de savoir.
La personne raisonnable du groupe Mathieu.
En même temps, j'ai très envie qu'on en ait un et qu'on se le fasse en garde partagé.
Moi, je pense qu'il faut tester, parce que du coup, je vais tester moi aussi.
Non mais, tu as tout le plaisir de tester.
Moi, j'attends ça.
En vrai, je vais le dire très vite, parce qu'en vrai, c'est un non-argument, nous en sommes parfaitement conscients,
mais à partir du moment où on l'a dans les mains,
pour l'instant, ce qui manque, c'est les débots, en fait, c'est les trucs vraiment impressionnants.
Ça veut dire qu'à partir du moment où elles sortent et où on commence à avoir de la matière,
eh bien, on l'a, entre guillemets, donc on va pouvoir faire des chroniques, des choses comme ça.
Bon voilà, je dis, il faut le dire vite, parce que ça peut être de l'autopéraspiration,
ce genre d'argument, elle les connaît très bien, c'est les arguments de Youtubeurs.
Non mais c'est pas le travail, ouais, c'est pas le travail.
Donc on est lucidur, ça.
Ça passe en notre de frais.
Et c'est pour ça que, en gros, j'ai mis des conditions pour qu'on le fasse.
J'ai dit, on ne débloquera pas de budget pour ça.
Par contre, on a dans ce bureau plein de matos qui est périmique.
Ah, écoute ceci.
Ils ne servent plus et qu'on n'a jamais, on met jamais l'énergie, le temps pour les revendre, etc.
Et donc, j'aurais dit, si jamais vous arrivez à atteindre le montant fatidique des 3 500 euros,
et oui, il y a 3 500 euros de hardware largement à vendre dans ce bureau,
ça fait 6 ans quand même qu'il y a cette boîte, donc ça s'accumule, vous savez, ces trucs.
6 ans ?
Ouais, ouais, ouais.
C'est 2017.
Wow.
Donc 7, non, c'est 7 ans. 7 ans.
Ouais, ça va très vite.
Ça va vite.
Et donc, tout le monde est en train de participer à ce grand défi.
Si jamais d'ailleurs...
Il y a des gens qui sont intéressés.
On va faire un store, le bon coin.
Non, non, mais plus sérieusement, on s'approche de l'objectif, mais on n'y est pas encore.
Il y a quelqu'un qui m'a cherché dans le chat qui m'a dit, je te rappelle, Mathieu, que tu as des lunettes.
Sachez qu'il y a 2 semaines, j'ai mis mes lentilles que j'avais pas mis depuis plusieurs mois, rien que pour ça.
Donc calmez-vous, ok ? J'ai des lentilles.
Il y a des solutions.
Il y a d'autres solutions que les lentilles Zeiss font des bras-pels qui font faire.
C'est juste mettre tes lentilles à toi.
Exactement.
Et donc, je crois qu'on est peut-être à mon moitié du chemin, peut-être même, non, pas encore, mais...
Aucune idée.
On s'en est pas.
Les comptes, c'est quoi ?
Alors, il me semble qu'on est quasiment à 2000 euros.
Quasiment.
Ah ! Plus ?
Attends, on est à plus de la moitié ?
Ouais, plus de la moitié.
Il me semble que oui, il y a eu quelques...
Ils sont si motivés.
Ils sont tellement déterres.
Moi, je n'ai jamais vu une déterre, pareil.
Il y a un tableau blanc dans l'open space.
Il y a le bon coin, je ne sais plus.
En vrai, tu as eu raison de les motiver comme ça, parce que, du coup, tu dépenses, tu débourses pas un soue, et c'est eux qui bossent pas.
Psychologiquement, en fait, il y a un truc qui...
Un bon patron, finalement.
Ah bon, ouais.
Oui, alors...
On a dit qu'il y a bien...
Mais psychologiquement, il y a un truc...
Sinon, honnêtement, ça a été vraiment abusé.
C'est-à-dire que j'aurais vraiment l'impression que c'était d'une absurdité financière.
Là, il y a côté...
C'était la seule solution qui psychologiquement n'était pas trop difficile.
En plus, attends, je vous propose qu'on rentre dans le vif du sujet avec un petit tour de vos news, si vous en avez.
Vous avez des news ?
Oui, carrément. Moi, c'est une rumeur, mais qui, à priori, est plutôt vraie.
Et vu qu'elle est tombée hier, je me suis dit, on va en parler.
C'est Apple qui aurait mis fin à son projet de titan.
Et le projet de titan, c'est sa voiture, son Apple Car.
Et c'est quand même lancé en 2014, donc depuis 10 ans.
2000 personnes, à priori, qui t'a fait dessus.
Ouais, j'ai pas eu le chiffre.
Oh...
2000.
Ouais, ouais.
Et c'est assez énorme.
Et du coup, à priori, on aurait certains côtés logiciels qui passeraient sur l'IA.
2000 pendant 10 ans, c'est impossible.
Ah non, non, non, non, non, non.
À la fin.
À la fin.
Au début, il y en a beaucoup moins, évidemment.
Là, il y aurait 2000 personnes, actuellement.
Il y a quand même des gens dans cette équipe.
C'est 10 ans de leur carrière, quoi.
Ouais.
Qui disparaient.
Mais 10 ans de carrière qui sont transportables sur d'autres projets.
Et en fait, c'est pour ça, là, c'est en...
Si t'avais beaucoup de papier de recherche, l'Apple, par exemple, de la voiture, très peu moins.
Je pense que ça se valorise quand même.
Honnêtement, je me...
Enfin, j'imagine que ça se valorise bien.
C'est quand même spécial.
C'est-à-dire que parfois, effectivement, t'es dans de la recherche de pointe,
dans des entreprises qui ont l'habitude de communiquer beaucoup, de montrer ce qu'ils font.
Ouais.
Et donc, effectivement, tu sors de tes 10 ans, t'as des choses à montrer, quoi.
Et le problème des entreprises hype, mais secrète, c'est que là, si ça se trouve,
t'as des gens, ils ont fait des trucs de dingue, mais ils ont rien à montrer.
Je me demande, est-ce qu'ils ont un NDA,
ou ils ont pas le droit de dire pendant, genre, un an, qu'ils ont bossé sur l'Apple.
Mais en fait, là, c'est une rumeur, bon, a priori, elle est quand même assez vérifiée,
venant du correspondant de Bloomberg, le pharmacomarque Grumann, qui est très, très bien informé.
Et en fait, je me suis dit, on va savoir si c'est vrai, dans les mois à venir,
quand des anciens d'Apple vont chercher du travail.
Parce que s'il y en a beaucoup qui cherchent du travail, notamment dans l'automobile,
ou des choses comme ça, les gens qui bossaient sur le hardware, en fait,
ils vont pas pouvoir être forcément requalifiés sur d'autres choses en interne à Apple.
En fait, ça va se trahir un peu par le marché, le tech qui va bouger.
Mais j'ai une réponse marrante de quelqu'un qui disait, en fait, ils ont arrêté,
parce qu'ils se sont rendus compte qu'ils avaient pas besoin de faire toute une voiture
dans toutes les voitures, puisque en fait, tous les constructeurs,
ça ne va pas faire du logiciel et donc ils mettent à l'application.
Oui, et c'était déjà le cas.
Mais je pense qu'ils ont pu se dire un moment, non, mais il y a un risque,
à terme de ne pas posséder cette plateforme en termes de logiciels, tu vois,
et que eux, ils se mettent à nos concurrents-s,
vous l'avez dit, c'est que personne ne veut faire du fait de l'O.S. de voiture.
J'ai aussi vu quelque chose, je pense pas que ça soit la raison première,
mais que Apple faisait jamais de produits à moins de 25% de marche,
et que sur l'automobile, c'est très, très dur d'attendre des marches paris.
Donc ça peut aussi jouer.
Apparemment, ils étaient arrivés à un point de rupture,
où il fallait continuer, soit il fallait enterrer le projet à tout jamais.
Visiblement, ils ont pris une décision, mais en vrai, ça a quand même surpris.
Enfin, c'est... Et a priori, là, il n'y a pas de...
Enfin, de ce que disent les analystes, il n'y a pas d'autres projets secrets,
mis à part le Vision Pro, mais qui est sorti, du coup.
Et forcément, de liens, mais il y a...
C'est pas un produit, c'est quelque chose qui va se retrouver dans plein de produits différents.
Mais donc du coup, le Vision Pro s'est pris un peu, il y a un coup de pression,
en mode, faut que tu me fonctions, parce que...
Vraiment, ça va.
Vraiment, il n'y a plus de trucs secrets dans la besasse, quoi.
Ouais, c'est ça. Magnifique photo de l'Apple Care en...
Cette image m'a terminée de...
Elle est incroyable.
Merci beaucoup, Thiel.
Bah, c'est quoi ça ?
Si c'est les mêmes designers que la Magic Mouse, on se serait fait...
Voilà, c'était juste pour...
Pour faire part de cette petite news.
Et on me demande si j'aurais fait un tableau Le Bon Coin pour...
Pour acheter la maîtrise.
Il aurait fallu vraiment vendre beaucoup, beaucoup de cales.
Un scooter, peut-être.
Ouais.
Mais il m'appelle une voiture, je sais pas.
Très cool.
C'est une news, toi ?
Et oui, j'ai vu ça aujourd'hui.
Google a sorti une IA, encore une fois, on parle d'IA.
Mais une IA qui peut générer des jeux vidéo...
2D, à partir de d'images ou de textes.
Ah, je vais rater ça.
Michael !
Bon, fais-tu une tableau, ne me l'a pas donné !
Michael, arrêtez-nous sur l'IA.
Comment fait-on ?
C'est trop cool.
Et donc, ouais, alors c'est vraiment...
Experimental encore, et puis c'est pas accessible à tout le monde.
Donc, c'est encore en recherche.
Mais voilà, ils se sont basés sur 200 000 heures de vidéos de streamer,
sur Twitch et sur YouTube.
Et voilà, donc pour l'instant, c'est que des jeux en 2D, comme ça.
Mais c'est quand même assez cool.
J'ai essayé de voir comment marchaient.
Alors, il n'y a pas beaucoup d'explications encore sur comment ça marche.
Mais du coup, il y a trois modèles, enfin, trois différentes façons de breakdain de
le truc pour entraîner ce modèle-là.
Le premier truc, ils appellent ça un vidéo tokeniser.
Donc en fait, ils vont casser les...
Je parle pour l'entraînement.
Les jeux vidéo en plusieurs petits morceaux, en tokens.
Après, ils font une analyse de l'action latente.
Donc en fait, ils font le modèle, ils vont faire une analyse frame by frame
de comment le gameplay marche et de comment les actions...
En vrai, c'est ça qui est assez incroyable.
C'est qu'en fait, ils se basent juste sur les vidéos.
Donc en fait, ils essayent d'inférer pratiquement tout le gameplay,
comment le joueur interagit avec le GameSoft.
C'est super.
Comment tu peux deviner, par exemple, si c'est un slide-up
ou si c'est un douche de clavier ?
Franchement, je ne sais pas.
J'ai essayé de rechercher un peu...
C'est sorti au jour...
Enfin, moi, je l'ai vu aujourd'hui, la news.
J'ai pas eu le temps vraiment de creuser.
C'est assez incroyable comment ça marche.
Si jamais quelqu'un dans le chat sait, c'est super intéressant.
Et enfin, il y a un autre truc qui s'appelle le dynamic model,
qui permet de prédire les frames suivantes
pour chacun des actions, pour les mouvements.
Je trouve ça assez cryptique encore.
Moi, je n'ai pas tout compris.
Mais je trouve ça incroyable la rapidité à laquelle ça va.
Aujourd'hui, tu peux juste mettre un input en texte
ou juste une image et t'as cette espèce de début de jeux vidéo 2D
qui sont créés par les IA.
Ça s'appelle génie.
Je trouve ça complètement incroyable.
Mais surtout, ça pose beaucoup de questions sur l'archi du truc.
Oui, mais je suis assez très cloreliose de savoir comment ça marche.
Surtout, en termes de générations, on dirait la première version de mid-journée.
Ça laisse toujours présager ce qui pourrait arriver après.
Mais qu'est-ce qu'on fera dans 6 mois ?
C'est exactement.
Je t'ai appris un truc en termes de news.
En même temps, il y a tellement de choses.
A part sur un Asq.
Si vous êtes auditeur d'Anscore, vous avez de la culture superbe.
Et moi, ma news...
Il y a un recruteur qui m'a dit ça un jour.
J'ai été fâché avec les jeunes développeurs
qui rentraient dans mon service IT.
Et franchement, les gens qui me citent Anscore, je suis content.
J'étais en mode...
Je ne savais pas où m'acheter.
Ça reste plutôt grand public.
Il y a peut-être d'autres référentes.
Mais en vrai, je comprends.
Il y avait eu des mauvaises expériences pour le passé.
Il a dû en avoir des bonnes avec des gens qu'on citait.
C'est juste un marqueur de curiosité.
Exacto.
Si ton divertissement...
C'est exactement.
Il est fort pour le...
C'est là où tu sais qu'il est pas au revoir.
Je vais l'accuser.
Moi, ma news aussi, dans l'intelligence artificielle,
c'est un petit arc qui n'est pas assez intéressant
pour que j'en fasse une chronique.
Moi, qui m'a un peu tenue en haleine pendant ce week-end,
c'est qu'il y a eu des nouvelles sorties de Mistral.
Vous connaissez évidemment Mistral,
la nouvelle licorde qui, en 10 mois,
est devenue un mastodon tout de suite du monde de LIA
et qui est fait par des Frenchies, tout simplement.
Ils ont sorti Mistral large et ainsi que pas mal d'autres trucs.
Le chat.
Voilà, ils ont sorti le chat.
Le chat, il faut que je l'ai dit.
Le chat qui est leur frontaine, en fait, alternatif.
La Poloco, tu regardes même les URLs toutes.
Tu te rends compte que le copy-paste de OpenAI est évident,
mais tant mieux.
Les data centers sont probablement en France, etc.
Il y a des très bonnes raisons de se positionner comme ça.
Pour le compte en termes de modèles, ce qui m'intéresse,
c'est le plus qu'ils ont sorti Mistral large,
ainsi que Mistral small, si je dis pas de bêtises,
qui est une version, un nouveau plus petit modèle
qui est un peu de la taille de Mistral pour ceux qui voient
et qui a des latences beaucoup plus faibles et des meilleures performances.
En gros, un peu des deux côtés du spectre,
ils ont sorti des nouveaux modèles qui sont censés avoir des performances supérieures.
La particularité, c'est que ce sont des lancements privés.
En gros, contrairement aux fois précédentes,
où ils ont fait énormément de bruit avec des publications de modèles en poids ouvert.
C'est très compliqué d'expliquer,
parce que c'est pas vraiment de l'open source,
dans le sens où ils expliquent pas du tout leur recette magique, etc.
C'est juste les poids qui permettent de faire tourner l'inférence.
Le gros fichier, en gros.
Ce qui permet de pouvoir finituner propre modèle,
de pouvoir l'utiliser, le réutiliser.
C'est ça qui évite aussi le côté d'être verrouillé
à OpenAI ou à Azure, ou je sais pas quoi.
Tu peux le faire tourner en local, etc.
Bref, précédemment, ils avaient fait beaucoup parler avec des modèles open.
Et là, c'est pas le cas.
En plus, ça a coincidé avec un investissement d'île avec Microsoft.
Ça, ils auraient peut-être pas du lancement à même moment.
Ils auraient dû décaler effectivement.
Plus les gens ont vu sur leur site qu'il y avait une phrase qui avait changé,
et qu'ils ont enlevé le...
On s'engage à faire avancer les modèles open source.
Ils sont épis.
Exactement, tout est épis évidemment.
Il y a une sorte de combinaison de trois facteurs qui ont commencé à faire jazzer partout.
Tout le monde était en mode, c'est bon, c'est fini.
C'est un peu un arc du héros qui dessoue.
Ça fait des belles histoires.
En fait, plus t'es émerveillé et plus t'es facilité par une boîte,
évidemment, si elle te déçoit.
Exactement, tu te mets à lui prêter toutes les qualités, etc.
Et dans les faits, c'est une boîte qui a besoin de gagner de l'argent.
Ils ont besoin de trouver des modèles qui fonctionnent.
Surtout qu'en fait, c'était un peu un épouvantail.
Dans les faits, tout va bien.
Ils ne se sont pas faits racheter par Microsoft.
C'est juste, c'est un partenariat pour rendre accessible les modèles.
Quand t'es une boîte spécialisée dans le développement de l'IAT,
t'es pas une boîte spécialisée pour faire tourner des data centers gigantesques
avec des bandes passantes immenses.
En gros, ça a du sens de faire des partenariats avec des gens qui sont spécialisés
à faire des serveurs.
Et donc, tout va bien.
Voilà, que personne ne s'inquiète.
Et deuxièmement, ils ont rollback le changement sur le site.
Je ne sais pas pourquoi, qui s'est dit que ça allait pas être vu.
Je ne sais pas, on dirait, un erreur obète
où ils ne se sont pas dit que c'était important probablement.
Mais en fait, pour une certaine communauté, ils se sont dit que c'est important.
Ils n'ont pas de travail, ils n'ont pas de travail.
En gros, dans l'IAT, les rapports de force sont hyper remencés.
D'un côté, tu as les gentils, tu as Zuckerberg,
qui vit un nouvel arc héroïque,
auquel personne ne s'attendait parce que ça devient le porté standard de l'Open Source.
Et de l'autre côté, tu as les méchants.
Je pense que tout allait très vite.
Tout c'est...
Et de l'autre côté, tu as Google et Open AI qui sont les close d'AI.
Dans ce paysage un peu caricatural digne d'un animé,
Mistral était en train d'avoir un show d'un anniversaire.
J'ai suivi ça sur Twitter, c'était bon.
Mais sans y prêter trop attention,
c'est ce que le fondateur de Mistral a publié.
Tout est bien, ils vont republier des trucs ouverts.
Ils vont trouver des business models,
où les plus gros et les meilleurs modèles, ils les gardent pour eux.
Mais ça leur permet de remettre en Open Source un modèle un peu moins performant.
C'est sûr qu'ils vont trouver un équilibre.
Ce qu'ils comptent, c'est qu'on a des gens super forts qui sont français.
A priori, c'était prévu depuis très longtemps dans leur business plan.
J'ai cru comprendre, mais je ne l'ai pas vérifié,
qu'il n'était pas ouvert, Open sur Internet,
qu'il y aurait des modèles plus grands qui seraient à se fermer.
Cette personne faisait la remarque que tu ne finances pas une boîte full Open Source
comme tu financerais une boîte qui a des ambitions comme Mistral.
Je suis peut-être biaisé, je leur plaide de très bonnes intentions à ces gars-là.
Mais en fait, c'est sans doute le mix des deux un peu parfait
pour en même temps avoir de l'investissement et des capitaux.
Et en même temps, faire collectivement avancer pas mal de modèles d'IA,
vu qu'on en est encore au tout début,
ça bénéficiait à tout le monde de mettre des modèles en Open.
Oui, mais comme tu disais, Mickaël Avent,
aujourd'hui en IA, c'est difficile de se lancer dans un truc comme ça
aussi pointu sans avoir l'appui de grosses infrastructures.
Si tu n'as pas les investissements, tu es fini.
Les investisseurs veulent la modèles économiques.
Voilà. Et donc après, c'est prévu depuis très longtemps.
L'exception qui est marrante, c'est quand même Meta et Facebook.
En fait, les investissements, ils les donnent.
Les capitaux ?
Oui, les capitaux les ont, mais quand tu réfléchis,
quand tu écoutes Zucca Berri, en gros,
parce qu'il en a un peu parlé dans des interviews,
comment ça se fait ?
En fait, on trouve des perplexes de cet arc,
en fait, tu te dis normalement,
normalement, Marc, c'est méchant.
Exactement, dans mon système de valeur,
il n'est pas du bon côté normalement, et j'aime problème.
En fait, quand tu l'écoutes, c'est intéressant dans ces interviews.
Tu expliques qu'en gros, le business model de leur boîte,
ça n'est pas justement de vendre ses services,
contrairement à des Google ou des OpenAI, etc.
Parce qu'en fait, eux, dans tous les cas,
ils ont besoin de les développer pour d'autres producteurs,
que eux, ils vont intégrer ces modèles
pour te faire vivre des expériences,
augmenter ton terreso social, te vendre des rébanes,
enfin, des...
Et en fait, du coup, dans tous les cas, ils en ont besoin pour eux,
donc c'est en mode, en tant qu'à faire,
en fait, on pense que ça nous bénéficie aussi,
c'est-à-dire qu'on le met en open source,
et un peu, tout comme ça a été le cas avec les nukes,
et les trucs un peu critiques,
dont on veut qu'ils soient vraiment très très robustes,
eux, c'est un peu un...
dans un objectif d'antifragilité, en fait, ils se disent,
« Bon, bah, dans tous les cas, on le développe nous-mêmes,
donc on le fout dehors,
il y a des gens qui vont le retourner dans tous les sens,
voir s'il y a des problèmes, voir si on peut l'améliorer,
et dans tous les cas, on ne comptait pas le vendre,
on comptait l'utiliser.
Enfin bref, c'était intéressant de voir pourquoi telle ou telle boîte prenait des services.
– Et Apple aura exactement les mêmes opérations,
ils vont pas faire un... ils vont l'intégrer à des produits, mais...
– Ouais, c'est ça. Et donc ils ont...
enfin, tous ces gens bénéficient, contrairement à des Google, etc.,
de... du fait que ce soit open.
– Et pour boucler sur Mistral, Facebook,
tu parlais de Facebook, Facebook et Google ont ouvert très très tôt
des labos d'IA à Paris,
et c'est ça qui permet, on est des bosses de l'IA,
tous les trois Mistral viennent, soit de Google, soit de Meta,
qui avaient les deux installés des labos d'IA à Paris.
– C'est quand même, grâce...
il faut quand même se souvenir de ces deux-là,
parce que c'est grâce à eux que tout a commencé.
– C'est... dans le chat, c'est quelqu'un qui dit Zuckerberg,
c'est un peu le Linus de l'IA,
Linus Torvalds.
J'aurais pas pensé dire ça dans le nom.
– Ah, c'est barre, que le chat dit ça, quand même.
– Elle a dit Linux, mais je le renombe,
enfin, ça me fait attention, ça me fait attention.
Et... et j'aurais pas pensé que cette phrase aurait eu un...
ne serait-ce qu'1% de sens.
– Ouais.
– Et... et en fait, on est dans une timeline,
ou... ou... ou... c'est très bizarre.
– C'est vraiment très bizarre.
– Une très bonne fin d'entrée.
– Exactement.
Sur ce, je propose comment, dans le vif du sujet,
nous avons une bien belle émission ce soir,
et je te propose que ce soit toi qui fasse le brief,
le temps que je retrouve mon... mon reneur.
– Fairez-bon.
– Qu'est-ce qu'on va... de quoi on parle ce soir ?
– Alors, en... en deuxième partie d'émission,
nous allons recevoir Renault-Aïds.
J'espère que je prononce bien, je lui ai pas demandé juste...
– Il est bien, il est bien.
– Avant l'émission, qui est le co-fondateur
et directeur technique de Exotech.
En plus, je suis très heureux, parce que je... je les connaissais de noms.
On était voisins de... voisins de... dans le Nord.
Et donc, ils font de s'il y a une entreprise de Robotique
qui fait des robots pour les entrepôts.
Et... et c'est un collaboration commerciale avec eux,
donc on les remercie grandement.
Et je... je suis très curieux de savoir
toute la technique de ces robots, comment ça fonctionne.
– On a des belles images.
– On a des belles images, j'ai eu la chance
d'aller voir un peu ce qu'ils faisaient sur place.
C'est impressionnant.
On va pouvoir lui poser toutes nos questions
et savoir comment ils ont réussi à dépasser Amazon
sur leur secteur de... des entrepôts,
de la logistique, de la livraison de Cognon.
– Et des robots qui vont vite.
– Et des robots qui vont vite.
Bref, on a plein de questions à lui poser et c'est trop chouette.
– Ça va être très cool.
En troisième partie.
– En troisième partie, nous aurons... nous nous interrogeons.
Pourquoi il n'y a pas plus de jeux sur Mac, actuellement ?
– Alors que, dans toutes les cons des Keynote Apple,
on nous montre des benchmarks...
– En tout cas depuis 6 mois.
– Depuis exactement.
– Depuis 6 mois, non, il y a un gros, gros focus
qui est mis sur le jeu vidéo, ce qui n'avait pas été...
– D'un point de vue hardware, il semble que tout soit prêt et pourtant.
Et pourtant.
– Et bien, j'ai essayé d'analyser tous les éléments que je l'avais
et on va savoir un peu pourquoi il n'y a pas plus de jeux sur Mac.
Est-ce que ça peut changer ?
Est-ce que le Mac va devenir une plateforme en fin de gaming ?
Mais avant ça, pour commencer, est-ce que tu veux reprendre la Mac ?
– Non, en fait, je le sais pas.
– Et bien, on va parler d'une puce d'IA.
On va parler d'IA, mais sauf qu'on va parler de d'IA hardware.
Donc en fait, on ne va pas vraiment parler d'IA.
– Ouais, ouais.
– Si vous n'aimez pas l'IA, vous pouvez rester.
– Pas sûr de ça.
– Pas sûr de ça.
– Pas sûr de celle-là.
– Non, c'est peut-être dans la mer.
Si vous aimez l'IA et les cas de graphique, il faut rester.
– J'adorerais les cas de graphique rester.
– Parce que, non, mais il faut le dire quand même,
tu vas nous parler d'une nouveauté, d'une annonce
qui a été faite par une boîte que, honnêtement,
personne ne connaissait il y a encore deux semaines.
– Non.
– Qui est très étonnante.
C'est vraiment très...
C'est comme si là, il y avait une nouvelle
carte graphique sur le marché, mais elle est bizarre.
– Elle est bizarre et pourtant, elle fait des trucs incroyables.
– Ouais.
– Et je me suis demandé pourquoi.
– Exactement, c'est compliqué, explique-le.
Vous allez voir bientôt la démo de toute façon.
C'est parti.
...
– Comme tu le disais, Mathieu,
on va avoir un sujet vraiment très intéressant aujourd'hui.
Aujourd'hui, dans cette chronique intelligence artificielle,
nous n'allons pas vous parler d'un Niemne nouveau modèle
qui fait des trucs chouettes,
d'une Niemne nouvelle application révolutionnaire
ou de Fine Tuning.
Non, on va vous parler d'une puce.
Une simple puce, une simple qui ressemble à une carte graphique, finalement,
qui pourrait bien changer énormément de choses,
qui pourrait complètement révolutionner
la manière dont vous voyez actuellement les chatbots
et toutes les applications basées sur l'intelligence artificielle.
Comment t'as découvert ça, déjà Mathieu ?
– Eh bien, honnêtement, je vais vous refaire l'origine de cette histoire
parce que c'est vraiment comme ça que ça s'est passé.
Parfois, je tombe sur des nouveaux outils,
on m'envoie des nouveaux outils à tester.
Donc je fais une veille et parfois je les teste,
je les mets dans un coin, je les mets dans un bout de notion.
Et là, justement, je l'avais mis dans un bout de notion sans le tester.
Et je me dis, ok, on m'a parlé de Groke,
et j'ai R-O-Q.
Je vais tester, c'est en gros un chatbot en ligne
où tu peux utiliser tes modèles, genre mixed-tral,
yama, les modèles ouverts,
comme il en existe plein d'autres, mais je vais le tester.
Et donc, c'est ce qu'on va faire en direct,
si ça fonctionne avec TIL, j'ai testé et je vais lui demander.
Donc là, on va lui demander...
– Là, jusque-là, c'est... – C'est vraiment comme chat GPT,
mais c'est une autre interface qui n'utilise pas sur GPT.
On peut choisir son modèle, il y a marqué mixed-tral.
– Ça paraît parfaitement normal et on va lui envoyer un petit message.
– Même que l'interface est pas dingue, honnêtement,
ça pourrait être mieux.
Et voilà, raconte-moi l'histoire des lois d'Azimov.
Et donc, j'ai lancé cette requête.
– Prête, attention, t'es prête. – Ouais.
– Voilà.
– Bon, on dit... c'est un chatbot. – Un chatbot, on dirait que ça va bien.
– Sauf que je ne sais pas si vous avez fait gaffe,
on pourra le remettre... – Le caculeur.
– ...fais-je-dire, fois.
C'est allé vraiment super vite.
Mais genre, il y a eu, je pense,
moins d'une seconde, une seconde et demi.
Il ne s'est pas marqué quelque part ?
– C'est au-dessus. – Le nombre de tokens va le répondre.
– Voilà. – C'est de refaire encore.
– Donc, 127 tokens par seconde.
Sinon, tu peux lui demander...
Donc, ça va quand même super vite.
– On ne s'en rend pas forcément compte,
parce que c'est écrit en plus. – On peut peut-être faire un comparaison
avec chat GPT.
Moi, je pense que ça serait une bonne solution.
Waouh, il est si rapide, il avait préchaute.
Donc, ça va vite, mais c'est parce qu'il est écrit au fur et à mesure.
– Exactement. Ça n'est pas lent. – Ça n'est pas lent.
– Mais là, il y a bien 4 secondes, à mon avis.
– Ouais, et je pense qu'il utilise GPT... – 3.5.
– Non, 3.5, ok, très bien. – Donc c'est censé être le truc le plus rapide.
– Mais quand même. – En vrai, c'est plus rapide que...
C'est rapide chez vous, là, non ?
– C'est parce qu'on paye des gens en t'inquiétant. – Mais c'est aussi qu'on utilise...
Chais, GPT 3.5, c'est pour que la comparaison soit faite.
C'est-à-dire que c'est des modèles qui sont,
théoriquement, en termes de performances et de benchmarks, qui sont similaires.
Et pourtant, là, d'un côté, il y a 4 secondes de générations, et de l'autre, une demi ou...
– Et ça va vraiment... Enfin, je l'ai fait sur plusieurs trucs
où j'ai demandé vraiment des choses utiles à ce moment-là.
Donc là, c'est une petite histoire et tout. Ça va vraiment beaucoup plus vite.
Si je pense que si tu as une connexion lente, tu le vois encore plus.
Bref, ça va vraiment beaucoup plus vite.
Et je me suis dit, tiens, pourquoi un simple front, un simple site web
est capable d'aller plus vite que tous les autres outils que j'ai utilisés à côté ?
C'est le même modèle. J'utilisais Mixtra à chaque fois.
Chach GPT, le modèle le répétait le plus rapide et le meilleur.
Comment ils font pour aller plus vite ? C'est quoi leur secret de sauce ?
Et donc, du coup, je me suis dit, je vais diguer, sur, je vais creuser
pour savoir qu'est-ce qu'ils font, qu'en fait, ça va plus vite, leur site web, et pas un autre.
Alors, on peut se poser juste la question en petite à partie, pourquoi aller plus vite ?
En vrai, là, on l'a bien vu. Pour un humain, Chach GPT fait carrément le taf.
Oui, ça va plus vite que ce qu'on peut lire.
Voilà, ça va plus vite que ce qu'on peut lire, donc on s'en fout.
Pour un humain, ce n'est pas forcément nécessaire.
Sauf que pour une machine, là, ça change tout.
Parce que si on commence à utiliser cet IA avec un autre algorithme, un autre programme, un autre logiciel,
tous ces temps vont pouvoir être raccourcis et donner des applications incroyables.
On reviendra sur les potentiels applications.
Et il y en a qui ont déjà eu des applications, qui ont déjà essayé des cas d'usage,
comme on dit, qui sont très intéressants, on y reviendra à la fin.
Juste pour donner un exemple pour les gens, quand vous utilisez Chach GPT avec des plugins,
par exemple, qui va faire des recherches sur Internet en arrière-plan,
qui va exécuter du code Python pour vous afficher des jolis graphes,
où vous générez des images à la volée,
et à chaque fois, en réalité, ce qui se passe en arrière-plan,
c'est que vous avez des chaînes de pensée, comme on dit, des exécutions cachées,
de discussions entre différents agents, différents programmes,
qui sont une sorte de discussion cachée et qui pourtant nous impactent en tant qu'utilisateur,
parce que c'est ça qui fait qu'on a tant que ça charge, que ça charge.
Donc c'est ça dont tu parles, hein.
Et par exemple, toutes les applications que tu as nous apparaies dans une précédente vidéo
sur la chaîne Ender Score, où tu nous présentes les 4, 5, 6 nouvelles applications
des DIA LIA, font tout ça, font des appels à LIA en bas-grand,
qu'on ne voit pas en arrière-plan, et sauf que tout ça, ça a prend du temps.
Pour l'instant, on est patient, parce que c'est LIA, on retrouve que ça va vite,
mais on ne va pas être si patient si longtemps que ça.
Tu voulais ajouter quelque chose ?
C'est ça, c'est qu'en fait, on peut dire, ok, mais est-ce qu'on est vraiment à 10 secondes près ?
En fait, c'est se tromper de ce qui est important.
Il y a plein de papiers qui sortent qui t'expliquent en termes de performance.
Si tu peux avoir 4 interactions, 8 interactions, 32 interactions,
et bien, c'est-à-dire des chaînes de pensée, des discussions simulées,
et bien tu vas vraiment obtenir des résultats qui étaient complètement impossibles avant.
On a montré un exemple de DIA qui arrivait à générer des TikToks à partir de rien.
Je lui pense que c'est là.
Et bien typiquement, actuellement, c'est 5 minutes de génération.
On a dû passer à un autre outil et revenir après.
En fait, c'est quand même un champ des possibles qui s'ouvrent.
Effectivement, il y a des cas d'usages super précis dont on va vous parler,
où vraiment avoir ce type de vitesse mystérieuse et anormal serait vraiment très cool.
Et là, vous avez vu une démo pendant que tu parlais,
où ça a pris 25-30 secondes, je dirais, je n'ai pas exactement calculé.
On a demandé de générer dans le chat de GPT une image,
raconte-moi les lois d'Azimov en image,
et il y a un système d'abord qu'il comprenne,
après qu'il interprète, qu'il propose plusieurs légendes d'images,
et qui génère l'image, ça a pris environ 30 secondes, je dirais.
Donc franchement, il y a vraiment des choses à faire,
pas forcément pour l'humain encore une fois,
mais pour ce qu'il y a derrière, pour les machines, les programmes.
J'ai donc voulu savoir ce qu'il y avait derrière ce simple site web
pour qu'il puisse optimiser à ce point-là la génération par chat de botte.
Alors première chose, il y en a qui confondent avec GROC de Twitter avec un K,
ça n'a rien à voir.
Il y a GROC GROK, c'est Twitter,
enfin c'est une intelligence artificielle de Twitter,
là c'est GROK.
Et qu'est-ce qu'ils utilisent, quelle est leur secret de sauce ?
Ce n'est pas des optimisations logicielles de fou,
des rien, un site web super bien optimisé,
mis sur un cloud...
Des GPUs super fort.
Des GPUs en partenariat avec Nvidia.
Non, rien du tout, en fait, ils utilisent une nouvelle puce hardware.
Donc si vous voulez vous reprendre leur idée,
vous ne pouvez pas, parce que c'est de l'hardware.
Sauf si vous connaissez beaucoup en architecture de puces graphiques.
Et donc c'est une nouvelle puce, ils ont appelé ça des LPU,
pour LANGAGES PROCESSING UNIT.
Donc c'est des puces qui en fait sont expressément faits
pour générer du langage et le comprendre par chat de botte.
C'est même pas un GPU, moi, quand j'ai vu l'image...
Ça n'est pas un GPU.
J'ai cru que c'était un GPU au début.
Ça n'est pas un GPU.
Pourquoi ça n'est pas un GPU ?
C'est des puces qui sont utiles que pour l'inférence.
Alors l'inférence, c'est quand nous, on fait une requête dans un chat de botte,
et LIA nous répond.
Et en fait, il y a deux choses à différencier dans LIA,
où là où il faut de la puissance de calcul,
il y en a une où il faut énormément de puissance de calcul.
C'est l'apprentissage, c'est pour entraîner les modèles,
et ça c'est fait par les Google, les Mistral, les Facebook, les Meta, etc.
Et il y a quand on utilise chat GPT,
ça utilise beaucoup moins de ressources, mais quand même, ça utilise des petites ressources.
C'est là que quand on l'héberge en local sur notre marque,
on utilise notre GPU.
Mais après, quand c'est dans des serveurs, on utilise par exemple
les gros serveurs de Nvidia, les grosses cartes graphiques H100,
qui sont là en fait, soit pour entraîner un modèle,
soit pour répondre l'inférence,
c'est vraiment l'équivalent d'une requête web quand on est sur Internet.
Alors là, ça ne peut pas générer d'image, par exemple, ce truc ?
Non, et c'est pour ça que ça s'appelle Language Process Units,
c'est que vraiment ils se sont dit, on va faire quelque chose
de vachement spécialisé sur le langage.
J'ai compris ça, je me suis dit, ok, je vais regarder ces specs.
Regardons les specs de ce LPU.
Je vois la quantité de mémoire.
Alors c'est pas ce qu'il y a en rouge, c'est ce qu'il y a au-dessus.
230 méga octets de RAM,
enfin de mémoire de la puce.
C'est pinat.
C'est rien du tout.
Et ça n'a aucun sens.
Pour comparactif, la puce qui fait foi dans l'IA,
c'est donc, j'en parlais, la puce de Nvidia H100,
c'est de la référence pour les Google, les Microsoft et les OpenEng.
Elle a dans certaines versions jusqu'à 80 Giga de mémoire pour une puce.
Là par puce, il y a 230 méga octets.
Alors que ça va plus vite ?
Et pour ceux qui ne mangent pas des cartes graphiques au petit-déjeuner,
en gros, les ordres de grandeur pour des cartes normales,
c'est dans les 8, 10, 12, 16 Giga.
C'est des bonnes cartes graphiques déjà.
Voilà, c'est les meilleurs que tu peux obtenir.
Et 24 Giga, c'est si tu prends actuellement une 4090.
Et que tu es monteur vidéo à temps plein pour le cinéma.
Ouais, et que tu fais du blender, ou des animations, ou des animations, etc.
Et quasiment personne n'a besoin de ça,
mais actuellement, ça va te coûter dans les 2000 euros à peu près.
C'est le mieux que tu peux avoir en tant que personne normale pour un GPU.
C'est une 4090.
Et là, tu peux espérer avoir 24 Giga de RAM.
Et pour vous donner un...
Alors on parle bien de VRAM, donc c'est de la RAM de GPU.
C'est pas les petites barrettes que vous mettez dans votre machine.
Et donc pour vous donner un ordre d'idée, là-dessus,
vous pouvez faire tourner des modèles type mixtral qui vont faire 30 milliards de paramètres à peu près.
C'est bien, vous pouvez commencer tout doucement à faire tourner des modèles un peu plus gros,
des 70 milliards de liens MA, ou des choses comme ça,
si vous les réduisez beaucoup.
En bref, c'est pas terrible.
En gros, rien que ça.
La meilleure carte graphique que nous autres, on peut acheter,
c'est que tu es très vite limité en termes de...
Par la mémoire.
Exactement, pas la mémoire.
Donc 24 Giga, moi dans ma tête, c'est peu, en fait, c'est vraiment très peu.
La 3... 230...
230 méga octets.
230 méga octets.
C'est ridicule.
C'est comme s'il n'y en avait pas.
Je regarde une ligne après, et je m'intéresse au nombre d'instructions qu'on peut faire par seconde.
C'est une sade qui est beaucoup utilisée dans les CPU, les GPU, tout ce qui est processeur.
Pour un, on va revenir à notre H100 de Nvidia.
On peut faire 1000 teraflops par seconde.
Donc 1000 opérations, 1000 instructions.
Le grog, là, le LPU de Grogchip, il est à 188 teraflops.
Ok, donc c'est pas ça non plus.
Qu'est-ce qui se passe ?
Et pourtant...
C'est quoi la différence ?
188.
Donc c'est divisé par 5.
Ok.
C'est divisé par 5.
Alors après, forcément, les LPU, on a plusieurs.
Donc les comparaisons, on peut pas exactement les faire comme ça.
Et pourtant, les résultats sont l'un.
Pour l'instant, je vous ai dit en inférence, le LPU peut générer 400 tokens par seconde
pour simplifier 400 mots par seconde.
Vous lui donnez une instruction, il va pouvoir écrire 400 mots par seconde.
Alors que pour des GPU classiques, mais quand même un peu puissants, on est à 100 tokens par seconde.
Mais c'est un peu la limite qu'on avait.
Ok, on est à 100 tokens par seconde, ça nous va très bien.
100 mots par seconde.
Eux, ils sont arrivés.
Tout à l'heure, on a même vu du 525 tokens par seconde.
Ce qui est vraiment un vrai sable.
Oh voilà, 520 tokens par seconde.
Résultat, et on peut...
Ah oui, non, je n'ai oublié quelque chose.
Donc c'est bien plus rapide en inférence.
Et en plus, c'est beaucoup moins cher pour les chatbots qui hébergent ce genre de plateforme.
Parce que forcément, quand tu es un chatbot, tu as des coûts en inférence.
Ça te coûte de l'argent.
Et c'est beaucoup moins cher.
On est environ à...
Souvent, c'est l'amortissement et l'électricité, quoi.
Exactement.
En termes de perf, si je dois résumer, on est à 10 fois la vitesse qu'on aurait avec un système classique jusqu'ici.
Et 100 fois le prix par performance.
Donc le prix pour une performance à égalité avec un système classique.
Résultat, qu'est-ce qui s'est passé ?
Il y a plein de plateformes qui se sont mis à intégrer l'API de Grokship pour utiliser les LPU de Grokshik.
Il y a eu Versel.
Ah ouais ?
Ouais, Versel.
Alors ils ne font pas tout sur Grokher.
Mais ils ont implémenté ça.
Versel, on a eu PO aussi, je ne sais pas si ils savent pas.
C'est que les outils de développeurs.
De chatbots.
Non, de chatbots aussi que vous pouvez avoir en frontaine.
Donc PO, c'est un assisteur.
Vous pouvez lui demander des recettes de cuisine, etc.
Je dis, c'est incroyable.
C'est pas cher, c'est performant.
C'est quoi leur secret ?
On l'a dit, c'est une puce dédiée.
Et en fait, ils sont partis du postulat que, à la naissance de LIA,
si on a commencé à la naissance de LIA, ça fait très bizarre.
Mais quand LIA a commencé à s'émanciper et à devenir vraiment efficace,
et qu'on a commencé à utiliser LIA de façon quotidienne,
en fait, on a utilisé les GPU, parce que ça fonctionnait,
et qu'ils étaient présents sous la main.
Et que c'était très bien ça,
les très vides, ça marchait avec nos GPU, on l'a fait.
Sauf que, en fait, de base, un GPU,
c'est fait pour processer des images graphiques.
Ce n'est pas fait pour de l'intelligence artificielle.
Alors, ça marche très bien.
Sauf que Grogg, là, ils se sont dit, ça marche très bien.
On peut faire carrément mieux.
Et en fait, faire mieux dans le monde de LIA,
c'est faire beaucoup, beaucoup, beaucoup plus simple.
Ce qui est fou, c'est que ça se voit même en une image.
On va vous montrer un GPU, un scan d'un GPU et un scan d'un LPU.
La GPU, c'est vraiment la bibliothèque super bien rangée, quoi.
C'est vraiment, il y a les livres à toutes les étagères.
Un GPU, c'est beaucoup plus complexe
comme architecture.
C'est un bordel.
C'est un bordel.
Et voilà, ils ont fait des trucs beaucoup plus simples.
Et en fait, ils se sont attardés
sur une chose très importante
pour inférer des IA, donc pour répondre à des IA.
C'est qu'ils ont été conçus pour un volume
élevé de calcul à faible précision.
Donc vraiment, ce n'est pas des calculs compliqués,
mais c'est des beaucoup, beaucoup de calculs
avec beaucoup d'entrée et beaucoup de sorties.
Donc globalement, tout ce que ne fait pas
ou fait moins bien un CPU,
donc un processeur ou un GPU,
une carte graphique.
Et ils se sont tout mis sur la bande passante.
La bande passante est très, très importante.
Pour une puce, si on regarde les specs,
elle est à 80 terabites secondes.
C'est absolument immense.
Et en fait, ils se sont dit, OK,
on ne va pas mettre beaucoup de mémoire.
On va faire la stratégie inverse.
Au lieu de mettre, pousser la mémoire à fond,
on ne met pas de mémoire.
Par contre, on est tellement rapide
qu'en fait, on n'a pas besoin de la mémoire,
on fait tout en bande passante.
Là, j'ai simplisé.
C'est comme un joueur de foot,
tu as des trade-offs en gros.
Exactement.
Là, ils ont maximisé la bande passante.
Mais du coup, c'est...
J'ai minimisé la mémoire.
J'imagine que surtout la conséquence,
malheureusement, c'est qu'ils ne peuvent pas
avoir autant de mémoire.
Et donc, comment ils font ?
Plètement.
J'imagine qu'ils ont mis plein.
Et du coup, je ne vais pas rentrer dans le tamis,
ils ont mis plein plein plein plein plein en classeur.
Parce que là, effectivement,
pour atteindre les 50 ou 100 Giga
nécessaires à faire tourner des gros modèles,
tu dois en avoir combien ?
Faites le calcul, en vrai.
Juste les 20.
Tu en as 5 par Giga,
4 par Giga, en gros.
Et donc...
J'ai plus le calcul là.
Ça fait typiquement 100 Giga.
Tu en as besoin de 400 LPU
pour faire tourner les plus gros modèles
qui existent.
Sauf que, en fait,
le LPU est une puce qui coûte beaucoup moins cher.
Et aussi, qui se met beaucoup mieux en cluster.
En fait, les très grosses entreprises,
ils ont du mal à faire des immenses clusters de GPU.
Ils y arrivent parce qu'il faut bien.
Mais parce qu'en fait,
il faut des CPUs qui gèrent les GPUs.
Et ça se met...
C'est compliqué à mettre en cluster.
Ça chauffe.
Et même, d'un point de vue architecture et logiciel
pour gérer tout ça,
en fait, paralléliser, c'est toujours un peu compliqué.
Là, les LPUs,
vu que c'est des petites puces en réalité,
ça se met bien plus facilement en cluster.
C'est-à-dire en groupe.
On arrive beaucoup plus facilement à les regrouper.
En gros, c'est comme ça qu'ils ont réussi.
Ok.
T'as, c'est bien, D'av.
Si je...
Mais du coup, j'imagine qu'il doit avoir, effectivement,
des rangets avec 400 GPU.
Mais ou du coup...
Le nombre d'utilisateurs...
LPU, du coup.
Pardon, de LPU.
Et ou du coup...
En fait, c'est beaucoup plus distribué.
C'est beaucoup plus distribué.
Tu l'as très bien dit.
Alors, j'espère qu'on n'utilise pas des mots
qui ne font pas dans cette industrie.
On vulgarise très, très grossièrement.
Et en fait, est-ce que c'est nouveau,
parce qu'ils ont fait un petit buzz, quand même,
sur Twitter, ça a vachement bien marché,
est-ce que cette architecture est nouvelle ?
En fait, non.
Ça existait déjà.
Et pour cause,
le fondateur de Grok,
et des Grokchik,
Grokchip,
c'est un ancien de Google
qui a travaillé sur le premier TPU.
TPU, c'est pour Tenseur Processus Units.
Ça a été lancé en 2015.
Et en fait, c'est des puces qui sont conçues
pour les Tenseurs,
on dirait en français,
donc c'est un objet mathématique.
Et pour le calcul matriciel.
Pour faire très simple,
ce qu'on besoin, les IA,
c'est de faire des calculs matriciels
et de faire des Tenseurs,
parce que c'est des objets en 3D, en gros,
pour faire simple.
Et Google, ils se sont dit,
ok, on a besoin de faire ça.
Du coup, on va inventer notre propre puce,
qui s'appelle le TPU.
Et en fait, c'est un ancien de Google
qui a participé à l'élaboration
de ce chip,
qui a fait son propre chip,
parce qu'il s'est dit,
en fait, il y a complètement un marché.
Et en fait,
le LPU surmonte 2 goulots
d'étranglement,
des LLM, des chatbots, etc.
C'est, comme j'ai dit,
la quantité de calcul
et la bande passante mémoire.
Ils misent tout sur ces 2 choses-là,
au détriment du reste.
Et pour finalité,
ça réduit le temps nécessaire
pour générer un seul token.
Et donc, ça réduit,
ça génère des textes
bien, bien, bien plus rapidement.
J'ai une question, du coup,
parce que je me rappelle très bien,
quand ils ont sorti les TPUs à Google.
Oui.
Et du coup,
tous les calculs matriciels,
c'était super bien pour les images.
Mais du coup,
les LPUs, c'est pas basé sur les TPUs.
Ils ont dû décliner le principe,
mais pour les transformés...
En fait,
il y a une 2e couche d'intelligence
qui est vachement importante,
c'est qu'ils ont un...
c'est le compilateur.
En gros, c'est l'interface entre
LLPU et LLM.
Là, dans leur compilateur,
ils ont tout optimisé
pour que ça s'adapte
à des LLM de langage.
Et en gros,
au début,
ils comprends avec quel LLM
il va parler,
comment le LLM, il parle.
Et il l'adapte un peu
sa compilation
pour faire en sorte que
ça soit plus rapide.
En gros, ils ont un compilateur
super rapide
qui s'adapte aux LLM.
Alors qu'un GPU,
tout est basé sur CUDA, etc.
Enfin, je ne vais peut-être pas rentrer
parce que je ne vais pas le maîtriser.
Du coup, si j'ai bien compris,
c'est qu'ils ont conçu la puce
pour qu'elle soit hyper efficace.
Et donc, en général,
pour rendre plus efficace du hardware,
c'est qu'on contraint ce qu'il peut faire.
C'est toujours comme ça.
Un GPU, ça peut tout faire.
Donc, c'est moyennement efficace en général.
Et donc, par exemple, un GPU,
ça peut faire beaucoup moins de choses,
parce qu'il y a beaucoup plus de choses
qui se voient dans le...
dans le Silicium, en gros.
Tu peux voir certains algos,
plus ou moins.
Et donc, ça permet d'avoir des performances superbe.
Là, ils vont encore plus loin, en fait,
dans cette direction-là.
Mais pas au point que tu peux
seulement utiliser leur puce avec un LLM.
Tu ne peux pas juste l'utiliser avec Liama.
Ils ont trouvé une sorte d'entre-deux
où c'est à la fois relativement générique
pour à peu près tout ce qui est le langage.
Et du coup, à l'avenir,
ça sera probablement compatible
quand ils mettront à jour leur combinateur spécifique
avec d'autres trucs.
Et en fait, c'est une des déclinaisons
des TPUs, parce que, vous le savez sans doute,
mais Google a très très tôt open-sourcé
ces librairies d'apprentissage.
C'est ce qu'on appelle Tender Flow.
Et en fait, tout ça est complètement open-source.
Et donc, les puces qui sont faites
et qui se basent sur cette librairie
sur les TPUs,
chacun peut faire sa propre puce.
Et Grok n'est pas du tout les seuls.
Facebook, on sait que Facebook travaille sur la sienne.
Je ne sais plus comment elle s'appelle,
mais MTIA,
ça a la fin si jamais-t-il,
Amazon aussi,
travaille dessus sur des projets
qui s'appellent Trenium et Nferensia.
Et il y a tout plein de startups
qui, comme Grok, se sont dit,
il y a un marché.
Et en fait, il y en a plusieurs.
Donc là, c'est Grok qui met en avant.
Et il y en a plein, parce que,
vu que tout le monde a accès aux mêmes ressources,
tout le monde s'est dit,
on va faire des puces dédiées à l'inférence
qui sont dérivées de ce TPU.
Donc le LPU est en fait une déclinaison,
comment on dit en programmation quand on veut...
Un fork.
Pas un fork.
Bref, j'ai plus les mots, mais c'est pas grave.
Mais c'est écrit parce qu'on n'est pas...
Le mot, une instance.
Ah oui.
En gros, c'est une instance
d'une architecture de puces
dédiée à une application.
Et donc là, on parle aujourd'hui du LPU.
Il y en aura sans doute bien d'autres.
Mais en fait, ce qui est intéressant,
c'est que ça apporte vraiment quelque chose.
Justement, qu'est-ce que ça apporte ?
Ainsi, il y a un cas d'usage en vidéo.
Et c'est ça qui est cool.
Le premier, on va pouvoir montrer le tweet,
c'est le transcript d'une vidéo
avant même que la vidéo soit finie.
Je te promets.
Et donc c'est des gens
qu'ont mis au point
ce petit truc, ils ont utilisé différents outils.
Et grâce à ça, tu peux lancer la vidéo.
Ah oui, il va y avoir du son, c'est ça.
Hi, this is Dr. Ken Jeong
of Dr. Ken Jeong.
Mais en vrai, on peut enlever le son.
Et donc là, pendant la vidéo,
il a son petit truc qui tourne
Et il va y avoir le transcript qui apparaît.
Premier cas d'usage que je trouve incroyable.
C'est plus rapide que du temps réel en gros.
Exactement.
Effectivement c'est dingue ouais.
C'est vraiment, en fait, voir une vidéo qui est traduite avant même d'avoir la fin
de la vidéo.
C'est un peu brain fuck.
C'est un peu fou.
Et après il lui demande de résumer la vidéo etc.
Donc il est toujours effectivement à 533 tokens par seconde, c'est délire en vrai.
C'est délire en deuxième application et vous y avez peut-être déjà pensé.
Est-ce que vous avez des idées d'applications qu'on pourrait faire avec une IA qui va très
très vite, un chatbot qui va très très vite ?
Après on en a parlé au début, c'est les applications avec beaucoup de chaines de
pensée.
Ouais.
Moi je pense à un autre truc.
Vas-y.
Bah c'est les assistants.
Les assistants vocaux ?
Bah ouais parce que je sais bien qu'il y a nous quelques mois encore.
Il y avait un peu les premiers breaks disponibles qu'on pouvait mettre ensemble, les spits
de texte, les têtes, les machins.
Donc rapidement n'importe qui maintenant peut essayer de créer un semblant de série
intelligent.
Et le gros problème actuel, c'est la latence.
Il y en a plusieurs mais un des gros problèmes c'est la latence parce qu'en fait on sent
pas du tout compte mais ce qui fait qu'on utilise ou pas un assistant, c'est des petites
choses en fait.
C'est des petites frictions qui sont énervantes.
Par exemple le fait qu'il te parle, tu sais que tu lui dis quelque chose et il commence
à parler.
Et là tu reparles.
Mais lui il est bloqué parce qu'il...
Je continue.
En fait c'est des petites choses comme ça qui font qu'actuellement on n'est pas tous
en train d'utiliser des assistants.
Et si jamais effectivement ce hardware permet de générer des tokens à l'infini en très
peu de temps, on résout un petit maillon de la chaîne qui ralentissait beaucoup, beaucoup
le temps de la discussion, les latences entre les questions et les réponses.
Et donc moi j'ai vraiment hâte de voir le Siri basé sur Grok qui te répond en une
quarte de seconde.
Il parait que ça peut même être bizarre si on te réponde.
Enfin il y en a qui ont fait trop vite, qui ont commencé à faire des tests.
En gros si on peut te répondre tellement vite par rapport à ce que fera un humain,
c'est-à-dire nous entre nous...
Tu as besoin de réfléchir des fois.
Exactement, on met quand même deux bon bennets tu vois.
Et si la réponse est trop instantanée, ça peut même être quasiment étrange quoi.
Oh, oh !
Tu as des trucs de conversation tu vas forcer mais on pourrait avoir des potes IA dans
les jeux vidéo.
Oui, aujourd'hui c'est...
Ah oui, tu fais référence à ce que tu avais fait sur Minecraft aussi non ?
Oui mais du coup on est bien plus rapide.
Genre, imagine tu joues en RPG et puis tu as des vraies conversations fluides en fait.
Ok, non mais intéressant.
Je pense que c'est un super point notamment parce que typiquement dans un jeu tu t'attends
ce qui est plusieurs PNG, plusieurs personnages virtuels par exemple etc.
Oui, qui font leur vie, qui font leur...
Or la solution ce sera...
Enfin, ça peut pas être de paralléliser et d'avoir 100 appels différents en même
temps à des apéitifs open air.
Enfin, une manière de résoudre le problème c'est effectivement d'avoir beaucoup beaucoup
plus de débit pour que tout ton monde virtuel puisse évoluer.
Ce qu'on a vu notamment dans les démonstrations qui ont été faites sur...
Vous savez où on génère des épisodes de South Park par exemple.
Oui.
Et c'était une des démonstrations super fun de ce qui est le mieux qui existe actuellement
en termes de scénarisation et de contenu un peu tant réel qu'on pourrait voir un jour
dans un jeu vidéo par exemple.
Et bien mine de rien, ça se passait pas du tout en temps réel.
C'est à dire qu'il y avait des jours de compute de génération avant pour simuler
le monde en gros et faire en sorte que, ah oui tel personnage, ok, à telle heure il fait ça,
à telle heure il fait ça.
Et en fait tous les mécanismes pour imaginer ce qui se passerait dans un monde virtuel,
pour virtualiser un petit monde qui pourrait plus tard être un jeu vidéo, un RPG, et
actuellement ça n'existe pas en temps réel.
Et donc, j'avais pas pensé, mais effectivement c'est probablement une des solutions de faire
ça.
Ok.
Non non mais trop intéressant, c'est des isages que j'avais pas pensé dans le chat
j'ai vu du trading, j'avais pas pensé non plus tu vois.
Le petit.
Ok.
Et du coup, Mickael, peut-être que ce monsieur va réussir à te faire rêver avec son application
qu'il a posté sur Twitter.
Et là on va falloir mettre le son parce que c'est très important.
En vrai moi ça m'a fait quelque chose.
Oh, c'est incroyable.
C'est irré jaki on dit ça à muchísimère 느낌 ?
Incroyable.
Il y a beaucoup d' väletés sur le barbecue, il gloves bien.
Je suis choqué.
Voilà, seule fois qu'on avait vu ça, c'était Google qui avait déjà fait des trucs comme ça, mais c'était en keynote.
C'était une vidéo.
Super optimisé, une vidéo, ils avaient pu la travailler pendant 15 ans.
Mais c'était à plusieurs années en plus.
C'était à plusieurs années, mais par contre c'était sur des cas d'usage super précis, genre c'était pour réserver un resto.
Et en plus c'était en mode keynote, on l'a jamais fait dans la vraie vie. Je trouve ça incroyable.
C'est incroyable, vous avez vu la latence, c'est une seconde set.
Elle est humaine, elle est bien.
C'est ça, c'est bien. Mais il faut se foriser que ça, actuellement c'est une prouesse.
Rien n'arrive à la cheville de ces latences.
Et pourtant, honnêtement, tu rajoutes une seconde, ça devient énervant.
Oui.
On est d'accord.
Là c'est bon.
Ils auraient dû faire la même vidéo de ça, mais avec une niya qui marche pas sur des LPU.
Juste pour la frustration de la conversation de ce...
Je pense que là elle est même un peu plus vive que certains...
Pendant...
Que certains humains...
Je me dis mal, le matin vers 7h, ils sont pas aussi vifs.
C'est dur pour les humains.
Et le pire, c'est que ça pourrait être encore mieux, rien qu'avec ce LPU, parce qu'elle
est gravée en 14 nanomètres.
Si vous suivez un peu les puces, c'est beaucoup 14 nanomètres.
Aujourd'hui on arrive à faire du 3 nanomètres, il me semble.
Et c'est normal, c'est une startup, ils vont pas demander à des fonderies de faire des
puces de l'espace.
Mais pour vous dire que, en fait, si ils arrivent à une finesse de gravure bien plus
petite, tu peux optimiser encore plus les personnages pour une seule puce.
Et 14 nanomètres aujourd'hui, en 2024, c'est beaucoup.
Pour vous dire que ça pourrait aller encore plus loin, encore plus vite.
Ça veut dire que là déjà les calculs sont bons, ça coûte déjà moins cher avec des
bises super élevées, alors que c'est que le début de ce secteur.
Si j'étais un entrepreneur, je leur dirais que leur gotoo market est parfait.
Allez-y, c'est le moment.
Non mais leur timing est bon.
Je peux terminer sur une question que Twitter, enfin, ou les gens sur Twitter l'ont beaucoup
posé, c'est est-ce que c'est la fin de Nvidia ? Plenty de gens qui se disent, c'est
bon, Nvidia va s'effondrer, etc.
Toi, tu dis non, pourquoi ?
Déjà, c'est spécialisé l'engagement.
Complètement.
Et Nvidia, ils font de la vidéo.
Donc en fait, on n'est pas sur le même cas l'application, tout simplement.
Ben oui, rien que pour l'apprentissage en fait de tous les LLM.
Nvidia pour l'instant est vraiment le leader.
Oui, parce que ça ne peut que faire l'inférence.
Pas du tout.
Tu ne peux pas du tout faire apprendre.
Ça ne marche pas pareil sur l'entraînement.
Donc déjà, tout ce secteur est mort.
Après, il y en a qui disent que dans les années à venir, l'inférence va prendre
vraiment une grosse, grosse place.
Mais en fait, rien ne vous dit que Nvidia ne fait pas sa propre pousse pour exactement
ses usages.
Et en fait, c'est juste une certitude.
Donc Nvidia n'est pas du tout mort, mais ce qu'il faut voir derrière Grog, c'est
peut-être Grog qui va rester.
C'est peut-être une autre boîte.
C'est ce qui va être possible de faire à l'occasion grâce à ces nouvelles puces
très spécialisées pour un usage d'IA.
Moi, je ne serais pas étonné de voir par exemple des puces dédiées à la génération
d'image par exemple et pas à la génération de langage ou des choses comme ça.
Ça va être franchement une période très intéressante à suivre.
Moi, ça ne m'étonnerait pas du tout comme tu disais que Nvidia travaille sur une carte
optimisée pour l'inférence de vidéo.
Et pour répondre définitivement à la question, quelqu'un dans le chat dit très justement
regardez juste l'action Nvidia.
Oui, oui, mais ça, ça...
L'action, oui.
Il y en a qui ne vont pas être convaincus en regardant juste une action à un instant
déné.
Mais ça, c'est une action renseignale.
En général, c'est jamais, tu as des grosses annonces qui dans la perception pourraient
avoir un impact négatif sur une boîte.
Ça, ça peut se ressentir là vraiment.
C'est l'inverse.
Salut ! Si vous appréciez Endorscore, vous pouvez nous aider de ouf en mettant 5 étoiles
sur Apple Podcast, en mettant une idée d'invité que vous aimeriez qu'on reçoive.
Ça permet de faire remonter Endorscore.
T'es l'une fusée.
Comme promis, on va aujourd'hui avoir un sujet robotique.
C'est pas tous les jours, franchement, ça fait...
Non, ça fait plaisir.
Combien le temps on a pas fait ça ? Ça fait plaisir surtout à toi.
J'avoue, j'avoue, j'ai un petit faible.
C'est le bas niveau, comme on dit, parti de ce que tu suis, de près, contrairement
à moi, mais c'est pas...
Moi, je jouais le novice.
Et on a la chance aujourd'hui de recevoir un invité très spécial.
Renault, êtes-tué le co-fondateur de Exotek ?
Est-ce que c'est ta première fois sur Twitch déjà ?
Oui, alors à moitié, on a fait un hackathon de robotiques il y a deux semaines qui était
diffusée sur Twitch avec plusieurs dizaines de gens qui le suivent en live.
Non, on peut dire que c'est à peu près la première fois en vrai.
Ça compte, ça compte, le premier live.
Ce qui est marrant, c'est que leur live sur Twitch, les animateurs, c'est des employés
de...
C'est des gens d'Exotek.
C'est que des gens d'Exotek qui font ce truc.
Exactement.
C'est trop marrant, mode.
Qui veut commenter ? Allez, c'est parti, on fait des commentaires de battle de robot.
Je trouve ça incroyable.
Mais alors, qu'est-ce que c'est ? Parce que Mathieu, on a même...
C'est super fort, vous avez à en dire.
Vous l'aviez préparé, non ?
Oui.
Ah, c'est vrai ?
Il y a la chaîne Twitch quelque part.
Qu'est-ce que c'est ? Quel est le concept de ce truc ?
Donc, on est passionné de robotiques et on aime bien partager à la fois faire découvrir
ce qu'on fait, mais aussi apprendre un peu des autres qui sont passionnés de robotiques.
Et donc là, maintenant, c'est la deuxième édition et on espère bien en faire plein d'autres
de ce qu'on appelle l'exo-légende.
L'exo-légende, c'est un hackathon de robotiques.
Donc, comme un hackathon classique, sur trois jours, on arrive le vendredi matin,
les compétitions sont à partir du dimanche et les finales dimanche après midi.
Et le principe, ça va être des... On pourrait dire combat, deux robots contre deux robots.
On reçoit quand on arrive le robot en kit, il faut le monter.
Et ensuite, c'est avant tout de la programmation, donc il faut programmer son robot
pour à deux réussir à faire un max de points par rapport à l'adversaire.
Sachant qu'il y a deux façons de gagner, faire des points, donc il faut se déplacer
dans un labirinte, mais on peut crever le ballon de l'adversaire.
Donc si on arrive avec sa pointe à le crever, on l'immobilise.
Et du coup, on arrive à marquer plus de points.
Un côté combat, un côté intelligence, plus un côté collaboratif ou théâtre.
C'est vraiment les battles de Baleucarte.
C'est ça.
Un ancien collègue a participé à la précédente version
et il n'était pas très bon en programmation.
Du coup, il a tout mis sur l'arme.
Il était mécanicien plutôt de lui de formation.
Donc il a fait une arme incroyable juste pour crever le ballon des autres.
C'est marrant.
Il se trate.
Effectivement, le format hackathon est assez connu,
mais je me suis même pas dit que c'était possible en robotique
parce que, Marche Comment, ils amènent ton ordi
et une valise de matasse.
Non, t'amènes que ton ordi
et donc quand tu arrives, tu reçois une petite boîte
dans laquelle il y a tout le kit hardware
pour que tu puisses tout monter par toi-même.
Et après, sur place, il y a de quoi un petit peu bricoler.
Le robot, il est globalement standard.
Ce que tu customises est ton arme.
Ah oui.
Mais bon, ça peut aller d'un trombone,
un pic à brochette,
ah, il y en a effectivement qui s'amusent
et qui essayent de faire des sulfateuses.
Et du coup, le robot, il est standard,
mais tu programmes comme tu veux.
Du coup, c'est ce qui...
Donc tu as deux robots, effectivement.
Tu vas programmer à l'intérieur.
Nous, ce qu'on a programmé, c'est l'arbitre.
Donc au-dessus, il y a une caméra
qui filme les robots et donc l'arbitre est automatique.
Donc ça regarde les robots,
ça regarde où il passe,
ça affecte les points,
si tu as plus ton ballon,
ça t'immobilise, tu bouges plus, etc.
Et donc en live, on voit les points bougés
et on sait qu'est-ce qu'il y a gagné à la fin.
Par contre, dans les robots,
le code dans les robots, c'est fait par les gens.
C'est là où la battle se fait, en gros.
Tout à fait.
Là, il est sur l'arbre.
Et c'est marrant parce qu'on voit des gens
qui viennent du monde informatique et qui découvrent
et qui découvrent notamment
quand tu fais, on pourra un peu en parler,
mais de la programmation sur un robot,
tu as t'as le monde réel.
Et le monde réel, il réagit pas.
D'habitude, quand on fait if conditions,
zén action, si on a la même condition,
ça fait deux fois la même chose.
Dans le monde réel, je glisse,
j'ai de l'illumination, j'ai, etc.
Donc voilà, réussir à un peu
modéliser ce qu'il y a autour
et apprendre à gérer tout ça,
c'est super intéressant.
Franchement, j'ai trop envie de le faire.
Ce qui écoute.
Vous êtes les bienvenus pour l'édition 3,
l'année prochaine.
Qui sera l'année prochaine.
Moi qui est trop, trop cool.
Sans plus attendre après ces petites
déglations, on va rentrer évidemment
dans le vif du sujet,
ce qui nous rassemble aujourd'hui.
Merci Abastie, j'ai l'impression.
C'est ça, avant que je commence.
Oui, il a dû faire un raid
que je n'ai pas vu, mais...
Merci beaucoup.
Mais merci beaucoup.
C'est un collègue streamer
qui nous envoie son audience.
Exactement.
Donc bienvenue à tous.
Installez-vous.
Aujourd'hui, nous avons la chance
de recevoir Renault-Hetz,
co-fondateur et directeur technique
de Exotech.
Vous connaissez peut-être pas ce nom.
Moi, je ne le connaissais pas, en fait.
Comment es-ce possible ?
Non mais après, j'ai réalisé
à quel point, en fait,
c'est un mastodonte, quand même,
Exotech.
C'est absolument pas rien.
C'est une des plus grosses
licorne, comme on dit,
française.
Vous avez eu un parcours
complètement dingue.
Et si vous ne savez pas
ce que c'est,
il soit un peu,
on peut le dire,
vous êtes un peu derrière
le secret de la livraison
en 24 heures.
Puisque,
vous conceptualisez des robots
en forme de petites voitures
télécommandées,
capables d'aller chercher
des colis dans des
entrepôts,
à plus de 12 mètres de hauteur.
Donc, c'est vraiment en 3D,
en uncle un deuil.
En termes de vitesse de point,
on est sur quoi, à peu près ?
On est 4 mètres par seconde,
donc ça fait un peu moins de 20 km
heure, un jogging bien réveillé.
Si, en fait,
c'est comme ça,
on ne s'apparaît pas tant que ça.
On se dit, une voiture, ça va vite.
Mètres par seconde, c'est énorme.
Oui, vous allez voir.
En fait, vous allez voir les vidéos.
C'est vraiment impressionnant.
Rassurez-vous tout ça
et dans des zones sécurisées,
on va en parler justement.
Mais c'est une technologie de pointe
qui, pour vous donner un ordre d'idée,
et on peut le dire sans sourcier,
supérieur à la plupart des trucs
qui existent, notamment ce qui est
chez Amazon.
C'est quand même pari.
On peut le dire, peut-être que
dans votre humilité,
vous ne le direz pas,
mais nous, on le dit,
c'est complètement fou.
On rentrera dans le détail technique
de pourquoi justement,
Amazon n'a pas ce genre d'outil
et vous, boîte française,
vous êtes en mesure de le faire.
On va vous expliquer,
enfin, on va essayer de,
moi, je vais poser mes questions
tout simplement.
J'en ai plein qui me viennent.
Comment est-ce qu'on fait
pour que des robots qui vont à cette vitesse
ne se rentrent pas dedans, par exemple ?
Est-ce qu'il y a des crash tests
comme en voiture ?
Est-ce que vous les envoyez
à haute vitesse ?
Quelles sont, c'est quoi,
les technologies ?
Si demain, je vais vous les monter
une boîte de cette ampleur,
c'est quoi technologiquement,
technologiquement,
ce qui se cache derrière ?
Tu nous diras,
ce que tu peux dire,
ce que tu ne peux pas dire,
ce qui est la source secrète aussi.
Et aussi, sur le plan théorique
des algorithmes,
parce que c'est une part
hyper importante
de votre secret.
J'ai cru comprendre,
et c'est vraiment pas mon domaine,
mais tu vas pouvoir nous expliquer,
j'ai cru comprendre que,
en fait, il y avait des briques logiques
qui sont assez similaires
à ce que ferait, par exemple,
un GPS pour calculer
un déplacement d'un point B
ou dans des jeux vidéo
qui s'appelle le pass finding.
Il y a des, tu vois,
on va un peu parler,
par exemple, de théorie des graves,
des choses comme ça,
ça sort rentrer dans le détail,
mais je suis hyper curieux de voir,
c'est qu'est-ce qui fait
que toute cette magie de robot
et cette effervescence
que toi, tu as vu, Mathieu,
puisqu'il est sur place,
oui, comment tout ça est possible,
en fait, parce que ça paraît assez fascinant.
Et surtout, on reviendra
sur la progression
d'une boîte française,
quand même, parce que c'est pas
tous les jours que,
je sais pas si on a beaucoup d'autres
des boîtes de cette taille
qui font du hardware en robotique
de classe mondiale,
je sais, il y en a d'autres certainement.
Oui, c'est surtout la,
enfin, de mon propre expérience,
la rapidité à laquelle vous êtes allés.
Je vous ai connu,
vous aviez été
de nous, 30 environ,
c'était dans les années 2017,
je dirais,
et bon, voilà,
vous étiez une boîte
à côté de la mienne,
et là, je vous retrouve
quelques années plus tard.
Sur la Lune.
Et c'est vraiment
une entre une immense boîte
qui est partout,
moi, c'est vraiment la vitesse
d'exécution qui m'a impressionnée
et le produit.
C'est clair, ça va être
hyper intéressant.
Vous avez vu, le programme est chargé,
on a beaucoup, beaucoup de sujets
à traiter.
On va me redire les questions
dans l'ordre.
Vous avez donné, voilà,
on a perçu de tous les sujets.
On est vraiment très honoré
de faire cette collaboration
commerciale,
du coup, avec Exotex.
C'est vraiment tout ce qu'on a mis
ici, on peut dire.
Ah oui.
Honnêtement.
Donc, merci, Renaud,
d'être avec nous.
Ce soir, est-ce que,
déjà, pour nous remettre
dans le contexte,
tu peux nous expliquer
avec tes mots
ce que fait Exotex
et quoi,
vos solutions.
Oui.
Alors, j'imagine qu'il y aura
peut-être quelques images
qui passent, ça m'évitera
d'avoir à tout mimer avec.
Mais donc, on va travailler
pour les entrepôts logistiques
de grands clients.
Ça va donc servir, à la fin,
à préparer des commandes
qui vont arriver
à plusieurs endroits.
On va faire, par exemple,
pour réapprovisionner
des magasins.
On travaille pour les magasins
uniclos, on travaille
pour des catalons, par exemple.
Ça peut être pour du e-commerce,
donc pour vous livrer chez vous.
Notre premier client,
c'était ces discount, par exemple.
Ça peut être dans de la pharmacie
pour réapprovisionner des pharmacies.
Ça peut être dans de l'alimentaire.
On travaille pour Carrefour.
On travaille pour Leclerc.
Donc, en fait, il y a plein d'usages
dont on ne se rend pas forcément
compte, parce qu'à la fin,
on a à disposition
autour de nous, soit chez nous,
soit dans les magasins,
autour tout ça.
Mais au final, il y a eu tout un voyage
qui a été fait
depuis l'usine,
souvent en bateau jusqu'au port,
puis dans un entrepôt,
un entrepôt un peu régional,
puis dans un entrepôt
de livraison locale.
Et à chaque fois,
on va éclater,
on va passer du conteneur
à la palette,
au carton,
à l'article.
Et nous, on est sur
cette dernière minute
de la chaîne logistique
quand on passe du carton
à l'article.
Donc, on va avoir
dans les entrepôts no-cliens
des flottes de robots.
Donc, typiquement,
un petit entrepôt,
c'est 20,
un gros entrepôt,
ça peut être 400 robots
qui vont manipuler les cartons.
400 robots.
Ça peut être 400 robots.
Les plus gros qu'on est fait,
ça doit être 450.
C'est au Japon,
pour une Iqlo, justement.
Et donc, on manipule ces cartons.
On les amène dans le bon ordre
pour ensuite prendre les articles,
qui puissent être fabriqués,
qui puissent être conçus,
sans se tromper,
en allant vite,
et sans prendre trop de place.
Je pense que ce sera un peu
l'écran,
l'écran de Zax,
qui font que les logisticiens
s'équipent avec ce genre de système.
Et donc,
vous, tu dis,
c'est un truc qui est éprouvé.
Vous avez,
vos premiers clients,
vous les avez installés quand ?
Donc, nous,
on a commencé tout fin 2015.
Donc, on est
deux co-fondateurs
avec Romain,
mon co-fondateur.
On a vendu le premier système
quelques mois après,
en 2016,
à CDSCOONT.
Et là, quand on l'a vendu,
on avait vraiment juste un PowerPoint,
un concept, quoi.
Et on voulait voir
combien ça résonnerait.
Et ça a bien résonné
avec CDSCOONT,
qui a dit,
c'est de ça dont on a besoin,
parce qu'à la fois,
c'est puissant,
mais en même temps, c'est flexible.
Ça, on pourra en reparler,
mais c'est le gros avantage des robots.
Par rapport à la mécanisation à l'ancienne,
c'est que des robots,
on en met plus,
on en met moins.
On peut changer par software,
les trajectoires,
les fonctions au-dessus des robots.
Donc, c'est vraiment
quelque chose de très flexible.
Donc, ils ont dit,
ça, ça nous permettra de nous accompagner.
Parce qu'à CDSCOONT,
on n'a pas un business plan facile
avec plus 6 % par an.
On ne sait pas.
Donc, il faut une technologie
qui nous accompagne.
Parce que,
ça paraît évident,
comme tu dis,
mais l'alternative au robot
pour faire de l'automatisation,
ce serait...
Il y en a deux.
La première, c'est pousser des calis.
Donc, il y a des gens
qui partent avec des papiers,
qui poussent des calis.
C'est flexible.
Oui.
Mais par contre,
c'est extrêmement lent.
Il y aura des problèmes de qualité.
Et il y a des gros problèmes
de juste fidéliser les gens
qui font ça,
qui sont extrêmement difficiles.
Donc, les gens partent, reviennent.
Donc, ça fait des gestions
de ressources humaines
qui sont quasi impossibles.
L'autre alternative,
si on va un peu automatiser,
c'est des choses qui sont nées
il y a 20-30 ans
dans la lignée des chaînes automobiles.
Donc, c'est des grosses chaînes industrielles
où on met
une bande,
un ascenseur, etc.
Donc, on va faire des choses
qui sont chouettes
en termes de performances,
mais qui sont complètement statiques.
On boulonne,
on met des moteurs partout.
On utilise...
Je ne sais pas si c'est des choses
qui vous parlent.
Un PLC, ça vous parle ou pas ?
Pas les tout.
Un truc de faux.
Et donc, on fait du graff set.
Donc, on fait une étape,
une condition,
une étape, une condition.
Donc, on va coder une séquence.
Et donc, avec ça,
à nouveau, on arrive
à faire des séquences automatisées,
mais complètement figées.
C'est vraiment l'inverse
de l'intelligence artificielle.
Dans l'intelligence artificielle,
on donne un problème
et le software doit trouver
la solution.
Là, on doit donner la solution.
On écrit exactement la séquence.
Et donc, ça veut dire
que si ma voiture,
elle change de forme,
je ne sais pas quoi,
je dois reprogrammer
ma chaîne de production.
Toutes les options
ont été définies
avant de lancer la première voiture.
Et donc, voilà,
on a fait une chaîne
qui a un nombre d'options finies
et ça ne bougera pas
jusqu'à la fin de la production
de cette ligne de voiture.
Ce qui n'est pas du tout le cas
en logistique
où on va lancer
du same-day delivery,
des promotions,
peut-être que je veux du cross-canal
ou j'ai aidé magasins
et du e-commerce, etc.
Ça, c'est des trajectoires
qui se font de chaque année.
Évidemment,
chaque année.
C'est un masque
passionnant de découvrir
un système monde
qui est quand même spécifique
dans l'e-commerce
avec un Lexi
qui est hyper particulier.
Et justement,
quand on ne connaît pas,
on a souvent une vision
de cette industrie de l'extérieur
qui a l'air hyper rodée.
Enfin, moi, j'avoue,
comme ça, je me disais
oui, ben,
tous les commerces, en fait,
ils sont, tout le truc,
ultra robotisé
depuis toujours,
enfin, depuis,
enfin, depuis longtemps.
Et il n'y a pas grand-chose.
Et on optimise de l'optimisation
à la limite.
Peut-être que naïf que je suis,
je me disais, bon, les Américains,
en tout cas, ils l'ont fait.
Peut-être qu'en français,
on est un peu retard et tout.
Mais en fait, c'est pas le cas.
Non, c'est vraiment pas
encore le cas.
Quand on s'est lancé, nous,
en fin 2015,
il y avait encore 80% des entrepôts
qui sont manuels
où on pousse des caddies.
Et encore plus,
aux États-Unis,
les mètres carrés,
ça coûte pas cher,
si on se met loin des villes.
La main d'œuvre est pas très chère.
Donc beaucoup, beaucoup de choses manuels.
Encore à ce moment-là.
Et la façon d'optimiser,
c'était plus de, entre guillemets,
mettre plus de fouet
pour faire courir les humains.
Donc, ils ont inventé
la commande vocale.
On met un casque sur la personne
qui lui donne en temps réel
les consignes.
Donc, il y a eu une tendance
un peu à robotiser l'humain.
Et je pense que là,
nous, c'est pas ce qu'on a fait,
c'est des robots et des humains.
On robotise pas l'humain.
L'humain, on lui garde
les tâches intéressantes,
la décision,
le choix des stratégies
à l'intérieur de l'entrepôt.
Et le robot fait toute la partie
déplacement,
mouvement répétitif.
Et alors, justement,
on va commencer
à rentrer dans la technique,
parce que vous avez pu observer
depuis tout à l'heure
des images
qui sont en direct en film honnêtement.
On dirait pas...
Là, tu me dis que c'est un concept.
Ça, c'est...
Il y a un peu d'intérêt
dans plein d'entrepôt.
Et je trouve ça dingue.
Toi qui y est,
elle est, c'est comment ?
En fait, c'est...
Déjà, ce qui est incroyable,
c'est que j'ai cru comprendre
que vous pouvez l'installer
dans un entrepôt existant.
Il faut pas construire
un nouvel entrepôt de zéro.
Donc, déjà, ça,
j'imagine que ça
convainc pas mal les clients.
La plupart du temps,
effectivement, c'est des projets
où il y a une transition
sur un entrepôt qui fonctionne
et on veut l'agrandir,
on veut rajouter, etc.
Donc oui, c'est souvent...
Les étagères sont des étagères
qui vont être compatibles
avec les robots,
mais à l'intérieur d'un entrepôt
qui existe
à plus tard du temps.
Moi, j'ai trouvé que ça allait super vite
et que les robots,
ils se croisaient, mais...
Genre, j'avais peur
qu'ils se cassent.
Parce que,
quand on voit une vidéo
où on en voit qu'un,
on l'a vu un moment sur la vidéo.
Parfois, on voit des robots
au loin qui traversent comme ça,
la route,
à n'importe quel robot.
Mais je suis heureux,
ils se font foutre.
Il y a des croisements.
En fait,
il faut imaginer
plein, plein, plein de caisses
comme dans un entrepôt
qui va très très haut,
à 12 mètres de hauteur.
Et après, des robots
et des allés
qui sont, j'imagine,
les mêmes à chaque fois
pour que le robot
fasse un peu des mouvements rectilignes,
mais aussi, parfois,
il tourne.
Et il va,
comme sur un parking,
il peut aller à gauche,
à droite et tout.
Et un moment,
d'un coup,
il va se lever,
il va aller en l'air.
Non, c'est...
Incapable de faire ça.
Si tu n'es pas speedorman,
c'est fine, quoi, ça.
Et après,
du coup,
il ramène l'article
à des choses un peu plus classiques
pour le coup,
c'est des tapis roulants,
des choses comme ça.
Ça va le ramener
sur des poses de travail opérateurs.
Donc, il n'y a pas de tapis roulants,
ça va rester sur le robot.
Et là, on a deux solutions.
Sur certaines familles d'articles,
ça va être préparé par un opérateur.
Et sur d'autres familles d'articles,
on pourra en parler.
On a un produit qu'on appelle le Skypeaker.
Donc là, c'est un bras robotique
de la vision
qui peut prendre les articles directement.
Et donc, on va combiner les deux.
Et juste par curiosité,
parce que,
évidemment, nous,
on a un spécial qui a vu
les coulisses entre guillemets.
C'est quoi la réaction, en général,
des gens quand ils voient un entrepôt comme ça ?
Alors, ce que j'ai souvent entendu,
c'est que ça ressemble à un aquarium.
C'est un peu hypnotisé.
On est devant,
on voit le balai des robots, effectivement,
qui se croisent
avec un moteur de trafic qui est en 3D.
Donc, ça se croise dessus, dessous.
Oh, il y a deux dans la même cheminée.
Oh, etc.
On peut facilement être un peu hypnotisé,
où on est comme ça,
face au grillage, à regarder.
Donc, voilà.
Mais oui, il y a un côté
un petit peu magique, un peu marrant.
Comme tu dis,
il y a vraiment ce côté balais.
Où, en fait,
tu as assisté à une danse.
C'est ça.
Et alors justement,
pour comprendre comment c'est possible.
Parce que, comme tu disais,
on a l'impression à chaque instant
qu'ils vont se casser.
Parce qu'ils se croisent trop vite,
entre guillemets.
Comment, est-ce que c'est un intelligence,
le fait de tout coordonner,
ça se passe, c'est centralisé ?
Est-ce qu'il y a un gros ordi
dans le datacenter
qui coordonne tous les robots ?
Ou est-ce que c'est chaque robot
qui fonctionne de manière indépendante ?
Ça marche comment ?
Donc, les deux grosses briques technologiques avec ce texte,
ça va effectivement être le robot.
Donc, le robot, au sens son hardware,
et son software embarqué,
qui aura quand même une partie d'autonomie.
Et ce qu'on appelle le fleet management.
Donc, gestionnaire de flotte.
Chez nous, il s'appelle ASTAR.
Et donc, c'est lui qui va coordonner les robots.
Donc, en gros, on va dire,
le scheduling du balais précis,
à la milliseconde près,
il est choisi dans ASTAR en central.
Et donc, la façon dont ça va marcher,
c'est qu'un robot va donc apporter
un back, un opérateur.
Une fois que l'opérateur
aura dit, j'ai transféré l'article,
le robot va dire,
what's next ?
ASTAR en lui disant qu'elle est la prochaine mission.
Et là, il va recevoir une mission,
et donc, cette mission,
ça va être une trajectoire temporelle.
C'est-à-dire qu'on va non seulement lui dire, voilà,
mais on va lui dire,
à telle milliseconde,
il faut que tu sois à tel endroit.
Et là, je te garantis
que si tu suis non seulement cette géographie,
mais si tu suis bien ta montre,
là, tu es Collision Free.
Au sens, tu vas t'insérer
à l'intérieur du balais.
Donc, on est vraiment sur un,
ce qu'on appelle un vecteur d'état
qui va décrire le robot
avec cette dimension TAN.
Et il faut suivre
cette trajectoire paramétrée en TAN,
et du coup, il y a tout qui se passe bien.
C'est dingue.
En vrai, il y a un petit côté stressant.
Je me mets la place du robot,
ça n'a pas de sens, mais je me mets la place du robot.
Tu sais que, en gros,
c'était pas là au bout de non,
non, la bonne milliseconde.
Tu peux te manger, un collègue, quoi.
Exactement.
Globalement, il y a un peu de grandes philosophies,
là, quand on gère le trafic.
La philosophie train,
qui est plutôt safe,
c'est on attend que le train est dit,
je suis sorti du carrefour,
pour dire au suivant, vas-y.
Ça, c'est bien, mais ça fait pas de flux.
Parce que, du coup,
à chaque fois, on rajoute des temps de latence,
des temps de communication,
des temps de recalculation.
Et il y a l'autre solution,
qui dit, au premier train,
tu passes au carrefour à 13h16,
au deuxième,
passent à 13h17,
tu regardes que ta montre,
tu regardes rien d'autre.
Et là, on obtient beaucoup,
beaucoup plus de flux.
Et, par contre, effectivement,
sur des véhicules qui transportent des humains,
je ferai pas ça.
Sur des véhicules qui transportent des caisses,
oui, c'est la meilleure solution
pour avoir un flux de folie.
Et alors, on va rentrer
dans le détail de savoir
comment c'est possible.
J'imagine qu'il y a des systèmes
de correction d'erreur,
des choses comme ça.
Mais, déjà,
d'entrée,
est-ce que ça arrive des craches ?
En production, dans des clients,
est-ce que c'est possible qu'il y ait des craches ?
Donc, à nouveau,
un robot, c'est génial,
parce que ça se confronte
au monde réel.
Donc, le jour où j'ai cassé
une bouteille d'huile,
oui, le robot glisse sur la bouteille d'huile,
il fait zzzz,
et ça fait comme un flipper,
et donc, il va se prendre à mur.
Donc, on est dans le monde réel,
où il peut y avoir
tout plein de choses qui arrivent.
On a des entrepôts sur lesquels on est à 0°,
on a des entrepôts où il y a des articles alimentaires,
où il y a des fuites d'eau, etc.
Donc, oui, ça peut arriver.
Quand le monde n'est pas conforme au modèle,
moi, je dirais ça en tant que roboticien,
quand le monde est conforme au modèle,
les algorithmes, ça va le gérer,
et non, il n'y a pas de craches.
Ça, on ne le survient pas à la fin.
Par contre, dans le monde réel,
ben oui, il y a un pourcentage de cas.
Donc, nous, on travaille justement
à ce que les algorithmes savent détecter,
un petit peu la même chose
que ce qu'on peut avoir sur les ABS,
c'est-à-dire si, je vais appeler mon odométrie,
donc si mes tours de roue ne sont pas conformes à ma vision,
je vais avoir un petit peu
comme une sorte de mal de mer d'un humain,
disant, il y a une décorrelation
entre mes différents capteurs,
donc warning, donc je ralentis, par exemple.
Donc, on fait tout pour essayer de comprendre
est-ce que le monde est cohérent ou pas,
et ralentir si le monde n'est pas cohérent.
Mais oui, ça peut encore arriver
quand il y a des grosses choses
qui arrivent dans l'entrepot qui y a des craches.
Et du coup, le logiciel qu'il y a
à l'intérieur de chaque robot,
est-ce que il est là
sur ce que tu disais uniquement pour gérer
en fait les moments où potentiellement
ça ne va pas,
ou détecter la faille,
ou du coup à quoi il sert, en fait, ce logiciel.
Il est là pour intelligir le petit robot.
Donc oui, il y a quand même
de la vraie intelligence,
c'était vrai algo à l'intérieur,
au sens où il faut être capable de suivre
la trajectoire qui a été donnée par en haut.
Et pour ça, c'est pas si facile que ça.
Si je te donne une trajectoire,
tu ne peux pas juste fermer les yeux la suite,
parce qu'au bout d'un moment,
tu vas te décaler, tu vas te prendre un mur.
Donc en permanence,
il va devoir appréhender la réalité
qui est autour de lui
pour en déduire où il se trouve.
Parfois, je la question, on se dit
« il n'y a qu'à mettre un GPS ».
Un GPS, ça ne passe pas à l'intérieur,
et un GPS, c'est précis à 1, 2, 3, 4 mètres.
Là, on veut des entrepôdances.
Donc, l'allée, elle fait 80 cm
pour un robot qui en fait 75,
donc il y a 2 cm et demi de chaque côté.
Il ne faut pas compter sur le GPS.
C'est pas gros, d'être bon.
Donc on est sur un robot
qui doit comprendre son environnement
et qui, à partir de cet environnement,
doit d'abord répondre à la question au suige,
et ensuite répondre à la question
comment aller où je veux.
Très philosophique.
Voilà.
Mais du coup, il n'y a pas un temps nécessaire
parce qu'il y a un...
où suige, mais du coup,
ça peut le ralentir
sur le train qui était prévu
par le fleet management.
Tout à fait.
Donc, lui, il a une trajectoire
à suivre en temps,
et donc on va utiliser des alcoos
qu'on appelle le « fit forward ».
Donc, il prévoit toujours à l'avance
où il doit être.
Il sait que dans son observation,
il y a du retard,
et quand on compare,
ils sont faits après le balan
de la serviceement,
c'est-à-dire qu'on va comparer
l'endroit où on veut être
et l'endroit où on est,
mais il va le corriger en temps
parce qu'il sait qu'il y a toujours
un retard dans sa perception.
Attendez, parce que vous êtes déjà
dans les détails,
mais moi, la question toute bête,
comment il sait où il est ?
Donc, comme capteur.
On va faire de la fusion de données
et on utilise ce qu'on appelle
de l'odométrie.
Donc, l'odométrie,
on compte au niveau des tours de roues.
En fonction des roues,
on voit comment ça se déplace.
Et on va fusionner ça
avec des capteurs de type « lidar ».
Je ne sais pas si t'as entendu parler,
c'est ultra-utilisé dans la voiture autonome.
Donc, des lidars,
ça va être un télémètre,
donc quelque chose qui mesure
une distance,
qu'on projette sur un miroir,
qui est tournant.
Et donc, comme on projette ça sur un miroir,
ça va scanner tout autour.
Quand on le voit,
c'est un peu comme jouer au puzzle.
Ça va dessiner une sorte de pièce de puzzle,
où là, on verrait
ton ventre, ton ventre, le mien, etc.
Et ensuite, l'algorithme,
il va jouer au puzzle en disant,
« Mais cette pièce-là,
où est-ce qu'elle fit
par rapport à ma connaissance du modèle ?
»
Et l'endroit où elle fit,
c'est probablement l'endroit
où je me trouve.
Donc, en fait,
c'est un peu comme sur l'iPhone.
Il fait un scan 3D de son environnement.
Et puis, en fait,
dans sa map qui est en mémoire,
la porte, elle est à ce moment-là,
il se positionne par rapport à tout ça.
Voilà, c'est des algos qui ont commencé à exister.
J'irai qu'il y a maintenant 15-20 ans,
qu'on appelle SLAM,
Simultaneous Localization and Mapping.
Et voilà,
qu'on a progressivement adapté.
Et on fait partie,
on va dire, des premiers,
on sent d'autres pas les seuls,
mais à l'avoir vraiment industrialisé,
parce qu'il y a une différence
entre le faire dans un labo
et le faire sur, là,
on a 7000 robots
qui tournent 24 heures sur 24.
Donc là, ça demande
un degré de robustesse
qui doit être super fort.
Et est-ce que ça veut dire que,
du coup, chaque robot,
chacun de ces 7000 robots
est capable de faire une carte
de son environnement
et vous pouvez la visualiser ?
Donc, la carte,
on va utiliser une carte
qui va être commune,
mais en temps réel,
oui, il va faire cette espèce de jeu de peuble,
qui va faire une sorte de carte locale
et qui va en permanence matcher.
Et sur lequel,
on va aussi pouvoir voir
s'il y a des deltas.
Donc s'il y a plusieurs robots
en un moment qui disent,
là, ça ne match pas du tout
avec notre connaissance globale,
là, du coup,
on va pouvoir remonter des problèmes
et ensuite travailler pour la corriger.
On n'a pas assez ça rapidement,
mais donc là,
tu nous mentionnes quelques problèmes.
C'était quoi ?
Qu'est-ce qui explique ?
C'est toujours une question que j'ai quand il y a
un truc de nouvelle sortie,
une innovation.
Qu'est-ce qui explique que,
jusqu'à présent,
c'était pas possible ?
Est-ce que c'est juste
que personne avait eu l'idée
ou est-ce qu'il y a eu des verroues
techniques qui ont sauté récemment ?
Pourquoi ça est possible maintenant
de faire ça ?
Je pense qu'il y a une combinaison
de pas mal de choses.
Il y avait effectivement le fait
d'avoir déjà le besoin,
donc le e-commerce qui augmente,
la logistique qui structure,
donc un besoin qui est fort.
Et ensuite,
je pense qu'effectivement,
la robotics qui est beaux,
c'est que c'est pas une technique.
Il n'y a pas juste un moteur
d'intelligence artificielle.
Ça va vraiment être une pile de technologie
qui vont devoir s'agencer
et pour y arriver,
il faut que chacune des briques
soit suffisamment forte.
A la fin de la robustesse,
c'est le maillon le plus faible
de l'ensemble du système.
Donc, c'est des capacités
et des prix sur du software embarqué,
sur des capteurs embarqués.
Donc, par exemple,
ne serait-ce que des caméras embarquées.
Il y a encore quelques années,
les modèles étaient chers.
Maintenant, ça commence à se démocratiser.
Le processeur embarqué dans les robots,
il fait la taille d'une carte bleue
et il coûte de l'ordre de 50 euros.
Pareil, quand j'ai commencé ma carrière,
c'était plutôt gros comme ça
et ça coûtait 500 euros.
Donc, c'est des combinaisons
de hardware qui coûtent moins cher.
C'est des combinaisons
de software qui sont possibles.
C'est toutes ces choses-là,
on va dire,
qui maintenant sont agençables
par une entreprise de notre taille.
Mais depuis...
pas tant de temps que ça,
du coup, visiblement.
Et un exemple, notamment,
c'est que parmi les géants de l'e-commerce,
donc on mentionnait Amazon,
mais il y en a peut-être d'autres,
ils ne sont pas encore à ce niveau, en fait.
Oui, je pense dans les choses
qui nous différencient.
Il y a ce côté,
il y a vraiment des ruptures technologiques.
Je pense que le fleet management,
où on a vraiment apporté des choses,
la robustesse de localisation des robots,
on a apporté quelque chose.
Et l'autre élément, ça va être...
Et ça, c'est des choses que j'ai appris
en travaillant dans le médical avance,
qu'on appelle l'ingénierie-système.
Justement, c'est la science
de combiner les sous-systèmes
pour n'en faire qu'un à la fin.
Donc vraiment,
et là, il y a besoin de gros...
C'est l'architecture,
mais l'architecture qui va dépasser
l'architecture software,
donc l'architecture et du software,
et du hardware ensemble,
pour faire un système
qui soit robuste et qui marche.
Et par exemple, le côté 3D,
donc le fait que là,
tes robots, ils peuvent à la fois
se déplacer au sol,
mais monter tel le Spiderman.
Ça, c'est une innovation,
ou ça fait longtemps qu'on sait faire ça ?
Non, ça, pour le coup, c'est une innovation.
Donc là, c'est vraiment
réussir à faire la capacité mécanique.
Des robots qui grimpent, on va dire,
très compliqués.
En robotique, c'est facile de faire compliquer.
Ce qui est difficile,
c'est de réussir à trouver un moyen simple,
un moyen pas cher,
un moyen robuste,
pour être capable de faire la fonction.
Et ça, je pense,
ça a été la grande innovation.
Donc, la façon,
même si je refais un peu l'histoire
dont on s'est lancé,
c'est qu'on a vu Amazon,
donc qui a racheté une boîte
qui s'appelle Kiva,
qui vient de l'HMIT à Boston,
qui fait des robots 2D,
donc des sorts de tortues,
où ils s'en disent,
plutôt qu'à avoir des gens
qui vont à l'étagère,
on va faire un petit tortue
qui va passer sous l'étagère,
la soulever et vous la ramener.
Et l'idée est formidable
en utilisant, du coup,
des technologies robotiques
qui commençaient à naître HMIT
et qui étaient plutôt
des technologies vraiment avancées.
On a vu ça,
on s'est dit,
d'un point du techno,
c'est trop bien.
Deuxième chose,
Amazon les rachète,
ça montre qu'il y a un intérêt énorme,
que ça rapporte vraiment
quelque chose pour le business.
Ah oui, je l'avais déjà vu,
je l'avais vu, je l'avais vu, je l'avais vu.
Et quand ils les ont racheté,
ils ont fermé le département commercial.
Donc ils ont dit, c'est pas une techno
qu'on prend pour faire du business,
c'est un techno qu'on prend
pour faire de la différenciation.
Et là, on a dit,
c'est quand même vraiment fou.
Qu'ils allaient le garder en un point de vue.
Qu'ils allaient le garder.
Donc là, on s'est dit,
il faut qu'on arrive à se lancer là-dedans,
on a un peu des compétences robotiques,
faut qu'on essaye.
Et là, on s'est rendus la question
en disant, en tant qu'ingénieur,
on veut pas copier,
on veut faire mieux.
Qu'est-ce qu'on peut faire de mieux
par rapport au robot qu'on voit ?
Ça se voit assez facilement.
On voit qu'entre le haut de l'étagère
à 2 mètres et le plafond,
il y a bien 10 mètres de vide.
On s'est dit, on aimerait remplir
ces 10 mètres de vide.
Alors Amazon, parfois,
ils vont faire de la mécanine béton,
mais ça coûte super cher.
Pour le coup, on revient
sur des trucs structurants
et pas flexibles.
Donc on a dit,
il faut qu'on arrive à faire
des robots qui grimpent.
Et donc là,
et là, c'est même plus le génie
de mon co-fondateur,
Romain, qui est le mecano à la base,
de vraiment trouver un système
qui soit robuste,
qui soit pas trop cher.
Et voilà,
quand on l'a trouvé, on s'est dit,
là, je pense qu'on a un concept.
On essaye, on y va.
Franchement, c'est la classe.
Honnêtement, comme tu dis,
des images veulent mille mots.
Et moi, j'ai rien fait.
Mais je trouve ça un peu classe,
quand même, qu'on ait une boîte française
qui est arrivée à ce résultat-là,
alors que chez Amazon,
ils sont toujours là en 2D.
Je pense que maintenant,
ils le savent.
Et je pense qu'ils sont sans doute
en train de réfléchir
à comment passer à l'étape suivante.
Mais pour l'instant, effectivement,
ça pourrait être des clients un jour.
Après, ils ont un côté très ingénieur Amazon.
Ils aiment bien internaliser la compétence.
Donc, c'est des clients
dont je me méfie.
Nous avez déjà contacté
pour faire un meeting en mode app.
Peut-être qu'on aimerait
qu'on ait un entrepôt.
Et dans la réunion,
il y avait Mr. Motion Control,
Mr. Vision, Mr. Machin.
J'aimerais des datasheets précises.
Donc, pour l'instant,
on y va calmement, on va dire.
Ce qui est fou, c'est que,
vous êtes au Japon,
enfin, c'est pas que en France,
les installations de robots.
Oui.
Et ça, on a de la chance.
On est sur un marché
sur lequel il y a des besoins
dans le monde entier
et des besoins qui se ressemblent.
Parce que parfois,
on est obligé de complètement changer
la technologie, ce qui va être compliqué.
Là, avec une même technologie-coeur,
elle peut marcher un peu
sur tous les continents.
À la base, dans l'histoire,
on avait dit d'abord,
on attaque en Europe,
autour de nous,
puis ensuite, on y va aux US.
Puis après, on verra pour l'Asie.
Et on était, si je dis pas de bêtises,
en 2019,
à un salon
qui s'appelle
Cache Tout-Garde, en Allemagne.
Et là, justement,
les gens du Nikolo
étaient passés nous voir,
en dire, ça,
c'est la technologie qui nous faut.
Est-ce que vous êtes au Japon ?
Et non, pas encore.
Est-ce que vous pouvez y aller ?
On va y réfléchir très fort.
On parle de combien de robots ?
450 pour commencer.
On va y réfléchir.
D'accord.
On va vraiment y réfléchir.
Bien, bien, bien, bien.
Donc, au début,
on l'a quand même dit assez honnêtement.
On n'est pas encore prêts.
Donc, on a fait un premier entrepôt
avec eux en Europe
pour approvisionner
les magasins uniclos d'Europe,
qui est basé en Hollande,
qui a été un succès.
Et du coup, ensuite,
on a eu le temps de se structurer.
Il nous en fait confiance.
Et on est partis au Japon.
Et donc, ça, c'était il y a quelques années à peine.
Est-ce que...
Qu'est-ce qu'on va mettre ?
Mais est-ce que toi,
tu as programmé...
Tu as programmé des robots ?
Est-ce que tu as participé vraiment au DEV ?
Est-ce que tu fais toujours maintenant ?
Donc, oui, bien sûr.
Quand on lance une start-up,
il faut bien sûr mettre les mains dedans.
Et donc, au départ,
il y avait tout un côté
de ne pas se tromper
sur le besoin de marché,
donc beaucoup de discussions,
de comprendre le client.
Et ensuite, une fois qu'on l'a compris,
une fois qu'on a signé les premiers contrats,
mais effectivement,
j'ai passé beaucoup de temps
à implémenter du code à l'intérieur du robot,
du code dans le fameux ASTAR,
du code, ce qu'on appelle business,
c'est-à-dire les règles métiers logistiques.
Donc, j'ai touché pas mal d'endroits.
Donc, au début,
le premier entrepôt qu'on a livré,
pour CDScoone,
je pense que dans l'équipe technique,
on devait être 8, quelque chose comme ça.
Donc, bien évidemment,
énormément les mains dans le cambouil.
Et voilà, et maintenant, on est...
Il est toujours en prod.
Et il est toujours en prod.
Ah, c'est pas vrai.
C'est stylé.
Oui, il est toujours en prod.
Ça fait combien de temps qu'il tourne ?
Eh bien donc,
à l'été 2017, on l'a déployé.
Ah, quand même !
Ouais, donc on commence...
On commence à avoir maintenant
un vrai retour d'expérience.
Les robots qui sont là-bas
sont compatibles avec les autres systèmes.
Les nouveaux robots qu'on fait,
on peut les amener sur système.
Donc, on a vraiment ce côté,
toujours, la promesse client d'avoir
quelque chose de flexible
qu'on puisse faire grandir,
elle est remplie.
Et alors, bien justement,
si on regarde dans le détail,
on a parlé du fait que
tous ces petits robots doivent parler
avec une sorte d'ordinateur maire,
entre guillemets.
Comment se fait cette communication ?
Donc, on va être basé
sur des techno-wifi,
mais qu'on a industrialisé,
au sens que ce n'est pas un wifi
où il peut y avoir tout et n'importe quoi.
Dedans, on a utilisé des protocoles
sur lesquels on est capable de garantir
les temps de réponse,
puisque les temps de réponse
sont importants entre le robot.
On l'a vu dans la gestion de trafic.
Si un robot, par exemple,
est en retard sur sa trajectoire,
il faut qu'il puisse prévenir en haut,
pour qu'on puisse prévenir
les robots impactés.
Donc, on veut de l'attence.
On va dire, les sous-jacences
sont assez classiques.
L'utilisation qu'on a fait
est extrêmement sous-contrôle.
En termes de programmation,
je ne sais pas si tu as déjà
fait une émission sur le côté
de temps réel.
Quand on programme en temps réel,
en gros, on doit tout maîtriser.
Il ne doit pas y avoir
d'éléments perturbateurs
ou statistiques.
Donc, ça va être un petit peu
le même genre de philosophie
qu'on va appliquer.
Vous avez modifié le
protocole wifi, en gros.
On a utilisé le protocole wifi
et nous, les couches du dessus,
les couches au niveau UDP,
au niveau TCP qui sont au dessus,
on les a utilisés de sorte
à enlever tout ce qui n'était pas
déterministe pour pouvoir garantir
la communication.
Et du coup, c'est combien de millisecondes
qu'il faut au max qui est autorisé
pour éviter que ça fout le bordel
dans l'entrepôt ?
Alors, la première chose,
quand ils vont se parler,
c'est qu'il faut qu'ils sachent
se parler sur une même horloge.
Donc, il faut qu'on synchronise
leur horloge à moins d'une milliseconde
près.
Parce que quand on dit vas-y,
je peux te le dire à l'avance,
par contre, le vas-y,
il faut qu'il soit au bon moment.
Donc, le plus important
n'est pas tant la rapidité
à laquelle je parle,
mais quand on va se parler,
de pouvoir parler avec un temps
qui est commun.
Donc là, on est sous la milliseconde.
Et après, l'autre,
ça va être la capacité de réaction
uniquement en cas dégradé,
où là, il faut aller vite.
Donc, à nouveau, c'est la flac d'huile.
Je passe sur une flac d'huile,
dites aux autres robots
qui se seraient peut-être pas mal de freinés.
Et là, on est plutôt de l'ordre
de la dizaine de millisecondes.
Ça va quand même assez vite.
On s'en rend pas compte,
mais c'est quand même très, très vite.
Parmi les questions que j'avais,
est-ce que vous vous faites des crash tests ?
Ça existe, ça ?
Alors, oui, ça peut arriver,
justement, parce que quand on est
dans le monde réel,
il peut y avoir des collisions.
Donc, un robot, il va avoir un par-choc.
Et quand on design un par-choc,
il faut qu'il l'absorde de l'énergie.
Et donc, oui, on fait des crash tests
pour voir combien notre par-choc
absorde de l'énergie.
Vous avez crash test en slow-mo ?
Et oui, je pense qu'on doit avoir ça.
Mais je pense qu'on le garde en interne.
T'as dommage, c'est tellement satisfaisant.
Mais c'est ça qui est chouette.
Dans les équipères AD,
on va avoir des ingénieurs
avec des compétences super variées.
Donc ça, ça va être des ingénieurs mécaniques
qui vont faire du dessin de structure.
On a des ingénieurs tests qui vont les tester.
Des ingénieurs softwares
sur des variétés super grands.
Donc, à l'an du software embarqué,
on est du C dans un microcontroller.
Des gens qui vont faire du C++ dans le lalgo
toujours en embarqué,
contraintes de ressources, contraintes de temps réel.
Des gens qui vont faire du C++
sur du vrai lalgo qui doit tourner vite.
Donc là, ça va être tout le fleet management.
On est sur des combinatoires qui sont immenses.
Donc, en termes de combinatoires,
on appelle ça des problèmes NP-complex
en fonction du nombre d'éléments,
la complexité exponentielle.
Donc là, vraiment,
de l'optimisation des maths de lalgo.
Et après au-dessus, on aura du Java
pour tout ce qui est le software business,
le bac des interfaces,
des interfaces soit les API,
soit les interfaces frontes,
et ensuite du front en bel.
Bon, bel stack ?
C'est ça,
dans un entrepot logistique déployé par Exotek,
peut-être quelque chose que je dois dire,
on ne vend pas des robots.
On vend toujours une solution complète.
On ne va pas nous acheter trois robots.
On va avant acheter un système de préparation de commande.
Donc, il y aura toute la stack software
qui sera déployée.
Et donc, quand on déploie un entrepot,
c'est environ 50 types de softwares différents.
D'un certain, genre le software qui contrôle le robot,
il est fois le nombre de robots,
mais il y a 50 types de softwares différents
qui vont faire la stack générale,
pour faire tourner l'installation.
Et...
Tu parles à du prix.
Si tu fais le calcul et que tu fais l'enfant de la division,
ça, c'est combien, du coup,
un robot en moyenne ?
Donc, si je veux m'acheter un robot, là,
pour ranger les...
Si tu veux, on a un entrepot, là.
Oui, un peu de bazar.
Qui est ranger, mais parfois, il n'est pas.
Si je veux un robot.
Donc, t'achètes pas un robot, t'achètes une installation.
Donc, si je fais sur une installation,
une petite installation,
ça fait de l'ordre du million d'euros.
D'accord.
Et une grosse installation,
ça fait plusieurs dizaines de millions d'euros.
Ben, je sers mon par...
Non, ok, c'est les heures de grandeur.
Et donc, une petite installation,
ce serait quoi ?
Ce serait une vingtaine de robots,
ce serait plusieurs milliers de bacs,
et quelques postes de travail opérateurs
qui vont permettre de faire tourner.
Donc, ça, ça va être, par exemple, un drive
ou des choses comme ça,
qui sont plutôt des petites installations.
Ça va être cette heure de grandeur, là,
à l'inverse, quand on fait des grands entrepôts,
pour, typiquement, ce qu'on appelle le retail,
réapprovisionnement en magasin,
c'est beaucoup de volume.
Donc, une éclose, c'est un cas.
Là, ça fait des choses beaucoup plus grosses.
Donc, ça a dit 20 millions, c'était ça ?
Non, un million.
Un million, ça fait moins de 50 000 robots, en fait.
Oui, c'est moins de 50 000 robots,
parce qu'il y a...
Ben, je sais pas, c'est pas sur le point...
Avec tout le système qui est autonome.
Ouais, mais c'est pas si...
C'est dans l'industrie,
ou des trucs de robotiques, ça va vite, quoi.
Ouais, ouais, je m'attrape plus.
Et puis, au final, c'est vrai que...
C'est pas la même chose que sur Dubitouci.
Sur Dubitouci, on regarde par rapport
juste les coûts.
Dans Dubitouci, ça va être ce que ça apporte.
Donc, ce que ça va apporter, c'est plus de business.
Si j'ai cette solution-là,
je peux être capable de mettre plus d'articles.
Donc, je vais convaincre plus de clients,
parce que j'aurai un meilleur référentiel.
Je vais les livrer plus vite, etc.
Donc, souvent, ça se met en face de revenus
qui sont largement supérieurs à ces coûts investis.
Ça doit pas être si difficile.
Il suffit de faire combien ça vous coûte.
Voici le prix de la solution.
Et il voit très vite s'ils vont gagner des sous.
Dans l'industrie, c'est tout de suite...
Ils amortissent ça sur deux, trois ans.
Ouais, dans l'industrie,
les décisions d'investissement, elles sont faites
sur le DIY, du payback.
Donc, oui, on va regarder deux choses.
Est-ce que ça nous fait économiser ?
Est-ce que ça nous fait gagner ?
En plus de chiffre d'affaires, moins de coups.
Et après, on met en face l'investissement.
Le PowerPoint n'est pas si compliqué.
C'est ça que je veux dire.
Un peu de slide.
Tu peux te lancer.
De la tech.
Non mais c'est ça que je sais justement
pour ça que vous êtes là.
Il n'y a pas besoin de beaucoup de slide.
Mais il y a une belle tech.
J'ai mon trop de mémoire, mais je sais pas.
Moi, si tu veux, j'ai...
Ok, on va le voir.
Mais comment je t'en prie ?
Moi, je voulais qu'on...
Parce qu'on a parlé un peu de la théorie technique, du hardware.
Mais maintenant, d'un point de vue logiciel,
il y a un aspect qui m'a toujours intrigué,
mais ça me rappelle mes vieux cours d'université, je crois.
C'est tout ce qui est calcul de trajectoires,
théorie des graphes, etc.
Est-ce que tu peux nous expliquer
comment ça marche dans un système de style-là
pour, à partir d'un point A,
décider quelle est la route pour aller à un point B.
Et est-ce que, d'une certaine manière,
c'est pas un peu ressemblant à GPS ?
Alors, c'est intéressant.
Donc déjà, la meilleure façon
pour tous ceux qui sont intéressés par ce problème-là
c'est de venir à l'exo-légende.
À l'exo-légende, nos robots se déplacent dans un labyrinthe
et s'ils savent pas trouver un chemin,
bah ils restent bloqués.
Donc on voit les gens qui arrivent à notre hackathon
et souvent au début, ils sont exactement nos qui disent
j'essaye au nord jusqu'à ce qu'il y ait un mur.
Quand il y a un mur, je tourne à droite.
Si il y a toujours un mur, je retourne à droite.
Et souvent, on finit par faire des robots qui tournent en rond.
Donc il faut aller vers des vrais algos
où on fait une vraie modélisation de la carte.
Des endroits où ça passe, des endroits où ça passe pas.
Et on va chercher, donc on le modélise,
comme tu l'as dit sous la forme d'un graph.
Donc un graph, c'est des nœuds, des endroits où je peux être.
Et des arrêtes, c'est des endroits où je peux aller
à partir de cette position-là.
Et de là, on va pouvoir y térer.
Et donc là, il y a plusieurs façons de le faire.
Le premier mathématicien qui a proposé une solution
s'appelle Dijstra.
Donc c'est facile.
On fait un rond, donc on part de l'endroit où je suis.
Je vais explorer ceux qui sont autour,
puis ceux qui sont autour de ceux qui sont autour.
Et donc en fait, on va voir une sorte de rond
où je vais partir de l'endroit où je suis.
Je regarde tous les chemins possibles
jusqu'à ce que mon range-ting et touche ma destination.
Et là je dis, ah, j'ai trouvé un chemin qui va à ma destination.
C'est bien, mais c'est long.
C'est-à-dire que si je veux trouver le chemin
qui m'emmène, disons, aller à Marseille,
je vais aussi trouver le chemin qui m'emmène à Berlin.
Ceux-les deux sont à 1000 km.
Donc j'aurais trouvé tous les chemins
à toutes les villes à moins de 1000 km.
Il y a beaucoup de calculs pourris, hein, quoi.
Et exactement.
Et si je voulais aller à Marseille, oui, effectivement.
Donc ensuite, on va...
Il y a des algos qui ont été améliorés.
Donc un qui s'appelle ASTAR,
d'où le nom de notre logiciel,
sur lequel on rajoute des heuristiques.
On va partir de...
Donc il y en a qui vont permettre d'aller plus vite,
s'en trouver forcément la meilleure solution
mathématiquement.
Et il y en a qui vont garantir,
qui vont avoir des garanties mathématiques,
tout en allant beaucoup plus vite.
Donc là, ça va être...
En gros, on va progresser non plus en forme de rond,
mais plutôt en forme d'élipe.
En disant, je sais que le chemin restant,
il fait au moins la distance à vol d'oiseau.
Donc un moment, si j'ai un chemin qui se rapproche,
il va mieux l'explorer que le chemin qui m'éloigne.
Et du coup, la vol de progresser en rond,
va progresser en forme d'élipe dans la direction qu'on vise.
Donc par exemple, ça, c'est une des astuces
qui permet d'aller plus vite.
Et est-ce que tu penses que typiquement
des ways ou des trucs comme ça,
ils nous donnent toujours le chemin le plus court,
ou alors ils optimisent plutôt la facilité de calcul ?
Alors il y a deux choses.
Il y en a un, c'est le chemin le plus court en kilomètres.
Ça, tout le monde se le trouvait, c'est pas très dur.
Maintenant, il y a des algos qui permettent de garantir, oui, c'est sûr.
Après, la deuxième difficulté, c'est que
on va avoir parfois des boucles,
ou en fonction de l'heure à laquelle je passe,
j'aurais pas le même trafic,
et donc j'aurais pas le même temps de parcours.
Et donc quand on commence à calculer en temps de parcours,
alors si c'est en temps de parcours dans un trafic fluide,
c'est facile puisqu'on a juste à convertir les kilomètres
en temps avec la vitesse.
Par contre, quand on est dans un trafic super dense,
comme c'est le cas avec nos robots,
là, les algos deviennent beaucoup plus rigolos,
beaucoup plus intéressants et beaucoup plus difficiles.
Chaque entreprise va avoir sa secret de sauce
pour réussir à trouver le meilleur chemin temporel,
mais c'est trop compliqué.
Ah, ça n'a pas été théorisé, quoi.
Si, ça a été théorisé,
mais dans des choses qu'on n'arrive pas à résoudre en temps réel.
Si vous voulez qu'on aille un peu plus dans la théorie,
il est rigolote.
On fait un graphe qui est spatial.
D'accord, et là, on s'est trouvé le plus court chemin.
Si je veux rajouter le temporel, en fait, je vais rajouter des graphes.
Je vais redupliquer ces graphes toutes les, par exemple,
demi-sondes.
Et je vais faire un parcours de graphes
qui, au lieu d'être que spatial, va aussi être temporel,
mais ça fait des graphes qui, du coup, sont très grands
et qu'on n'arrive pas à résoudre en temps réel.
En temps réel, sauf chez Exotec.
Alors, on va le parcourir,
mais on ne va pas avoir une garantie d'avoir trouvé le meilleur du meilleur,
mais on va en trouver un très bon en temps réel.
Ok, c'est hyper intéressant, vraiment.
Et ça se rapproche des théories,
enfin, quand on utilise du machine learning, etc.
A Paris, on n'a pas un optimum global du monde entier.
On a une très bonne solution en temps réel.
Et donc, c'est probable que, effectivement,
si je continue de me parler,
si moi, je me mets une destination sur Waze
et qu'il y a du trafic et des choses comme ça,
c'est probable que ça prenne trop de temps
d'avoir la meilleure solution et qu'il ne la fasse pas.
Voilà, et il en fait une bonne, qui sort.
Et donc, ça a bien rapport.
Je pense que je me mette toujours, là-dessus.
Il y a un lien. Alors, par contre, là, on a résolu le problème
qui est un agent passfinding.
Mais ça, c'est le problème facile.
Ensuite, le problème le plus difficile,
c'est qu'on n'a pas un agent qu'on veut amener à un endroit,
c'est qu'on a N agent qu'on veut amener à N endroit,
chacun ayant sa destination.
Ce problème s'appelle du multi-agent passfinding.
Et donc, là, pour le réseau, c'est beaucoup plus compliqué,
parce que parfois, on va accepter sur un agent de faire un détour
pour ne pas encombrer, par exemple.
Et ça, par exemple, donc Waze ne le fait pas,
ça va être local.
Et ça, ce problème-là, il est encore infiniment plus compliqué,
infiniment plus drôle.
Et donc, c'est ça qu'on va faire,
c'est essayer de trouver des solutions au niveau de la flotte.
Mais est-ce que c'est pas ce qu'ils essaient de faire
quand ils font prendre une route un peu moins de gare,
juste pour que tu libères l'autoroute, c'est...
Je pense qu'ils le font toujours du point de vue de toi.
C'est-à-dire qu'ils voient qu'il y a un bouchon,
et donc ils te font contourner, mais ils n'ont pas anticipé.
D'ailleurs, on le voit, mais régulièrement,
du coup, il y a la route qui s'engorge.
En fait, mais ça, je trouve ça intéressant,
c'est qu'on est dans une gamme de problèmes
qui, en les lisant par aise,
tu te dis, c'est simple.
Oui, tu calcules des trajectoires,
les trucs comme ça.
Maintenant, on fait de l'IA, si tu veux, donc...
Ça a l'air simple.
Mais en fait, c'est une catégorie de problèmes.
C'est pas trivial du tout.
Oui, mais j'en ai dit, mais ça,
il doit y avoir des papiers de recherche.
Alors, il y a des choses, à chaque fois, il y a plein de facettes,
mais non, la solution au problème global,
c'est des bonnes idées regroupées ensemble
pour faire un...
Et là, il y a ce côté, en réalité, ça, c'est aussi la chose importante.
Si on peut calculer pendant très longtemps,
on arrive à trouver de très bonnes solutions.
Là, des robots, chaque seconde que je passe à calculer,
c'est des secondes où le robot bouge pas.
Et est-ce que, si les puces deviennent encore plus puissantes,
ce calcul qu'on n'arrive pas à faire en temps réel,
actuellement, avec les robots qui faut optimiser,
on pourra le faire en temps réel,
ou c'est pas lié à la puissance de calcul.
Donc, si, c'est lié à la puissance de calcul.
Actuellement, on le fait en temps réel,
mais à un moment, on a trouvé une bonne solution
et on doit s'arrêter parce que c'est l'heure
d'envoyer la mission et on va pas plus loin.
Plus on a du hardware qui va vite, plus on est capable de continuer à chercher,
continuer à optimiser, tester plus de combinatoires.
Et surtout pour dire aux gens, on a donné l'exemple
des recherches de GPS, mais c'est la même chose
dans les jeux vidéo, par exemple.
Quand vous jouez à Edge Empire, vous cliquez à un endroit,
il y a une recherche du chemin le plus court.
Et on en temps réel en plus dans un jeu vidéo, en fait.
Donc, il y a des similitudes assez fortes
avec le jeu vidéo, dans le jeu vidéo.
Je sais pas si à ce côté d'optimiser le mouvement de plusieurs agents en même temps,
mais c'est pas impossible qu'il y ait des cas où ça...
Il y a des cas où ça se voit aussi.
Ça a du sens, si tu as des routes,
et si tu as un nombre restreint de routes.
Oui, effectivement, il y a des routes qui sont très parties.
Pour ne pas que ça passe à l'heure.
La bonne question aussi.
Je sais pas si...
Quel jeu pourrait mettre ça en place ?
C'est hyper hyper stylé.
Et...
Et bah, j'ai oublié ce que j'ai dit.
Si, si, si, je sais.
Là, du coup, on a...
On a fait un peu des parallèles avec d'autres...
Peut-être juste un mini-point, pardon.
Mais dans les choses qui sont intéressantes, je vois,
depuis le début de ma carrière, j'ai fait beaucoup d'algos de ce type-là.
Parfois, souvent, il y a la question de l'élepus
et la puissance de calcul.
Moi, depuis que j'ai commencé à bosser,
je sais pas peut-être que maintenant ça fait 4 fois mieux que ce que ça faisait au début.
Par contre, les algos, quand on trouve une bonne idée,
on peut facilement faire 100 fois mieux que ce qu'on faisait avant.
Donc, dans les équipes R&D,
j'ai beaucoup plus de mathématiciens
que de gens qui optimisent la gestion du cache
ou les processeurs qu'on va utiliser.
Et ça, c'est royal. C'est-à-dire que
avec les softels et qui travaillent à Exotek,
ils ont, comme Juju, un truc qui vaut 10 millions d'euros de hardware
sur lequel on met un algos.
Et s'ils ont une bonne idée, on peut faire produire 5% peut-être plus
avec le même hardware.
Donc, du point de vue du client,
bah voilà, c'est comme si ces 10 millions lui rapportaient
5% de plus que ce qu'il avait acheté.
Donc, il y a vraiment des bonnes idées à trouver, des bonnes idées d'algorithmes
ou depuis le début d'Exotek,
depuis le début d'Exotek, la capacité des...
on va dire, de calcul n'a pas radicalement changé
et pour autant, on a vraiment multiplié par plusieurs ordres de grandeur
la capacité des systèmes.
Et donc, c'est toujours en cours et toujours en cours d'amélioration.
C'est toujours en cours et là, en ce moment, il y en a encore...
Et tant qu'on est dans les...
on digresse un tout petit peu, j'espère que ça ne te dérange pas,
mais c'est pas tous les jours qu'on parle avec des gens
qui gèrent des systèmes de cette taille-là.
De cette complexité là-dessus.
Et donc,
là, moi, d'un ayument de l'extérieur,
je me dis, ok, ces gens, ils ont trouvé des moyens
de faire se déplacer des petits véhicules
sur des routes qu'on connaît à l'avance à très, très haute vitesse.
À quel point ça ne peut pas se déplacer
sur le... dans le vrai monde, sur les voitures.
Tu le disais, il y a le problème du fait que tu transportes des humains,
mais à quel point il n'y a pas quand même des choses à...
à ce bac à sable,
en environnement contrôlé.
Est-ce qu'il y a des choses qui pourraient pas se transposer
sur des véhicules, des voitures, des trains, des choses comme ça ?
On a énormément de choses qui sont en commun
avec les start-ups qui sont lancés sur les véhicules autonomes.
Depuis les capteurs, le LIDAR, les algorithmes, la localisation,
les détections d'anomalies par rapport au monde réel,
c'est des choses qui ressemblent.
Et donc, on voit, il y a énormément d'entreprises qui sont lancées,
dont des entreprises aussi même en France, là, sur des...
sur des navets, des entreprises aux États-Unis,
des entreprises, et je crois que t'en parlais,
qui ont aussi d'ailleurs jeté les ponches.
Je crois que t'en parlais dans Apple...
– Comment ça se passe ? – J'ai oublié.
– Apple, Apple, Apple, je vous l'ai oublie,
– Je vous l'ai oublie, je raconte au début de l'émission.
– Apple, Apple, oui ? – Apple, oui ?
– Je pense qu'on est effectivement dans un contexte
où c'est un petit peu plus facile.
Alors, à la fois, c'est un peu plus facile.
À la fois, un véhicule, il roule quelques heures par jour.
Nous, ça roule 24h sur 24h.
Donc, il y a quand même besoin, en termes de fiabilité,
d'être sur une vraie horloge, mais dans un monde
où il y a de l'incertitude, mais moins que dans le monde réel.
Et donc, ça nous permet effectivement
de robustifier, d'industrialiser
des choses qui seront le futur.
J'en suis certain dans les rues, dans les rues un jour.
– Peut-être que bientôt, il y aura plus de feu rouge,
et au croisement, on va juste se croiser
à 50 km heure.
– C'est super efflipant. – Exactement.
– Mais tout sera calculé.
– Eh, moi, si,
tu as dit que les robots, ils roulaient 24h sur 24h,
comment vous vous faites pour les batteries ?
– Oui. Donc, une batterie, globalement,
elle va durer 55 minutes,
et ensuite, il va se charger 5 minutes.
Donc, la flotte va tourner 24h sur 24,
mais on aura un tour de rôle
qui va être sur ce qu'on appelle le booster,
donc le chargeur. Et donc, c'est la responsabilité
à nouveau du chef, à star,
d'organiser la rotation. Donc, c'est une sorte de ressource partagée,
qu'on pourrait voir ça comme de l'informatique.
– Il y a un stand pour... de recharge, quoi.
– Voilà. A côté de chaque interface du système,
à l'extérieur, il y a un point de recharge,
et ils vont y être assignés à tour de rôle.
Donc, si j'ai besoin d'un point de vue flû de 10 robots,
je vais en mettre 11, et je sais qu'il y en a un
en permanence qui sera à tour de rôle en train de se charger.
Si j'ai besoin de 100, je vais en mettre 110. C'est facile.
– D'accord, OK.
– Oh non, je... – J'ai vu... Je te la transmets...
Bah, si, c'est trop tard, j'ai commencé, mais...
Je te transmets une idée du chat qui sont
en moyenne pas... pas ouf.
– Je ne critique pas l'audience. – Ça dépend, ça dépend.
– Ça dépend. Parfois, on peut se permettre.
C'est de...
Pour résoudre votre problème de pass-finding,
ce serait de brute-forcer le problème
et de calculer maintenant tout de suite toutes les courbillés autres.
– C'est possible, mais après, je pourrais pouvoir les enregistrer.
– Oui, il y a toujours le problème de l'huile renversée d'eau-sol, quoi.
– Oui, et puis même tout simplement, il y en a trop.
– C'est quelque chose.
– Mais là, c'est juste ça.
– Oui. – À la échelle d'un robot...
– Tu pourrais casser tous les modes pass de l'histoire...
– Tu pourrais. – Oui.
– Trop, trop intéressant, franchement.
– Moi, ce qui m'a tué, quoi, je suis allé voir là-bas.
Alors, ce n'est pas que des environnements de tests,
mais il y a plein de mini-entrepots à votre siège, là, dans le Nord.
Alors, je pense qu'il y en a, c'est le développement,
d'autres, c'est des environnements de tests,
l'autre, c'est une production, la production de pièces et tout.
Mais il y a vraiment plein de mini-stands,
enfin, de entrepots exotets.
Mais, genre, moi, je pensais qu'il y en aurait un,
parce que ça coûte cher quand même.
Non, non, il y en a plein, il y en a même un.
– Faire joujou dans différents cadres, quoi.
– Il y en a un où j'ai vu des robots. – Faire que pour faire un joujou.
– C'est ma manière de dire faire de la R&D. – Non, parce que...
– Non, mais justement. Donc, on s'en sert pour faire de la R&D,
pour à la fois sur du concept, sur innover,
j'ai une idée folle, est-ce que j'essaye, sur de la validation de R&D,
avant de l'envoyer chez le client, je vais être sûr à 100% que ça marche sur de la QA.
Mais on s'en sert aussi, parce que comme c'est le meilleur système de stockage du monde,
on stocke nos composants de prods dans un système Skype-Head.
– Ah oui, bien sûr. – Of course.
Donc, c'est pas que pour faire joujou au censé R&D,
parce que je suis bien d'accord qu'à R&D, ça peut parfois, ça ressemble à du jeu,
mais c'est aussi utilisé pour notre prod, pour notre supply.
– On dit souvent qu'il faut manger sa propre...
– Itcho. – Ouais, tout à fait.
– Non, pardon. – Et c'est ça.
– Et j'ai vu aussi, il y a un moment où il y a des robots qui font que aller,
en fait, qui bougent en permanence, juste pour savoir...
– Enfin... – Pour le vieillissement du robot, en fait.
– C'est intéressant, les clients les plus alertes,
ils nous disent, vous garantissez que vos produits durent au moins dix ans,
sauf que vous existez depuis moins dix ans.
Comment est-ce que vous pouvez garantir ça ?
Et donc là, la réponse, c'est du test accéléré.
Donc, un robot, par exemple, je crois que c'est un douzième de son temps,
il va grimper, le reste, il va se déplacer, prendre des bacs, etc.
Donc, si je le fais cyclé en permanence sur les grimper,
il va s'user douce fois plus vite que dans la réalité,
et donc, au bout d'un an, je sais ce qui va m'arriver sur douze ans.
Donc, ça, c'est super important.
– C'est comme dans le logiciel.
Souvent, quand tu fais des tests de simulation,
tu veux accélérer le univers, et effectivement,
ça paraît pas possible en vrai, mais en fait, il suffit de...
– Sauf que là, tu vois vraiment, j'ai vu de mes propres yeux,
un robot faire comme ça.
– Mais j'en vois, il était tout bécoit.
Il était accroché par un fil, parce que comme ça, pas problème de batterie,
et puis, comme ça, en permanence, tu fais,
« Waouh, je vis à mes envies ! »
– C'est le robot crash test.
– Ouais, c'est ça qui est chouette avec The Tech,
c'est ce côté très innovation, très tech,
et en même temps, il faut une qualité de folie,
parce qu'à la fin, un client, quand il nous confie sa logistique,
il nous confie ses ventes, s'il n'y a pas de logistique, il peut plus vendre.
Donc, ça doit être parfait, et ça doit être parfait sur tous les aspects,
donc on va se battre pour le faire au mieux,
sur le software, sur le hardware, sur nos opérations,
et voilà, il y en a encore plein de choses à construire,
sur les deux aspects d'ailleurs, et sur la partie robustesse,
et sur la partie innovation.
Sur la partie innovation, ça peut faire partie...
Parfois, il y a des gens qui viennent me voir en disant,
« Mais votre tech, qu'elle existe,
pourquoi il y a encore tant de gens que vous embauchez un R&D ? »
– C'est vrai, ça.
– Et pourquoi il y a tant de gens qui n'ont pas cette solution aussi ?
– Dans le point du déclin ?
– Ouais, qui font toujours à la main.
– C'est vraiment en train de changer.
Là, on voit tous ceux qui se développent,
tous ceux qui grandissent et qui donc investissent.
Là, maintenant, il y a vraiment un changement massif
vers la robotisation.
Mais donc pourquoi il y a encore besoin de tech ?
Il y a un peu de dimensions,
il y a une dimension où on peut améliorer à l'infini,
ces systèmes-là, on peut améliorer les algos,
on peut avoir des robots qui vont plus vite,
on peut consommer moins d'énergie, etc.
Je peux prendre sur le côté un petit peu en printécologie,
qu'elle est batterie par exemple, donc on a des batteries.
Au début d'exotec, nos batteries, elles dureraient 3 ans.
C'est déjà bien intensif, mais au bout de 3 ans, il fallait échanger.
On a réussi à faire une deuxième génération, on est à 5 ans.
Là, on travaille sur une future génération, on espère arriver à 10 ans.
Donc voilà, il y a plein d'axes d'amélioration.
Et le deuxième, ça va être étendre la gamme produit.
Donc l'entrepôt, c'est un terrain de jeu qui est chouette.
Là, pour l'instant, on a fait un peu le moteur de l'entrepôt.
C'est comment je rassemble les articles.
Après, de la porte d'entrée où il y a un camion qui arrive,
jusqu'au moteur et du moteur, jusqu'au camion qui va expéder,
il y a encore plein de trucs qu'on peut faire.
Et donc là, sans pouvoir tout révéler, on a encore des éléments qu'on va étendre.
Très bien.
Pour ceux qui ont été passionnés, comme nous, j'imagine,
de toute cette merveille que vous êtes en train de concevoir
et qui voudraient y participer.
Qu'est-ce qui est possible ?
Qu'est-ce que vous recrutez ?
Quel genre de poste ?
Donc on recrute.
Et à nouveau, sur la robotique, il y a plein de métiers différents.
Là, je pense que ça vaut le coup de parler plus des métiers software.
Mais donc déjà, en software, la R&D, elle est faite en France.
Sur deux sites, à Lille et à Lyon.
Et donc les stacks vont être super différentes.
Alors à nouveau, du C embarqués, bas niveau, du C++,
des maths appliqués, du machine learning, de la vision,
du Java sur du software business et du web.
Je crois que j'ai rien oublié sur un peu les différentes stacks.
Et donc ensuite, la façon où on est, par exemple, sur Welcome to the Jungle,
ou bien évidemment, on a une page carrière,
où c'est un petit peu d'écris ce qu'on fait,
où il y a plein d'offres qui sont, je ne sais pas combien,
on a d'offres en R&D ouvertes, mais au moins une cinquantaine.
Donc on doit pouvoir trouver son bonheur.
Et après, ceux qui sont passionnés, on a régulièrement aussi des gens,
jusqu'à y arriver avec une candidature libre, en disant,
moi j'adore ça, je sais faire ça, comment ça raisonne chez vous.
Ou alors vous allez, si vous l'avez, l'année prochaine.
L'exolégende, l'année prochaine, exactement.
Et peut-être que si vous faites un robot particulièrement dévastateur,
vous vous ferez repérer.
En tout cas, ceux qui organisent l'exolégende,
c'est des ultramotivés d'exotèques.
Là, je crois que la team qui l'organisait, c'était 60 personnes,
en comptant les arbitres, les logistiques,
les gens qui s'entraînaient sur Twitch, etc.
Donc oui, il y a plein de communications.
Je crois qu'il y avait 50 équipes de 3 personnes.
150 participants pour 60 exotèques, ça permet de discuter dans tous les sens.
Cross-silly, hyper intéressant.
Merci encore de ton temps.
J'espère que tu as eu ton train, c'est bon ?
C'est bon.
Je pense que non, on avait prévu un peu large.
Merci beaucoup.
Merci beaucoup d'être venu.
À une prochaine fois, on espérant que tout ça vous a plu,
et que c'était pas trop pointu, pas trop barbu.
Je trouvais ça super intéressant.
On va essayer de s'appliquer.
Franchement, ça va.
Il y avait des belles images, donc franchement, ça va.
Je me demande les images de Robo, moi, je ne me demande pas.
Je pense que j'ai un problème, mais je ne me demande pas.
C'est très satisfaisant, ça pourrait faire des TikToks,
il y a un concept de vidéo, ça peut faire les mêmes, à mon avis.
C'est possible.
Il y a quelque chose.
Ne bougez pas, nous, on revient juste après un jingle, pas de pause.
Allez, c'est ça, ce qui est prévu.
Oh, carrément.
Non, mais c'est vrai.
Et on va parler des jeux sur la plateforme MacOS.
Et Tiffany va...
Merci beaucoup, très bonne soirée.
Merci, merci Renault.
Et à une prochaine, pendant que Tiffany va...
C'est parti de jingle.
Qui était punie.
Et c'est parti de jingle.
C'est fait de manière rapide, mais efficace.
Rapide et efficace, effectivement.
Sans plus attendre.
Je vous propose qu'on en chaine sur notre prochain sujet.
Mais surtout que ça va être un peu plus léger.
On n'a pas les robotiques, on n'a pas les hardware cartographiques.
Cette fois-ci, on va un peu détendre l'atmosphère.
Ah merde.
Non mais quand même, ça va être toujours un peu technique,
mais on va parler gaming.
Et on va parler de gaming sur...
Pas n'importe quel plateforme sur MacOS.
Ce qui est quand même, deux concepts normalement qu'on n'allie pas.
Il y a une résistance.
Il y a une résistance.
Exactement, c'est un peu bizarre.
Et vous allez voir justement, c'est un sujet très intéressant.
Parce que historiquement, les Macs et MacOS,
en tant que plateforme, n'a jamais été adaptés aux jeux vidéo.
Pardon, excusez-moi, je vous coupe un instant.
On me demande de tempo.
On a un petit souci de REC, pas de souci,
mais quitte à reprendre le REC, faisons-le correctement pour la troisième partie.
Temporaison 2 minutes.
On a été chafouin.
Ouais, il doit être très mal commencé cet interne.
Je suis désolé, je suis vraiment désolé.
Ah, t'as plutôt bien fait.
C'est gênant du coup, non ?
Moi, j'avais une super question, mais je n'ai pas pu la poser.
Je me demandais comment ils font pour que les RAC,
ils tiennent et soient stables.
Parce que si tu as déjà rempli...
Si tu as déjà rempli des trucs,
tu sais que moins c'est stable.
Mais en fait, quelque chose qu'on n'a pas vu
et qui se voit plus difficilement sur les images,
mais quand le robot est sur un entre-de-rac,
il monte et après, pour aller chercher une caisse,
il a un truc qui se déplie sur le côté
et qui va chercher la caisse comme ça.
Et donc du coup, je pense qu'il y a un truc qui est bien coordonné.
Je pense que la question de titre, c'est un RAC,
plus tu as le poids en haut sur un côté, plus c'est casse-gull.
Mais c'est possible que...
Par exemple, tu penses qu'ils se vont visser des deux côtés ?
C'est possible.
C'est possible, mais j'ai vu des plans drones
qui passaient au-dessus, donc ce n'est pas complètement relié au plafond.
Ils ne sont pas si lourds que ça.
Non, ils ne sont pas reliés au plafond.
Mais moi, la mécanique et moi, ça fait un peu d'eau, j'avoue que je ne sais pas.
Bonne question.
C'est mon côté bricolokie, qui a pris le dessus.
On leur demanderait, on te fera un petit mail.
Super, faisons ça. Exactement, avec les specs techniques.
Une histoire de remonter ce RAC dans le bureau.
Parfait, parfait. On a 2 mètres 20 de hauteur.
Je pense qu'on peut mettre 4 bacs.
Je continue à tampons un petit peu, parce que je vois que ça s'agit à côté de moi.
J'en ai déduit que c'était...
Oui, tu l'as plus de rillettes que Fège.
Surtout qu'il a pris sa voix de Tilt Mubble.
Attends, parce que je vais vous raconter un truc.
Non, plutôt que de me bler, on va demander à Tiffany.
Oh, bah...
Tu me mets en 2 spots ? Non, mais ça va, très bien.
C'est quoi tes sujets ?
C'est-à-dire, autrement...
Alors, les parties...
T'étais pas à la montagne ?
Et... alors...
Réponds !
Si, si... Non, mais je m'entraîne.
Peut-être que le chat...
Je sais même pas si on a mentionné ça, mais avec Mathieu, on va faire un...
On va faire un ultra-trail, gars. Assume.
Et du coup, tu fais pas le même que moi, je crois.
Non, toi, t'as décidé de faire 56 gigamètres, parce qu'on ne sait pas pourquoi.
Ouais, voilà. Mais t'en fais un aussi, c'est très bien.
Et du coup, c'est quand c'est en juin ?
Ouais, j'ai pas commencé l'entraînement, tout va bien.
C'est en juin, donc il faut courir, voilà.
Et donc, c'est ça, ma vie, en ce moment.
La fin de notre entraînement, c'est de commander des veris de sacs de bière.
Super, Mathieu.
Non, mais... ah, comment... tu vas pas, avant de faire du bon...
J'ai jeté sous les mains, j'ai jeté.
Non, mais je vais pas essayer de me défendre, parce que...
Juste, t'aurais aller re-tulpeter à la fin.
Voilà, exactement. Non, mais c'est le but.
Mais ça se rend juin, il restera plus beaucoup d'émissions, donc ça ira.
Et tu le... vous le fais tout, ça tue ultra-trail ?
C'est Samoins.
Alors ultra-trail, je pense le mot est...
Un trail.
Moi, je fais pas un ultra-trail, c'est un petit trail.
C'est combien de kilomètres ?
33. C'est déjà beaucoup trop mon petit corps.
Je fais 56.
Ouais, moi je peux te dire que...
Mais j'ai un pote qui fait 86.
Tu vas pas lui enlever son ultra, ok ?
Ok.
Mais j'ai un pote qui fait 96.
Non, mais il y en a des très grands.
Et là, je crois que ça commence à concilier de fin.
Je sais pas c'est quoi l'échelle de trail, mais...
C'est fou ce meblage là.
C'est bon, tout va bien.
Ah !
Vous pouvez reprendre sereinement, tout va bien.
Non mais du coup, tu t'entraînes à la tonfue.
J'ai repris l'entraînement, mec, il faut que toi aussi,
il faut qu'on se sink.
C'est ça ensemble.
Avant une score, on va faire un Anthony Trail.
Non mais oui, promis, l'autre chat.
Vous m'en gueulez si j'ai pas commencé mon entraînement dans deux semaines.
Ouais, respect.
Hop !
Je balancerai.
Je vous le disais aujourd'hui, on a un sujet cool,
puisqu'on va parler de gaming, encore une fois.
Pour ceux qui ont suivi la chronique à fait Mathieu,
sur une distribution très spéciale,
qui permet de se construire sa propre console de jeu,
vous allez voir, il y a des petites similitudes en plus.
On est dans les mêmes thèmes.
Je vous le disais, historiquement,
les Mac et MacOS n'ont jamais été une plateforme destinée au jeu vidéo.
Sauf que depuis quelques années, ça a évolué.
Avec l'arrivée des processeurs de Apple Silicon,
la donne a changé et maintenant, Apple s'est mis à s'intéresser au jeu sur Mac.
Ils ont noué des partenariats avec des éditeurs de jeux vidéo.
Jusqu'à l'ancer en juin dernier,
un truc très spécial qu'on va vous expliquer,
qui s'appelle le Game Porting Toolkit.
Et quand effectivement, on voit les quinoches d'Apple,
il y a de plus en plus de...
Il y a des démos qui sont un peu sexis,
où ils montent des performances de dingue sur des ordi portables.
Normalement, cette phrase n'existe pas.
Mais il y a des performances en jeu vidéo sur des ordi portables
qui ont des batteries qui tiennent un peu la route.
Il y a un côté magique dans les quinoches d'Apple quand tu vois les dévots.
Le truc, c'est que dans les faits, dans la réalité,
c'est le vent plutôt qu'on entend les cricets.
C'est-à-dire qu'il y a un peu d'écho.
Exactement, on en entend peu parler, on dirait qu'il n'y a quasiment pas de jeu.
Mais en fait, ce n'est pas comprendre tout ce qui se passe dans les coulisses.
Mathieu, tu t'es renseigné sur cette question et tu vas tout nous expliquer.
Ouais, et on va revenir un peu à l'origine d'Apple et de sa construction.
De base, Steve Jobs et donc Apple,
s'en est un peu toujours foutu des jeux vidéo.
John Carmack, qui est l'homme derrière Doom et Quake,
qui avait fait ce moteur de jeu,
nous fait même la révélation, il nous dit qu'au fil des ans,
plusieurs éléments m'ont amené à conclure qu'au fond,
Steve Jobs n'avait pas une triote opinion des jeux.
Je ne l'ai jamais pris personnellement.
Quand tu dis ce genre de phrase, c'est que potentiellement,
tu l'as pris un peu personnellement.
Mais tout ça pour dire que voilà, un pomme du jeu vidéo,
c'est bien aperçu que Steve Jobs, son créneau à lui,
ce n'était pas le jeu vidéo.
Ça, c'est le post Facebook de John Carmack.
C'est la source.
Là, j'ai cité une petite phrase.
Et on a un autre écho de ça, c'est Steam.
Donc, où son business model, c'est les jeux vidéo,
qui avait essayé à plusieurs reprises de contacter les équipes d'Apple,
en me disant, c'est peut-être cool de faire un truc ensemble,
de faire en sorte que nos jeux vidéo soient disponibles sur Apple,
parce que Steam, ils n'ont pas de crème riz,
et le but, c'est que les gens jouent à leurs jeux vidéo.
Donc plus il y a de gens qui distribuent Steam, plus ils sont contents.
Et pareil, ils n'ont jamais vraiment de retour.
Plus des retours en mode,
« Ouais, tiens, c'est une bonne idée, faudrait qu'on fasse un truc ».
Ils se sont faits friends au déo.
Ils se sont faits friends au déo.
La façon dont ils le racontent, c'est vraiment ça.
Mais en fait, c'est pas tout à fait vrai.
Apple s'intéresse aux jeux vidéo.
Mais historiquement, non pas pour le Mac,
mais pour l'iPhone et l'iPad.
Et on va voir que c'est une importance capitale dans notre histoire.
La première fois qu'Apple a invité des éditeurs de jeux vidéo
dans une de ces qui notent absolument incroyables,
c'était pour iOS.
Et en fait, c'est tout à fait compréhensible.
Le marché du jeu mobile est immense.
Il est même plus gros que celui du PC et des consoles réunies.
Dans ce marché du jeu mobile,
il y a quasiment la moitié un peu moins pour Apple,
l'autre moitié, c'est Android.
En fait, c'est une main financière très importante pour Apple.
C'est tout à fait logique qu'il s'intéresse aux jeux vidéo.
D'abord pour l'iPhone.
Et du coup, ils ont accompagné cette histoire du jeu mobile
qui a arrivé un peu dans les années 2010-2015
en faisant des annonces.
Notamment, ils ont annoncé Metal.
C'est une interface de programmation
qui sortit en 2014 avec iOS 8 à l'époque.
C'est une interface de programmation pour la 3D,
pour faire des rendus 3D, forcément,
qui sont utilisés derrière pour les jeux vidéo.
C'est un peu le DirectX d'Apple,
ce logo qu'on voit partout
et on ne sait jamais ce que c'est sur les jeux PC.
À tel point que j'ai vu ça et je ne savais pas,
qu'aujourd'hui, on peut jouer à des jeux AAA sur iOS.
Incroyable.
Assez-y une Creen Mirage, le dernier,
on peut y jouer Resident Evil 4 Remake.
Ça a été annoncé il y a 6 mois ou peut-être un an.
J'avais vu des trucs comme ça.
Pareil avec des GTA.
Il y a des anciens GTA
dont à l'époque, on aurait rêvé
de pouvoir jouer sur des appareils mobiles.
Il y a des trucs comme ça.
Les performances étaient imposées.
Ils sont ressortis plus tard,
Rockstar, les As, je ne sais pas comment ils ont procédé,
mais ils ont ressorti sur un jeu.
Par exemple, San Andreas,
il y a vraiment longtemps,
ils l'ont sorti sur l'absorpt,
tu peux le télécharger, le lancer,
et ça tourne bien mieux que d'un point de cesse
de l'époque, sur un tout petit truc.
C'est justement ça,
qui m'a fait le plus halluciner en mode,
mais quel potentiel manquer,
pourquoi il n'y a pas plus de jeu,
c'est pour ça que je suis vraiment très intrigué
par la question.
Exactement.
C'est fou de pouvoir faire ça sur iOS.
Qu'en est-il pour le Mac ?
Qu'est-ce qu'ils font avec ce Mac ?
Juste ici, rien n'était fait.
Il y avait zéro effort.
Pas un ingénieur,
pas un ingénieur,
bossait vraiment sur le fait de pouvoir jouer sur Mac.
Mais ça a changé.
Ça a changé à deux moments précis.
On va revenir sur ces deux moments.
Le premier, c'est en 2020,
l'annonce des processeurs Apple Silicon
par Apple du coup.
C'est super récent, en 2020 ?
Oui, c'est à 4 ans.
Tu pensais que les deux points tu disais...
Non, le premier c'est en 2020, le deuxième c'est plus tard.
Non, c'est assez récent.
D'autant plus il n'y avait pas de gros choses.
A part sur iOS, comme je l'ai dit.
Donc en 2020, l'annonce des processeurs Apple Silicon,
donc le passage pour Apple de processeurs Intel,
on dit X86,
à des processeurs Apple Silicon,
des processeurs sur l'architecture ARN.
Il y a plusieurs raisons à ça,
dont une,
qui nous intéresse particulièrement,
avoir une architecture commune
à tous les appareils Apple,
que ce soit les iPhone, les iPad,
l'Apple Watch, je crois,
même les Macs, ils tournent tous
sur la même architecture.
Et évidemment, ça simplifie plein de trucs
en termes de développement derrière.
Il y a évidemment d'autres raisons,
mais celle-là est une des principales
et celle qui nous intéresse aujourd'hui.
Et du coup, on peut se dire
c'est beaucoup plus simple d'utilisation.
Et par exemple,
métal qui existe sur iOS,
on va pouvoir le porter
assez facilement sur MacOS.
Et donc métal, c'est, je rappelle,
l'interface qui permet de faire du rendu 3D.
Et puis,
deuxième raison,
où on se dit que ça peut peut-être jouer un truc,
être un moment décisif pour le jeu vidéo
sur Mac, c'est un once des Apple Silicon,
donc c'est bien de ça dont on parle,
c'est que l'architecture
en elle-même des Apple Silicon
est plutôt bien optimisée
pour le jeu vidéo.
Ça ressemble même, ces processeurs ressentent même
à des processeurs qui sont embarqués dans des consoles
de salon, des consoles de jeux type PlayStation 5
ou Xbox.
En fait, c'est des processeurs
qui ont un CPU, un GPU
et une mémoire dans une même puce.
Et déjà,
Apple met une importance
sur la partie GPU, donc sur la partie graphique,
qui est beaucoup plus importante
que ce qu'on a pu voir avec
les anciens Mac qui tournaient sur Intel.
Là, vraiment, ils en parlent dans leur keynote
alors qu'avant,
tant qu'on arrive à éflicher l'écran, on est contents.
Il y avait un petit partenariat avec AMD.
Voilà, ils te mettaient un GPU mobile.
C'était un enfer. C'était vaguement potable.
Métrofond, avec la concurrence de ma prix.
Voilà, en gros. Et autre chose
qui est incroyable, c'est la mémoire unifiée.
Est-ce qu'il est d'ailleurs aussi intéressant
pour faire tourner des IA ?
C'est qu'en fait, quand on joue un jeu vidéo,
on peut prendre cette mémoire RAM unifiée
et dire, ok, on va l'allouer que au jeu vidéo.
Et du coup, ça fait une carte graphique
qu'a potentiellement 8 Giga
de mémoire qui, je simplifie,
8 Giga de mémoire qui est alloué pour cette partie graphique.
Et c'est énorme. Et donc du coup, d'avoir...
Il est nécessaire pour des plus gros jeux.
Exactement.
Alors qu'avant, encore une fois, avant, ces Apple Silicon,
jamais t'avais 8 Giga,
ou alors fallait prendre une option très très chère,
dédiée à la partie graphique.
Là, le fait que la mémoire soit unifiée dans ces nouveaux
processeurs annoncés par Apple,
c'est une très bonne nouvelle pour les sorts potentiels
du jeu vidéo,
sur macOS.
Enfin,
dernière chose qui ont fini de convaincre les gens
qui travaillent dans le jeu vidéo et qui ont vu cette conflite,
ils se sont dit, ok, ça va être beaucoup plus simple,
parce qu'il n'y a qu'une seule famille
de processeurs
à prendre en compte. Avant, globalement,
il fallait prendre en charge toutes les cartes graphiques
qui existent
sur Terre, par exemple ce que fait Windows
et les développeurs de Windows.
Il faut faire en sorte que tous les jeux
fonctionnent sur toutes les cartes graphiques.
Ça, Apple ne le faisait pas
et n'avait aucune envie de le faire.
Maintenant qu'ils font leur propre processeur,
et que c'est la même famille,
ça paraît beaucoup plus simple à maintenir
et à dire, ok, maintenant qu'on n'a qu'un seul
processeur graphique, on va pouvoir
l'utiliser pour tous les jeux, ça va être super simple.
Est-ce que j'ai été clair sur ces petits points techniques ?
Jusqu'à présent, je suis en train
de comprendre que c'est la plateforme édielle
pour faire du jeu vidéo.
T'aurais dit ça il y a 10 ans
pour des Macs, ça aurait paru absurde
et ça m'intrigue de plus en plus,
parce que
pour l'instant, ça ne se passe pas, quoi.
Exactement.
Mais pourtant, on se dit, ok,
alors peut-être vraiment, ça devient
la meilleure plateforme, j'ai envie d'y jouer
et Apple va nous donner raison.
Il y a 6 mois donc, un peu plus,
en 2023,
lors de leur keynote.
Ils invitent à leur keynote, et ils le font
en grande pompe, on connaît Apple, ils invitent
à leur keynote, Ideo Kojima,
c'est le créateur de la saga Metal Gear.
Oh, vraiment ? Ouais, quelqu'un de...
Mais tu le t'as bien ce jeu ?
Oui.
C'est ce monsieur,
et c'est quelqu'un de très très respecté
chez les éditeurs de jeux vidéo.
Et voilà, il annonce que il va
porter notamment un jeu, que je ne me connaissais pas,
Death Stranding.
Tu connais ? Oui, c'est un nom...
Voilà.
Globalement, on comprend que Apple a fait
un partenariat avec cet éditeur, pour qu'il porte
ces jeux sur Mac et qui
mettent à disposition
ces jeux, qui sont vraiment très chouettes,
sur la plateforme macOS. On se dit, ok,
bon bah là, en plus, Apple
ils avaient tout fait,
il y avait tous les ingrédients pour faire
une bonne plateforme macOS, et en plus, Apple maintenant
nous le dit, en fait, on a un peu envie que vous jugez
sur Mac, regardez, on a invité
cette personne, ils annoncent
des jeux, plusieurs jeux en grande pompe,
j'ai un peu oublié les noms, mais il y a
plusieurs jeux qui sont annoncés, Assassin's Creed
et d'autres, on se dit, non, pas Assassin's Creed ?
Je ne sais pas, moi, je pense que j'aurais
testé ça, et alors
peut-être j'ai raté la dernière.
Et bah j'ai oublié, peut-être que le chat,
mais en tout cas, ils annoncent 3-4 jeux
en natif, sur Mac.
Donc
il y a des partenariats
dans ce qui note, ils mettent aussi
l'accent sur les GPU, la PUSM3
a des performances graphiques
bien plus élevées qu'avant, donc vraiment
tous les signaux sont là,
un responsable marketing.
A la moitié de la puissance, enfin, la moitié
de la consommation électrique, quoi.
Ce qui est le rêve de n'importe quel...
De pouvoir vous dans le tram. Exactement.
N'importe quel joueur sait que si t'achètes
un ordi gaming portable,
tu as une heure de...
Une heure de jeu, en fait, j'exagère, mais
2 heures, 3 heures.
Et les responsables marketing sont d'accord, il y en a un qui dit
le jeu vidéo fait fondamentalement partie
du design des puces d'Apple.
On se dit c'est bon, dernière annonce
qui finit d'enfoncer le clou,
Apple rentre dans le jeu vidéo pour le bon.
Tu en as parlé en intro,
c'est l'annonce du game porting
Toolkit. C'est une couche
de traduction, permettant
de jouer à des jeux Windows
mais sur Mac. Mais non.
Et là... Ça c'est une tari.
On se dit c'est bon.
Pour expliquer,
je suivais depuis longtemps
des projets
comme ça fait un certain temps que j'ai un Mac
et que je voulais pouvoir jouer à des jeux,
je suivais depuis longtemps des projets
qui essaient de faire ça, qui essaient
à défaut puisque les développeurs ne le font pas
et considèrent que ça ne vaut pas le coup
de s'investir sur Mac.
Et bien il y a des gens qui se sont dit bah c'est pas grave,
on va faire comme sur Linux, comme ce qu'ils ont fait eux.
Et on va prendre des jeux
qu'on suit pour Windows et trouver
des moyens de démuler ou de virtualiser
un environnement Windows
pour faire tourner quand même sa jeu.
Mais est-ce que c'est pas super slow ?
Ça existe, en fait, voilà.
Ça existe depuis longtemps des trucs comme ça.
Certains connaissent peut-être...
Ouais bah j'ai eu le nom, on vient de m'échapper.
Wine ? Alors il y a Wine mais
il y a un truc basé dessus
Cross over. Oui voilà.
Merci. Une boîte spécialisée
à faire des couches
exactement des couches
d'émulation de ce genre, qui s'appelle
Cross over et qui était le mieux
de ce qui existait et qui te permettait
de jouer à des jeux, que ce soit
jouable tu vois. Bon
par contre, tu divises par 2
ou 3 les pertes que tu devrais avoir en gros.
Tu fais pas un compteur quoi. Non non non.
En fait, tu
peux jouer alors qu'avant tu ne pouvais pas
mais effectivement c'est du gâchis.
C'est un gâchis de matériel et de hardware
qui fait que ça n'aurait aucun sens d'acheter
un Mac ring pour cette raison.
Et là, Apple
sort un truc. Mais c'est
de la magie noire. Tu vois la quinaute
le truc, c'est tout ce dont
cette communauté-là rêvait
depuis hyper longtemps. A savoir, ils
arrivent à faire tourner des jeux
conçus pour Windows. Donc si je dis pas
bêtises, c'est typiquement des jeux pour Vulcan
ou des choses comme ça. Exactement.
Et ils arrivent à les... Je ne vais pas droper
de tous ces noms compliqués mais je vais essayer
de le dire le moins possible. Mais tu me dis
si j'ai une bêtise. Ils arrivent à les faire tourner
quasiment à vitesse
réelle. C'est-à-dire que c'est par rapport
à si ça avait été développé en natif
sur métal, et bien c'est
quasiment
au max des perres que tu pourrais espérer
en gros. Et donc moi je me souviens
à ce moment-là, c'est le haut
de la vague en termes de hype. Tout le monde
se dit, ça va être dingue
le gaming sur Mac et ça s'apprête à changer.
On va pouvoir jouer à tous les tripolaires. Tu vas se passer
la même chose que sur Linux. Et ça
malheureusement
c'était il y a quelques années. Ça veut dire que ça ne s'est pas
pas... Alors le game porting, tout le kit c'était
il y a... 8 mois. 8 mois, ok.
Ah mon temps
mon temps est complètement... Si je dis pas
de bêtises mais... Je t'ai percé que c'était plus
ok. Mais quand même, c'était
il y a 8 mois. Et aujourd'hui, comme tu l'as dit
et alors il y en a qui espèrent comme toi, on a eu
un tweet qui a... peut-être
qu'il va pouvoir la ficher. Tiens j'aimerais bien jouer
sur Mac, où ça en est etc. J'ai fait
un sondage pas du tout
pas du tout représentatif
officiel pour savoir si les gens ont joué sur Mac
et globalement
c'est assez rare
qu'est-ce qui s'est passé ? 8 mois, pourquoi ?
On n'a pas notre bibliothèque
rempli de jeux vidéo. On va
tenter de le comprendre en allant dans le détail
de tout ce que tu as expliqué. Et premièrement
ce qui est important de savoir c'est quoi ce game
porting tout le kit qui
est là avec tous ces espoirs
et dire ok, on va peut-être pouvoir
utiliser un truc très chouette.
Il le sort un juin dernier
et pourquoi il y a tant d'espoirs sur ce projet
comme tu en as parlé, c'est qu'il ressemble
vachement à Proton. Alors pour ceux qui ne connaissent pas
Proton, on en a parlé
dans une vidéo il y a deux semaines dans l'émission
et pour résumer
très rapidement c'est d'une couche de traduction
que Steam a propulsé
pour traduire en temps réel
les jeux de Windows à Linux
et donc Steam l'utilise dans SteamOS
et notamment pour sa console de jeux portables.
Et ce qui est fou
c'est que ça marche du tonnerre
genre parfois ça marche mieux
que certains jeux Windows en natif.
Genre vraiment
Proton est un
OVNI logiciel qui impressionne tout le monde
tellement ils ont tout optimisé.
Et là ils se sont dit Apple vient
de sortir l'équivalent
mais pour Mac
ça va être
une dingueerie, genre vraiment c'est incroyable.
Et en effet c'est ça
on va l'appeler GPT
c'est peut-être une mauvaise idée mais
Gameporting Toolkit
et une couche de traduction
qui vient interpréter les appels à payer
de Windows et de DirectX
ce qui est de Windows
à MacOS, Apple
et donc pour la métal
notamment DirectX, tout métal.
Et donc c'est incroyable
surtout que
dernière chose qui finit de nous convaincre
Proton et le Gameporting Toolkit
sont bagés sur le même
logiciel à la base qu'ils appellent
Wine comme on l'a dit.
Et donc ça
ça annonce vraiment des possibilités incroyables.
Problème
et j'ai un peu enquêté, je vous le dis maintenant
le Gameporting Toolkit
n'est pas Proton
et c'est dommage.
Pourquoi il est pas Proton ?
En fait le GPT a été conçu
avant tout pour les développeurs
pour les développeurs de jeux vidéo
pour tester si le portage
de leur jeu va être
facile ou pas.
Et potentiellement vous voyez c'est pas très dur
faites le portage, en vrai
ça vaut le coup c'est pas très dur. Notamment par exemple
si vous êtes un développeur de jeux vidéo
sur Unity ou sur Unreal Engine
sur Unity par exemple c'est une option de compilation
donc tu peux te dire ok
il y a juste un truc à cocher c'est bon pas ?
Si il y a un truc à cocher quasiment la cible de la compilation c'est pas la même
mais ton jeu il va marcher
sur MacOS.
Et donc en fait
avec ce Gameporting Toolkit
le but d'Apple
est bien d'avoir des jeux en natif
sur Mac
et de fournir un argument marketing
un peu
un petit logiciel de test pour dire
hey regardez c'est pas si difficile
porter votre jeu sur Mac.
Or, ce qui a fait le succès
de Proton, donc son équivalent
sur Linux, ce n'est pas ça
parce que le postulate de Proton
fait l'inverse.
Le postulate Proton c'est ok on n'a pas assez de jeux
sur Linux, mais en fait
c'est trop dur d'inciter les développeurs de jeux vidéo
à faire des jeux sur Linux. Vraiment il y en a 3
dans le monde c'est trop dur.
On a essayé pendant longtemps
ça n'a pas marché, changeant de stratégie.
La stratégie c'est
d'au lieu de faire des jeux natifs on va faire une couche de transition
qui marche du feu de Dieu comme je l'ai dit. Et ça a super bien marché.
Résultat
le Gameporting Toolkit c'est un peu du
bruit de force. C'est à dire
qu'ils ont mis toutes les briques
ça fonctionne
mais ce n'est pas élégant et ce n'est pas
du tout optimisé.
Je vais vous montrer pourquoi ce n'est pas optimisé
et ce qui pourrait que ça change
et que ça devienne l'outil banger que tout le monde attend.
En fait c'est un peu comme si tu faisais le
Pog d'un jeu, tu dis ok ça fonctionne
maintenant faisant en sorte que ça marche vraiment
avec les bonnes API, avec les vrais
les vrais bibliothèques d'Apple.
Ce n'est pas aussi
optimal que Proton.
Oui et d'ailleurs il y a un exemple qui le dit très bien
en commentaire d'une vidéo Youtube
sur le sujet.
Qui dit qu'il y a 4 couches de tradition
entre le jeu et le hardware
et que aucune de ces couches n'est optimisée
c'est comme si tu avais mis des « et » entre
chaque couche et donc voilà il décri les 4 couches
c'est sans doute
du blabla mais en gros il y a 4 couches
de traduction différentes. C'est comme si
on partait du chinois, on passait par le japonais
l'allemand puis le français.
Je crois que j'ai compris cette phrase
je ne sais pas si c'est grave
Oui moi aussi
j'ai compris mais je ne voulais pas m'attarder
de fin.
C'était un bon enigme, j'avais envie de
vérifier.
En gros c'est pour fracher de directX
Mais du coup
la pays graphique utilisée par un jeu
directX 11,
la convertir en Vulcan
avec un truc qui s'appelle DXVK
qui doit exister. Après
Molten VK, ça je connais c'est pour traduire
la paix du Vulcan en métal
Oui
Et après le jeu lui-même
il est probablement X86
Et donc tu dois passer par Wine et Rosetta
Alors c'est Rosetta pour le passage
de RM et du coup
Wine
Pour traduire les 6 Calls
Wouah bien joué, je ne pensais pas qu'on ferait ça
Mais c'est le chemin
Exactement
Une curiosité percée
Exactement
Et pourquoi on sait tout ça ?
Que le Gameport Toolkit n'est pas optimisé
Parce qu'en fait il y a eu des tests
Plusieurs Youtubers l'ont fait, même Linus
il a fait un sujet à tu
Il a comparé entre un jeu
sur métal nativement
avec Rosetta
et un jeu avec le Gameport Toolkit
et si tu peux revenir sur la capture
d'écran et mettre pause
vraiment il y a un écart très gros
entre les frames à gauche
et les frames à droite
C'est le même jeu
d'un côté c'est
nativement il y a juste la traduction de fin
pour passer de X86 à RM
bref c'est le jeu natif
de l'autre côté c'est pas le jeu natif
c'est avec le Gameport Toolkit
ça détruit complètement l'expérience
Et en plus on l'a dit
par rapport à Proton
il y a une couche de traduction supplémentaire
qui est Rosetta 2
pour le faire passage de X86
à RM
Est-ce que pour autant
c'est sans intérêt
ce Gameport Toolkit ?
pas du tout parce que certes il y a pas mal de jeux qui crachent
parce que vraiment vous pouvez jouer actuellement
à plein de jeux mais il y en a qui fonctionnent
notamment je vais essayer de vous donner envie
Resident Evil Village
No Man's Sky
Hollow Knight
ça j'ai failli craquer
c'est une liste des jeux qui mal
Cyberpunk
Cyberpunk
Cyberpunk fonctionne
potentiellement il faut avoir
au minimum un M2 Pro
mais ça fonctionne
Tomb Raider mais c'est un vieux jeu
Baldur's Gate 3
bref entre les jeux natifs
qui sont sur la plateforme
mais aussi les jeux que vous pouvez faire tourner
avec le Gameport Toolkit
il y a honnêtement
des bons jeux qui existent
et si ça fonctionne
vu que l'installation de ce genre d'outils
est un peu chiantes
il y en a qui l'ont rassemblé dans une application
qui s'appelle Whiskey
vous pouvez installer Whiskey App
sur votre macOS
pas du tout encadré par Apple
sauf qu'en fait ça mélange tous les outils
que j'ai cité précédemment
Wine, Crossover
et Gameport Toolkit
tout ça dans le même endroit
avec une jolie interface
moi je vois qu'ils ont bien bossé leur landing page
ça veut dire que normalement le processus d'installation
va pas être trop pénible
tu vois ça ?
c'est plutôt bien expliqué je trouve
mais tu l'as testé du coup ?
non parce que j'ai un Mac Intel
et en vrai et au autre argument
je joue pas du tout
j'ai adoré faire cette chronique
je vais l'essayer, tu sais quoi ? pareil je joue plus tellement
mais j'ai quand même très envie d'essayer
mais alors attention
vous l'avez vu sur le shit d'avant
il y a pas mal de jeux qui ne marchent pas
sur Linus quand il a fait son test
sur 9 jeux il y en a 5 qui marchaient pas
bon
et bah avant ça t'étais zéro
et justement
on est un peu déçu parce qu'on s'attendait
à un proton live qui a à dire
on va pouvoir tout jouer à littéralement
toute la biblioxytique Steam sur macOS
mais est-ce que ça a quand même des chances d'évoluer ?
est-ce que le Mac
a la possibilité de devenir
une vraie plateforme de jeux vidéo ?
et bah moi j'ai envie de vous dire oui
mais je vais vous dire oui
en fait macOS a tout
pour être une incroyable plateforme de gaming
sauf les jeux
et pour que ça change
il y a selon moi 3 façons de faire
la première
c'est celle d'Apple actuellement
inciter les développeurs à développer le maximum
de jeux natifs sur mac
à l'aide de partenariats avec les éditeurs
à l'aide du game porting to the kids
et moi personnellement je pense que c'est une erreur
parce que Apple a ignoré pendant
plus de 20 ans les jeux vidéo
et du jour au lendemain
se dire non mais c'est bon on est Apple
on va convaincre tous les éditeurs de jeux vidéo
de faire une version Mac
bah j'y crois pas trop
bah quand tu les as pas chier dans la bouche
mais quand tu les as ignorés
pendant 20 ans
mais je veux bien entendre ton avis
pour moi le contrairement
c'est bah regarde Proton
ils ont pas fait ça
je sais pas combien de ressources ils ont mis
à mettre au point Proton
et ce que devrait faire Apple pour ça
mais je crois que la différence majeure
c'est une histoire de marcher
en fait de tune
et effectivement aujourd'hui pour des développeurs
le calcul il est parentable tu te dis
t'as 1% de ta base d'utilisation qui est sur Linux
en plus c'est pas forcément de gens qui ont les habitudes
d'achat les plus importants
là à côté Apple ils arrivent
ce qui met sur la table c'est
je sais pas combien ils ont
vendu de Mac avec Apple Silicon
il y a quelques années là
mais ils mettent quelque chose quand même
tous ces gens ils ont du matériel
qui depuis pas longtemps
est capable de faire tourner des super jeux
plus c'est des gens qui en général
il y a toujours le paiement d'ApplePay
super intégré ils ont l'habitude de
d'acheter danser le logiciel
d'application sur Mac que sur Windows
je trouve qu'ils sont dans le même genre
en fait c'est vrai qu'il y a un argument
où ça fait 3 ans que les Macs M1, M2, M3
sont sortis
il doit y avoir une boss base il y en a peut-être pas encore suffisamment
peut-être que si on attend 5 ans
il y aura encore plus de Mac
Apple Silicon dans la nature
et là du coup
il y a un moment qu'il a gagné trop important pour le rater
et peut-être que entre temps les nouveaux jeux
ils vont directement se dire on fait une version Mac
franchement peut-être
c'est la première façon mais moi j'en ai quand même
deux autres à vous proposer
qui sont pas forcément moins bien
la deuxième
c'est de copier la stratégie
de Steam avec celle de Proton
c'est qu'au lieu de créer une couche
de traduction de test
d'en faire une super optimisée
et honnêtement vu ce qu'est arrivé à faire Steam
avec Proton, Apple en est capable
tu prends les meilleurs ingénieurs logiciels
en performance graphique
en 3D
en je sais pas quoi est ce qu'il faut pour faire ce genre de dinguerie
et tu peux faire un game porting to the kid
qui soit une vraie couche de traduction
que tu utilises en temps réel
et là, d'un claquement de doigt
instantanément, tu as peut-être
80%
de ta bibliotech Steam
que tu as acheté sur Steam
qui est compatible avec ton Mac
moi j'aimerais bien
franchement
j'y crois pas trop
je sais pas si j'y crois pas trop en vrai
en fait j'y crois pas trop mais
mais c'est triste
et en fait ce qui est fou c'est que ça serait
aussi bien plus rapide
on aurait accès à tous ces jeux bien plus rapidement
parce qu'il faut développer la solution
mais c'est bien plus rapide de faire
un truc super optimisé dans ton coin
avec que tout marche, que d'aller convaincre
chaque studio avec des billets, avec des discussions
avec du temps
ou alors avec le temps
le faire à long terme
et se dire que les gens vont l'adapter naturellement
enfin il y a un truc où, il y a un accélérateur de solution
moi j'y vois un peu un accélérateur de solution
et enfin
une dernière solution
et là je suis sûr que vous y avez pas pensé
et ça fait écho
à une chronique que tu as faite
c'est de utiliser Linux
sur ton Mac
c'est clair
en fait tu peux utiliser Linux
via azale Linux sur ton Mac
et donc du coup profitez
de protons et de ta bibliothèque esteam
c'est aussi simple que ça
juste pour recontextualiser
historiquement on a toujours pu installé
plusieurs OS sur Mac sauf que avec ces nouvelles
plus c'est
un peu de nouvelles architectures
il fallait un peu recommencer de zéro
il n'y avait pas de distribution Linux du tout
qui pouvait marcher sur ces nouveaux Mac avec Apple Silicon
on vous a fait une chronique pour vous expliquer
ce projet complètement dingue
avec une sorte d'équipe d'avangers
avec les plus gros génie de
développement de driver, graphie
qui a bossé sur azale os
azale Linux
qui est maintenant en train de devenir
stable donc c'est un truc dont vous
pouviez vous foutre avant
mais là c'est en train de devenir vraiment intéressant
et la communauté
c'est la même chose, on va essayer
ils ont réussi quand même à faire
tourner 34 jeux Steam
sur Mac
mais bien
franchement plutôt bien alors j'ai pas le détail
mais en fait là c'est encore un peu tôt
il faut encore un peu attendre
il y a lina
je l'avais parlé pour la fois
et c'est celle du coup
l'ingénieur GPU on va dire, carte graphique
à la portée Proton
sur azale Linux, la craque
et en fait
c'est encore en cours de dev donc
typiquement il y a Vulkan
Vulkan n'est pas supporté
dans son entièreté
et le jour où ça sera le cas
ça apportera encore plus de jeux disponibles
donc honnêtement je sais pas si je le tenterai aujourd'hui
pour être tout à fait honnête
il y a encore pas mal de problèmes par exemple
Steam n'est pas disponible en 64 bits
sauf que azale Linux nécessite du 64 bits
parce que machin et tout
appartement tu passes sur Linux
tu perds Rosetta
et donc il faut des jeux qui... ok
en fait tu as plus la contrainte
d'avoir des jeux qui doivent être adaptés
à macOS mais du coup tu as quand même
toujours la contrainte ARM
et donc c'est pas si simple
mais je voulais citer cette solution
parce qu'il y a des gens qui se tuent
à faire en sorte que ça soit possible
et honnêtement ça marche déjà
sur 34 jeux et donc peut-être qu'à l'avenir
ça sera une solution pas bête
et surtout très efficace
et parce que ça... enfin
si ça marche comme il faut avec Proton
ça marchera du feu de...
Oui c'est ça parce que tu bénéficies de tout le travail
qui a fait Steam et la comédie
pour récupérer toute la bibliothèque
et c'est vrai que tu le mentionnes mais
toute cette histoire de jeux vidéo sur mac
ne serait impossible sans ce qu'a fait Steam
pour le jeu notamment sur Linux
parce qu'il y a des architecture tout à fait semblables
et donc si Steam n'avait pas tout fait ça
même le game porting pool kit
sans doute n'existerait pas
Ah oui notamment d'un motionnez
Molten VK ça je sais plus qui est derrière
mais bon bref
ça fait plusieurs jours que je suis dans les noms
de codec
Vulcan
Vulcan c'est devenu mon pote
crossover pareil
Et tu ne parles à plus personne
ça ça ça change pas d'habitude mais
Normalement
toutes ces choses se produisent
c'est bon
hyper intéressant merci
de t'être plongé là dedans
parce que nous du coup on découvre tout ça
gratos
Mais du coup voilà c'est pas encore tout à fait ça
le jeu vidéo sur mac mais
peut-être un jour
Est-ce que ça t'intéresse
ou tu es gameuse ou pas bourroud ?
Non non si si carrément gameuse mais du coup
depuis que j'ai switché sur mac je joue plus
Ben ouais mais comme plein de gens
Et c'est trop... enfin je joue plus
Oui c'est déjà je sais pas si j'aurais beaucoup le temps
mais en fait c'est trop triste parce que du coup
à chaque fois quand j'ai envie de jouer
Tu vérifies 4 secondes est-ce qu'il est dispo sur mac ?
Ben non non je sais qu'ils sont
Alors j'ai un jeu récurrent c'est Skyrim
genre tous les deux ans il faut que je refasse partie
Mais le truc c'est que
ben à chaque fois que quand j'ai
ré-envie d'y jouer et je me dis
bon bah faut que j'achète une tour et à chaque fois je m'arrête là
dans mon raisonnement je me dis non mais tu vas pas acheter
une tour juste pour jouer Skyrim ça va pas du tout
Non tu peux acheter un Steam Deck
C'est une autre alternative
ça coûte 300 400 balles maintenant
Moi je sais que j'ai même un blocage psychologique
je me dis à aucun moment je me dis
je vais jouer sur mon mac
C'est juste impossible
Et pour toi il y a des jeux qui existent genre
tu peux jouer sur Worm c'est tout un jeu que j'adore
Après tu peux t'allocer la gaming, tu as des choses comme ça
mais tu peux un peu énervant avoir une machine de guerre
que tu peux pas utiliser à son potentiel
Hyper cool, merci Mathieu
pour cette chronique passionnante j'espère que...
Tu nous as donné de l'espoir
Voilà exactement
J'espère que ça peut venir dans les chroniques
c'est que parfois il y a des mois nouvelles
mais il y a toujours une petite lune
et j'espère que vous avez été
intéressé par cette émission
qui était riche, elle était effectivement
en fait il n'y a aucune des 3 particules
c'est vraiment simple
Non c'est pas grave
Non mais on est une émission grand-bublique
Si vous avez pas tout compris
ou alors que vous êtes arrivés en cours de route
et bien ne vous inquiétez pas
sur Youtube on vous fait un condensé
qui est souvent plus simple à suivre
avec plein d'illustrations etc
Allez voir la chaîne Youtube, vous pouvez vous abonner
et suivre cette chaîne Twitch, on revient dans 2 semaines
mercredi à toujours 19h
et puis voilà
J'étais en train de me remettre en question
Est-ce que je fais des trucs, des sujets trop barbeurs en ce moment
parce que j'en fais plein et en même temps ce sujet
c'est toi qui me l'a donné, tu m'as dit vas-y
trête-le je fais bon d'accord
C'est exactement ce que je veux juste
c'est ce qui m'intéresse encore
Mais oui en plus en ce moment
il est fan de tous ces sujets
Je sais pas pourquoi, oui je sais pas, c'est comme ça
Est-ce que je suis sûr qu'ils sont contents de voir
Exactement, moi je vois dans la vidéo
Moi je pense que c'est des sujets qui font l'unimité
C'était super
Oui trop bien comme d'hab, toujours top
Voilà, voilà
Exactement, je suis pas le seul
Et sur ce, on vous fait
des gros bisous
Et on se retrouve dans 2 semaines
Tchao
Sous-titres réalisés par la communauté d'Amara.org
Merci d'avoir aidé à une présélection de talent
dès la publication de votre offre
Plus de 190 000 entreprises en France
font confiance à Indide pour leur recrutement
Et ce n'est pas tout
Les offres sponsorisées
reçoivent jusqu'à 3,2 fois plus de clics
boustant ainsi vos chances de succès
Commencez dès maintenant avec un crédit de 100 euros
pour sponsoriser votre annonce
Rendez-vous sur go.indide.com
slash podcastfr
et transformez votre processus de recrutement
Offre limité
Ne manquez pas cette opportunité