Pourquoi Banque Populaire est la première banque des entreprises ?
Je me posais des questions sur le partage de la valeur pour mes salariés.
Elodie, ma conseillère Banque Populaire, m'a proposé une solution d'épargne salariale sur mesure,
rapide à mettre en place et que je peux piloter en ligne.
C'était simple et surtout ça a fait des heureux.
Accompagner nos clients sur tous les territoires avec des solutions adaptées à leurs besoins,
c'est ça, être la première banque des entreprises, Banque Populaire, la réussite est en voulue.
Étude Quantar PMEP, mid-2023, 14 Banques Populaires, 1ère Banque des PM.
Bienvenue dans Underscore, j'espère que vous allez bien, que vous êtes bien installés
pendant que je prépare mes petites affaires.
Comment vous allez ?
On a des beaux invités ce soir, on a Mathieu.
Bonsoir.
Ça fait longtemps, ça fait deux ans que tu n'es pas venu.
Et oui, le retour, ça fait super plaisir d'être là.
On passe vite.
Ouais.
Moi j'ai l'impression que c'était hier.
Alors que pourtant, on a eu le temps de changer deux fois de bio.
Ouais.
Deux fois de studio.
Après on a eu l'occasion de leur voir Vivien un petit peu.
Voilà, c'est vrai.
Je suis un habitué des coulisses de Underscore.
Nous pourrons nous inviter du Cantique à l'ICB,
t'étais vu que c'est un sujet que tu apprécies particulièrement.
T'étais venu nous voir à cette occasion, et puis on se t'a revu aussi à d'autres occasions.
Exact, ça faisait super plaisir de pouvoir discuter un peu du sujet du Cantique que je connais bien,
et puis d'autres sujets avec vous, et donc là c'est le grand retour et ça fait plaisir.
Carrément, mais en fait on s'est rendu compte que le monde était tellement petit tout le temps à chaque fois.
Ouais.
C'est peut-être aussi que c'est le milieu de l'IA à Paris qui est aussi particulièrement petit, je sais pas.
Mais en tout cas, tu connais toujours nos invités.
Bon alors il y a toujours une poignée de main en moyenne, maximum.
Ouais clairement quand on les invitait, je leur aie droppe le nom de...
Ah on avait reçu Vivien.
Vivien, c'est un ami !
Non, bien sûr Vivien.
En tout cas, je sais pas si tu avais suivi, mais l'interview qu'on avait fait sur le Cantique avait vraiment vraiment intéressé tout le monde,
et on avait des retours de malades, donc c'est pas toujours le cas.
C'était une super bonne surprise, effectivement j'avais regardé, j'avais regardé les commentaires effectivement,
et c'est vrai que ça faisait plaisir parce que c'est quand même un sujet qui n'est pas évident à appréhender.
Et là ça se passait vachement bien, effectivement.
Les gens étaient contents d'avoir un petit peu les idées dans les grandes lignes donc...
Je pense que c'était peut-être un des domaines les plus abscons et intangibles de l'informatique.
Pourtant il y a la concurrence, mais...
Et non, on y va quand même, c'est là où on se dit oh bof !
Et non mais je me souviens que justement la nouveauté en tout cas, moi ce que j'avais jamais vu c'est que...
On montrait littéralement des algos, du code cantique quoi, avec du cul charbe, c'est ça ?
C'était de l'angage, ouais.
Et ça c'était quand même vraiment sympa.
Mi-code libre, libérer mi-code, enfin sortir de prison, alors ça c'est encore un disc.
Reversir un disc pour les Red.
Ah, merci un disc !
En général il y a un mode mi-code en prison, des choses comme ça, c'est souvent...
Mais oui il y a eu un délire avec un très très bon disque.
Donc on est la signature.
Est-ce que vous avez des petites news ?
Ouais, carrément.
Eh ben allons-y, sans plus attendre.
Je vais commencer, viens tranquillement.
Vas-y, je t'en prie.
Eh ben moi il va falloir qu'on regarde une image.
Vous allez voir c'est une image un peu rigolote.
T'en pour un tout petit peu mon chéri.
Ah, ça marche.
Eh ben peut-être qu'on peut du coup commencer par ta news vivière qui est moins dilue en vrai épau.
Ça marche.
Ça marche.
Alors moi le sujet dont je voulais parler, ça s'appelle l'ENIA.
Et donc c'est un projet...
En fait j'avais entendu parler récemment parce qu'il y avait une émission sur Science Étonnante,
la chaîne de David Dupre qui reparlait de ça, qui le présentait super bien.
L'ENIA pour ceux qui ne connaissent pas c'est une variante du jeu de la vie.
Est-ce que vous avez déjà entendu parler du jeu de la vie ?
Avec les petites cases qui s'allumaient avec cette année.
Ouais c'est ça.
Et donc l'ENIA c'est une grosse amélioration de ça.
Donc effectivement jeu de la vie, tu vas avoir des pixels,
il y en a qui sont noirs, il y en a qui sont blancs.
Les règles sont super simples.
On va juste se dire en fonction du nombre de voisins qui sont en noir.
Donc les cellules existent.
Il va y avoir une nouvelle cellule qui va être créée.
S'il y en a plus que deux ou trois par exemple,
tant les cellules vont mourir.
Et en fait avec des règles extrêmement simples comme ça,
il se va y avoir des motifs assez compliqués qui émergent.
Et c'est ça qui est fou.
Et en fait là dans l'ENIA qui est vraiment la version 2.0 de ça,
ce qui se passe c'est qu'il n'y a plus du tout cette notion de pixels.
Il va y avoir non pas seulement du noir et blanc mais trois couleurs,
comme ça fait des images les plus compliquées qu'on puisse imaginer.
Et on a aussi des motifs qui ont l'air d'être autonomes,
qui se déplacent et franchement moi je trouve ça fascinant.
C'est sympa à regarder.
C'est un truc que je pourrais regarder pour les gens.
Moi sur le jeu de la vie j'ai quand même découvert qu'il existait des compilations,
des meilleures paternes du jeu.
C'est vrai ?
Oui, alors du coup on est effectivement pour préciser.
C'est pas un jeu où le but c'est de jouer.
C'est à dire que c'est un jeu où on va dire que c'est une curiosité mathématique,
qui fait qu'effectivement avec très peu de règles de base on voit des trucs qui émergent.
Et donc effectivement tu peux trouver sur Youtube des top, des paternes les plus intéressantes au jeu de la vie.
Et donc tu vas voir des véhicules, donc c'est des tout petits trucs qui se déplacent dans une direction à l'infini par exemple,
ou les autoroutes, ou des femmes bref.
Et je me dis wow, comment j'ai arrivé là dessus ? Il est beaucoup trop tard.
Mais j'ai pas encore découvert l'énia donc...
L'énia c'est vraiment le level up et ça remplace avantageusement tous les documentaires animaliers que vous pouvez regarder.
C'est vraiment fascinant.
Et donc il y a ces trois aspects, il y a l'aspect scientifique de se dire avec Greg St.
Ah bah voilà, ça c'est incroyable.
Avec Greg St. on arrive à avoir un truc qui émerge comme ça,
un peu comme on peut voir dans les modèles de langage actuellement,
ou dans d'autres domaines scientifiques.
Il y a un côté un peu métaphysique de se dire,
est-ce que finalement la vie plus complexe qu'on connaît, elle aurait pu être créée à partir de règle super simple comme ça ?
Et puis il y a le côté surtout artistique de regarder ça pendant des heures et de...
Non mais vous avez vu ce truc là ? Il est incroyable.
Je me demande par contre...
Oh là là !
Mais c'est un canon, mais c'est un canon beaucoup plus gros que le petit que vous avez vu tout à l'heure.
C'est franchement ça.
Mais on est d'accord que si on tombe dans cette spirale à 21h le soir,
il fait coucher vers 4-5 heures du matin.
Et à 10 ce faut déjà de ne plus aller dire, le jeu de la vie c'est bien un truc de bon glycose.
Après il a dit, tu peux pas...
Possible d'avoir une session de jeu et de la vie et prendre des douches.
C'est plus mathématicien qui est normenaire qui joue à...
Oui, après bon.
C'est pas un c'est pour penser à artistique.
Comment ?
Trop bien.
Très cool, oui.
Mais du coup on n'a pas trouvé des images de Enia.
Est-ce que c'est...
Il y en avait un peu au début.
Lénia, L-E-N-I-A.
Et il y en avait un peu au début.
J'ai pas vu à quoi ça s'en va.
C'est coloré, tout est continu.
Et même les règles, elles sont un petit peu plus complexes.
Il va y avoir des filtres pour dire si les cellules sont créées ou si au contraire elles disparaissent.
Ça va être des filtres parfois en forme d'anneaux.
Ok.
Ça rappelle un peu ce qu'on peut voir dans les réseaux convolutionnels en machine learning.
Oh, marrant.
Et oui, puis même il y a avoir des choses qui ressemblent à la reproduction parfois.
Il va y avoir deux objets comme ça qui ont émergé.
S'ils se rapprochent l'un de l'autre et qu'ils vont créer un troisième.
C'est assez fascinant.
C'est vrai que c'est hypnotisant mais...
Oh...
C'est hypnotisant mais différemment du jeu de la vie.
Très sympa.
Franchement, c'est très sympa.
Moi, j'ai une petite news aussi sur...
Ah, trop bien.
Et j'étais parti en hypnosis.
Ouais, vraiment, c'est assez hypnotisant.
Man News, je vais m'en appeler au moment où le tweet va s'afficher.
C'est que, en fait...
Ouais, c'était une idée pour tous ceux qui reçoivent des messages de démarchage ou des trucs comme ça.
Vous savez, les...
Oui.
Automatique sur LinkedIn.
Ou Jean-Michel Comercial qui fait du call d'emailings comme ça.
Et qui veut te vendre sa solution.
Et bien, lui, ce gars a trouvé une idée de génie.
C'est-à-dire, c'était souvent ces gens, ils ont des calendars.
Ils sont en lits.
Donc, en fait, c'est un site où tu peux rentrer tes créneaux de disponibilité.
C'est très pratique, en vrai, c'est très cool.
Mais il se trouve que c'est, entre autres, utilisé par ces gens.
Et donc, tu peux réserver comme ça un créneau pour discuter avec eux.
Ce qui s'est invité à faire, c'est de prendre...
d'en prendre deux et de leur bout d'école.
Ah, ça va être bien.
Ok, c'est du génie.
Je vais m'attender à un histoire de spam.
Tu sais, tu veux prendre toutes ces créneaux, tu veux chier un peu.
C'est du catfishing de commercial, en fait.
C'est très bon.
C'est très bon.
Tu remplir complètement leur calendrier et toute la journée, ils vont pas aller avec leurs potes commerciales.
Tu en prends deux, mais tu en prends plein, en fait, parce que tu te fais une base de données de commerciaux qui font...
Un one-to-many, là.
Oui, exactement, c'est à ça que je pensais.
Et hop, tu leur remplis leur journée, quoi.
En vrai, c'est pas très joint-simé.
Et pour ceux qui, en fait, voilà, le fait de pas s'y apparaître...
Le fait de pas pour des gens qui spam.
Non, mais il y en a qui spam, et là, c'est juste pas cool, en fait.
Et donc voilà, mais sinon, soyez pas trop méchant.
À toi.
Moi, c'est un tweet, c'est un petit tweet aussi, avec une image très étrange, vous allez voir, voilà.
Est-ce que vous voyez un peu ce qu'il y a sur cette image ?
Qu'est-ce que c'est que ça ?
C'est une bête-servant, mais tous les caps sont coupés.
Voilà, exactement. En gros, je sais pas, c'est des appareils réseaux.
Un switch, ou un switch.
Je ne sais point.
Et tous les câbles sont coupés, et donc c'est une étrange bizarrie.
Et du coup, j'ai appris ce que c'était via ce tweet de Louis Prensignon.
En fait, c'est des appareils réseaux qui sont décommissionnés de data centers,
soit qu'ils doivent être détruits, déménagés, ce que vous voulez, et tout.
Sauf qu'en fait, c'est un peu chiant d'enlever tous les câbles.
Et du coup, ils les coupent.
D'accord.
Ils les couppent et ils revendent l'appareil comme ça,
sur l'équivalent du leboncoin pour ce genre d'appareils.
C'est une affaire, ils me jusent de débrancher les trucs.
Oui, exactement. En fait, c'est en mode, on n'a pas le temps.
Et ils coupent tout, et après ça part souvent dans des ventes aux enchères,
tu sais, quand il y a une boîte fait faillite, tout des choses comme ça.
Est-ce que c'est rempli le cours de couper ?
Ben, je sais pas. C'est très américain.
Une partie de l'intérêt, c'est que du coup, la personne qui doit faire ça,
elle se fait quand même vraiment plaisir à couper tout.
Oui, c'est vrai.
Oui, je pense que c'est le parti du charme.
Il y a peut-être à côté un peu fan, effectivement.
Mais quand j'ai vu que ça s'existait, j'ai fait, d'accord,
où est-ce qu'il y a eu l'humanité ?
Mais voilà, c'était juste vraiment ça, en mode, il existe.
Si vous tombez sur des images de Switch avec des câbles coupés,
ça vient probablement de...
C'est forcément du décommissionnage de la grande échelle.
Voilà, exactement.
Très cool.
On a un programme chargé, donc je vous propose de pas trop nous étendre.
Et on va parler de plein de sujets très intéressants.
Mais juste avant.
Mais juste avant.
Pardon.
Je l'ai vu dans l'honneur.
Juste avant, on a une petite nouveauté dans ce live.
On a créé une adresse mail.
Donc ça, c'est underscorearobasemicorp.studio.
Et si vous avez des idées d'intervenants ou de projets très, très cool
qui correspondent aux standards élevés que vous observez ici,
eh ben, n'hésitez pas à nous envoyer un mail
sur underscorearobasemicorp.studio.
Donc, micorp, c'est m-e-c-o-r-p.studio.
Et donc voilà, n'hésitez pas.
Si vous avez des pépites à nous envoyer, on le dit en live.
On ne le dit pas sur YouTube parce qu'on sait que vous êtes l'élite finalement.
Vous connaissez bien l'émission.
Promet degré.
Voilà, vous connaissez bien l'émission.
Et envoyez-nous des trucs vraiment, vraiment,
si il n'y a pas le projet Github que vous venez de concocter ce week-end.
Et voilà, allez sur la chaîne YouTube.
Vous voyez de toute façon ce qu'on aime bien aborder ici comme thème.
Je vous l'ai dit, on a un programme chargé.
On va parler de Diagénératives mais appliquées dans la 3D.
Je ne sais pas si...
Est-ce que ça t'en a déjà entendu un peu ou pas dit tout ?
Je connais très mal.
Eh ben, ça fera plaisir du coup de t'en parler.
J'ai déjà entendu parler de 3D, Diagénératives,
mais les deux ensemble, je connais super mal.
Eh ben, tu vois, c'est hyper intéressant.
On va après, avec Mathieu, aborder une histoire assez mystérieuse
de Cartouche Perdue.
De Cartouche, de John Hiten, d'ODS, Matt Donald.
Déjà ?
Et qui était disparu que quelqu'un a retrouvé,
sauf qu'il avait un petit problème.
Un jeu secret.
Un jeu secret.
Donc je vais vous raconter cette histoire.
Il y a un frère avec toi, Vivien.
On abordera tout ce qui se passe chez Microsoft
en termes de recherche avancée,
en termes de matériel pour débatter.
Je ne sais pas, je n'ai pas réussi à vulgariser cette chronique.
Mais c'est domaine, passionnant, qui, pour le coup,
parfois on traite des choses vraiment pour le plaisir.
Là, on est vraiment sur un sujet qui concerne tout le monde,
dans toute la planète, et intéressée pour savoir
quoi le futur de l'énergie et le futur des batteries, etc.
Et en fait, il y a des avancées, des rapports
entre la recherche en IA et les batteries.
Tu sais, c'est pas mal, Laura.
Avec de l'IAGénérative, pas pour la 3D, ce coup-ci,
mais pour les matériaux, les molécules, ce genre de choses.
Et donc, on fait ça en collaboration avec Microsoft,
ce qui est comme un luxe de fou.
C'est trop cool.
On a eu de l'air de pouvoir bosser autre amie
et d'avoir le soutien de Microsoft pour ces sujets.
Donc, merci énormément à eux.
Ça faisait longtemps qu'on n'avait pas travaillé avec eux.
La dernière fois, c'était...
Tu avais fait un salon, je crois.
C'était avec toi encore.
Sur l'émission, oui.
Oui, je crois que ça fait bien deux ans.
On a en discute de plein de trucs,
mais les choses prennent un peu de temps.
Et donc, c'est très cool de voir ça se matérialiser aujourd'hui.
C'est toujours des sujets cool.
On avait fait GPT3 into Minecraft.
Avant que tout soit hype, il faut le préciser.
Voilà, à une époque, c'était encore les belles buciments du truc.
On a fait le quantique et le Q-sharp.
Et aujourd'hui, on parle des prochaines technologies
dans l'énergie et dans les batteries.
Trop bien.
Juste, moi, j'ai une question.
J'ai l'impression que la commande Microsoft dans le chat
ne fonctionne pas très bien.
Bravo.
Je vais peut-être aller vers la question.
Je vais aller vers la question.
On a un ordinateur du coup dans le jingle.
Ah oui, d'accord.
Je crois que je suis un des seuls qui peut le...
T'es le seul qui a le pouvoir du chat.
Je comprends pas pourquoi ça ne marche pas.
Il faut que je check.
Et bah, tu sais quoi, jingle.
Allez, retour de ma série.
Je vous le disais, effectivement, je vais...
En attendant quelques instants que Mathieu revient,
vous parlez aujourd'hui...
Diagénératif.
Oh, il est fast.
Ouais, mais je...
Ah, mais mon andi.
On va effectivement avoir un sujet diagénératif
mais qui va vous changer un peu de d'habitude.
Puisqu'on ne parle pas de texte.
On ne parle même pas d'image.
On va en parler fort sur lui.
Mais on parle bien de 3D et d'environnement 3D.
Et ça, c'est quand même assez nouveau.
Et là, contrairement aux sortes de plateaux
qu'on est tout doucement en train de devoir arriver
dans les autres domaines,
pour le coup, en 3D, il y a vraiment tout à faire.
Je dis un plateau, mais avec des énormes guillemets.
Parce que globalement, ça bouge quand même énormément.
Mais vraiment, en 3D, on est à une étape
où ça est encore assez marrant,
parce qu'on ne sait pas du tout la vitesse
où ça va pouvoir aller.
On est au balbut ciment.
Il y a une petite vibe 2022
où on découvre les premiers LLM
et où on découvre stable diffusion, etc.
C'est un peu ça, mais dans la 3D.
Donc c'est sans doute le moment le plus excitant
pour les chercheurs sur le domaine, les développeurs.
C'est probable.
C'est comme ça que ça se passe.
Il y a tout à faire.
On n'est pas dans de l'affinage,
de l'amélioration du petit détail
qui est un peu plus le cas,
déjà typiquement.
Tu regardes là, on va voir ça,
mais la différence entre mid-journée V5 ou V6,
bon bah voilà les différences,
elles sont toujours sympa,
mais ça commence à être un peu marginal.
Alors qu'au tout début,
je me souviens des débuts de mid-journée,
d'ali, etc.
tous les deux mois,
c'est incroyable,
on passait de trucs vraiment dégueulasses,
à plus en plus de choses qui seraient plus morts.
Maintenant on est blasé.
Mais justement, je vais vous déblaser aujourd'hui
puisque on va rajouter une difficulté,
puisque on va rajouter une dimension.
Littéralement.
C'est quand même pas mal.
À nous la théorie des cordes, pardon.
On reste à 3 aujourd'hui.
Je vous le disais,
aujourd'hui on prend un peu,
aujourd'hui on prend un peu tous pour acquis
la génération d'images que ce soit mid-journée,
d'ali, etc.
C'est devenu évident que
on peut générer des images en 2 dimensions
ultra qualitatives, photo réalistes,
que ce soit de la photo, des illustrations,
des petits, des objets,
on peut absolument tout faire.
Mais il y a un truc qui n'est pas possible
depuis encore plusieurs années
où on voit les premiers balbutiements,
c'est de la génération 3D.
Alors à quoi ça peut servir ?
On peut dire de pouvoir générer des objets,
des environnements 3D.
Et en fait, il ne faut pas beaucoup d'imagination
pour se rendre compte que ça pourrait être une dinguerie.
Imaginez par exemple des jeux vidéo
où votre monde, votre univers
se génère sous vos yeux en fonction de
votre aventure, en fonction des décisions que vous prenez.
Tu imagines un Open World, ton prochain Zelda,
sauf que tu es le premier à avoir foulé
tel ou tel zone de la carte.
Et ce ne serait pas
à la Minecraft des trucs autogénéres,
mais des trucs vraiment hyper uniques,
des visages de personnages qui seraient uniques
à ton expérience.
Dans le jeu vidéo, évidemment, les applications sont évidentes,
mais même au-delà de ça,
on peut s'imaginer beaucoup beaucoup de...
t'as des idées ?
Et peut-être dans la VR et la R, dans la Format X spatial ?
Exactement.
Avec le nouvel Apple Vision Pro
qu'on vient d'en savoir, etc.
C'est évident que
pouvoir générer des
objets, des visuels, etc.
à partir de rien,
à partir d'une idée, d'un texte,
ça risque d'être...
Ouf, imagine ton Apple Vision Pro
et là tu décris
ton prochain appart, tu vois.
Tiens, j'aimerais un fauteuil un peu plus large,
s'il te plaît, en cuir.
Ouais, ok, je le mets là, bam.
Tu fais ta déco d'intérieur
à la voix.
Voilà, à la voix, à partir de rien.
Donc, c'est évident que
ce serait fou d'avoir ça.
Mais, en fait, on y est encore très loin.
Et c'est pas forcément intuitif, parce que
on pourrait dire dans mes...
Moi je connais les trucs de génération
d'IA, en ce moment ça va, toutes bersingues,
en texte, en
image, en 2D, en son...
Je vois sur Twitter
qu'il y a des trucs, des nouveaux modèles qui sortent tout le temps
et donc, je m'attends à ce que ce soit
la même chose en 3D.
Et ben, en fait, pas du tout.
Vraiment, il faut se rendre compte que la 3D
c'est une sorte de cas à part.
Et pourquoi c'est plus dur
comme ça, en 3D ?
Alors, en fait,
la raison pour laquelle la 3D
c'est hyper dur
d'en faire des modèles de
génération convaincants,
c'est
un rapport avec la quantité
de données.
Petit flashback, il y a
deux ans à peu près,
pour rappel, on s'imagisse.
On s'imaginait même pas encore qu'on allait pouvoir générer des visages
en 2D.
Je sais pas si vous vous souvenez, mais en 2022,
c'est la première version de Cebel Diffusion
ou de Mid-Journey, etc.
C'était pourri.
On peut voir un petit visuel avec justement
l'amélioration de la qualité
de Mid-Journey.
Donc, tu vois, la première version,
tu as un John Wick,
il fait un peu peur quand même.
Et évidemment,
c'est un peu caché,
mais on voit la version
la V6 ou la V5.
Ah, c'est impressionnant.
Et là, on arrive à du
photoréalisme.
Ça pourrait être une affiche officielle que
ça n'est pas...
C'est vrai que, au début,
on faisait pas du main, en fait.
Non, mais c'est...
On est dit, on va faire des paysages,
c'est très bien, quoi.
C'est incroyable.
Donc, voilà,
juste un petit rappel
pour qu'on se remette bien les idées en place.
Il y a deux ans,
on n'imaginait pas générer
un visage en 2D.
Alors, qu'est-ce qui a permis
cette évolution aussi fulgurante ?
En fait, c'est la masse
de données de qualité.
En fait,
il faut réaliser qu'en 2D,
juste en images,
en photos et en visuels graphiques,
il y a une main de données
qui existe actuellement
et qui a été construite
pendant toutes les années
d'Internet,
sur une trentaine d'années.
A partir des réseaux sociaux,
des banques d'image,
des sites de graphistes,
genre Artlist,
tout les trucs comme ça,
en fait,
tu te rends compte que
la matière de base,
tout était prêt, en fait,
pour la génération 2D.
Le deuxième truc, c'est que,
là, les modèles récents,
ce qu'on est quasiment sûrs
de savoir,
c'est qu'ils se sont entraînés
sur des films
et qu'ils ont probablement
pris des gros films au box office,
des Avengers, des trucs comme ça,
et ils ont fait pause
toutes les secondes, par exemple,
avec des captures d'écrans
pour générer des milliers
et des milliers de visuels
en très haute qualité en 4K
pour rien.
C'est pour ça que c'est si joli,
parce que la réalité
n'est pas si joli.
Mais les films.
Exactement.
Et d'ailleurs,
quand tu lui demandes de générer
des scènes de Avengers,
c'est un peu louche
à quel point c'est proche
du matériel original.
Donc, globalement,
personne n'est dup
et on sait que
toute cette masse de données
a permis
l'amélioration en qualité
fulgurante
de ces dernières années.
Or, si tu compares
avec la 3D,
c'est le néant.
C'est-à-dire que
en 3D, à part
quelques banques genre
Sketchfab, par exemple,
ou alors des...
il y a Epic
qui a fait un...
Epic Games
qui, pour Unreal,
a créé un truc
qui s'appelle Reality Scan,
qui a un genre de pack
d'objets 3D
qui provient du réel
et de la nature,
qui est super calie
et hyper utile.
On l'utilise, non,
dans le décor ?
On l'a déjà utilisé.
En fait,
il faut réaliser
qu'en termes de...
de volumes,
de tailles,
de dataset,
c'est rien.
C'est une goutte d'eau
à côté de tout ce qui existe
en 2D.
Vraiment, c'est...
c'est absolument pas suffisant
pour faire
quoi que ce soit.
Donc,
quand tu parles de films,
vous pourrez se dire
qu'il y a des films en 3D,
mais c'est une toute petite minorité
par rapport
aux films en 2D
qu'on peut trouver.
Et surtout, même,
les films en 3D,
ce qu'ils vont avoir,
c'est une...
une 3D de parallax,
où, en fait,
ils ont...
ils sont capables
de te générer la 3D
depuis un point de vue.
C'est-à-dire que
toi,
un endroit assis sur ta chaise,
tu vois de la 3D
parce qu'on te projette bien
les...
les deux images
correspondent à tes deux yeux.
Mais si tu bouges,
enfin,
l'information n'existe pas
pour tout ce qui...
pour toute la circonférence
et tous les autres points de vue
qu'il pourrait y avoir
sur cette scène 3D, tu vois.
Donc,
même ça,
ce serait...
ce serait encore que...
peut-être pas inutile,
mais que partielle,
comme...
comme information.
Donc,
les solutions,
ce serait quoi ?
C'est soit que...
tous les studios de jeux vidéo
se mettent d'accord,
ils publient l'ensemble
de leurs assets 3D,
de manière gratuite,
open source,
pour le bien de la communauté.
Autre solution, Michel.
L'autre solution,
c'est de trouver
un moyen astucieux
de contourner le problème.
Et c'est exactement
ce que des chercheurs ont fait.
En fait,
ce qu'il faut faire,
c'est laisser tomber
le texte au 3D.
C'est impossible.
Ou alors,
pas avant,
très, très, très longtemps,
et donc,
il faut trouver un hack.
Et le hack,
c'est de tirer profit
des bons deux géants
qui ont été faits
pour le coup,
en texte tout 2D.
Et ensuite,
d'essayer de faire du 2D
tout 3D.
en fait,
on découpe...
ce que les chercheurs
tentent de faire depuis...
depuis récemment,
c'est de découper le problème
en texte tout 2D,
donc on prend mid-journée
ou des modèles équivalents.
Et ensuite,
d'entraîner des modèles
et des systèmes
qui sont plutôt capables
de transformer
ton image mid-journée
en scène
ou en objet 3D.
Bon, c'est facile à faire,
mais du coup,
je pose la question
comment on fait
pour convertir
une image 2D
en 3D ?
Oui, ça paraît pas évident
comme problème.
Non, pas si simple.
Et là encore,
si on vient sur l'idée de film,
peut-être que si on a
non pas seulement une image,
mais une scène
qui bouge un peu,
ça peut aider un peu plus.
Eh bien justement,
en gros,
la techno qui existe depuis,
pour le coup, bien plus longtemps
que l'IA
et que c'est
une nouvelle technique récente,
c'est ce qu'on appelle
de la photogrammétrie.
Et donc, en fait,
pour modéliser un environnement 3D,
on prend une multitude
d'images 2D.
Effectivement,
tu pourrais aussi prendre
une vidéo qui bouge,
mais la plupart du temps,
ce qu'on fait,
c'est qu'on prend
énormément de photos
avec des angles différents
pour avoir la meilleure résolution.
Et on essaie de les assembler
au mieux
pour créer un objet
ou une scène 3D.
Et donc, effectivement,
ça peut soit passer par
avoir, genre,
50 appareils photos
qui prennent
simultanément
des photos à la chaîne
ou une vidéo,
soit de manière plus réaliste,
t'as ton téléphone,
par exemple,
t'as une appli dessus
et tu vas tourner
autour de ton sujet
et après un temps de calcul,
on va te générer
un objet 3D.
Je me souviens
avoir fait ça
il y a 10 ans.
Donc, j'avais une appli
qui s'appelait Autodesk,
oui, Autodesk 2, 3D, je crois.
Et ça permettait, déjà,
à l'époque,
d'une simple vidéo
de te générer
un objet 3D de ta personne.
On pouvait faire ça
il y a 10 ans avec Attain Lyphon,
mais on oublie vite.
Et en fait,
c'est assez similaire
pour comparer avec
la parallaxe
et ce que fait l'œil humain
ou, à partir de points de vue différents,
t'as une compréhension 3D
de ton environnement
alors que t'es arrêtée
et elle chope des images 2D.
Donc, c'est le même système.
C'est qu'on prend plusieurs points de vue
qu'on assemble
pour essayer
de projeter un objet
ou un environnement 3D.
Donc quelque part,
le cerveau, il arrive à le faire
avec seulement 2 points de vue
parce qu'on a 2 yeux.
Et là, le logiciel,
on lui donne plus que 2 points de vue.
On lui donne un petit avantage.
On lui donne beaucoup plus de points de vue.
Et du coup, le but,
c'est d'avoir, non pas seulement
une vision 3D
avec de la profondeur,
mais vraiment
l'ensemble de la pièce.
Ok.
Donc, la fin,
tu as vraiment un objet
en format 3D
que tu peux importer
dans ton logiciel de 3D.
Tu peux tourner autour, etc.
Mais !
En fait,
il fallait déjà énormément donner.
Donc vraiment beaucoup, beaucoup de photos.
Et c'était toujours un peu craquin.
Il y avait, je me souviens,
il y avait plein d'artefacts
et il y avait beaucoup de temps
de clean-up en fait.
Où tu devais aller nettoyer
ton image, enlever
tous les petits artefacts
et les petits bugs.
C'est du travail à la main.
Exactement.
Et c'est ça qui explique,
notamment, que
du coup, les bases de données
qu'il y a sur Internet,
elles contiennent beaucoup
de ces modèles un peu craquats.
Et donc,
ça en fait des très mauvaises
bases de données
pour entraîner des modèles suivants.
Donc, il y a une sorte de...
on va dire que le fruit
était pourri depuis longtemps.
Et donc,
il faut trouver une autre solution
que la photogrammétrie
qui est clairement obsolète.
Et cette nouvelle solution,
elle est arrivée en 2020.
C'est une petite révolution
qui s'appelle NERF.
Comme le jouet, finalement.
Et ça veut dire
Neural Radiance Field.
Donc champ de rayonnement neurono.
Et c'est ce qu'utilise
pour vous montrer Google
dans Immersive View.
C'est un mode dans Google Maps
qui permet d'avoir
une sorte de vue
proche de ce qui fait 3D entre guillemets.
Ou tu peux comme ça te balader
dans une ville
et te...
et bouger de monument en monument.
C'est une technologie
qui s'appelle NERF
qui permet ça.
Et là, pour le coup,
on introduit du deep learning
qui permet justement
de construire cette représentation 3D
à partir de plusieurs images 2D.
Donc finis les 75 appareils photos
et les recoupements d'image
avec des algos à l'ancienne.
Là, c'est un modèle de deep learning
qui permet de faire ça.
À tel mois,
évidemment, les résultats sont
assez bluffants.
Là, si tu vois la différence
entre d'un côté...
Là, c'est que NERF.
Ah, voilà.
D'un côté à gauche,
t'as ce que permet
de la photogrammétrie
à l'ancienne, entre guillemets.
Et là, à droite...
C'est NERF.
T'as NERF.
C'est impressionnant.
C'est fou.
C'est parfait.
Et voilà, la différence...
Dans les faits,
surtout sur ces premières versions,
quand tu zooms, etc.,
tu vas te rendre compte
qu'il y a potentiellement des petits soucis,
mais globalement,
c'est quand même très, très, très bluffant.
Et c'est fou, la différence qu'il y a,
parce qu'en plus,
les conditions de tournage sont très bonnes.
C'est un drone qui tourne.
Donc c'est normalement parfait
pour la photogrammétrie.
Oui, oui.
Enfin, en plus,
c'est vraiment les conditions parfaites,
mais NERF est quand même vachement plus puissant.
C'est impressionnant.
C'est ça.
Et en fait, alors...
Moi, j'avoue, j'ai un peu galéré.
C'est pas aussi...
Je vais pas trouver ça aussi simple
à comprendre que les modèles de diffusion.
Mais en fait,
il faut réaliser que
ça ne génère pas un modèle 3D
en tant que tel.
C'est-à-dire que c'est pas juste,
tu lui donnes des images,
et bien, ça te pont un modèle 3D.
Ce qui se passe,
c'est que ça entraîne un modèle NERF
qui, à partir de plusieurs points de vue,
entraîne un réseau de neurones
qui est capable de prédire ensuite
des nouveaux points de vue.
Donc, en gros,
ton modèle,
en input,
tu lui donnes
des nouvelles coordonnées de caméras,
et lui va pouvoir,
sur chaque rayon de la caméra,
sur chaque pixel,
il va pouvoir, à partir de...
à partir des valeurs de pixels
et des autres positions de caméras réelles,
il va pouvoir généraliser
et guesse à ce nouvel endroit de caméra.
Je pense que c'est
telle valeur de pixels
et telle profondeur entre eux.
Parce que quelque part,
à la fin,
l'image, on va quand même la regarder
sur un écran 2D.
Donc,
quand il y a un modèle 3D,
ça reste qu'une étape intermédiaire
d'avoir une représentation 3D,
et à la fin,
ça va être reprojeté sur un écran 2D.
Et donc là, on zappe en quelque sorte
cette représentation intermédiaire.
Exactement.
C'est exactement ça.
Et ce qui fait que tu n'obtiens pas
avec un nerf,
tu n'obtiens pas de modèle 3D,
tu obtien juste la projection
à un nouveau point.
Et donc,
après, en fait,
à chaque fois que tu bouges ta caméra,
lui derrière,
il compute
une nouvelle image en utilisant le modèle nerf.
C'est un peu...
Moi, j'ai eu un peu de mal à comprendre, j'avoue.
Là, on voit une ilue à gauche,
c'est ce qu'on lui a donné en entrée,
donc c'est vraiment des photos
avec 2-3 points de vue.
Et après,
ce qu'on voit en grande écran,
c'est qu'il tourne autour.
C'est ça, exactement.
Et donc, c'est plein de...
C'est toutes ces nouvelles positions.
Et c'est...
Il les imagine
en ayant entraîné
son modèle nerf
sur des images préconçues.
Ça n'empêche...
Alors,
ça, c'est un truc que j'ai regardé,
qui m'intéressait.
C'est que
c'est pas pour ça que c'est...
C'est pas possible, en deuxième temps,
de pouvoir générer
un modèle 3D
ou un environnement 3D
à partir de ton nerf.
C'est-à-dire que t'as des...
Là, des technos
qui sont pour le coup
faits en deuxième temps,
qui te permettent de convertir
ce nuage de points
en des polygones, par exemple.
Et donc, ça fait que...
Les applications dans le jeu vidéo,
par exemple,
où tu veux vraiment un objet 3D
ou un vrai environnement
qui serait un asset
que tu peux draguer une drop
dans ton logiciel,
c'est pas impossible qu'on y arrive,
en gros.
Mais c'est vraiment des briques distinctes.
Bref.
Donc, tout le monde s'est jeté
sur cette nouvelle techno
et l'a amélioré.
Il y a eu notamment
aux nerfs.
Donc, à partir d'une simple vidéo,
le modèle est capable
de bouger la caméra
sous n'importe quel angle.
Donc, vous allez voir,
le résultat, c'est assez bluffant.
Globalement, toutes les...
En fait, je vais vous aller voir
toutes les démos que...
que je vous ai trouvées,
elles ont un côté
très, très satisfaisant.
Donc là, par exemple,
le input de base,
c'est le chercheur
qui a filmé
son fils en train de marcher
dans un champ.
Et il est capable de jouer
la vidéo.
Et à tout moment
de déplacer la caméra.
Là, il fait un 360
autour du gamin, quoi.
Alors que ça n'a pas du tout
défilé.
Exactement.
Lui, ce qu'il a filmé,
c'est juste des mouvements
normales.
Mais qui sont généralisés
et qui te donnent une
frie caméra après
pour te balader à l'intérieur.
Ah, du coup, j'ai envie
de savoir ce que ça va donner.
Donc là,
il filme en mode normal, quoi.
Par contre, il a des mouvements
un peu bizarres.
Très saccadés.
C'est peut-être parce qu'il y a
une imitation.
Je pense que c'est un truc...
C'est un...
Une dorsique toque,
un truc comme ça.
Donc là,
la vidéo commence normalement.
Mais à peu près,
à n'importe quel moment,
c'est comme si tu pouvais faire pose.
Ah ouais, c'est incroyable.
Et te balader dans la scène.
C'est trop puissant.
Ah ouais.
Ça, c'est impressionnant.
C'est impressionnant de...
C'est vachement net, quand même.
Et c'est une des améliorations
qu'ils ont fait.
C'est que sur la qualité de l'humain,
sur les bâtiments,
etc., c'est bien.
Mais...
Si tu regardes le détourage,
juste la qualité,
la représentation de l'humain.
C'est faux, parce qu'il y a...
Là, vous voyez des images
qui n'ont jamais été
filmées qui ne existent pas,
entre guillemets.
Exactement, ouais.
Et c'est vraiment brain fuck.
Franchement, on pourrait régaler
ça à toute la vidéo.
Oh là.
Une autre démo très, très sympa
que j'ai trouvé,
ça s'appelle l'ERF.
Et donc, c'est une combinaison
de nerfs, mais avec
un modèle de langage
qui est capable de,
non seulement,
te créer la scène
en 3D.
3D.
Mais j'aime pas dire ça,
parce que techniquement,
ça ne crée pas la scène 3D, en fait.
C'est de créer des objets en 3D.
En fait, c'est...
Donc, il combine le fait
de te créer une représentation
plus rédiventionnelle
des images
et la compréhension
de ce qui s'y trouve.
Donc, par exemple,
tu vas taper
plantes
et il est capable
de te faire un zoom
hyper smooth
et de te générer
plein de nouvelles images
tout autour de l'objet.
Ah, super.
Tu contrôles la caméra
avec du test.
C'est ça.
Et donc là, les applications,
je sais pas moi,
pour des musées
ou pour des...
même des jeux
ou des trucs comme ça,
c'est pareil, assez évident.
Juste pour montrer que
des techno
de reconnaissance d'objets
dans les images
sont en général
généralisables
à ce genre de modèle.
Le dernier, ça n'a pas de nom.
C'est une équipe au Japon
qui a créé un plugin
pour Unreal Engine,
qui a un moteur de jeu bien connu,
et qui permet de faire
des rendus de nerf
nativement, directement,
dans ton...
dans ton environnement Unreal.
Donc, très concrètement,
vous allez s'en plus attendre.
Vous allez découvrir
comment vous pouvez, par exemple,
importer votre jardin
dans un jeu vidéo.
Ah mais oui.
Donc là, tu prends quelques images
ou une vidéo de ton jardin
et bam,
téléporter
dans un moteur de jeu
et tu peux te balader
et jouer dedans.
Bon alors là, typiquement...
Et GTA, ça va changer.
Non mais c'est sûr, franchement.
Le temps qui devait passer
à modéliser
Oui.
En très haute qualité des vives, etc.
Ah, tu fais Paris en...
Tu gardes du temps, franchement.
Alors,
le petit IKI-C,
c'est ce dont je vous parlais,
c'est que là,
vous avez bien vu,
les collisions,
elles ne sont pas correctes,
c'est-à-dire que...
Il passait à travers...
Exactement, il passait
à travers les objets, etc.
C'est justement parce qu'il n'y a pas
eu cette étape de
nerf
tout 3D.
Il n'y a pas encore
des vrais objets 3D,
dont Unreal connaîtraient
vraiment les dimensions
et l'emplacement
des polygones
et pourrait
appliquer son système de collision.
Il manque une étape.
Mais c'est déjà très cool, franchement.
Ouais.
J'ai envie de jouer dans mon jardin.
J'ai envie d'avoir un jardin.
Première étape,
nous avons mis à Paris.
Donc, on avance,
parce que là,
ce qu'on expliquait,
c'est que c'est
les bricks dont on a besoin,
c'est un bon modèle
de texte-to-image
et ensuite,
un très bon modèle
qui permet de faire de la 2D
tout 3D.
Vous allez voir,
ça va être très utile
dans la suite
pour pouvoir
avoir le gral
à savoir
un système
ou à la voie,
on pourrait avoir des mondes
qui apparaissent, etc.
Juste avant qu'on y arrive,
j'ai envie de vous montrer
pour le plaisir
des petites démonstrations
d'une nerf
mais appliquée
à d'autres domaines,
notamment dans la vidéo.
Par exemple,
si on combine un nerf
avec les nouvelles technotypes
Stable Tiff Fusion, etc.
qui permettent
de faire
des remplacements de texture
et des choses comme ça,
ça donne ça.
Si vous regardez ce Bouddha,
la version,
le nerf original, par exemple,
est en bas,
mais quand on combine
avec d'autres technos,
ça peut donner ce qu'il y a juste au-dessus.
Ou vous avez un Bouddha doré.
Avec derrière,
tout un ciel
qui a été retravalué.
Je ne sais pas si vous voyez,
mais on voit quand même
que ça utilise
derrière un Stable Tiff Fusion
parce que parfois,
si tu regardes l'arrière de sa tête,
tu peux voir un visage fantôme
qui apparaît.
Attention, là !
Je l'ai vu !
Il faut avoir l'œil !
Exactement !
Il faut avoir l'œil !
Il n'est pas vu !
Il peut y avoir des mains
ou des trucs comme ça
qui peuvent apparaître.
Mais c'est très très cool.
Autre exemple, bien sympa,
c'est
pour générer un effet
bien connu des cinéastes.
C'est un effet très hype
où, en fait,
tu fais un zoom,
donc tu rapproches la caméra
et en même temps,
tu tournes la bague
de ton objectif.
Et ça fait un...
Ça s'appelle un super zoom,
j'ai oublié comment...
C'est un traveling compensé.
Traveling compensé, merci.
Il me semble.
Il me semble.
Je pense que,
dans la vraie vie,
ça demande...
C'est super chiant, hein !
Oui, ça c'est super chiant.
Ça demande un rail
de traveling et d'être super
synchro.
Technique.
Beaucoup de matériel,
etc.
Ça se fait dans des films
ou voilà mais...
Alors que celui-ci,
qui est un peu exagéré,
c'est pour la démonstration...
Voilà, il est bien vénère.
Il est bien vénère.
Mais ça peut être très joli.
Ça peut être beaucoup plus
sans effet de décalage,
etc.
Mais là,
vous voyez à quel point
c'est parfait.
C'est-à-dire qu'il n'y a
aucun tremblement.
On a vraiment l'impression
que le traveling est fait
par un robot, quoi.
Plus, on a bien l'effet
de profondeur distordue,
etc.
Et bien, en fait,
cette vidéo a été
faite avec un iPhone.
Voilà, c'est juste quelqu'un
qui a demandé
à sa cobaye
de ne pas bouger
dans la rue,
qui a fait une vidéo
où on va vous montrer
le processus de création.
C'est à la fin d'un moment.
Qui a pris son iPhone
et...
Voilà, qui s'est...
Donc, elle bouge vraiment
par contre, ça c'est impressionnant.
Et le mouvement qui est fait
avec l'iPhone,
on va le voir juste après,
c'est que...
ou peut-être qu'il faut descendre
un peu, pardon.
En fait, le mouvement
qui est fait avec l'iPhone,
c'est pas d'aller tout droit,
justement,
mais c'est de tourner
un peu autour, comme ça,
comme une sorte de spirale
pour prendre de l'information.
Justement, c'est dans le but
d'une nerf,
c'est de prendre
vraiment plusieurs points de vue
et...
et tu tournes,
tu tournes, tu tournes.
Ah oui, ok.
Et en fait, à la fin,
tu fournis ça à un nerf,
plus précisément
un outil qui s'appelle
Pika Labs
et qui permet
de...
à vous et à nous
de le faire facilement
avec son iPhone.
Le résultat est assez bluffant,
quand même.
Ouais, c'est...
C'est très calme.
Impressionnant.
Si des mots suivantes,
c'est une pub Macdo
qui est fait encore
avec nerf.
Je vous ai dit,
tout le monde s'y met.
Tout le monde s'arrache ce truc.
Et c'est une publicité Macdo
où
tu rentres dans...
tu rentres dans un restaurant
et il s'amuse du coup
avec la caméra.
Des effets qui sont probablement
impossibles,
à mon avis,
à faire tel qu'elle.
Sauf, peut-être,
avec des effets spéciaux.
Mais ça, par exemple...
Il passe dans la...
Ça, c'est juste impossible.
Il est allé dans le paquet.
Ah, c'est stylé.
Ouais, ils se sont...
ils se sont bien amusés.
Et...
Et donc voilà,
même Macdo fait des pubs comme ça.
Et pour ceux qui connaissent
Corridor Digital,
qui est une...
une chaîne YouTube américaine
où il s'amuse beaucoup
avec des effets spéciaux
qui sont toujours
assez affûtés sur les dernières technos,
ils se...
ils ont aussi fait une démonstration
avec un nerf.
Mais...
avec aussi des vrais nerfs.
Ah, c'est un nerf.
C'est un combo.
Puisque tout simplement,
ils ont trouvé un moyen...
que j'avais jamais vu,
honnêtement,
j'ai jamais vu ça dans aucun film,
un moyen de filmer
la trajectoire
d'une balle de nerf.
Je sais...
Je sais pas si on va le voir plus tard.
Mais il y a...
C'est un sorte d'effets slow motion
combinés à...
avec son iPhone.
Ouais.
Où sont tes léphones ?
Voilà.
Voilà.
Juste ça, en fait...
En fait,
pour réelier,
si tu devais faire ça
avec du matériel traditionnel,
un enfer à ce modèle-là,
ben, le seul moyen,
mon avis, c'est...
des...
des drones.
Des bras.
Un soin drone, ouais.
Avec un très bon pilote de drones.
Ouais, avec un drone FPV.
FPV...
Champion du monde.
Très, très chaud.
Ou alors des bras,
mais pareil,
tu peux même pas tout faire en été.
Donc...
Donc très, très impressionnant.
Et ce que je vous disais,
c'est que,
vous dès maintenant,
vous pouvez déjà utiliser ça
en allant sur Luma AI, par exemple.
Et qui vous permet, comme ça,
de faire des montages,
des créations de...
des générations de nerf,
et de vous amuser tout simplement.
Et c'est gratuit,
je sais pas, t'avais essayé, Mathieu,
ou...
Ah non, ça, je me suis trompé.
Merde.
Tu es confondu.
Si, si, c'est aussi Luma qui...
Ouais, mais ça, c'est...
ça, c'est pour plus tard, là.
Spile !
C'est un deuxième onglet dans Luma AI,
où tu peux...
C'est pas gratuit.
Je crois pas.
Je crois que c'est payant.
Des mots gratuites.
J'ai oublié, mais peut-être une des mots gratuites.
Ok.
Maintenant, ça, j'ai pas pu le tester.
Bon bref, en tout cas,
vous pouvez vous amuser avec.
Pardon, je me suis perdu.
Donc ce que je vous explique tout à l'heure,
c'est que, a priori, là,
on est pas mal.
Nous avons...
On avance.
Dans les briques,
exactement, dans les briques.
Donc on a besoin.
Mais vous avez peut-être remarqué un truc,
depuis tout à l'heure, c'est que,
pour l'instant,
tout ça, ça n'est pas de la génération.
C'est juste, on prend des images du réel,
et on obtient des points de vue supplémentaires,
etc.
Donc pour l'instant,
on n'a pas encore de génération pure d'IA,
d'environnement, on n'est pas...
On a juste réussi à passer d'une photo
ou d'une vidéo
d'un truc existant,
à le faire en 3D,
mais là, on n'a pas fait juste un prompt.
C'est ça.
Et pour toi, on pourrait dire qu'on a les deux briques,
donc on a de la génération texte tout 2D,
on a un système de 2D tout 3D,
mais en fait,
il y a un problème.
Parce que ce qui fait que les scènes
nerfs ont des rendus aussi réalistes,
c'est qu'en fait,
on leur fournit plusieurs points de vue.
C'est à dire que vous avez vu,
à chaque fois, c'est qu'on donne une vidéo en input,
alors ça, c'est moins de bandeur
que de la photogrammétierie, etc.
Mais c'est la base du truc.
C'est ça qui donne ce rendu ultra-réaliste.
Or,
nous, si vous réfléchissez à notre problème,
on n'en a qu'un seul.
Midjournée, il ne donne jamais qu'un seul point de vue
sur ton objet 3D
ou sur ton environnement
de ton prochain jeu vidéo.
C'est d'ailleurs un peu embêtant,
même quand on fait de la 2D,
qu'on veut changer quelque chose
sur une image,
on n'y arrive pas,
alors il faut pas se faire de la 2D.
Exactement.
La solution
pour l'église problème,
c'est Google qui l'a trouvé
en 2022.
Donc,
ce n'est pas si bu, en fait.
C'est notamment Dream Fusion,
qui était leur premier modèle.
Il y a aussi OpenAI qui a sorti points E,
et depuis, vous vous doutez,
que ça a été encore amélioré.
Mais ils ont trouvé une solution
à ce problème
pour, à partir d'un seul point de vue,
de quand même tirer partie
du nerf
pour générer des représentations 3D
hyper qualitatives.
Alors, comment ça marche ?
Si j'ai bien compris leur méthode,
parce que honnêtement,
papy n'est pas si évident.
Mais l'idée,
c'est d'utiliser,
en plus de l'image d'origine,
d'utiliser le prompt,
donc une description de texte,
de l'objet qu'on veut obtenir à la fin.
Donc si on fait les étapes,
j'aimerais un chio en 3D.
D'abord, je m'en ai mis de journée
ou à stable division,
un chio en 3D.
En 2D.
Un chio, ben...
Une image de chio.
Exactement, une image de chio tout simplement.
Et après, avec ça
et mon prompt de texte,
je vais entraîner
un autre modèle.
Donc en gros,
je vais utiliser
un modèle de diffusion
pour vérifier
que mon nerf
se rapproche du but.
En termes précis,
on dit que la fonction de perte,
donc la loss function,
qui est utilisée,
c'est celle du modèle de diffusion.
Donc en gros,
mon nerf,
ce qu'il fait,
c'est qu'il essaye de guess
des points de vue alternatifs.
Donc là, je lui donne
en input mon chio de face.
Il va essayer de guess
des vues de côté.
Et on va vérifier
si ça correspond
au prompt.
En gros, à quel point
cette génération de côté
qui va au début être disforme
et dégueulasse,
à quel point
ça ressemble
à un chio de côté.
Comment...
C'est quoi la mesure
pour dire à quel point ça ressemble ?
Et bien, ça,
c'est le secret des modèles de diffusion.
Actuellement,
quand tu utilises un modèle type stable diffusion,
ce que lui il fait,
c'est qu'il génère du bruit,
une image complètement aléatoire,
et il était entraîné
pour de plus en plus se rapprocher
d'un chio à la fin.
Et à chaque itération,
il se rapproche
de plus en plus
de la description
de ton prompt.
Et bien,
tout le génie de Google,
c'était de dire,
attendez, mais en fait,
du coup, on va utiliser ça,
on va utiliser ces modèles-là
qui marchent super bien,
dont on sait qu'ils sont capables
de faire converger
une image vers un prompt.
On va les utiliser
pour vérifier
que les points de vue
du nerf
tendent
vers une représentation
de décorrecte.
Tu as ce que je veux dire ?
Ok.
En vrai, c'est incroyable.
Oui, j'aime bien un peu de temps
à capter,
j'espère ne pas avoir
trop écorché le truc.
Mais quand tu réfléchis,
c'est assez génial.
C'est-à-dire que c'est vraiment
utiliser la brique
texte ou dode,
on sait faire converger
des images super bien
pour faire tendre
du bruit vers un chio
à partir d'un prompt.
On utilise cette connaissance-là
pour entraîner un nerf,
puisque à chaque itération,
on est capable de dire
si les points de vue alternatifs
et de côté, etc.,
correspondent bien au prompt.
Tu vois ou pas ?
Je t'en prie.
Du coup, il y a de la 2D
sur plein de points de vue différents.
Et à la fin,
en l'utilisant le modèle de diffusion
pour voir si ça correspond au prompt
qu'on a eu vie,
on arrive à voir si tout ça
est cohérent entre allés.
C'est ça,
mais à chaque itération,
puisque c'est la fonction de perte
dans le modèle de langage
qui permet d'iterrer.
Bon ça,
si vous vous avez
entraîné des raisons neurodes,
vous voyez très bien.
Et c'est ça qui permet
justement de modifier
les poids du nerf
à chaque itération
pour le faire tendre
vers quelque chose
qui est capable de générer
à la fois un truc
qui correspond
au point de vue de face,
mais aussi qui constamment
reste cohérent
vis-à-vis du prompt
qui était un chiot.
En vrai,
moi ce que j'ai compris,
c'est qu'on dit
à un modèle de diffusion
« Fais-moi un chiot ».
Après, on dit à un nerf
« Fais-moi les représentations
sur les différents côtés ».
Et il y a un autre modèle
de diffusion
qui est aussi capable
de représenter un chiot.
Tu dis « Est-ce que ça ressemble
à un chiot ? »
Et du coup, il va pouvoir te répondre
oui ou non globalement,
parce que si ça ressemble pas du tout,
ça permet d'avoir des...
Ça te permet
de t'en servir
pour améliorer ton nerf
et modifier les poids, etc.
Oui, c'est super malin.
Oui, c'est super malin,
franchement.
Quand tu capes le truc,
c'est génial.
C'est littéralement transposer
les connaissances d'odées
vertes de la 3D.
Et vous vous doutez bien
qu'après les premiers essais
de Google
qui sont techniquement
intéressants,
mais en fait,
dans les résultats,
vous allez voir,
les objets,
ils sont pas dingues.
Tu vois des petits
des petits ratons laveurs,
des petits renards.
C'est sympa.
Maintenant, c'est un bon début,
mais c'est pas encore
complètement fouille.
Et depuis, vous vous doutez,
c'était en 2022,
à savoir
l'antiquité, finalement.
Et depuis, ça a été
encore énormément amélioré,
notamment il y a Luma Genie,
que vous avez vu légèrement
tout à l'heure,
mais qui vous permet
de générer d'autres objets
super qualis.
Et là vous,
vous voyez
qu'on a encore franchi
un petit cap et ça commence
à vraiment se rapprocher
d'assets
que tu pourrais acheter
en tant que développeur
de jeux vidéo.
Donc là, tu vois,
ton petit show.
Ça a été si rapide.
Ou tes flammes,
ou un octopus là-bas.
Enfin bon,
c'est très satisfaisant
de se balader
sur leur site.
Et globalement,
n'importe qui,
là, peut déjà l'essayer.
Donc vous, si vous voulez
créer un petit compte
et faire des tentatives,
vous allez voir, c'est très très cool.
Qu'est-ce que tu as mis comme prompt ?
Je n'ai pas vu.
Un petit show ?
J'ai mis un chien mignon.
Un chien mignon.
Et ben, voici,
sous vos yeux,
en temps réel,
un petit modèle 3D
qui a été généré entièrement.
Et là,
on commence à se rapprocher
de quelque chose de sympa.
Parce que là, c'était vraiment un prompt.
C'est très,
l'interface, c'est très user friendly.
Bah voilà,
là ça a pris 30 secondes.
On l'a voir tester,
testé en 30 secondes.
30 secondes,
et vous avez un petit modèle.
Alors là, effectivement,
si tu zooms,
tu verras que la qualité
n'est pas forcément parfaite.
Mais il faut se dire que c'est un...
A l'aide.
Mais il faut se dire
que voilà,
c'est une génération super facile.
Et en gros, eux,
ça, c'est un peu
pour te mettre l'eau à la bouche.
Derrière, ils ont
des moyens d'améliorer ces modèles.
Ils ont des générations
bien plus qualitatives.
Où tu vas payer
un dollar, par exemple.
Et pour le coup,
ça prendra 30 minutes
à générer.
Mais tu obtiendras
des assets
vraiment super, super qualitatives
en haute résolution, etc.
Un des derniers
qui n'est pas encore sorti,
mais...
Donc j'ai trop hâte qu'ils sortent,
c'est Spline AI.
Spline, c'est un petit logiciel
de 3D
qui est très cool
pour ceux qui ne savent
pas faire la 3D.
Donc si tu...
C'est déjà vu des blenders
et des trucs comme ça
que tu trouves ça très cool.
Mais que...
Mais que c'est un peu hors de portée
et que t'as pourtant besoin
de te générer des trucs,
eh bien tu peux te tourner
vers Spline 3D
qui est bien plus accessible.
Mais quand même assez puissant
et qui tu permets de générer
de la 3D optimisée
pour le web,
donc tu peux le...
Dans ton site web, intégrer
ta 3D, animer avec même
potentiellement des interactions
ou des choses comme ça.
C'est vraiment très très stylé.
Et ils ont tisé
une version augmentée
de leur outil
qui te donne un accès
à un champ de texte,
à un prompt, quoi.
Et où tu peux non seulement
générer des...
des modèles, 3D,
enfin voilà,
des cubes,
des trucs complexes,
mais aussi interagir avec
et les modifier.
Donc par exemple,
ils font la démonstration
où ils demandent
8 cubes
alignés dans une grille
au prompt.
Si tu l'aies ça un petit peu,
je crois que c'est ça,
il monte ça juste un peu plus bas
dans la page.
Voilà, j'aimerais
une grille avec 8 cubes
et après juste en dessous,
j'aimerais qu'il soit maintenant
ordonné de manière aléatoire.
Épaf.
Incroyable.
En vrai,
en vrai là, on commence vraiment
à avoir des trucs très christianiques.
En plus, par des services
qui savent faire de lui et lui-même.
Oui c'est ça,
ça donne envie.
En pacte le truc
pour que ça soit vraiment agréable
d'utiliser.
Le problème, c'est que
ça n'est pas encore disponible
et que...
J'avais vu qu'il y avait une...
Ouais, c'est ça.
Exactement, on peut s'inscrire
pour l'avoir,
mais j'ai trouvé aucune démonstration
réelle
qui permettrait de valider
que ce n'est pas de la poudre aux yeux.
C'est ça le problème.
Moi j'ai toujours un peu de l'éfiance
parce que
entre parfois la publicité
et le...
Est-ce que tu observes à la fin
il peut y avoir un gap
ou pas,
suivant les boîtes
qui se créent des bonnes réputations
etc.
Parce que là,
très envie.
Ça donne envie.
Ça donne envie.
Effectivement.
Donc si vous avez
un bypass
de la tente
et que vous voulez nous envoyer
un code,
par exemple,
n'hésitez pas.
C'est vrai qu'en plus
on n'avait pas été en contact.
Explaite de nous.
Je sais pas si on est en contact,
mais...
peut-être que...
Quand enfin, oui.
C'est quandant.
Je crois que c'était quandant.
On pourrait lui demander.
Clairement,
l'évolution
en un an et demi
est complètement
hallucinante.
On n'est pas...
On n'est passé de
n'avoir aucune foutue idée
qu'on pouvait générer
des visages en 2D
à
être capable d'avoir
des assets super qualitatifs.
Vous avez même fait
des petits essais.
J'ai vu une couronne de fleurs,
par exemple,
les trucs comme ça.
Ouais, ça c'était...
On t'aurait dit ça.
Il y a 2 ans que tu pouvais...
que tu pouvais...
que tu...
qu'on pourrait faire ça,
que n'importe qui
pourrait faire ça.
Ouais, j'ai généré une couronne de fleurs
sur luma, du coup.
Ouais.
Qui pourrait le faire.
A l'écart de part dans le runner,
si jamais-t-il.
Personne,
personne n'y aurait cru.
Est-ce qu'il est fou,
c'est le timing Nerf,
je crois que c'est 2020,
la publication.
Ce que t'as dit,
la Dream Fusion,
c'est 2022.
ça,
vraiment,
ça allait faire
mid-journée
ou stable diffusion.
C'est vraiment là,
on est tout début de la courbe.
Préparatoire 2020,
alors que les modèles
de langage et de diffusion,
c'était plus 2017,
on va dire.
Donc,
on a vraiment le même schéma.
C'est très marrant
que les modèles,
ils ont été conçus.
Il y a les premières démos.
Mais,
quand on dise les pros,
parce que nous,
on est là en mode
c'est cool, c'est sympa,
mais si ça se trouve,
on se rend pas compte
et c'est inexploitable
dans un jeu vidéo, etc.
Et bien,
on a voulu obtenir
des réponses.
Et Mathieu,
tu as posé la question
à des gens
dans ton entourage.
Oui.
Alors,
statistiquement,
ça ne valide pas les quotas.
Ce n'est pas une étude.
Ce n'est pas une étude.
Mais je me suis dit,
dans mon entourage,
il y a des gens qui sont
soit de la 2D,
soit de la 3D, etc.
Donc,
j'ai voulu leur demander,
j'ai demandé à plusieurs d'entre eux.
Ce qu'ils ont pensé
de la génération 3D paria,
l'outil
qui est le plus ressorti,
c'est Luba,
qui est celui visiblement
le plus abouti
actuellement dans l'industrie
et aussi le plus
utilisable facilement.
Parce que,
quand t'es un designer,
t'es pas non plus un développeur
en intelligence artificielle.
Ça compte aussi.
Et ce qui est marrant,
c'est que
des échos que j'ai eus,
ils m'ont dit
que c'était pas vraiment
utilisable en production
quand t'as un client
et que tu dois lui fournir
un environnement 3D.
Parce que,
en fait,
tu perds plus de temps
à chercher,
à bouger tes promptes
que, finalement,
à le faire directement
et que,
si t'as des retours clients
à adapter,
c'est super compliqué
à adapter
parce que t'as pas accès
au tout le mesh,
si t'as le maillage
de l'objet
avec tous ces points 3D.
Et donc,
par exemple,
si tu veux changer
l'éclairage de ta scène,
tout de suite,
ou l'éclairage d'un objet,
plutôt,
si tu as généré un objet,
c'est beaucoup plus dur
de changer cet éclairage
que si tu le fais toi-même
et que tu gères ton éclairage.
J'imagine que
quand tu conceptualises
ta propre maison en 3D,
le logiciel,
la connaissance
des éléments indépendants,
et donc,
t'es capable de bouger
le remplacement
d'une fenêtre
ou l'épaisseur d'un truc.
Alors, class que t'obtiens,
c'est le mesh complet
qui n'est potentiellement
pas du tout conscient
de qu'est-ce qui s'arrête
à quel endroit, qu'est-ce que c'est ça ?
Mais tu peux quand même
faire chaque objet indépendamment,
notamment avec des...
Mais le raisonnement
se généralise.
Mais ce qu'on m'a dit,
c'est que déjà,
c'est actuellement
et que dans 2 ans,
ça sera sans doute
pas du tout la même limonade
et que potentiellement,
on m'a dit que ça pouvait
complètement tenir la route
dans 2 ans.
Et en fait,
ce qui m'a un peu amusé,
c'est que j'ai trouvé
cette réaction, au final,
pas du tout étendante.
Parce que c'est une réaction
qu'on a un petit peu en toutes
les industries
qui sont touchées par LIA.
C'est qu'en fait,
les professionnels,
déjà,
ça te demande
de changer de tout ton workflow.
Donc c'est...
Enfin, ta méthode de travail,
donc c'est plus difficile
à prendre en compte.
Moi, je le vois pour l'écriture.
Au final, j'écris assez peu
avec des chatbottes,
alors que, évidemment,
ça se fait très bien,
même si je l'utilise un petit peu.
Et surtout, en fait,
ce qui est marrant,
c'est que c'est pas...
C'est pas ces personnes
qui vont, en premier lieu,
sac à parer ce jour d'hier.
Nous, on a un exemple
dans l'équipe qui est incroyable,
c'est Mika, notre monteur.
Il est monteur,
il n'est pas du tout développeur,
mais depuis que...
Sur chaque GPT,
on peut coder des choses,
c'est devenu un développeur
en herbe,
alors que, potentiellement,
le dev de notre équipe,
il utilise un peu
copilot ou quoi,
mais potentiellement,
beaucoup moins que Mika,
notre monteur,
qui est complètement néophyte en code.
Parce qu'en fait,
lui, ça a changé,
ça a façon de fonctionner,
il s'est dit, en fait,
je peux me mettre à coder,
alors que je ne savais pas du tout.
Contrairement à quelqu'un
qui s'est déjà codé,
ça va lui apporter
un petit truc en plus,
mais pas tant que ça.
Et bien, en fait,
ce raisonnement,
il est complètement généralisable
à ces environnements 3D.
Et donc là,
où ces outils
de génération d'objets 3D
et de génération d'environnements 3D
sont intéressants,
c'est pas forcément pour les designers 3D
depuis 10 ans
qui comptent dans leurs clients,
je ne sais pas, Chanel,
bref,
quand dans leurs clients,
les mêmes clients
depuis 10 ans
qui sont des fidèles, etc.
En fait, ça va changer la chose,
la donne pour 2 types de personnes,
selon moi et selon les discussions
que j'ai pu avoir.
Premièrement,
c'est tous les gens qui
ne savent pas du tout
faire de 3D,
c'est-à-dire nous,
99% des gens.
Les développeurs web, par exemple.
Les développeurs web.
Mjam, tu sais,
tu dois faire un jeu vidéo
en un week-end,
potentiellement,
tu as besoin de générer
57 pour 50 objets.
Toi, tu as juste une liste
de tes 50 objets,
et tu te fais pas chier,
tu lances une moulinette,
ça génère diversion par objet,
et bam...
Ouais.
Et en fait,
jusqu'ici,
on ne se disait même pas,
je vais pouvoir intégrer
des objets 3D
à un projet ou à ce que vous voulez,
et ça peut-être que demain,
ça va être complètement possible,
même à nous,
qui ne savent pas du tout
designer 3D.
Et il y a un deuxième cas,
et je voulais en parler
parce que j'ai trouvé ça
super intéressant.
Et ça,
c'est des discussions que j'ai eues,
où en fait,
la typologie de personne
à laquelle ça a le plus servi,
c'est aux artistes 2D.
Que ce soit des illustrateurs,
des gens qui font des interfaces,
des gens qui...
J'ai perdu mes...
des montages photos,
des interfaces utilisateurs,
c'est qu'en fait,
ces artistes 2D,
ils vont avoir besoin
de références en 3D.
Parce que, par exemple,
pour faire, je sais pas,
une table,
eh ben, t'es content de voir
la table d'un côté de ton écran,
et puis de la dessiner,
par exemple, si t'es illustrateur,
et de regarder
comme la perspective
de cette table, etc.
Et en fait,
jusqu'ici,
soit ils avaient un peu
des notions Blender,
donc ils pouvaient le faire,
soit on m'a raconté
qu'il y en a qui utilisaient
Minecraft ou les Sims
pour faire ça.
C'est verdict.
On m'a vraiment raconté ça,
j'étais vraiment bon.
Et en fait,
ça change complètement la donne
pour ces gens,
parce que ça fait
de l'idéation,
des rêves à l'infini.
Tu vas sur luma,
tu crées ta chaise,
tu peux directement
avoir un modèle de ta chaise
avec potentiellement...
Tu l'importes dans un logiciel,
tu bouges son éclairage
ou quoi,
tu bouges son...
pas son éclairage,
mais tu la bouges,
tu peux en mettre en place
sa position.
Et en fait,
derrière,
tu peux dessiner
de façon beaucoup plus simple.
Et donc là
où ça va aider,
c'est pas forcément
en premier lieu les designers3D,
c'est tous les métiers
qu'il y a autour
et qui peuvent se servir
de ces outils
qui sont pas complètement
affinés.
C'est pas grave
pour ce genre de métier
qui ne soit pas complètement
affiné.
Du coup,
ça leur sert bien.
Et donc,
Du coup, c'est typiquement ce genre de personne très très high B par le
Pline prompt là qu'on a vu.
Moi, j'avoue pareil.
Pourtant, j'en aurais rien à faire, mais j'ai juste envie d'avoir accès à ce truc là.
Le jouet est très très marrant.
Mais voilà, pour finir,
alors il y a eu des nouveautés depuis tout ce que tu as raconté.
Il y a notamment Stable Diffusion qui a sorti un peu son modèle qui s'appelle Stable Zero 1 2 3.
Et donc ça promet
sans doute des avancées dans le secteur.
Ça, c'était tout récemment.
C'était en décembre ou en novembre, il me semble.
Mais surtout,
d'ailleurs, Open Eye a aussi sorti
Spachi.
J'ai oublié le nom.
Une nouvelle version de Plantii
pour faire très simple.
Mais il y a un truc très important,
qui est très intéressant, qui est qui est apparu.
Je ne sais pas si tu en parlais ou si tu veux que j'en parle.
C'est qu'il y a une nouvelle techno qui a apparu à l'été 2023.
Ça a moins d'un an.
Et en plus, ça vient d'un labo français de l'Ingria.
Je ne m'y attendais pas quand j'ai vu ça.
Et ça s'appelle le 3D Gaussian Splating.
Pour faire très simple,
c'est exactement le même principe que nerf.
Mais en différent.
En fait, ils font la même chose
mais avec des méthodes mathématiques différentes.
Ça, j'ai utilisé Gauss comme vous pouvez le deviner.
Et en fait, cette méthode,
qui fait la même chose que nerf, est plus optimisée.
Et aussi précis, voire parfois un peu plus,
mais c'est plus sur en fait la rapidité
à effectuer le calcul.
Ça va être très intéressant.
On va pouvoir voir une vidéo qui compare nerf et le Gaussian Splating.
Vous allez voir la vidéo.
Bon, on voit quelques différences,
mais ce n'est pas flagrant.
Par contre, ce qui va être très intéressant,
donc voilà, ça, c'est nerf avec Gaussian Placing à droite.
Donc il y a des petites différences
et tu peux potentiellement avancer un peu dans la vidéo.
Voilà, donc on voit des petites différences,
mais on se dit que c'est deux façons de faire différentes.
Parfois, il y a des aberrations de côté qui n'y a pas de l'un.
Et si tu vas à la fin de la vidéo,
tu vas voir une information très importante
où il y a marqué le...
Alors du coup, on ne voit pas.
C'est un échec.
Mais voilà.
En gros, trainin' time et rendering time,
on est passé de 4h30 à 1h30 et de 15h de rendering time à 90 secondes.
Donc ça fait la même chose,
mais d'une façon beaucoup plus importante.
Et c'est beaucoup plus efficace.
À tel point qu'aujourd'hui,
ils disent qu'ils sont capables de faire ce genre de rendu en temps réel
pour du 1080p à 30fps.
Ce qui est absolument incroyable.
Et en fait, en termes de génération d'objet 3D derrière,
le fait que ça soit instantané,
comme vous l'avez vu un peu sur les services,
le fait que ça aille super vite, c'est très important.
Et donc en fait, cette technologie qui est toute récente,
était 2023, donc elle n'a pas encore été trop trop implémentée
dans des services type Luma.
Et bien ça promet de très, très belles améliorations.
Du très, très lourd.
Et comme d'habitude, là, on est...
Tout le monde est un peu circonstipé,
de la qualité du truc, du fait que c'est pas utilisable,
que c'est pas au point, mais encore une fois,
un flashback il y a 2 ans,
et on s'imaginait qu'en image,
on ne pourrait jamais en faire grand chose.
Mais on n'aurait pas qu'un petit plus,
un an, plus de 2 ans, on se retrouve à effectivement pouvoir
se générer des mondes complets,
ou se générer les objets dans son salon,
dans ce casque Apple Vision Pro.
Et on sera là pour vous en parler
dans une prochaine chronique.
Et surtout, il y a déjà des démos,
honnêtement, assez incroyables,
surtout que c'est visuel, donc on le voit.
Tu dis ça plus de 2 ans.
Moi ce que j'ai vu, par exemple,
ce que j'ai déjà vu,
dans quelqu'un qui avait un Apple Vision Pro,
qui s'est enregistré,
avec 3 fenêtres autour de lui.
Sur la première, il avait mis de journée dans Discord,
donc il lui a demandé de le générer un petit objet.
Sur la deuxième,
il utilise le dernier modèle de stable diffusion
pour transformer cette image 2D en objet 3D.
Et sur la troisième,
il transforme le fichier en objet compatible,
enfin je sais plus si c'est pas un point 3DS,
ou je ne sais plus quelle forme,
mais en fichier compatible Apple,
il télécharge le fichier,
et tu sais dans la version Safari de Apple Vision Pro,
tu as un viewer
d'en réalité augmenté.
Et donc, il prend l'objet
et le pose sur sa table.
Et tu vois, il est passé de,
je sais plus si c'était une couronne,
il est passé d'une idée
générée dans Discord sur mi-journée
à un objet virtuellement sur sa table,
en 30 secondes.
C'est fou.
C'est la prémisse de ce qui sera possible.
Bref,
sans plus attendre,
je vous propose de passer à la suite.
On va parler jeux vidéo,
on va parler cartouches perdues,
et on va parler Mac-dosale.
Franchement, si tu as eu le contexte avant,
le Camoulox est présent.
C'est un sénument incompréhensible,
et pourtant, c'est réel.
C'est la chronique de Mathieu tout de suite.
Vous saviez que McDonald's a développé
un jeu Nintendo DS.
Déjà, c'est anecdotique.
Ce jeu n'est pas du tout comme les autres,
puisqu'il a disparu
de la nature pendant des années,
avant qu'un Français
ne mette la main dessus.
Personne n'a pu
mettre la main sur ce jeu depuis
quasiment son origine,
sauf qu'il y a un problème.
Le jeu est verrouillé
par un mot de passe,
qu'il n'a pas.
Sans suive, un onyme de plusieurs années
pour pouvoir avoir des images
de ce fameux jeu,
qui n'est pas vraiment un jeu comme les autres.
Complètement.
Je vais vous raconter l'histoire
de ce fameux Français,
qui a plusieurs pseudo, mais on va l'appeler
Dix-Trente-Huit,
ou Code Dix-Trente-Huit,
qui se fait appeler Cody,
mais aujourd'hui, on va l'appeler Dix-Trente-Huit.
C'est comme ça qu'on l'appelle.
C'est l'histoire de Dix-Trente-Huit,
et à la base, c'est
juste un passionné de Nintendo.
Il collectionne, notamment,
les consoles DS,
donc les collectionneurs,
les Nintendo DS dans toutes les éditions limitées
qui a pu avoir, etc.
Et puis aussi, les jeux DS, il a plus de 100,
plus de 100 DS,
et je ne sais pas combien de jeux DS,
mais c'est vraiment un passionné et un collectionneur.
À côté de ça, son vrai travail,
il répare des vidéos projecteurs
et des tableaux interactifs dans les écoles,
donc rien à voir, mais je trouvais ça un peu marrant.
Et fin 2015,
il tombe sur une console qu'il n'a pas,
sur un site japonais de revente en ligne,
un peu comme le boncoin japonais, si vous voulez.
Et c'est quelqu'un qui vend
des dizaines de consoles Macdo.
Donc il y a un gros M,
sur la Nintendo, vous verrez des images,
pour 20 euros pièces.
Sauf qu'il arrive un peu trop tard
sur le lien. Il a connaissance
de certains d'entre eux, et il n'arrive pas
à s'en procurer. Il a un peu d'aigre
pour un collectionneur 20 euros, en plus,
ce n'est pas du tout cher.
Il sait pourquoi un logo Macdo
soit sur la console. Il se dit,
il a dû avoir un partenaire avec Macdo,
il ne sait pas du tout, jusqu'ici.
On serait mystérieux.
Il y a des photos qu'il a pris plus tard,
justement 10-38.
Ça ressemble à ça.
Une Nintendo DS, comme n'importelle Nintendo DS
Lite, il me semble,
avec un gros M dessus de Macdonald.
L'histoire se poursuit 2 ans plus tard,
en 2017, sur Yahoo Auction.
Et là, il trouve la console
disponible, et il l'achète
pour un peu moins de
200 euros.
Il est très content, sauf qu'en fait,
il s'aperçoit qu'avec cette console,
il y a un jeu que lui n'a pas acheté,
avec la console. Il y a une cartouche,
avec un petit M, pareil, une cartouche
EDCP. Donc il se la procure quelques mois plus tard,
il se dit, c'est quoi cette histoire ?
Il a eu cela procure pour
120 euros.
Et en fait, à ce moment-là, il se dit,
c'est quoi cette histoire ? Pourquoi
il y a une console DS Macdo ?
Pourquoi il y a un jeu Macdo ?
Et donc, il se renseigne un peu.
Et la première fois qu'on entend parler
de ce jeu, Macdonald,
Nintendo DS, c'est en 2009,
sur Bloomberg, dans un reportage
de Bloomberg, où en fait,
il présente
un partenariat entre Nintendo
et Macdonald.
Macdonald, au Japon,
Macdonald, Japon,
va équiper
des milliers de collaborateurs de Nintendo DS
avec un jeu, mais en fait, c'est pas un jeu.
C'est une formation
pour apprendre à faire les burgers dans les Macdonalds.
Mais c'est une formation
ludique. C'est-à-dire que c'est un petit jeu
avec ton stylé. Tu fais comme si tu faisais
les burgers, mais
t'as pas besoin d'être dans un Macdonald.
Est-ce qu'il peut jouer à d'autres jeux,
ou est-ce qu'il peut jouer uniquement au jeu français ?
C'était une Nintendo DS
classique, mais du coup, il fallait que t'aies les jeux.
Donc sympa quand même.
Mais ça n'est pas bloqué sur le...
Je crois pas. Non, je l'étais pas bloqué.
Donc, tu pouvais jouer,
mais le but, c'était quand même que
tu t'entraînes le plus possible, et que
tu sois plus productif.
Et on estime donc la fabrication
de ces DS et de ces jeux qui vont avec
entre 8000 et 10 000 exemplaires.
Alors, au final, il y avait
deux jeux différents. Il y avait le jeu bleu
qui était pour les nouveaux arrivants,
les nouveaux employés de Macdo pour apprendre, et le jeu rouge
pour ceux qui étaient déjà là.
C'était un peu le level 2, quoi.
C'est comme Pokémon. C'est comme Pokémon. Il y avait
Macdo bleu, Macdo rouge, quoi. Non mais c'est très marrant.
Et donc la première fois qu'on entend parler, c'est en 2009,
le premier communiqué
de Macdo Japon pour dire que ça y est,
c'est disponible, c'était en
2011, via un communiqué qu'on a
retrouvé des années plus tard.
Sauf qu'entre temps,
ce programme s'est terminé.
On apprendra plus tard que ce programme s'est terminé en
2014 et donc, globalement,
tous ces exemplaires de jeux et de Nintendo DS
ont été mis à la baine, notamment parce que
il fallait protéger potentiellement
quelques secrets de fabrication, en tout cas le partenariat
qui avait eu entre Nintendo et Macdo.
Et donc le but, c'était pas que ça se retrouve
trop dans la nature, on le suppose.
On n'est pas sûrs, il n'y a pas eu de communiqué, mais a priori
c'est des choses qui se font, voilà, un projet s'arrête,
on évite que quand il y a 10 000 Nintendo DS
comme ça qui se retrouve
sur le marché de
de l'occasion.
Et ce qui est marrant, c'est que
c'était vraiment un jeu ultra ludique où
les employés ont un score à la fin,
il est tout tout est gamifié pour
apprendre ça.
Du coup, tu prends des trucs de salami, tu les mets dans des...
Oui, exactement, non mais,
tu as le... tu as la sauce, tu appuies sur la sauce,
ça met la sauce, hop, tu reposes la sauce, tu mets...
On se trouve, ils sont passés à côté d'un succès commercial
énorme, parce que tu as des trucs, genre
Coo-King Mama et tout, c'est vraiment ça...
Oui, mais alors, vous verrez
des images tout à l'heure de ce jeu, je vous
spoil un peu. Bon, c'était moins bien.
C'était
quand même moins. Donc du coup, notre
notre français,
il se dit, c'est incroyable,
j'aimerais trop accéder à ce jeu.
Le problème, c'est quand il met la cartouche
du jeu dans la Nintendo DS, on lui demande un mot de
passe. Et donc,
il commence
à... il exporte le jeu
pour pouvoir l'émuler
sur son ordinateur, donc pouvoir faire des tests
de mot de passe pour essayer de voir un peu
comment fonctionne le jeu de l'intérieur, donc examiner
le code exadissimal du jeu.
Il s'y connait quand même 10-38, il a l'air
de savoir ce qu'il fait. Alors... Il s'est flashé un...
Il s'est flashé, en fait, c'est un passionné Nintendo.
Donc ça, il sait faire, mais c'est pas
non plus un informaticien,
et d'ailleurs, il y arrive pas.
Il n'arrive pas à trouver le mot de passe, à
se dire, en fait, il essaye juste, en faisant ça,
il s'est dit, est-ce que le mot de passe est en clair ?
Peut-être essayer de voir si le mot de passe est en clair, le mot de passe
n'était pas en clair. Peut-être voir
s'il n'y a pas accesso-citrain qui peut lui expliquer.
Et en fait, lui, il a une idée, c'est
en fait, il a un problème, c'est qu'il a pas
acheté la Nintendo DS et le jeu en même temps.
Et donc, il se dit,
potentiellement, si je rachète
des Nintendo DS McDonald, où il y en a
quand même quelques-unes en
vente d'occasion, potentiellement
qu'il y en a une où il y aura le mot de passe.
Et donc, il va se mettre à acheter une petite
dizaine de consoles
McDonald pour espérer avoir un mot de passe
qui fonctionne. Ah oui, le gars, il détère.
Ben, c'est impassionné. En fait,
il a vraiment envie de savoir, personne
au monde n'a de screenshot de ce jeu,
en fait. Ah !
Oui, oui, parce qu'il y a un enjeu. L'enjeu
c'est révéler
au monde ce que cache l'intérieur de
ce jeu. Et là, il ne peut pas le
faire.
Je comprends la proustation. Ok, je comprends que vous avez pas compris.
En fait, tu veux vraiment
savoir ce qu'il y a derrière cette cartouche,
même si tu sais que maintenant c'est un problème de formation,
t'as compris, t'as envie de savoir ce qu'il y a.
La cartouche, t'as tout.
Il t'est bloqué par un mot de passe.
Surtout en vrai, ça peut avoir un peu de valeur.
D'avoir une des seules cartouches avec
mot de passe, à mon avis.
Ne m'en parle pas ! On fera un petit tout sur eBay
à la fois. Ah ouais,
ça se revend aujourd'hui. Il a acheté 200€
là, ça a de consoles. Aujourd'hui,
je pense qu'on est plus sur du 1000 balles.
Et en fait, le jeu, il est plus cher que la console. La console, c'est une console normale
avec un M. Le jeu, il est très très rare.
On nous en dit pas plus, on verra ça.
Il a donc un problème, donc il achète des dizaines
des petites dizaines de Nintendo DS.
Et ça marche pas.
Il se résout qu'il ne trouvera pas le mot de passe
dans une console.
Et donc, il arrête. Mais il se dit, il va essayer
de se faire aider par la communauté. Alors il publie
une petite vidéo des
écrans auquel il a accès. Donc là,
les premiers écrans. Donc voilà, vous allez voir.
C'est complètement en japonais, évidemment.
Et donc, il y a les logos, il y a assez vite,
on lui demande quand même un mot de passe.
On peut regarder un petit peu. Ça s'appelle ECDP.
C'est pour Crew Development Platform.
Il me semble. Oui voilà, c'est...
Ah, c'est un délire.
C'est un peu lunaire.
Et donc ça, c'est une...
Ouais, ça dure 2 minutes, tu vois.
Et en fait, assez vite...
C'est bloqué.
Et en plus,
de publier cette vidéo,
il poste une petite bouteille à la mer
sur le forum Obscur Gamer.
Et son premier message est le 28 décembre
2018. Donc on est déjà
3 ans après
avoir vu l'existence
de cette console sur un forum
en 2015. Il l'a acquis en 2017,
le temps de faire tous ses essais et tout.
Tout ça prend beaucoup de temps.
Et donc, il poste un message en mode
« Je recherche un Nintendo
Reverse Engineer, quelqu'un qui s'y connaît
à fond. » Sauf que tout le monde lui répond
« Taka nous dump la rhum. »
C'est-à-dire, nous publie, en fait,
le code source du jeu
en ligne, quoi,
sur le forum. Et sauf que...
C'est la machine du jeu.
Le code machine, oui. Je ne sais pas comment
on explique dump une rhum.
Une rhum, c'est
d'extraire le code de machine,
le code binaire qui est contenu dans la cartouche
et qui permet
à des gens très intelligents
de comprendre ce qui s'y passe.
Et lui, il a déjà extrait, il s'est tout à fait
fait faire cette opération, comme je l'ai dit tout à l'heure.
Sauf qu'il l'a en locale, il n'a pas publié
aujourd'hui. Donc lui, je lui dis,
les gens, le sur le forum, lui disent
si tu veux compter, publie
le code machine du jeu.
Et sa réponse, c'est qu'il refuse.
Parce qu'en fait, la loi est la loi
qu'il a déjà eu
à faire des affaires comme ça, justement.
Et que, en fait, c'est toujours
illégal de faire ça.
Il a une mauvaise expérience et qui travaille avec des gens qui sont très stricts
sur le partage d'information. Qu'est-ce que cache
tout ce message ? – Surtout que, alors, moi, je trouve qu'il
aurait pu être un peu plus lecible
quand tu connais Nintendo et leurs avocats.
Ils sont des gigas ninjas
qui peuvent venir te filmer
de dévoile dans le dos, la nuit, si tu fais ça.
Mais
je rigole ce cycle et n'étais pas de la diffamération.
– Je dis que Nintendo sont très, très vénères
là-dessus. Donc moi, en vrai, je comprends un peu.
Mais il a une cirque en sens agrémente.
C'est qu'en fait... – Enfin, une cirque en sens agrémente.
– Mais il a un petit truc, hein, c'est pas du tout... – Il a une autre raison de le faire.
– Mais il a une autre raison. C'est qu'en fait,
il travaille pas pour Nintendo,
mais il travaille avec Nintendo.
C'est-à-dire que c'est quelqu'un
qui, en fait, a... Il est sur la...
la traditionnelle de confiance de Nintendo Europe.
Donc en fait, il les aide à installer
des stands sur les salons.
Il a accès à des exclusivités, à des prototypes.
Il est en relation assez étroite avec Nintendo Europe.
– OK. – Et lui, c'est son tif absolu.
Il veut absolument pas se couper. Et sa sentance,
c'est son rêve depuis tout gamin.
Ça lui a ouvert plein de portes.
Enfin, vraiment, il tif...
Je sais pas si c'est à moitié bénévole
ou il est un peu payé pour les prestations qu'il fait.
Il en dit pas trop.
Mais voilà, il assiste
à plein d'événements Nintendo grâce à
ce petit phase-pas qu'il a auprès de Nintendo Europe.
Il a pas du tout envie de le perdre, honnêtement.
Je le comprends beaucoup.
– Et est-ce que ça ferait pas un peu baisser
la valeur de... de son truc collector ?
– Peut-être !
– En vrai. – Peut-être.
– Là, ce qu'il y a de la valeur, c'est... bon, c'est l'objet, évidemment,
qui est collector, mais c'est aussi le secret, genre, il y a...
– Bah ouais. – Il a, à sa disposition,
un truc que personne n'a jamais vu, quoi.
– Je suis à voir qu'il y a un romandissement
à cet affaire de Rome. Mais il explique aussi
qu'il a en contact avec le développeur de jeux
de Nintendo DS et qu'il en a connu, c'est des amis,
et que certains en fait se sont cassés la gueule
à des moments où il y a eu un linker
qui est sorti sur DS, où tu pouvais télécher...
En fait, ça avait piraté la DS
et tu pouvais mettre n'importe quel jeu
gratuitement dessus. Et ça a tué
des studios de jeux vidéo, cette époque de la DS,
je sais plus exactement dans quelle année c'était, il a un très mauvais...
Voilà. En fait, il a pas envie de participer
à ce chenon illégal
du partage de jeux illégales.
Et donc, il se refuse à faire ça.
Et il respecte les volontés, finalement,
de Nintendo et de Macdo.
S'ensuit une petite traversée du désert
où rien n'avance, et même pire que ça.
Il y a un youtuber américain,
il me semble,
Blame It On George,
qui fait une vidéo sur cet affaire.
Et suite à cette vidéo
pas très complaisante envers lui,
il se prend des vagues
de harcèlement et d'insulte,
en lui disant, publié la Rome,
qu'est-ce que tu fous ? T'es le seul à avoir accès
à ce jeu. Il y a d'autres jeux dans la nature,
mais potentiellement à des gens
qui ont juste la carte posée
sur une étagère.
Et donc, il se prend
des vagues d'insulte.
C'est l'élu, quoi.
C'est l'élu, et tout le monde est un peu
en guerre contre lui, parce qu'il ne veut pas
publier la Rome. Donc c'est un peu chaud,
d'autant plus rageant
qu'il tombe sur une annonce
où le jeu est déverrouillé.
C'est-à-dire que quelqu'un pose une annonce
de la Nintendo DS et du jeu,
il y a des captures auquel il n'a pas accès,
parce que lui, il a le mot de passe.
Donc ça le rend encore plus
et il est vraiment...
Il rage énormément.
Jusqu'à un beau jour où tout va changer,
il y a un ami à lui
qui lui dit, ah tiens, demain,
je vois le DSi France
de McDonald. C'est rigolo ça.
Parce que, voilà, dans mon travail,
on est un de leurs fournisseurs
et donc, du coup, on a une réunion demain
pour un projet important.
Et donc, je dirais une réunion.
Exactement, d'ailleurs,
dans la vidéo de 10.38,
il y a une interview de ce directeur
qui s'appelle Mathieu Riemler.
Et c'est pour un projet encore plus important
que...
Je ne sais pas, pour le projet.
Et du coup, il dit,
tu vois le quelqu'un de McDonald,
je suis obligé de faire quelque chose.
Il rédige en deux deux un petit feuille à quatre,
expliquant le souci avec des captures d'écran.
Il fournit une Nintendo
juste pour savoir d'où ça vient, ce truc.
Qu'est ce qu'on peut en faire ?
Et donc, du coup...
Ça marche.
Le DSi France, il se dit, qu'est-ce que c'est ça ?
Il va dans les bureaux, il trouve
une collaboratrice qui parle japonais,
qui peut tout traduire.
Il envoie un message à McDo Japon.
Il se retrouve dans des mails,
dans des chaînes de mails de McDo
partout dans le monde, sauf aux États-Unis.
Les USA sont mis à part, mais globalement,
il y a des monde, il y a des gens d'Angleterre qui répondent,
il y a des gens d'Australie, il y a des gens du Japon qui répondent.
Et donc tout le monde se dit,
mais on va t'aider, mec.
Tiens, bon. Et grâce à ça,
il n'a pas le mot de passe, malheureusement,
parce qu'en fait, c'est un système...
Il ne peut pas lui donner le mot de passe,
parce que c'est un système trop compliqué
qui a pour générer un mot de passe derrière.
Sans doute,
génération de clés auquel McDo Japon
n'a plus accès, parce que je rappelle que
le service n'est plus utilisé.
Ils n'ont plus le kidgen.exe en gros.
Globalement, ils ont pu le système
qui gère les mots de passe
pour lui donner un mot de passe,
mais on lui fournit le manuel utilisateur
du manager.
C'est le manager qui gère ses employés,
donc du coup, on lui fournit un petit peu le manuel.
Et dans le manuel,
on lui explique comment obtenir le mot de passe.
Ah ah !
Ça commence à sortir bon.
Sauf que, problème,
le mot de passe est généré en fonction,
en gros de la console, donc de la Nintendo DS,
et du manager.
Et, bah, il n'a pas
de manager sous la main.
Il peut rien faire.
Il n'a pas un numéro de manager avec lui.
Et donc, en fait, il est bloqué.
Il lit tout le manuel,
et il y a un screen qui va tout changer.
En fait, sur un screen, il voit
l'architecture de l'équipe McDonald.
Et donc, c'est très simple,
il y a un manager, et puis, par exemple, il y a 3 employés.
Donc, ils ont des liens avec le manager,
ils ont des numéros,
et chaque employé a le numéro de son manager.
En gros, il découvre un petit peu
une mini base de données de comment il fait
l'équipe McDonald à Macdo-Japan.
Et il voit ça.
Donc, il y a
un numéro d'équipiers,
un numéro de manager, et un nom de l'équipier.
C'est les 3 informations.
Il y a une mini base de données.
Il y a une logique entre le manager
et les employés.
Et ils se disent, tiens, c'est marrant.
C'est un truc, c'est un pattern que j'ai vu
quand j'ai, pendant des jours et des jours,
analysé le code machine du jeu.
Il avait vu des trucs,
des patterns, comme ça, revenir.
Ouais, écoute, je sais pas plus d'infos là-dessus.
C'est sans doute une boute.
La mémoire.
Mais en gros,
J'ai reconnu ce pattern de chiffre.
Je l'ai vu dans le code de Jadishiman.
Donc oui, il avait vu un truc en clair, comme ça,
sur, il avait vu des numéros
de manager, des numéros d'employé,
et il y avait une cohérence.
Et il se dit, ok,
il faut que j'arrive à faire une corrélation entre les 2.
Et donc là, il va se mettre
sur l'écran
où il peut taper un code,
à taper toutes les lettres du clavier sur son émulateur
pour voir les changements en direct
sur le code machine.
Grâce à ça, il fait ça pendant une journée entière,
grâce à ça,
il arrive à faire son alphabet
en gros, entre
les skit-tape au clavier
et ce qui se passe
dans le code du jeu.
Et donc, en utilisant
le manuel,
il comprend quel mot de passe il faut qu'il rentre
en fonction du manager,
et après plusieurs tentatives,
il arrive à rentrer
le mot de passe.
Oh la la,
le jeu de piste.
Si j'ai bien compris. En gros, le mot de passe,
il était comme dérivé de la console
et du numéro du manager, c'est ça ?
Oui, c'est ce que j'ai compris.
Ok, et du coup, lui,
il a dû passer par une étape de
trouver comment
de comprendre
comment était représenté le mot de passe.
Oui, en fait, il était au fusquet.
Et donc du coup, il fallait qu'il fasse tout son alphabet.
C'est comme si l'un était
en français et l'autre en japonais.
Et donc du coup, il fallait qu'il fasse tout son alphabet
pour avoir le A,
le B, le C,
toutes les lettres du clavier. Il s'est fait son petit annuaire,
donc son alphabet,
pour pouvoir savoir quoi rentrer.
Et il a réussi. Et après, il a traduit le mot de passe.
Oui. Et en fait, du coup, il peut se créer
des comptes employés.
En fonction de chaque compte employé,
en fonction du numéro que tu mets,
il y a un mot de passe qui a attribué
en fonction du numéro.
Il y a un lien qui se fait. En fait, c'est pas des mots de passe
intelligents.
C'est juste que c'était au plus qu'il y ait, et que c'était pas enclair dans le code.
Mais il y a complètement une logique pour avoir le mot de passe.
C'est ça que je veux dire.
Et donc, il trouve le mot de passe,
et il publie. C'est la première personne
au monde à avoir publié, c'est une vidéo du 1 ou 2 heures,
je sais plus, l'entièreté du gameplay
du jeu. Donc, pas la Rome,
mais l'entièreté du gameplay.
Donc, tu peux te parcourir dans la vidéo.
Il fait ça devant,
je sais plus, une petite centaine de
personnes.
Et il y a un rebondissement à ça.
Donc là, on va quand même peut-être se regarder
quelques...
Ah bah, attends, tout ça, on a envie de le voir.
Tout ce travail de plusieurs années
pour arriver à ce moment.
Donc, on rappelle que c'est sorti 2011
le jeu.
Donc, c'est des graphistes de 2011.
Moi, ce que j'adore, c'est la débauche d'énergie
afin d'obtenir
ce qui est finalement
un plutôt mauvais jeu.
Alors, mauvais jeu, il paraît que le développement a quand même
coûté 2,2 millions.
En vrai, c'est ce genre de partenariat.
A 10 000 exemplaires, ça coûte un peu cher.
Donc voilà, on est vraiment
sur un jeu fait ton burger,
pas ouf, hein.
Mais l'histoire derrière...
T'as quand même plusieurs écoles.
C'est incroyable.
Mais est-ce que tu penses vraiment que là,
tu apprends des compétences que tu pourrais transposer
derrière en cuisine ?
Eh ben...
Je sais pas.
Ils ont quand même arrêté.
C'était un signe.
Mais c'est fou qu'il est fait tout le jeu d'air.
Bon, je pense qu'après des années,
il faut bien ça.
Rebondissement, 20 jours plus tard, après cette vidéo,
il y a un youtuber américain,
il me semble. Je sais jamais s'ils sont américains,
les gens qui parlent anglais, mais on va s'y poser que oui.
Anglophone.
Il faut que je retrouve
mon script, parce que je l'ai perdu.
Parce que là, sur les échelles de temps,
on était plutôt tous les 5 ans,
tous les 3 ans, il se passe quelque chose.
Là, ça a été publié, la vidéo s'est sortie
en 2020,
il me semble.
J'ai un petit doute, 2021.
Donc on est quand même 3 ans après avoir
acquis la console, ça a pris un petit peu de temps.
Et 20 jours après,
cette publication de vidéo,
où il a enfin pu dire
sur le forum, ça y est,
il a expliqué tout l'histoire. J'ai été en contact avec McDo,
j'ai réussi à avoir le manuel,
j'ai réussi grâce au manuel, à comprendre comment avoir le mot de passe,
à trouver le mot de passe après des nuits blanches,
ou des jours blanches,
ou des fois plus tard.
Parce qu'on a accès au forum avec vous et par Chive,
les gens sont en mode incroyable et tout,
publie le manuel, publie la rhum,
toujours la même chose.
Et 20 jours plus tard, le youtuber américain
Nick Robinson, très connu,
il a plusieurs millions d'abonnés,
publie une vidéo,
il a lui aussi
acheté une Nintendo DS,
sauf que lui il l'a acheté pour 2800$,
il est parti au Japon à la récupérer,
sauf que lui, il avait le jeu avec,
et en fait, il avait le mot de passe dans la console.
Donc lui, il n'a même pas fait
tout ce délire
et lui décide de plus.
C'est le deuxième.
C'est le deuxième, 20 jours plus tard, mais lui, il décide de publier la rhum.
Alors là, drama,
tout le monde dit voilà,
1038 il aurait dû la publier,
il s'est fait passer devant et tout.
Sauf qu'en fait, 1038,
il est très content.
Parce que sa plus grosse crainte,
c'était que le dump
du jeu, le code machine du jeu,
apparaît sans ligne, sans
savoir d'où il vient, et donc du coup,
Nintendo aurait pu potentiellement l'accuser, sachant que lui,
il savait qu'il avait la cartouche.
Et là, Nick Robinson, il sort
une vidéo à plusieurs millions de vues,
où il dit clairement, moi je vous donne
le jeu. Et il est là, on va dire, on va dire,
oh ! Oh là là !
En fait, il voulait pas la garder,
il voulait juste être
sûr qu'on ne pointe pas dans sa direction
exactement, qu'il ait des représages
juridiques et tout. Exactement.
Et donc du coup, depuis
la rhum du jeu est disponible,
et si on va voir
un petit sous-souris-bé, peut-être pour finir,
voir combien coûte maintenant
le jeu et la vidéo.
Alors je crois qu'il faut scroller un peu vers le bas, mais...
Il avait acheté 200, tu dis, lui ?
Ouais, 200,
la Nintendo est 120 le jeu.
Donc on est très vite, et je pense que si
tu trouves que le jeu, encore en descendant plus,
donc là, il y a un jeu qui a 1200, donc
c'est la version rouge, donc c'est l'autre.
Attends, elle est rare, la version rouge,
c'est complètement difficile.
Voilà, 3.650 dollars
pour la Nintendo DS et les 2 jeux.
On est à ce stade de rarté.
Voilà, voilà.
Ça a monté, globalement.
Mais c'est assez impressionnant.
Et pour la petite histoire,
on ne va pas refaire la même
meaning, parce que
l'histoire est beaucoup plus simple, mais il a réussi
quelques mois plus tard
à faire la même chose pour le jour rouge,
et donc il a publié aussi tout le jour rouge
qui s'appelle Ismart, celui-là. Donc c'est le même jeu, mais...
T'as droite de voir.
Allez, checker la chaîne de Codi,
il s'appelle, CO2DY.
Et c'est grâce à lui
et à des gens sur internet,
et à Nick Robinson, tous ces gens
ont contribué
à publier ce jeu.
C'est l'humanité, justement, avec ce jeu,
avec cet homme.
En vrai, c'est effectivement
le genre de d'inutilité
qui ne reste pas moins
passivant.
En vrai, moi, c'est un plaisir de plonger là-dedans.
C'est limite plus c'est inutile, plus c'est
marrant à suivre.
À quel point il galère.
À quel point, Nick, il m'est difficile à résoudre.
Et sachez qu'il y a un lore autour des musiques,
parce que s'il y a des musiques Macdo,
et donc du coup, les musiques sont disponibles sur sa chaîne aussi,
il avait tout publié le jeu,
et puis il avait fait... il avait extrait chacun des musiques et tout.
Et donc, si vous voulez vous écouter les petits albums
de ECDP McDonald, Nintendo DS,
allez vous... voilà, exactement, voilà.
Oh, dingue.
Et alors, on est pas bien, là ?
Ouais, c'est sympa.
Petit jingle, moi je m'envoie.
Je vais te demander si je travaille avec ça.
Ça motive, c'est un truc qui va te péter le crâne au bout du l'heure.
Pardon, j'étais en foie d'eux.
Ah oui, c'est pour ça.
Ah, c'était un peu épiléptique.
Ah, mais c'est mieux.
Il y a une vibe, il y a tellement une vibe Nintendo DS.
En tout cas, bravo à 1038.
Merci beaucoup pour cette histoire pleine de rebondissements.
Et encore, je vous en ai passé quelques-uns
qui n'étaient pas nécessaires au déroulement
de l'histoire.
Mais...
Franchement, honnêtement, je m'attendais à rien.
Voilà, non mais c'est...
Tu me parles d'une carte qui est perdue, je suis d'accord.
On va pas révolutionner le monde avec cette chronique.
Mais l'histoire était quand même sympathique.
La quête était assez incroyable.
Il y a du reverse, il y a du...
Et on s'y attendait pas.
Très stylé. Est-ce qu'on se fait une petite pause
avant de passer à la troisième partie ?
Moi, je suis un peu chaud d'une pause, en vrai.
Petite pause et on revient.
Et là, on va parler, on va remusculer.
C'était un peu la récréation entre guillemets.
Là, on va remusculer un petit peu le jeu.
Puisqu'on va parler d'IA,
appliquer à l'énergie et à la découverte
de nouvelles technologies pour les batteries.
Salut ! Si vous appréciez Endorscorp,
vous pouvez nous aider de ouf !
En mettant 5 étoiles sur Apple Podcast,
en mettant une idée d'inviter que vous aimeriez qu'on reçoive,
ça permet de faire remonter Endorscorp.
Voilà, telle une fusée. Je vous le disais,
aujourd'hui, on a la chance de recevoir un nouveau Vivien.
Pour parler d'un sujet qu'on n'a
quasiment jamais traité.
Nous, on est vraiment sur du software,
on est sur de l'IA tout le temps,
alors qu'aujourd'hui, on va parler un peu
de physique et d'énergie.
De batterie. Quoi ?
Ah, mince, j'ai fa...
Oh, le spoil d'entrée !
Juste avant de commencer, je t'en ai dit
que tu as baissé ton micro parce que mon avis,
il est un peu haut. Trop bien.
Et sans plus attendre, je vous propose
de rentrer dans le vif du sujet.
Contrairement à la plupart des autres
composants d'un ordinateur ou d'un smartphone,
il y a un truc qui n'a pas vraiment bougé,
qui ne s'est pas beaucoup amélioré
sur les 10 dernières années,
c'est la batterie.
Depuis 10 ans, quasiment
aucune nouveauté peut-être,
à part au niveau de la vitesse de recharge,
ou voilà, la charge rapide
en une demi-heure, on sait
finalement réduire les temps de charge,
mais en termes de capacité, c'est assez hallucinant,
ça n'a quasiment pas bougé.
Alors pourquoi est-ce que c'est
aussi compliqué d'améliorer les batteries ?
Et surtout,
pourquoi ça pourrait peut-être bientôt changer ?
Notamment grâce à des nouvelles méthodes
pour élaborer des matériaux
encore inconnus.
C'est ce qui est parvenu
à faire Microsoft AI
avec un laboratoire aux États-Unis.
Ils ont découvert un nouveau matériau candidat
à la fabrication de batteries
bien plus efficaces.
Et vous allez voir que cette nouvelle méthode
est étrangement assez similaire
aux outils comme Dali
ou Midjournée.
Vous ne pourriez pas dire que ça n'a pas
sauté de moi aucun importe pour générer des images
avec de l'intelligence artificielle.
Pour tout vous expliquer, on accueille
Vivien Londe, ingénieur
recherche chez Microsoft, avec qui nous sommes
en collaboration commerciale à cette occasion.
Merci Vivien.
Merci Mickael et je vais effectivement vous parler
de ce projet de recherche qui est assez fou,
qui est donc comme tu disais
une collaboration entre des chercheurs de Microsoft
et des chercheurs d'un labo américain
PNNL, donc Pacific Northwest
National Lab
et il se soit attaqué au problème
des batteries pour essayer
d'améliorer les batteries.
Et alors, ce qui est assez incroyable
dans ce projet c'est que ça va balayer large.
On va parler simulation numérique
avec vraiment des simulations traditionnelles
de physique, avec des modèles
d'IA.
On va parler énergie du coup
pour pouvoir stocker l'énergie dans des nouvelles batteries
et on va même parler expérience dans des labos
parce que
dans ce projet de recherche, dans cette collaboration
il ne se contente pas de trouver
des nouveaux matériaux.
À la fin, ils vont jusqu'à
s'intensifier, donc créer des nouveaux matériaux
en fait.
Pour les tester.
Ils vont jusqu'au bout du processus
et ils créent des choses qui n'existaient pas avant.
Alors c'est toujours les mêmes atomes,
on ne va pas inventer de nouveaux atomes.
Mais, assembler
comme ça, pour faire ce matériau, ça n'existaient pas avant
et c'est un candidat pour effectivement
changer complètement la façon dont on fait les batteries.
Trop cool, moi je suis hype.
Et dites vous, si vous avez
des segments un peu plus complexes
on va parler un peu de physique, de choses comme ça
que derrière, se cache potentiellement
le futur des batteries,
l'iPhone qui est durée une semaine
donc il y a vraiment un intérêt
pour tout le monde à ce que ce genre de technologie
se développe, émerge.
Ça ne va pas se faire du jour au lendemain
mais justement on va voir avec toi
qu'il y a du nouveau
et en fait ça fait longtemps qu'il n'y en a pas eu.
C'est ça qui est excitant.
C'est doublement existant de ce point de vue là
et en plus on va voir que même la méthode
pour ce nouveau est intéressante.
Mais, ne spoilons pas trop dès maintenant
peut-être pour comprendre vraiment le contexte, les enjeux
qu'est-ce que c'est une batterie en fait
bon on se dit on sait tout ce que c'est une batterie
mais son fonctionnement
donc on va avoir deux électrodes
et puis il va y avoir un fil électrique
entre les deux
et quand la batterie est en décharge, quand elle est en fonctionnement
quand on l'utilise
c'est là qu'on va servir de l'énergie
soit une voiture, soit un ordinateur
un portable peu importe
et ce qui fait que cet appareil peut fonctionner
c'est que les électrons ils vont d'une électrode à l'autre
jusqu'à là, pas de problème.
Sauf que le problème quand même c'est que
si jamais il y avait juste ce fil électrique
en fait, comme c'est des électrons
qui vont d'un endroit à l'autre
très vite les électrodes, elles arrêtaient d'être neutres
électriquement
parce qu'il y en a une qui perd toutes les électrons et l'autre qui gagne tous les électrons
donc il faut qu'il y ait un autre déplacement
et ça c'est un autre chemin entre les deux électrodes
il va y avoir
dans les batteries lithium-ion par exemple
qui sont très courantes
il va y avoir des ions lithium qui font exactement le même chemin
mais qui ne passent pas par le fil électrique
qui passe par l'électrolite
qui est dans la batterie entre les deux électrodes
donc ça c'est important
parce que dans les batteries lithium-ion
tel qu'on les fait actuellement
cet électrolite il va tendance à être
liquide
et du coup les ions lithium
ils sont en solution là dedans
ils peuvent se déplacer
et en fait
il y a deux problèmes à avoir cet électrolite liquide
d'une part il peut y avoir des fuites
et du coup ça ça peut créer
des problèmes de contamination et autres
et le deuxième problème
le fait qu'il y ait un électrolite liquide
ça fait qu'il peut y avoir des dépôts
sur les deux électrodes
des dépôts de lithium
qui vont venir s'accumuler
on appelle ça des dendrites
et quand il y en a trop
ça peut faire un court circuit dans l'électrolite
où l'électricité se met à passer non plus
par le fil comme ça devait le faire pour faire fonctionner l'appareil
mais dans l'électrolite à l'appareil
et donc la batterie elle est flingue
et à ce moment là
juste pour bien préciser
pour ceux qui ne savent pas les plus affûtés
éventuellement en physique
qu'est ce qui fait que ce système là
permet de stocker d'énergie un roux
c'est quoi le mécanisme
c'est quoi le mécanisme
qui fait qu'on a imaginé
on a pensé à ce système
pour stocker de quoi de l'énergie
pour faire marcher nos appareils etc
oui bah là c'est de l'énergie chimique
et donc ce qui se passe c'est qu'à chaque adactrode
il y a une réaction chimique qui va avoir lieu
et c'est cette réaction qui libère de l'énergie
qu'on récupère sous forme d'électricité
en fait c'est le déplacement des électrons
de la Node à la cathode si j'ai pas de bêtises
vous l'avez rassure plus
et qui derrière génère
de l'électricité
exactement, exactement
et alors ces problèmes que chiter sur l'électrolite
liquide on a des contre-mesures
parce que d'ailleurs aujourd'hui
énormément de batteries sont au lithium-ion
mais
pour mettre en place ces contre-mesures
ça oblige à rajouter un peu de matière sur la batterie
et donc ça va l'alourdir un peu
et dans beaucoup d'applications le poids de la batterie
c'est quelque chose qui est fixé
on peut pas dépasser un certain poids
je pense à des voitures, à des téléphones portables
et du coup
si il y a de la matière qui est là juste pour les contre-mesures
en fait on perd en densité énergétique
c'est à dire qu'à poids fixé on peut stocker
moins d'énergie dans cette batterie
et donc ça ça a des répercussions très concrètes
ouais voilà c'est ça c'est qu'on peut aller moins loin en voiture
donc les cas d'usage ils sont beaucoup moins bien
et puis la batterie de l'ordi
va être morte plutôt
je pense que c'est pas si intuitif
le fait que le poids
est si important
parce que tu pourrais en fait naïvement
quand tu découvres le problème tu pourrais te dire
pour augmenter l'autonomie de ma voiture
il suffit que je rajoute des batteries
et des batteries et des batteries
mais en fait ça marche pas comme ça parce qu'il y a un moment
pour rajouter de l'autonomie
tu rajoutes du poids
ouais voilà, c'est un peu comme le carburant il est fusé
il y a
ce que tu expliques
la densité énergétique c'est hyper important
parce que c'est ça
qui permet de trouver le sweet spot
entre le poids et l'autonomie en haut
oui c'est ça parce que au bout d'un moment
si tu as une batterie qui est beaucoup trop lourde
il faut aussi la transporter donc tu perds en efficacité
et voilà
ça peut pas fonctionner seulement comme ça
donc
une idée qui est très étudiée en rd
c'est de mettre des électrolytes solides
donc toujours
ce matériau qui est dans la batterie entre les deux électrolytes
on le met sous forme solide
et là
on gagne en densité énergétique
donc ça c'est très bien
mais ça pose d'autres problèmes
et notamment
quand on a un électrolyte solide
il risque d'y avoir une bonne conductivité en fait
c'est à dire que les ions lithium
qui sont censés aller d'une électrolyte à l'autre
par l'électrolyte
si il passe moins vite
ça crée d'autres problèmes
donc c'est pour ça que c'est un
problème de rd complètement ouvert
aujourd'hui on sait pas faire de l'électrolyte solide
on sait faire un peu mais c'est pas l'état de l'art
l'état de l'art pour les batteries
ce qu'on a dans notre téléphone je veux dire
ça reste des électrolytes liquides dans la plupart des cas
et donc
vous vous en doutez, ce qui va se passer
c'est que ce projet là de recherche
entre Microsoft et PNL
ils vont chercher à découvrir
un nouveau matériau pour
justement se trouver l'électrolyte solide
qui est parfait, qui est à la fois une bonne
conductivité et qui permet d'avoir une batterie
avec une très bonne densité énergétique
alors et donc ça pourrait
décupler, par exemple la batterie
de mon iPhone
pour le même poids j'aurai plus de batteries
exactement et pour la même taille aussi
ça pourrait être bien mieux de ce point de vue là
exactement
et alors ce qu'on pourrait se dire
naïvement c'est que pour faire ça, pour trouver
des électrolytes solides, on en connaît quelques uns
parce qu'il y a pas mal de rd dessus
et on pourrait se dire on prend les matériaux qui existent déjà
et on va essayer de remplacer tel atome
par un autre atome qui a typiquement le même
nombre de liaisons parce que les atomes
ils ont typiquement l'atome d'oxygène, il va toujours
tendance à avoir deux liaisons, enfin voilà
on sait pour chaque atome combien de liaisons ils font
donc on peut faire des remplacements comme ça
et puis à chaque fois on essaye de synthétiser
ce nouveau matériau où on a tenté un remplacement
et puis après on fait tout un tas de tests
en laboratoire, expérience, vous voyez si ça marche
le problème de cette méthode
c'est que c'est très très long
donc pour
synthétiser un nouveau matériau
si tout se passe bien ça va prendre déjà une journée
et puis après il faut faire tous les tests
donc ça scale pas en fait
ça prend plusieurs mois
alors une idée pour aller plus vite c'est
d'envisager plus de candidats en amont
de matériaux en amont et de faire des simulations numériques
et alors on pourrait se dire que les chercheurs
ils ont voulu faire ça sur
peut-être 1000 matériaux
ou quelque chose comme ça et bah en fait non
ils ont mis la barre très très haut directement
ils ont envisagé au départ
32 millions de matériaux
pour essayer de trouver le bon
électroïde solide qui a toutes les bonnes propriétés
32 millions ils sont pas allés de
ils sont pas allés de main morte
et en fait
avec un tel nombre de matériaux on pourrait pas
faire les techniques habituelles
de
simulation numérique
parce que même si ça va plus vite
parce que synthétiser le matériau
et après faire les expériences en laboratoire
c'est quand même assez coûteux
les simulations numériques de physique
avec du calcul haute performance
ça consomme beaucoup de ressources
ah oui c'est fait dans notre date
enfin tu fais pas ça sur l'ordi du labo
oui c'est ça t'as besoin de tout un super
calculateur alors là ils ont utilisé le cloud
Azure mais t'as besoin d'avoir
une grosse échelle de serveurs
alors là pour ce projet en particulier
ce projet de recherche
ils ont utilisé 1000 vm
donc on voit que ça commence à être
des machines assez
assez costaudes et en fait
la partie calcul haute performance
qu'elle permet de faire
c'est de faire les calculs de physique justement
donc des calculs
on fait un petit peu des approximations
on traite pas tous les électrons
dans leur subtilité quantique et autre
on fait un petit peu des approximations
mais il y a quand même des résultats assez bons
donc une méthode qui est beaucoup utilisée
c'est density functional theory
qui permet justement de comprendre
où vont aller les électrons autour du matériau
il y en a plein d'autres
et comme ça ils ont réussi à s'attaquer
à 800 matériaux candidats
des millions initials
il reste d'intéressant
en fait à ce moment là que
alors oui alors c'est ça
alors du coup ça vous la question de comment on est passé
de 32 millions à 800
parce qu'en fait avec les techniques de calcul haute performance
tu passes des 800
j'ai pas encore dit comment on les avait
à
23 en l'occurrence
candidats matériaux
il se trouve que sur les 23
il y en avait 5 qui étaient déjà connus
donc on n'en parle pas donc il en reste 18
et sur ces 18 là
en prenant des critères
disons de prix
à quel point
le matériau est rare, les atomes sont rares etc
on arrive à en sélectionner un seul
donc en fait toute la partie
calcul haute performance elle te permet de passer
de 800 à 23
et ça
c'est en utilisant 10 heures de calcul
sur de l'ordre de 1000 vm
donc c'est déjà en bourrinant un petit peu
oui donc tu peux pas faire ça sur 32 millions
et voilà
et voilà exactement si on fait le calcul
d'ailleurs je disais si on avait fait un laboratoire
il aurait fallu
un jour par candidat donc 32 millions
de jour si on teste 32 millions
bah en fait
t'es déjà
quasiment 100 000 jours
quasiment 100 000 années
donc
tu peux avoir tous les data sur la planète, aucune chance
c'est juste impossible
c'est marrant on dirait que c'est comme trouver une léguie dans la botte d'offres
un peu, oui c'est ça
c'est des problèmes comme ça en fait
ils se sont mis eux-mêmes dans le problème les chercheurs
parce qu'ils auraient très bien pu dire on envisage moins
que 32 millions de candidats
il y aurait beaucoup de chance de trouver la planète
mais voilà, nous ce qu'on veut c'est trouver là, perle rare
enfin eux ce qu'ils veulent c'est trouver là, perle rare
donc on a vu la partie
calcul haut de performance
et en fait pour la partie
passé de 32 millions à 800
candidats, là ça va être avec des modèles
d'IA et donc en fait les modèles d'IA
ils permettent de franchir encore
un cap en termes de vitesse d'exécution
parce que
eux, alors ça représente quand même
70 heures de calcul
sur les 1000 vm
alors qu'on avait gardé que 10 heures pour le hPC
donc ça reste le gros des calculs
mais c'est eux qui font le gros du filtre aussi
de prendre tous les candidats et d'éliminer
ceux qui n'ont pas une bonne conductivité
ceux qui sont pas stables etc
voilà on va quand même beaucoup beaucoup
plus vite avec les modèles d'IA
que avec les calculs hautes performances
mais du coup est ce que t'as une
enfin je sais peut-être, je suis hors de partie
mais comment c'est
comment ça... c'est vrai que ça a l'air magique
c'est vraiment suffit
qu'est-ce que c'est que ces modèles d'IA
32 millions, paf
sous-poudrés de modèles d'IA
et vous obtiendrez des matériaux
comme sur les sites web, notre service et...
AI Power
exactement, surtout que la partie calcul haute performance
c'était déjà les meilleurs logiciels
pour faire ça
c'est connu, c'est existé depuis un moment
mais ils sont sans arrêt à améliorer
c'était déjà la pointe
donc arriver à faire mieux que ça de plusieurs ordres de grandeur
c'est impressionnant
comment il faut... alors il y en a
donc il y en a plusieurs, il y en a un dont j'aimerais parler
en particulier, un modèle d'IA pour
la science des matériaux comme ça
ou la simulation moléculaire
il s'appelle distributional graph-former
et en fait
c'est de l'IA generative
pour les matériaux
ou pour les molécules
donc l'IA generative
vous connaissez sans doute par les images
et pour d'autres domaines mais je pense que c'est des images
les plus connues et là on arrive à faire
de l'IA generative pour les matériaux
c'est ça qui est fou en fait
comment ça marche
en fait distributional graph-former
il faut lui donner en entrée une description
de qu'est-ce qu'on va mettre dans ce matériau
donc on lui dit il va y avoir
tel atome, dans telle proportion
disons un peu de lithium, un peu de sodium
peut-être du chlor, voilà on lui donne
quelques atomes, on lui donne un petit peu
les proportions et lui ce qu'il arrive à faire
c'est à en trouver la forme 3D
et ça c'est hyper important parce que c'est
à partir de la forme 3D des matériaux
des molécules qu'on comprend comment les molécules
interagissent entre elles
quels vont être les propriétés des matériaux
donc ça peut être des propriétés thermiques
comment ils réagissent quand ils vont être chauffés
ça peut être des propriétés de conductivité
comment ils transportent justement les ions lithium
par exemple, comment on en a besoin pour les batteries
ça peut être plein de propriétés
de différence, on a besoin de connaître la forme 3D
et c'est exactement ce que va faire ce modèle
d'IA distributional graph-former
alors qu'un physicien si je lui donne
t'as tant de... tant de...
d'atomes dans telle proportion
il sera pas capable de...
d'imaginer à l'avance
à quelle va être la forme de la molécule
en 3D c'est ça ? Et oui voilà c'est ça
en fait c'est un problème, on ne s'est pas forcément
on ne t'en est pas physicien mais exactement
et en fait c'est dur
et en fait c'est dur et...
on en avait un petit peu entendu parlé il y a 3-4 ans
quand il y avait eu un modèle qui s'appelle AlphaFold
qui avait fait ça alors c'était pas pour les matériaux cette fois-ci
c'était pour les protéines
mais c'était la même idée on lui donnait
la suite de la séquence de la cité de minet
donc de quoi la protéine est faite
et AlphaFold il arrivait à trouver
enfin il arrive à trouver
la forme en 3D et c'est ça qui va permettre
de dire avec quelle autre molécule la protéine
va réagir et voilà ça vous la porte
à trouver de nouveaux médicaments ce genre de choses
et ça c'est un peu le même système
appliqué aux matériaux du coup. Voilà c'est ça
alors non seulement ça permet de traiter pas que les molécules
mais aussi les matériaux et en plus
là où AlphaFold il permettait de trouver
uniquement la forme la plus stable
de la protéine
avec Distributional Graph Former
on peut avoir toutes les formes 3D
possibles parce que ce qui se passe en fait
c'est qu'un matériau ou une molécule il est pas statique
il va avoir tendance à bouger un peu
autour de sa position d'équilibre. Il fait sa vie
il fait sa vie ouais. T'as toujours un peu
d'agitation thermique tout ça bouge
un peu et donc du coup
on voit que ça bouge c'est vrai que c'est beau
et donc en fait
pour comprendre toutes ces propriétés on a besoin
de connaître non pas seulement
sa forme la plus stable mais toutes ces formes
et de pouvoir donner une probabilité à chacune de ces formes
et donc c'est ça que Distributional Graph Former
est capable de faire
Alors comment il arrive à faire ça
en fait
donc je vous ai dit c'est
de liège néerative en fait c'est même un modèle
de diffusion et les modèles de diffusion
on les connaît pour les images
et en fait c'est vraiment le même fonctionnement
pour les matériaux et pour les images
donc comment ça se passe pour les images
en fait
donc là si je parle de
par exemple Dali
ou Stable Diffusion tout ces modèles pour des images 2D
en fait
un modèle de diffusion
ce qui va faire ce qui va apprendre
à déflouter des images
donc on part au départ d'une image
parfaite plein d'images parfaite
et puis on va leur mettre des niveaux
de flou de plus en plus important
pour entraîner le modèle
pour entraîner le modèle absolument
et le modèle doit apprendre
à retrouver l'image de départ
à partir d'une version un petit peu plus floutée
et au début il n'y arrive pas très bien
et puis il s'entraîne il y arrive de mieux en mieux
et en fait
on va le faire pour des niveaux de flou
de plus en plus violentes
c'est à dire que typiquement il va y avoir
1000 niveaux de flou différents
et le modèle au début il apprend
à déflouter un millième
et puis après il apprend
du flou de millième au flou
un millième il apprend à inverser le flou
comme ça très progressivement
et ça c'est absolument magique parce qu'à la fin
on donne au modèle une image
qui est entièrement constituée de flou
et en étape par étape
en enlevant le flou comme ça on arrive
à une image qui ressemble aux images
qu'on rencontre tous les jours
donc côté distributional graph former
il va se passer exactement la même chose
mais avec des atomes
donc l'équivalent du flou
en mode science des matériaux et molécules
c'est de faire bouger un petit peu
la position des atomes
donc on part
d'un matériau ou d'une molécule qui existe
on connaît exactement la position 3D
des différents atomes
et puis on les fait un petit peu bouger ça c'est un petit peu de flou
le modèle apprend à retrouver la structure initiale
et ainsi de suite
jusqu'à ce qu'il soit entièrement entraîné
et là on peut lui donner tous les atomes
à des positions ordel, alléatoires
exactement tous centrés sur le même point
mais sur la table ou quoi ?
voilà c'est ça
et puis chaque atome a une probabilité
indépendante des autres d'être ici
ils sont tous indépendants les uns des autres au départ
exactement comme côté image quand les pixels
on les prend les tous de façon aléatoire
on utilise le modèle de diffusion dans le sens
inverse
ça enlève le flou et ça recrée des molécules comme ça
et donc bien sûr si on donne
une nouvelle composition d'atome
on arrive à avoir un nouveau matériau
c'est dingue
quand tu dis c'est logique
mais c'est quand même fou
en fait c'est comme tout comme les modèles
de diffusion d'image
on réussit à se construire
une sorte de modèle du monde
en do d
et ça doit
avec quelle forme
quelle forme existe dans notre monde
exactement comment tu génères un œil, un visage
tout ça, en fait il s'est fait un annuaire
des images existantes dans notre vie
mais qui l'a réussi à généraliser
en fait il se passe la même chose sur les atomes
c'est comme si ton modèle arrivait
à avoir une compréhension profonde
de comment des atomes
se structurent en 3D dans l'espace
c'est dingue
et moi ce que je trouve fou c'est que ce soit
à peu près le même genre de technique qui marche pour différents domaines
qui ont a priori un petit peu rien à voir comme ça
et alors partir de ça
ça veut dire que
ils sont capables du coup
de dire très rapidement
si la structure 3D
de ces atomes là est donc
si ils vont être conducteurs etc
et voilà c'est ça, on passe par l'étape structure 3D
toutes les structures 3D
avec leur poids et ça nous donne les propriétés
et donc c'est comme ça qu'on peut mettre en place
le filtre qui nous faisait passer de 32 millions
de candidats, en fait on élimine tous les matériaux
qui sont pas stables, il en reste que 500 000
et puis après ça descend comme ça
et on regarde que 800 qui sont les plus prometteurs
alors il y a quand même besoin
de faire l'étape, calcul, haute performance
sur ces 800 là
parce que les modèles d'IA
on le sait parfois il peut y avoir des erreurs
donc on est sur le compromis
tant précision
on a tout misé sur le temps
avec les modèles d'IA
on veut que ce soit le plus rapide possible
mais sur la sous-selection la plus prometteuse
on refait tourner les calculs plus précis
donc là calcul haute performance
Est-ce que tu peux juste réexpliquer
sa deuxième étape de passer de 800
parce que je sais qu'on est passé un peu vite
parce que c'est peut-être des trucs qui existent
plus longtemps mais on peut se reattarder
dessus sur comment ils sont passés
de cette présélection à 800
à l'unique échantillon
qui sera prémodélisé par le labo
qui a vraiment été fait d'ailleurs vous allez voir
oui, et là en fait
les calculs qui vont être faits
ça va être
dans un premier temps des calculs
de structure électronique
donc vraiment une fois que les atomes on a décidé de où ils étaient
il faut comprendre comment le nuage électronique
va se mettre autour
et donc ça
ce qu'on fait c'est qu'on modélise
l'électron en donnant uniquement sa probabilité
d'être à tel ou tel endroit
donc c'est un petit peu moins précis si on donnait vraiment sa fonction
donc de quantique mais c'est déjà vraiment pas mal
Évidemment
C'est déjà vraiment pas mal
et puis après il y a d'autres calculs
qui vont être plus de dynamique moléculaire
où là on s'intéresse justement au petit
mouvement autour d'une position d'équilibre
et donc ça permet à partir de
une seule
forme 3D de trouver les autres
parce qu'on regarde les variations par rapport
à une position d'équilibre
et donc c'est tout ça que t'appelles des simulations
de la physique
Voilà c'est ça
C'est la méthode traditionnelle
pour faire des simulations numériques de physique
on résout en fait les équations de la physique
parce qu'on sait
les charges de signe opposées vont s'attirer
Donc à partir d'un état initial
et des fonctions de la physique
on sait prédire les états suivants
mais du coup ça prend beaucoup de puissance de calcul
Voilà c'est ça
et on est quand même obligé de faire certaines approximations
parce que sinon
ça prendrait encore plus de puissance de calcul
Et là du coup
il y a combien d'ordis qu'on boitait sur cette étape
de passer du 800 à 1
Alors là il y avait 1000 VM, 1000 machines virtuelles
et ça a pris 10 heures
alors que
pour la partie 32 millions à 800
avec les modèles d'IA
c'était aussi 1000 VM mais ça a pris 70 heures
donc c'est quand même
beaucoup plus rapide pour les modèles d'IA
parce qu'ils ont traité 32 millions de candidats
C'est hyper intéressant de voir
l'usage malin de l'IA
pour dégrocer le taf
tout en sachant qu'elle peut faire des bêtises
et du coup la fin il faut la faire à la main
c'est fascinant
Ouais non mais complètement
et du coup si on revient sur ces modèles de diffusion
en fait ce qu'on arrive à faire
c'est en mettant les atomes tous
au même endroit
ou en mettant des pixels aléatoires au début
à retrouver dans un cas un matériau
viable et dans l'autre cas
une image qui ressemble à quelque chose
et alors on a expliqué
que c'était avec le modèle de diffusion
en fait il y a une petite subtilité
à cet endroit là
qui va expliquer pourquoi
d'ali ou stable diffusion
on peut leur donner un prompt en entrée
on peut leur donner du texte
et ils vont créer une image qui correspond à ce texte
Ah oui parce que jusqu'ici
tu as expliqué juste que tu pouvais défrouter
mais là le texte ne dépend encore dans l'éco-sion
Et là en fait ce qu'il faut bien se dire
c'est qu'il y a
parmi toutes les images qui existent
si on mettait des valeurs aléatoires
à chaque pixel on n'aurait
typiquement pas du tout une image qui ressemble à quelque chose
une image qu'on aurait pu
dessiner ou prendre en photo ça arrive
très rarement en fait
donc si on pense dans l'espace des pixels
le sous-ensemble des images
qui ressemble à quelque chose, vous voyez ce que je veux dire
il est tout petit en fait
et ça ça fait que le modèle de diffusion
il est pas très efficace si on le fait tourner
directement sur l'espace des pixels
donc une méthode qui fonctionne bien
c'est de compresser l'information
en calculant une représentation de l'image
mais qui n'est pas du tout sous la forme
que nous on aime bien sous la forme de pixel
ça va être
par exemple ça peut être juste 1500 nombres
qui représentent
le sens de cette image
qu'est ce qu'on va y voir dessus
et donc si on a cette représentation
compressée pour les images
et qu'on a aussi une représentation compressée comme ça
pour le texte
en fait il y a la possibilité d'essayer
d'aligner les deux
et c'est ça qui va nous permettre de générer une image
qui correspond à un certain prompt
et alors comment les chercheurs alignent les deux
en fait là aussi c'est une question
de données
il part de beaucoup d'images dont on
connaît la légende
et puis il faut en sorte que
la légende et l'image
qui sont associés correspondent
à des représentations compressées qui sont égales
et une fois qu'on a fait ça
ça permet de boucler la boucle et donc de mettre
en entrée un prompt
de dire j'aimerais bien avoir telle sorte d'image
on calcule la représentation
compressée et ensuite on fait tourner le modèle
de diffusion sur cette représentation compressée
ensuite on revient
dans l'espace des pixels et voilà ça nous donne
une bonne image générer ainsi
Côté
molécules à tombe c'est la même chose donc
si on repense à distribution le graph former
il va y avoir aussi la possibilité
de conditionner
sur les propriétés qu'on a envie d'avoir à la base
donc c'est à dire tu peux tout comme
avec un modèle de diffusion d'image
tu peux demander telle ou telle typologie
d'image en paysage ou un style
de graphique etc
là tu peux prompt, enfin tu peux
mettre dans un prompt des propriétés
d'un futur molécul c'est ça ?
voilà
alors oui
bon on peut pas demander tout et n'importe quoi
donc tout
mais il y a moyen de raffiner un petit peu
et de lui demander mieux qu'un matériau
aléatoire c'est ça que je veux dire
et donc en fait
ça nous explique
comment on arrive à passer de 32 millions
à 800
et avec
avec cette méthode là donc distributionnel
graph former
on arrive à faire ce gros calcul
et le candidat
donc je vais vous donner
sa structure de quel atomie il est fait
le candidat qui a été retenu qui a passé tous les filtres
et qui est peut-être le futur
des batteries avec un électroïde solide
il va être constitué en l'occurrence
de sodium, de lithium
d'itrium et de clore
donc voilà dans des proportions peu importe lesquelles
mais c'est celui là le candidat
le plus prometteur qui a été retenu
la perle rare
qui aurait été introuvable probablement
à part un hasard phénoménal
si vous ne vous aviez pas
brûle force et le truc
voilà c'est ça
et donc la question qui se pose maintenant
pour ces chercheurs de microsoft et de pnnl
c'est
de faire maintenant tous les tests
pour voir si ce matériau
il passe l'industrialisation
ils ont commencé à faire quelques tests
de le passer dans la vraie vie en fait
on est pas encore à l'industrialisation
le passage à l'échelle
tout ça
et donc peut-être que ça va être celui là
qui sera dans toutes les batteries du futur
peut-être pas, on n'est pas sûr encore
moi
je trouve que c'est pas ça le plus important
finalement dans cette histoire
ce que j'ai envie de retenir encore plus
que peut-être que l'on va trouver le matériau pour les batteries
c'est la méthodologie que je trouve absolument folle
et qui est nouvelle en fait
enfin c'est nouveau
pas forcément pour cette fois-ci
mais depuis quelques années
oui c'est ça parce qu'on voit que là il y a ce boom de lia
les modèles de diffusion ça fait pas si longtemps que ça qu'on en parle
donc on voit qu'il y a des nouvelles techniques
qui permettent de passer à l'échelle
si on avait fait uniquement du calcul
de performance même en utilisant les 1000 vm
qui ont été utilisés par les chercheurs pour ce projet
en fait ils auraient pas pu
traiter 32 millions de candidats matériaux
et donc on voit tout de suite
quand changeant d'échelle comme ça
on augmente drastiquement nos chances
pour les batteries mais aussi pour plein d'autres domaines
en sciences des matériaux
en recherche de nouveaux médicaments
enfin voilà les applications sont assez variées
de chercher de façon plus efficace
on sait pas exactement ce qu'on va trouver
mais on sait qu'on peut chercher de façon beaucoup plus efficace
avec ces outils
on a débloqué un bon outil
et comme d'hab on sait dure de prédire
dès maintenant tout ce qui va être possible
déjà honnêtement je suis pas sûr que les gens qui ont théorisé
les modèles de diffusion
s'attendaient à ce qu'ils soient utilisés en sciences des matériaux
c'est pas sûr entre ils viennent
oui
il faudrait leur demander
et est-ce que du coup il a été synthétisé le
et voilà ils ont été jusqu'à le synthétiser
et maintenant ils font les tests
pour voir si ça passe à l'échelle
si ça coûte pas trop cher
mais donc on peut le voir
on a des images de ce matériau
cet électroïde solide
synthétisé
il a ensuite eu des traitements thermiques
des traitements mécaniques où il est compressé
par une presse
donc c'est très très concret cette histoire
c'est l'image avec des tubas et cette s'il n'y est jamais
du coup on sait pas encore
à quel niveau de déficacité énergétique
on peut obtenir avec ça
j'imagine qu'il y a pas mal d'étapes avant de passer à une vraie batterie
qui pourrait être subi à des tests
industrielles
oui exact alors j'ai pas le chiffre en tête
de la densité énergétique qu'on pourrait faire
je sais que
globalement c'est très souvent le cas que les électroïdes
solides ils aient une meilleure densité énergétique
les électroïdes liquides donc ça c'est un point fort
après oui
on sait pas encore prédire
en termes d'heures de batterie
ce qu'on pourrait avoir
très très stylé franchement j'espère que
tu as trouvé ça intéressant
effectivement
comme tu dis
évidemment au fond de nous on a tous envie
d'augmenter telle ou telle graphe
sur notre config
sur la prochaine presse Apple
ou sur notre prochaine laptop
mais
c'est vrai que
dans le fond
le plus fascinant de l'histoire c'est
l'ingéniosité des équipes
de Microsoft AI et de l'OTL
pour arriver à ce résultat là c'est assez fascinant
et de leur horloge là je dévie
un peu du chier j'avoue mais
toi la dernière fois que t'étais venu
c'était pour nous parler de quantique
aujourd'hui
sur quoi tu travailles toi
je le sors complètement
moi j'ai pas travaillé sur ce projet
là en particulier mais j'ai pu appeler
certains des chercheurs
qui avaient eux travaillé dessus
qui ont pu m'expliquer comme ça
en détail et donc moi je continue
de
pas à ma connaissance
non non non
et moi je continue de travailler beaucoup sur le quantique
donc
essayer de trouver
des codes correcteurs quantiques
pour que la mémoire quantique soit plus fiable
ça c'est mon sujet de prédilection
qui était déjà le mien avant
et je regarde un peu
pas en mode recherche mais plus en mode
veille technologique suivi
toutes les nouveautés de l'IA
qu'on voit en ce moment et qui sont absolument fascinantes
mais je me trompe mais est-ce que
malgré que tu n'es pas boussé dessus
en fait il y a des
mineurs et il y a quand même une intersection
non négligeable tu nous parles
de la dé simulation
de faire la simulation numérique de la physique etc
en fait
c'est le genre d'outil
est-ce que c'est le genre d'outil que toi t'as l'habitude d'utiliser par exemple
ou
je pense que les gens qui vont utiliser ces outils
c'est quand même des chimistes
computationnels, des gens qui font
la science des matériaux computationnels
qu'on va trouver dans
des labos de R&D
de beaucoup d'entreprises
donc moi ces outils précisément
je les utilise
plus pour les tester
que pour vraiment
c'est pas moi qui vais découvrir de nouveaux matériaux
c'est-à-dire
non mais c'est vrai que maintenant tu bosses
aussi un peu sur les liens alors même si tu fais pas
de la recherche parce que tu te dévalorises
c'est pour ça que je me permets de
mais tu travailles beaucoup sur
ce que sort Microsoft et sur
tous les outils d'IA
et tu faisais des
et tu présentais ce projet à des gens
que j'arrive plus à parler
mais que globalement tu avais bien connaissance
de ce projet et que tu l'utilisais dans ton travail
oui, oui, oui, présenté ce qui est possible
de faire en fait avec les outils
de Microsoft
oui c'est ça parce que en fait
effectivement là j'ai beaucoup parlé du projet
de recherche mais il y a un service
cloud qui est associé
qui s'appelle Azure Quantum Elements
et ce service il permet
de justement de faire ce genre de calcul
et il va mêler calculs de performances
modèle d'IA
et il est accessible dès aujourd'hui sur Azure
sur le cloud
il est en préversion privée
actuellement donc ce que ça veut dire concrètement
c'est qu'il faut
contacter des équipes
Microsoft Azure Quantum Elements
ou me contacter moi et je transmets
pour pouvoir utiliser ce service
à l'accès privé ok très intéressant
mais en tout cas en vrai je trouve que c'est un peu stylé
que les data centers
que tu saches que un des trucs
sur des data centers
pardon c'est des modélisations à grande échelle
pour trouver des nouveaux...
tout le monde ne fait pas ça fin
c'est un truc que tu ne retrouves pas dans n'importe quelle boîte
donc franchement très stylé
j'espère en tout cas que ça vous a intéressé
et nous ça faisait longtemps
enfin moi ça faisait longtemps que je
m'intéressais à ça de loin mais
sans comprendre vraiment tout ce qui se jouait derrière
et sans même savoir
qu'il y avait des rapports avec
ce dont on parle tous les jours ici
également j'ai découvert en discutant avec Vivien
qu'il y avait des choses très intéressantes
à raconter sur ce sujet
très très stylé et puis
sans plus d'attendre nous allons
clore cette émission qui était...
alors je me permets parce que j'aurais dû te le dire dans l'Oriette
mais il n'y a pas d'Oriette
il n'y a pas d'Oriette
Mika est revenu et nous possédons
un compte Apple us
voilà les informations
tu en fais ce que tu veux
j'ai pas la rêve
si je veux raconter cette anecdote je pensais même pas à la raconter
en émission mais je vais la raconter
ah si c'est bon j'ai l'air
il se peut que il y a 2 émissions
on est reçu
Tina qui est une
développeuse
pour...
ARVR
qui nous a fait essayer l'Apple Vision Pro
alors qu'après l'émission
et alors que j'avoue
avant
c'était pas ma grande passion
j'avais pas d'envie particulière qu'on en ai un ici
il faut dire qu'il y a un effet
avant et après au niveau de la démonstration
entre les images que tu vois dans les petits objets
et la réalité
là ce moment là
en fait
tu te prends quand même une sacrée claque
et ce que j'ai dit à l'équipe c'est qu'il n'y a aucune raison qu'on
aucune raison valable qu'on achète ce truc
objectivement
la seule possibilité
ce serait que
qu'on revende du matériel qui traîne dans les placards
parce qu'ici on a beaucoup
la boîte est quand même 6 ans maintenant
et donc ça cumule
du matos qu'on utilise plus
des écrans, des lights, etc
donc je leur ai dit je veux bien acheter un appellou Gine Pro
si vous arrivez à atteindre la canyote
de 3500$
et oui
ça peut vous paraître étonnant mais en vrai dans une boîte
de moyenne taille pendant des années
tu trouves 3500$
de matos et ils ont réussi à vendre
tout ça, c'est après un mois je crois si je n'ai pas de bêtises
moi Micah a réussi pour en prendre
c'est vraiment Micah
c'est après une déterre
et du coup on a acheté l'appellou Gine Pro
et voilà
mais on l'a pas encore déballé
on l'a pas déballé
on a dit il est là mais on l'a pas déballé
et donc ça se trouve
on va avoir aucune idée de faire
mais peut-être que typiquement s'il y a des applis
vraiment sympa ou si nous on a des
idées de concept à faire
peut-être que vous aurez des chroniques
à base d'appellou Gine Pro
ou peut-être pas, clairement je ne m'engage à rien
mais ça pourrait arriver en tout cas
c'est vrai que faut je te dis Atina qui a eu
une influence, je lui ai pas dit qu'on en avait acheté
on n'avait pas mis de code
d'affilier
ah ouais, ils ont pas ça
bref
sur ce je vous propose
de clore cette soirée
et
à trente de semaine on se revoit mercredi
à 19h, n'hésitez pas
à follow cette chaîne Twitch
et à vous abonner c'est pour ceux qui sont arrivés en cours de route
et qui ont raté la chronique de Mathieu sur la cartouche
ou oubliée de Macdo ou Macronique
sur la génération 3D
n'hésitez pas
à aller voir sur la chaîne YouTube, ça sera publié bientôt
et à vous abonner
peut-être on peut faire un mini rappel sur le mail
oui effectivement on a autoré un nouveau truc
c'est qu'avec le mail unerscore au basmikr.studio
vous avez la possibilité de nous envoyer des idées
si vous avez des intervenants
que vous aimeriez qu'on reçoit
ou des
papiers de recherche
ou on sait peut-être un peu panthubé
globalement des intervenants ou alors vous-même
qui avez fait des choses
si vous avez fait des trucs très stylés
n'hésitez pas à nous info y a un mec
et si vous voulez savoir c'est quoi un truc stylé
vous vous regardez sur la chaîne YouTube
et vous avez une petite idée
et sur ce je vous souhaite une excellente soirée
très bonne soirée, et à dans deux semaines
salut
c'est un truc stylé
c'est un truc stylé
c'est un truc stylé
c'est un truc stylé
c'est un truc stylé
c'est un truc stylé
c'est un truc stylé
c'est un truc stylé
c'est un truc stylé
c'est un truc stylé
c'est un truc stylé
c'est un truc stylé
c'est un truc stylé
c'est un truc stylé