Pourquoi Banque Populaire est la première banque des entreprises ?
Je me posais des questions sur le partage de la valeur pour mes salariés.
Elodie, ma conseillère Banque Populaire, m'a proposé une solution d'épargne salariale sur mesure,
rapide à mettre en place et que je peux piloter en ligne.
C'était simple et surtout ça a fait des heureux.
Accompagner nos clients sur tous les territoires avec des solutions adaptées à leurs besoins,
c'est ça, être la première banque des entreprises, Banque Populaire, la réussite est en voulue.
Étude Quantar PMEP, mid-2023, Quatorze Banques Populaires, Première Banque des PM.
Aujourd'hui on a la chance de recevoir à nouveau Vivien pour parler d'un sujet qu'on n'a quasiment jamais traité.
Nous, on est vraiment sur du software, on est sur de l'IA tout le temps,
alors qu'aujourd'hui on va parler un peu de physique et d'énergie.
De batterie.
Quoi ?
Ah mince, j'ai fa... Oh lala !
Oh le spoil d'entrée !
Juste avant de commencer, je t'en ai dit que tu as baissé ton micro parce que mon avis...
Il est un peu...
...on ne le voit plus.
Trop bien.
Ok.
Et sans plus attendre, je vous propose de rentrer dans le vif du sujet.
Contrairement à la plupart des autres composants d'un ordinateur ou d'un smartphone,
il y a un truc qui n'a pas vraiment bougé, qui ne s'est pas beaucoup amélioré sur les dix dernières années,
c'est la batterie.
Depuis dix ans, quasiment aucune nouveauté peut être,
à part au niveau de la vitesse de recharge,
où la charge rapide en une demi-heure,
on sait finalement réduire les temps de charge,
mais en termes de capacité, c'est assez hallucinant,
ça n'a quasiment pas bougé.
Alors pourquoi est-ce que c'est aussi compliqué d'améliorer les batteries ?
Et surtout, pourquoi ça pourrait peut-être bientôt changer,
notamment grâce à des nouvelles méthodes pour élaborer des matériaux encore inconnus.
C'est ce qui est parvenu à faire Microsoft AI avec un laboratoire aux États-Unis.
Ils ont découvert un nouveau matériau candidat à la fabrication de batteries bien plus efficaces.
Et vous allez voir que cette nouvelle méthode est étrangement assez similaire aux outils comme d'Ali ou Midjournay.
Pour vous dire que ça n'a pas pensé de moi aucun importe,
pour générer des images avec de l'intelligence artificielle.
Pour tout vous expliquer, on accueille aujourd'hui Vivien Londe,
ingénieur recherche chez Microsoft,
avec qui nous sommes en collaboration commerciale à cette occasion.
Merci Vivien.
Merci Mickaël, et je vais effectivement vous parler de ce projet de recherche qui est assez fou,
qui est, comme tu disais, une collaboration entre des chercheurs de Microsoft
et des chercheurs d'un labo américain PNNL, donc Pacific Northwest National Lab,
et qui se sont attaqués aux problèmes des batteries pour essayer d'améliorer les batteries.
Et alors ce qui est assez incroyable dans ce projet, c'est que ça va balayer large.
On va parler d'une simulation numérique avec vraiment des simulations traditionnelles de physique,
avec des modèles d'IA.
On va parler d'énergie, du coup, pour pouvoir stocker l'énergie dans des nouvelles batteries.
Et on va même parler d'expérience dans des labos,
parce que dans ce projet de recherche, dans cette collaboration,
ils ne se contentent pas de trouver des nouveaux matériaux.
À la fin, ils vont jusqu'à s'intensifier, donc créer des nouveaux matériaux.
Pour les tester.
Pour les tester, ils vont jusqu'au bout du processus,
et ils créent des choses qui n'existaient pas avant.
Alors c'est toujours les mêmes atomes, on ne va pas inventer de nouveaux atomes.
Mais, assembler comme ça, pour faire ce matériau, ça n'existait pas avant,
et c'est un candidat pour changer complètement la façon dont on fait les batteries.
Trop cool, moi je suis hype.
Et dites-vous, si vous avez des segments un peu plus complexes,
on va parler un peu de physique, de choses comme ça,
que derrière, ce n'est pas potentiellement le futur des batteries,
le live phone qui est duré une semaine.
Donc il y a vraiment un intérêt pour tout le monde à ce que ce genre de technologie se développe, émerge.
Ça ne va pas se faire du jour au lendemain, mais justement on va voir avec toi,
et bien, il y a du nouveau, et en fait ça fait longtemps qu'il n'y en a pas eu.
C'est ça qui est excitant.
C'est doublement existant de ce point de vue-là,
et en plus on va voir que même la méthode pour ce nouveau est intéressante.
Mais, ne spoilons pas trop dès maintenant,
peut-être pour comprendre vraiment le contexte, les enjeux,
qu'est-ce que c'est une batterie en fait,
bon on se dit, on sait tout ce que c'est une batterie,
mais son fonctionnement, donc on va avoir deux électrodes,
et puis il va y avoir un fil électrique entre les deux,
et quand la batterie est en décharge, quand elle est en fonctionnement, quand on l'utilise,
c'est là qu'on va servir de l'énergie, donc on met soit une voiture, soit un ordinateur, un portable peu importe.
Et ce qui fait que cet appareil peut fonctionner,
c'est que les électrons ils vont d'une électrode à l'autre,
jusqu'à là, pas de problème.
Sauf que le problème quand même, c'est que si jamais il y avait juste ce fil électrique,
en fait, comme c'est des électrons qui vont d'un endroit à l'autre,
très vite les électrodes, elles arrêtaient d'être neutres électriquement,
parce qu'il y en a une qui perd toutes ces électrons, et l'autre qui gagne toutes ces électrons.
Donc il faut qu'il y ait un autre déplacement,
et ça c'est un autre chemin entre les deux électrodes,
il va y avoir dans les batteries lithium-ion par exemple, qui sont très courantes,
il va y avoir des ions lithium qui font exactement le même chemin,
mais qui ne passent pas par le fil électrique,
qui passe par l'électrolite qui est dans la batterie entre les deux électrodes.
Donc ça c'est important, parce que dans les batteries lithium-ion telles qu'on les fait actuellement,
cette électrolite, il va tendance à être liquide,
et du coup les ions lithium sont en solution là-dedans, ils peuvent se déplacer,
et en fait, il y a deux problèmes à avoir cette électrolite liquide,
d'une part, il peut y avoir des fuites,
et du coup ça, ça peut créer des problèmes de contamination et autres.
Et le deuxième problème, le fait qu'il y ait un électrolite liquide,
ça fait qu'il peut y avoir des dépôts en fait, sur les deux électrodes,
des dépôts de lithium qui vont venir s'accumuler, on appelle ça des dendrites,
et quand il y en a trop, en fait ça peut faire un court circuit dans l'électrolite,
où l'électricité se met à passer non plus par le fil comme ça devait le faire pour faire fonctionner l'appareil,
mais dans l'électrolite à l'appareil, donc la batterie, elle est flingueée à ce moment-là.
Elle se détère, etc.
Voilà.
Juste pour bien préciser, pour ceux qui ne sont pas les plus affûtés,
et éventuellement en physique, qu'est-ce qui fait que ce système-là
permet de stocker d'énergie un coup ?
Qu'est-ce qui... C'est quoi le mécanisme ?
Qu'est-ce qui fait qu'on a imaginé, on a pensé à ce système
pour stocker de quoi de l'énergie pour faire marcher nos appareils, etc.
Oui, là c'est de l'énergie chimique, et donc ce qui se passe, c'est qu'à chaque adactrode,
il y a une réaction chimique qui va avoir lieu,
et c'est cette réaction qui libère de l'énergie qu'on récupère sous forme d'électricité entre eux.
En fait c'est le déplacement des électrons de la Node à la cathode, si j'ai pas de bêtises ou de la R.
Et qui, d'ailleurs, génère de l'électricité.
Exactement, exactement.
Et alors ces problèmes que chie tait sur l'électrolite liquide,
on a des contre-mesures, parce que d'ailleurs aujourd'hui, énormément de batteries sont au litium-ion,
mais pour mettre en place ces contre-mesures, ça oblige à rajouter un peu de matière sur la batterie,
et donc ça va l'alourdir un peu.
Et dans beaucoup d'applications, le poids de la batterie, c'est quelque chose qui est fixé,
on peut pas dépasser un certain poids, je pense à des voitures, à des téléphones portables.
Et du coup, s'il y a de la matière qui est là juste pour les contre-mesures,
en fait, on perd en densité énergétique.
C'est-à-dire qu'à poids fixé, on peut stocker moins d'énergie dans cette batterie.
Et donc ça, ça a des répercussions très concrètes.
Moins efficaces, quoi.
Ouais, voilà, c'est ça. C'est qu'on peut aller moins loin en voiture.
Donc les cas d'usage, ils sont beaucoup moins bien,
et puis la batterie de l'ordi va être morte plutôt.
Ça, je pense que c'est pas si intuitif, le fait que le poids est si important.
Parce que tu pourrais, en fait, naïvement, quand tu découvres le problème,
tu pourrais te dire, pour augmenter l'autonomie de ma voiture,
il suffit que je rajoute des batteries et des batteries et des batteries
mais en fait, ça marche pas comme ça parce qu'il y a un moment,
pour rajouter de l'autonomie, tu rajoutes du poids.
Ouais, voilà.
Ça peut comme le carburant et les fusées, entre guillemets,
il y a ce que tu expliques, la densité énergétique, c'est hyper important
parce que c'est ça qui permet de trouver le sweet spot
entre le poids et l'autonomie en haut.
Oui, c'est ça. Parce que, au bout d'un moment,
si tu as une batterie qui est beaucoup trop lourde,
il faut aussi la transporter, donc tu perds en efficacité
et voilà, ça peut pas fonctionner seulement comme ça.
Donc, une idée qui est très étudiée en R&D,
c'est de mettre des électrolytes solides.
Donc toujours, ce matériau qui est dans la batterie entre les deux électrodes,
on le met sous forme solide,
et là, on gagne en densité énergétique, donc ça, c'est très bien,
mais ça pose d'autres problèmes.
Et notamment, quand on a un électrolyte solide,
il risque d'y avoir une moins bonne conductivité, en fait.
C'est-à-dire que les ions lithium, qui sont censés aller d'une électrode à l'autre,
par l'électrolyte, s'ils passent moins vite,
ça crée d'autres problèmes.
Donc, c'est pour ça que c'est un problème de R&D complètement ouvert.
Aujourd'hui, on sait pas faire des électrolytes solides.
On sait faire un peu, mais c'est pas l'état de l'art.
L'état de l'art pour les batteries lithium.
C'est ce qu'on a dans notre téléphone, je veux dire.
Ça reste des électrolytes liquides dans la plupart des cas.
Et donc, vous vous en doutez,
ce qui va se passer, c'est que ce projet,
elle a de recherche entre Microsoft et PNNL,
ils vont chercher à découvrir un nouveau matériau
pour justement se trouver l'électrolyte solide parfait,
qui est à la fois une bonne conductivité
et qui permet d'avoir une batterie avec une très bonne densité énergétique.
Alors, et donc ça pourrait décupler,
par exemple la batterie de mon iPhone,
pour le même poids, j'aurai plus de batteries.
Exactement. Et pour la même taille aussi.
Ça pourrait être bien mieux de ce point de vue-là, exactement.
Et, alors, ce qu'on pourrait dire naïvement,
c'est que pour faire ça, pour trouver des électrolytes solides,
on en connaît quelques-uns, parce qu'il y a pas mal de R&D dessus,
et on pourrait se dire, on prend les matériaux qui existent déjà,
et on va essayer de remplacer tel atome par un autre atome,
qui a typiquement le même nombre de liaisons,
parce que les atomes, ils ont typiquement l'atome d'oxygène,
il va toujours tendance à avoir deux liaisons,
enfin voilà, on sait pour chaque atome combien de liaisons ils font,
donc on peut faire des remplacements comme ça.
Et puis à chaque fois, on essaye de synthétiser ce nouveau matériau,
où on a tenté un remplacement.
Et puis après, on fait tout un tas de tests,
en laboratoire, expérience, où voici ça marche.
Le problème de cette méthode, c'est que c'est très très long.
Donc pour synthétiser un nouveau matériau,
si tout se passe bien, ça va prendre déjà une journée,
et puis après, il faut faire tous les tests,
donc ça se quille le pas en fait.
Ça prend plus de temps, moins...
Voilà, voilà.
Alors une idée pour aller plus vite,
c'est d'envisager plus de candidats en amont,
de matériaux en amont, et de faire des simulations numériques.
Et alors, on pourrait se dire que les chercheurs,
ils ont voulu faire ça sur peut-être 1000 matériaux,
ou quelque chose comme ça.
Et bien en fait, non, ils ont mis la barre très très haut directement.
Ils ont envisagé au départ 32 millions de matériaux
pour essayer de trouver le bon électrolyde solide
qui a toutes les bonnes propriétés.
32 millions, ils ne sont pas allés de main morte.
Et en fait, avec un tel nombre de matériaux,
on ne pourrait pas faire les techniques habituelles
de simulation numérique,
parce que même si ça va plus vite que synthétiser le matériau
et après faire les expériences sur laboratoire,
c'est quand même assez coûteux les expériences de physique,
les simulations numériques de physique
avec du calcul haute performance.
Ça consomme beaucoup de ressources.
Ah oui, c'est fait dans le débat.
Enfin, tu fais pas ça sur l'ordi du labo, je suppose.
Oui, c'est ça.
T'as besoin de tout un super calculateur.
Alors là, ils ont utilisé le cloud Azure,
mais t'as besoin d'avoir une grosse échelle de serveurs.
Alors là, pour ce projet en particulier,
ce projet de recherche, ils ont utilisé 1000 VM.
Donc on voit que ça commence à être des machines assez costaudes.
Et en fait, la partie calcul haute performance
qu'elle permet de faire, c'est de faire les calculs de physique, justement.
Donc des calculs ont fait un petit peu des approximations.
On ne traite pas tous les électrons dans leur subtilité quantique et autre.
On fait un petit peu des approximations.
Mais il y a quand même des résultats assez bons.
Donc une méthode qui est beaucoup utilisée, c'est density functional theory,
qui permet justement de comprendre
où vont aller les électrons autour du matériau.
Il y en a plein d'autres.
Et comme ça, ils ont réussi à s'attaquer à 800 matériaux candidats.
Des millions initials, il reste d'intéressant, en fait, à ce moment-là.
Alors, oui, alors c'est ça.
Alors du coup, ça vous a la question de comment on est passé de 32 millions à 800 ?
Tu passes des 800, je n'ai pas encore dit comment on les avait,
à 23, en l'occurrence, candidats matériaux.
Il se trouve que sur les 23, il y en avait 5 qui étaient déjà connus,
donc on n'en parle pas.
Donc il en reste 18.
Et sur ces 18-là, en prenant des critères, disons, de prix,
à quel point le matériau est rare, les atomes sont rares, etc.,
on arrive à en sélectionner un seul.
Donc toute la partie calcul, haute performance,
elle te permet de passer de 800 à 23.
Et ça, c'est en utilisant 10 heures de calcul sur de l'ordre de 1000 VM.
Donc c'est déjà en bourrinant un petit peu.
Oui, donc tu ne peux pas faire ça sur 32 millions.
Et voilà, ça te prend déjà à 10 heures.
Et voilà, exactement.
Si on fait le calcul,
d'ailleurs je disais si on avait fait un laboratoire,
il aurait fallu un jour par candidat,
donc 32 millions de jours, sinon test 32 millions.
En fait, tu es déjà quasiment 100 000 jours.
Tu peux rentrer.
Quasiment 100 000 années, pardon.
Quasiment 100 000 années.
Donc...
Il peut avoir tous les data sotopteurs de la planète.
Aucune chance.
C'est juste impossible.
Aucune chance, oui.
C'est marrant, on dirait que c'est comme trouver une léguie dans la botte d'offres un peu.
Oui, c'est ça.
Ce sont des problèmes comme ça.
En fait, ils se sont mis eux-mêmes dans le problème, les chercheurs,
parce qu'ils auraient très bien pu dire,
on envisage moins que 32 millions de candidats.
Il aurait beaucoup mal de chance de trouver la candidate.
Nous, ce qu'on veut, c'est trouver là, perd le rare.
Enfin eux, ce qu'ils veulent, c'est trouver là, perd le rare.
Donc, on a vu la partie calcul de performance.
Et en fait, pour la partie passée de 32 millions à 800 candidats,
là, ça va être avec des modèles d'IA.
Et donc, en fait, les modèles d'IA,
ils permettent de franchir encore un cap en termes de vitesse d'exécution.
Parce que eux, alors ça représente quand même 70 heures de calcul sur les 1000 VM,
alors qu'on avait gardé que 10 heures pour le HPC.
Donc, ça reste le gros des calculs.
Mais c'est eux qui font le gros du filtre aussi,
de prendre tous les candidats et d'éliminer ceux qui n'ont pas une bonne conductivité,
ceux qui sont pas stables, etc.
Voilà, on va quand même beaucoup, beaucoup plus vite
avec les modèles d'IA, que avec les calculs hautes performances.
Salut ! Si vous appréciez Endorscore, vous pouvez nous aider de ouf !
En mettant 5 étoiles sur Apple Podcast,
en mettant une idée d'invité que vous aimeriez qu'on reçoive,
ça permet de faire remonter Endorscore.
Voilà. Telle une fusée.
Mais du coup, est-ce que tu as une fin...
C'est peut-être hors de partage, mais...
Comment... Quelle est cette magie ? Comment ça...
C'est vrai que ça a l'air magique.
Comment tu fais ?
Qu'est-ce que c'est que ces modèles d'IA ?
Modèles d'IA ?
32 millions, paf !
Soupoudrés de modèles d'IA.
Et vous obtiendrez des matériaux.
Comme sur les sites web.
Notre service.
Et...
AI Powered.
AI Powered.
Oui, exactement.
Surtout que la partie calcul haute performance,
c'était déjà les meilleurs logiciels pour faire ça.
Oui, mais en le coup, c'est connu.
Oui, le moléculaire.
C'est connu, ça existe depuis un moment,
mais ils sont sans arrêt à améliorer.
C'était déjà la pointe.
Donc arriver à faire mieux que ça,
de plusieurs ordres de grandeur comme ça.
C'est impressionnant.
Comment il faut...
Alors, il y en a...
Donc il y en a plusieurs.
Il y en a un dont j'aimerais parler en particulier.
Un modèle d'IA pour la science des matériaux,
comme ça, ou les simulations moléculaires.
Il s'appelle distributionnel graph-former.
Et...
En fait, c'est de l'IA générative
pour les matériaux
ou pour les molécules.
Donc, l'IA générative,
donc vous connaissez sans doute par les images,
et pour d'autres domaines,
mais je pense que c'est des images le plus connues.
Et là, on arrive à faire de l'IA générative
pour les matériaux.
C'est ça qui est fou, en fait.
Comment ça marche ?
En fait, distributionnel graph-former,
il faut lui donner en entrée une description
de qu'est-ce qu'on va mettre dans ce matériau.
Donc on lui dit, il va y avoir
tel atome, dans telle proportion,
disons un peu de lithium, un peu de sodium,
peut-être du chlor, voilà.
On lui donne quelques atomes,
on lui donne un petit peu les proportions.
Et lui, ce qu'il arrive à faire, c'est
à en trouver la forme 3D.
Et ça, c'est hyper important,
parce que c'est à partir de la forme 3D,
des matériaux, des molécules, qu'on comprend
comment les molécules interagissent entre elles,
quels vont être les propriétés des matériaux.
Donc ça peut être des propriétés thermiques,
comment ils réagissent, quand ils vont être chauffés,
ça peut être des propriétés de conductivité,
comment ils transportent, justement,
les ions lithium, par exemple,
comme on en a besoin pour les batteries.
Ça peut être plein de propriétés de différence,
on a besoin de connaître la forme 3D.
Et c'est exactement ce que va faire ce modèle d'IA
distribution et le graphomère.
Alors qu'un physicien, si je lui donne,
t'as tant d'atomes dans telle proportion,
il ne sera pas capable
d'imaginer à l'avance
à quelle va être la forme de la molécule
en 3D, c'est ça ?
Et oui, voilà, c'est ça.
En fait, c'est un peu...
On ne sait pas forcément, qu'on ne t'en est pas physicien.
Mais exactement.
Et en fait, c'est dur.
On en avait un petit peu entendu parler il y a 3-4 ans,
quand il y avait eu un modèle
qui s'appelle AlphaFold,
qui avait fait ça, alors ce n'était pas pour les matériaux,
c'était pour les protéines.
Mais c'était la même idée, on lui donnait
la suite de la séquence de la suite de la minée,
donc de quoi la protéine est faite.
Et AlphaFold, il arrivait à trouver,
enfin, il arrive à trouver
la forme en 3D.
Et c'est ça qui va permettre de dire
avec quel autre molécul la protéine va réagir.
Et voilà, ça vous la porte
à trouver de nouveaux médicaments, ce genre de choses.
Et ça, c'est un peu le même système,
mais appliqué au matériau du coup.
Voilà, c'est ça. Alors non seulement ça permet de traiter
pas que les molécules, mais aussi les matériaux.
Et en plus, là où AlphaFold,
il permettait de trouver uniquement
la forme la plus stable de la protéine.
Avec DistributionalGraph-Former,
on peut avoir toutes les formes 3D possible.
Parce que ce qui se passe, en fait,
c'est qu'un matériau ou une molécule, il n'est pas statique.
Il va avoir tendance à bouger un peu
autour de sa position d'équilibre.
Il fait sa vie, ouais. T'as toujours
un peu d'agitation thermique, tout ça bouge un peu.
Et donc du coup,
on voit que ça bouge, c'est vrai que c'est beau.
Et donc en fait,
pour comprendre toutes ces propriétés,
on a besoin de connaître non pas seulement
sa forme la plus stable, mais toutes ses formes
et de pouvoir donner une probabilité à chacune de ses formes.
Et donc c'est ça que DistributionalGraph-Former
est capable de faire.
Alors comment il arrive à faire ça ?
En fait,
donc je vous ai dit, c'est de liège néerative,
en fait c'est même un modèle de diffusion.
Et les modèles de diffusion, on les connaît
pour les images.
Et en fait c'est vraiment le même fonctionnement pour les matériaux et pour les images.
Donc comment ça se passe pour les images ?
En fait,
donc là si je parle de, par exemple,
Dali ou StableDiffusion,
tous ces modèles pour des images 2D,
en fait,
un modèle de diffusion, ce qui va faire,
c'est d'en prendre à déflouter des images.
Donc on part au départ d'une image
parfaite,
plein d'images parfaites, et puis
on va leur mettre des niveaux de flou de plus en plus important
pour entraîner le modèle.
Pour entraîner le modèle, absolument.
Et le modèle doit apprendre
à retrouver l'image de départ
à partir d'une version un petit peu plus floutée.
Et au début il n'y arrive pas très bien,
et puis il s'entraîne, il y arrive de mieux en mieux.
Et en fait,
on va le faire
pour des niveaux de flou
de plus en plus violentes.
C'est-à-dire que typiquement il va y avoir
1000 niveaux de flou différents.
Et le modèle au début il apprend
à déflouter un millième,
puis après il apprend
du flou de millième au flou un millième,
il apprend à inverser le flou, comme ça très progressivement.
Et ça c'est absolument magique,
parce qu'à la fin on donne au modèle
une image qui est entièrement constituée de flou,
et
en étape par étape,
en enlevant le flou comme ça,
on arrive à une image qui ressemble
aux images qu'on rencontre tous les jours.
Donc côté distributional graph-former,
il va se passer exactement la même chose,
mais avec des atomes.
Donc l'équivalent du flou
en mode science des matériaux, molécules,
c'est de faire bouger un petit peu la position des atomes.
Donc on part
d'un matériau ou d'une molécule qui existe,
on connaît exactement la position 3D
des différents atomes,
et puis on les fait un petit peu bouger,
ça c'est un petit peu de flou, le modèle apprend
à retrouver la structure initiale,
et ainsi de suite jusqu'à ce qu'il soit entièrement
entraîné, et là on peut lui donner
tous les atomes à des positions ordel,
à l'éatoire, exactement, tous
centrés sur le même point.
Voilà, c'est ça.
Et puis chaque atome a une probabilité
indépendante des autres d'être ici.
Ils sont tous indépendants les uns des autres au départ,
exactement comme côté image, quand les pixels
s'étendent, on les prend les tous de façon aléatoire.
On utilise le modèle de diffusion
dans le sens inverse,
ça enlève le flou et ça a recréé
des molécules comme ça. Et donc bien sûr,
si on donne des nouvelles compositions
d'atomes, on arrive à avoir un nouveau matériau.
Quand tu dis, c'est logique,
mais c'est quand même fou.
En fait, c'est comme, tout comme
les modèles de diffusion d'image,
on réussit à se citer
après l'itération, à se construire
une sorte de modèle du monde
en 2D
et ça doit être
avec quelle forme
existe dans notre monde.
Exactement, comment tu génères un œil, un visage, tout ça.
En fait, il s'est fait un annuaire des images existantes
dans notre vie. C'est ça, mais qui l'a réussi
à généraliser. En fait, il se passe la même chose
sur les atomes. C'est comme si
ton modèle arrivait à avoir une compréhension profonde
de comment
des atomes se structurent en 3D
dans l'espace. C'est dingue.
Et moi, ce que je trouve fou, c'est que ce soit
à peu près le même genre de technique
qui marche pour différents domaines qui ont
à priori un petit peu rien à voir comme ça.
Alors, partir de ça, ça veut dire que
ils sont capables
de
dire très rapidement
la structure 3D
de ces atomes-là et donc
si ils vont être conducteurs, etc.
Et voilà, c'est ça. On passe par les tapes structure 3D,
toutes les structures 3D avec leur poids
et ça nous donne les propriétés
et donc, c'est comme ça qu'on peut mettre en place
le filtre qui nous faisait passer de 32 millions
de candidats. En fait, on élimine
tous les matériaux qui sont pas stables. Il en reste que 500 000
et puis après, ça descend comme ça
et on en garde que 800 qui sont les plus prometteurs.
Alors, il y a quand même besoin
de faire l'étape, calcul, haute performance
sur ces 800-là, parce que
les modèles d'IA, on le sait, parfois
il peut y avoir des erreurs.
Donc, on est
sur le compromis
de temps précision. On est vraiment, on a tout
misé sur le temps, en fait, avec les modèles d'IA.
On veut que ce soit le plus rapide possible,
mais sur la sous-selection la plus prometteuse
on refait tourner les calculs plus précis,
donc là, calcul haute performance.
Ok, est-ce que tu peux juste réexpliquer
cette deuxième étape de passer de 800 ?
Parce que je sais qu'on est passé un peu vite,
parce que c'est peut-être des trucs qui existent depuis plus longtemps,
mais on peut se reattarder
dessus sur comment ils sont passés de
cette présélection à 800 à
l'unique échantillon
qui sera prémodélisé par le labo,
qui a vraiment été fait, d'ailleurs, vous allez voir.
Oui, oui, oui.
Et là, en fait, les calculs qui vont être
faits, ça va être
dans un premier temps des calculs
de structure électronique.
Donc, vraiment, une fois que les atomes ont décidé
de où ils étaient, il faut comprendre
comment le nuage électronique va se mettre autour.
Et donc, ça,
ce qu'on fait, c'est qu'on modélise
l'électron en donnant uniquement sa probabilité
d'être à tel ou tel endroit. Donc c'est un petit
peu moins précis si on donnait vraiment sa fonction
d'onde quantique, mais c'est déjà vraiment pas mal.
Évidemment.
C'est déjà vraiment pas mal.
Et puis après, il y a d'autres calculs
qui vont être plus de dynamique moléculaire
où là, on s'intéresse justement au petit
mouvement autour d'une position d'équilibre.
Et donc, ça permet à partir de
une seule forme 3D
de trouver les autres, parce qu'on regarde
les variations par rapport à une position d'équilibre.
Et donc, c'est tout ça que t'appelles des
simulations de la physique
de l'équilibre.
C'est ça. C'est la
méthode traditionnelle
pour faire des simulations numériques
de physique. On résout en fait les équations
de la physique, parce qu'on sait
les charges de signe opposées
vont s'attirer. Donc à partir d'un état initial
et des fonctions de la physique
et des équations de la physique, on sait prédire
les états suivants, mais du coup, ça prend
beaucoup de puissance de calcul. Voilà, c'est ça.
Et on est quand même obligés de faire certaines approximations
parce que sinon, ça prendrait
encore plus de puissance de calcul. Et là, du coup,
il y a combien d'ordis qui ont bossé
sur cette étape de passer du 800 à 1 ?
Alors là, il y avait 1000 VM, 1000
machines virtuelles et ça a pris 10 heures.
Alors que
pour la partie
32 millions à 800 avec les modèles
d'IA, c'était aussi 1000 VM, mais ça a pris
70 heures. Donc c'est quand même
beaucoup plus rapide pour les modèles
d'IA, parce qu'ils ont traité 32 millions de
candidats. C'est hyper intéressant de voir
effectivement l'usage
malin de l'IA pour
dégrossir le tarif.
Tout en sachant qu'elle peut faire des bêtises
et du coup, la fin, il faut la faire
à la main. C'est
fascinant. Ouais, non mais complètement.
Et du coup, si on revient sur ces modèles
de diffusion, en fait,
ce qu'on arrive à faire, c'est en mettant les atomes
tous au même endroit, ou en mettant des pixels
aléatoires au début, à retrouver
dans un cas un matériau viable
et dans l'autre cas, une image
qui ressemble à quelque chose.
Et alors, et donc on a expliqué que c'était
avec le modèle de diffusion. En fait, il y a
une petite subtilité à cet endroit-là
qui va expliquer
pourquoi d'Ali
ou StableDiffusion, on peut leur donner
un prompt en entrée. On peut leur donner
du texte et ils vont créer une image
qui correspond à ce texte. Ah oui, parce que
jusqu'ici, tu as expliqué juste que tu pouvais
défrouter, mais là, le texte, il dépend
encore dans l'équation. Et là, en fait, ce qu'il faut
bien se dire, c'est que
il y a parmi
toutes les images qui existent,
si on met des valeurs aléatoires
à chaque pixel, on n'aurait typiquement pas du tout
une image qui ressemble à quelque chose.
Une image qu'on aurait pu dessiner
ou prendre en photo, ça arrive très rarement.
Donc, si on pense
dans l'espace des pixels,
le sous-ensemble des images qui ressemblent
à quelque chose, vous voyez ce que je veux dire,
il est tout petit, en fait. Et ça, ça fait
que le modèle de diffusion, il n'est pas
très efficace si on le fait tourner directement
sur l'espace des pixels. Donc,
une méthode qui fonctionne bien, c'est
de compresser l'information
en calculant
une représentation de l'image
mais qui n'est pas du tout sous la forme
que nous, on aime bien, sous la forme de pixel.
Ça va être, par exemple,
ça peut être juste 1500 nombres
qui représentent le sens
de cette image. Qu'est-ce qu'on va y voir dessus ?
Et donc,
si on a cette représentation compressée
pour les images et qu'on a aussi une représentation
compressée comme ça, pour le texte,
en fait, il y a la possibilité
d'essayer d'aligner les deux. Et c'est ça
qui va nous permettre de générer une image
qui correspond à un certain prompt. Alors,
comment les chercheurs alignent les deux ?
En fait,
là aussi, c'est une question de données.
Ils partent de beaucoup
d'images dont on connaît la légende.
Et puis, il faut en sorte que
la légende et l'image
qui sont associés
correspondent à des représentations compressées
qui sont égales. Et une fois qu'on a fait ça,
ça permet de boucler la boucle et donc
de mettre en entrée un prompt
de dire que j'aimerais bien avoir telle sorte d'image,
on calcule
la représentation compressée,
et ensuite on fait tourner le modèle de diffusion
sur cette représentation compressée,
ensuite on revient dans l'espace des pixels,
et voilà, ça nous donne l'image générer ainsi.
Côté
molécules à tombe, c'est la même chose. Donc, si on repense
à la distribution de graph-former, il va y avoir
aussi la possibilité de conditionner
sur les propriétés qu'on a envie
d'avoir à la base.
Donc, c'est-à-dire que tu peux, tout comme
avec un modèle de diffusion d'image,
tu peux demander telle ou telle typologie
d'image, un paysage
ou un style de graphique, etc.
Là, tu peux
mettre dans un prompt
des propriétés de ta future molécule,
c'est ça ?
Voilà, en gros.
Alors oui,
on peut pas demander tout et n'importe quoi,
mais il y a moyen de raffiner
un petit peu et de lui demander
mieux qu'un matériau aléatoire, c'est ça que je veux dire.
Et donc,
en fait,
ça, ça nous explique comment on arrive à passer de 32 millions
à 800.
Et avec
cette méthode-là, donc distributionnel graph-former,
on arrive
à faire ce gros calcul.
Et le candidat,
donc je vais vous donner sa structure
de quel ato bien est fait, le candidat qui a été retenu
qui a passé tous les filtres
et qui est peut-être le futur des batteries
avec un électroïde solide,
il va être constitué en l'occurrence
de sodium, de lithium,
d'ytrium et de chlor.
Donc voilà, dans des proportions peu importe lesquelles.
Mais c'est celui-là le candidat
le plus prometteur qui a été retenu.
La perle rare.
Il aurait été introuvable probablement
à part un hasard phénoménal.
Si vous n'aviez pas
à brute-forcer le truc en gros.
Oui, voilà, c'est ça.
Et donc la question qui se pose maintenant
pour ces chercheurs de Microsoft et de PNNL
c'est
de faire maintenant
tous les tests pour voir si
ce matériau passe l'industrialisation.
Ils ont commencé à faire quelques tests.
De le passer dans la vraie vie en fait, le nostre fait un ordinateur.
Mais voilà, on n'est pas encore à l'industrialisation,
le passage à l'échelle, tout ça.
Et donc peut-être que ça va être celui-là
qui sera dans toutes les batteries du futur.
Peut-être pas. On n'est pas sûrs encore.
Moi,
je trouve que c'est pas ça le plus important.
Finalement, dans cette histoire,
ce que j'ai envie de retenir encore plus
que peut-être que l'on va trouver le matériau pour les batteries
c'est la méthodologie que je trouve absolument folle.
Et qui est nouvelle en fait.
C'est une nouvelle, pas forcément pour cette fois-ci,
mais depuis quelques années.
Oui, c'est ça parce qu'on voit que là,
il y a ce boom de lia,
les modèles de diffusion ça fait pas si longtemps que ça qu'on en parle.
Donc on voit qu'il y a des nouvelles techniques
qui permettent de passer à l'échelle
si on avait fait uniquement du calcul de performance
même en utilisant les 1000 VM qui ont été utilisés
par les chercheurs pour ce projet.
En fait, ils auraient pas pu traiter
32 millions de candidats matériaux.
Et donc on voit tout de suite qu'en changeant d'échelle comme ça,
on augmente drastiquement nos chances
pour les batteries mais aussi pour plein d'autres domaines
en sciences des matériaux,
en recherche de nouveaux médicaments.
Enfin voilà, les applications sont assez variées.
De chercher de façon plus efficace.
On sait pas exactement ce qu'on va trouver
mais on sait qu'on peut chercher de façon beaucoup plus efficace.
On a débloqué un bon nom
de mon outil.
Et comme ça, c'est dur de prédire dès maintenant tout ce qui va être possible.
Déjà honnêtement, je suis pas sûr que les gens
qui ont théorisé les modèles de diffusion
s'attendaient à ce qu'ils soient utilisés
en sciences des matériaux.
C'est pas sûr.
Ouais, il faudrait leur demander.
Et est-ce que ça... du coup, il a été synthétisé ?
Et voilà, ils ont été jusqu'à le synthétiser.
Et maintenant, ils font les tests
pour voir si ça passe à l'échelle, si ça coûte pas trop cher.
Mais donc on peut le voir,
on a des images de ce matériau.
Cet électroïde solide
synthétisé
il a ensuite eu des traitements thermiques,
des traitements mécaniques où il est compressé
par une presse.
Donc c'est très très concret, cette histoire.
C'est l'image avec des tubas SC et ce n'est jamais.
Du coup, on sait pas encore
à quel niveau de déficacité énergétique
on peut obtenir avec ça.
J'imagine qu'il y a pas mal d'étapes avant de passer
à une vraie batterie qui pourrait être
subir des tests industriels.
Oui, exactement. Alors j'ai pas le chiffre en tête
de la densité énergétique qu'on pourrait faire.
Je sais que
globalement, c'est très souvent le cas que les électroïdes
solides, ils aient une meilleure densité énergétique
que les électroïdes liquides.
Donc ça c'est un point fort après-midi.
On sait pas encore prédire
en termes d'heures de batterie.
Ce qu'on pourrait avoir.
Très très stylé. Franchement, j'espère que
tout ce qu'elle me chiale, ça vous a pas trop perdu
que vous avez trouvé ça intéressant.
Mais effectivement, comme tu dis,
évidemment,
au fond de nous, on a tous envie
d'augmenter telle ou telle graphe
sur notre config
sur la prochaine presse Apple
ou sur notre prochaine laptop.
Mais c'est vrai
que dans le fond,
le plus fascinant de l'histoire,
c'est l'ingéniosité
des équipes de Microsoft AI
et de l'OTLabo.
Pour arriver à ce résultat-là, c'est assez fascinant.
Et de leur horloge, je déviens un peu du fiers,
mais
toi, la dernière fois que t'étais venu,
c'était pour nous parler de quantique.
Aujourd'hui,
sur quoi tu travailles ?
Je suis complètement dévoué.
J'ai pas travaillé sur ce projet-là en particulier,
mais j'ai pu appeler
certains des chercheurs
qui avaient eux travaillé dessus,
qui ont pu m'expliquer en détail.
Et donc, moi, je continue de...
Pas à ma connaissance.
Non, non, non.
Et moi, je continue de travailler
beaucoup sur le quantique.
Donc, sur...
essayer de trouver
des codes correcteurs quantiques
pour que la mémoire quantique soit plus fiable.
C'est mon sujet de prédilection
qui était déjà le mien avant.
Et je regarde un peu...
pas en mode recherche, mais plus en mode
veille technologique suivie,
toutes les nouveautés de l'IA
qu'on voit en ce moment, qui sont absolument fascinantes.
Je me trompe, mais est-ce que
malgré que tu n'es pas boussé-tu,
en fait, il y a des...
une intersection non négligeable
que tu nous parles de la désimulation
de faire la simulation numérique
de la physique, etc.
En fait, c'est le genre d'outil...
Est-ce que c'est le genre d'outil
que toi, t'as l'habitude d'utiliser, par exemple, ou...
Alors, je pense que les gens
qui vont utiliser ces outils, c'est quand même
des chimistes computationnels,
des gens qui font la science
des matériaux computationnels, qu'on va trouver
dans des labos de R&D,
de beaucoup d'entreprises.
Donc, moi, ces outils
précisément,
je les utilise plus
pour les tester, que pour vraiment...
C'est pas moi qui vais découvrir de nouveaux matériaux, c'est-à-dire.
Non, mais c'est vrai que maintenant,
tu bosses aussi un peu sur l'IA, alors même
si tu fais pas de la recherche, parce que
tu te dévalorises, c'est pour ça que je me permets de...
Mais tu travailles beaucoup sur
ce que sort Microsoft
et sur tous les outils d'IA.
Oui.
Tu présentais ce projet
à des gens que
j'arrive plus à parler, mais que globalement,
tu avais bien connaissance de ce projet et que tu l'utilisais
dans ton travail...
Oui, oui, oui, présentais ce qui est possible de faire
avec les outils de...
de Microsoft.
Oui, c'est ça, parce qu'en fait, effectivement,
là, j'ai beaucoup parlé du projet de recherche,
mais il y a un service cloud qui est associé,
qui s'appelle Azure Quantum Elements
et ce service, il permet
de, justement, de faire ce genre de calcul
et il va mêler
calcul de performance, model d'IA
et il est accessible dès aujourd'hui
sur Azure, sur le cloud.
Il est en préversion privée
actuellement. Donc ce que ça veut dire
concrètement, c'est qu'il faut
contacter des équipes
Microsoft Azure Quantum Elements
ou me contacter moi et je transmets
pour pouvoir utiliser ce service.
À l'accès privé. Ok, très intéressant.
Mais en tout cas, en vrai, je trouve
c'est un peu célébré que les data centers
que tu saches que
un des trucs qui te rendent sur des data
sur des data centers, pardon,
c'est des modélisations à grande échelle pour qu'on trouve
des... pour la recherche.
Tout le monde ne fait pas ça, enfin, c'est un truc
que tu ne retrouves pas dans n'importe quelle boîte.
Donc franchement, très stylé.
J'espère en tout cas que ça vous a intéressé
et nous, ça faisait longtemps qu'on...
Enfin moi, ça faisait longtemps que je m'intéressais
à ça de loin, mais sans qu'on proche
vraiment tout ce qui se jouait derrière
et sans même savoir qu'il y avait des rapports
avec... Sont-t-on pas tous les jours ici ?
Oui, ben moi, également,
j'ai découvert en discutant avec Vivien
qu'il y avait des choses très intéressantes
à raconter sur ce sujet.
Très très stylé. Et puis
sans plus d'attendre, nous allons
clore cette émission qui était...
Alors je me permets parce que j'aurais dû te le dire
dans l'Oriette, mais il n'y a pas d'Oriette.
Il n'y a pas d'Oriette.
Mika est revenu et nous possédons
un compte Apple US.
Voilà les informations.
Tu en fais ce que tu veux.
J'ai pas la rêve. Il se peut que...
Si je veux raconter cette anecdote, je pensais même pas
à la raconter en émission,
mais je vais la raconter. Ah si, c'est bon, j'ai la.
Il se peut que... Il y a
deux émissions. On est
reçus. Tina, qui est
une développeuse...
pour...
Développeuse spatiale, on a dit ça. ARVR.
Qui nous a fait essayer l'Apple Vision Pro.
Après l'émission.
Après l'émission, exactement.
Et alors que j'avoue, avant...
Ce n'était pas ma grande passion,
j'avais pas d'envie particulière qu'on en ait ici.
Il faut dire qu'il y a un effet
avant et après au niveau de la démonstration.
C'est entre les images que tu vois dans les futbets.
Et la réalité...
Là, ce moment-là,
en fait,
tu te prends quand même une sacrée claque.
Et ce que j'ai dit à l'équipe, c'est qu'il n'y a aucune raison
qu'on achète ce truc.
Oblictivement.
La seule possibilité,
ce serait que...
qu'on revende du matériel qui traîne dans les placards.
Parce que ici, on a beaucoup.
La boîte a quand même 6 ans maintenant.
Et donc, ça cumule, tu sais, du matos qu'on utilise,
plus des écrans, des lights,
des trucs comme ça.
Donc, je leur ai dit, je veux bien acheter un Apple Vision Pro.
Si vous arrivez à atteindre la caniote
de 3500 dollars.
Et oui, ça peut vous paraître étonnant,
mais en vrai, dans une boîte de moyenne taille
pendant des années,
tu trouves 3500 dollars de matos.
Ils ont réussi à vendre tout ça.
Après, un mois, je crois, si je n'ai pas de bêtises.
Mika a réussi.
C'est vraiment Mika, que la putain.
C'est vraiment une déterre.
Et du coup, on a acheté l'Apple Vision Pro.
Mais on n'a pas encore...
On n'a pas encore déballé.
On a pas déballé.
On a dit qu'il est là, mais on n'a pas déballé.
Et donc, ça se trouve,
on n'a aucune idée de faire quoi que ce soit.
Mais peut-être que,
typiquement, s'il y a des applis vraiment sympas
ou si nous, on a des idées de concept à faire,
peut-être que vous aurez des chroniques
à base d'Apple Vision Pro.
Ou peut-être pas.
Clairement, je ne m'engage à rien.
Mais ça pourrait arriver en tout cas.
C'est vrai que faut que je dise à Tina qu'il y a eu
une influence.
On n'avait pas de code d'affilier.
Ah ouais, ils ont pas ça.
Bref,
sur ce, je vous propose de clore
cette soirée.
à 2 semaines, on se revoit mercredi
à 19h.
N'hésitez pas à follow cette chaîne Twitch.
Et à vous abonner, c'est pour ceux qui sont arrivés en cours de route
et qui ont raté la chronique de Mathieu sur la cartouche oubliée de Magdo.
Ou ma chronique sur la génération 3D.
N'hésitez pas
à les voir sur la chaîne YouTube.
Ce sera publié bientôt. Et à vous abonner.
Peut-être on peut faire un mini rappel sur le mail.
Oui, effectivement.
On a imploré un nouveau truc.
Avec le mail
onerscoreobasmic.studio
vous avez la possibilité de nous envoyer des idées.
Si vous avez des intervenants
que vous aimeriez qu'on reçoit
ou des papiers de recherche
ou on sait peut-être un peu...
Globalement des intervenants,
ou alors vous-même qui avez fait des choses
qui vous correspondent.
Si vous avez fait des trucs très stylés,
n'hésitez pas à nous envoyer un mail.
Et si vous voulez savoir,
c'est quoi un truc stylé, vous regardez sur la chaîne YouTube.
Et vous avez un petit thème.
Et sur ce, je vous souhaite une excellente soirée.
Très bonne soirée.
Il y a dans deux semaines. Salut.