Pourquoi Banque Populaire est la première banque des entreprises ?
Je me posais des questions sur le partage de la valeur pour mes salariés.
Elodie, ma conseillère Banque Populaire, m'a proposé une solution d'épargne salariale sur mesure,
rapide à mettre en place et que je peux piloter en ligne.
C'était simple et surtout ça a fait des heureux.
Accompagner nos clients sur tous les territoires avec des solutions adaptées à leurs besoins,
c'est ça, être la première banque des entreprises, Banque Populaire, la réussite est en voulue.
Étude Quantar PMEP, mid-2023, 14 Banque Populaire, 1ère Banque des PM.
Sans plus attendre, ce que je vous propose, c'est de passer au nouvel.
Et ça c'est hyper original comme mouvement.
Vous n'avez pas vu ?
Ok.
Bon, petite news.
Et aux petites news de la... De petites anecdotes, d'ailleurs, on a choisi la même news avec Mathieu, ce qui n'était jamais arrivé.
C'est la première fois que ça arrive.
Je crois que c'est même pas que j'ai vu tu en retweet.
Vraiment, je l'ai vu.
Non, non, je pense...
Appelépordamment.
Tous les deux, ça nous a... Aïpé.
Ça nous a fasciné et je te la laisse.
Ah ouais ?
Oui, je te la laisse parce que je t'en ai trouvé une note de rechange.
Incroyable.
Du coup, c'est un tweet d'Astropiaire que je vous invite à suivre,
parce que visiblement on a tous les deux bien aimés.
Et je pensais pas qu'un jour je parlerais juste d'une banale mise à jour dans une news underscore,
mais c'est vraiment le cas et je trouve ça incroyable.
En gros, il y a eu un problème sur la sonde Voyager 1, qui est donc vraiment une sonde qui a été lancée,
mais il y a super longtemps, en 1977, à l'époque, c'était codé, semble-t-il, en Fortran.
Fortran 5.
Fortran 5, très exactement, Fortran 5.
Et en fait, c'est une sonde qui a été lancée pour quel parcours le plus de kilomètres possible.
Donc là, elle est sortie de notre système solaire, elle est à 24 milliards de kilomètres de distance.
En fait, ils ont eu un problème sur la sonde, c'est qu'elle ne transmettait plus d'informations.
Elle n'envoyait plus en fait ces rapports sur la Terre.
Et donc, du coup, depuis 2022, ils ont dû faire un patch, faire une mise à jour pour régler ce souci.
Et déjà, se dire qu'il y a des ingénieurs de la NASA qui ont dû travailler sur du code Fortran 5 pour mettre à jour ça, c'est incroyable.
Le marché n'est pas énorme, mais bien payé.
Je pense qu'ils ont dû le tester avant de le mettre en prod mes 15 milliards de fois.
Et moi, ce qui me termine de rire, c'est vu que c'est à 24 milliards de kilomètres,
ça met 18 heures à la viture de la lumière.
C'est-à-dire qu'ils ont lancé la mise à jour et se sont dit, on va prier pendant 18 heures.
Et en 18 heures, on saura si ça a marché.
Le pay était bien arrivé.
C'était pire, mais quoi.
Et vraiment, je trouve ça incroyablement sympa.
Et du coup, ils n'ont pas de chaussies voyageurs d'eux.
Dans le même temps, j'étais seulement à 18 milliards de kilomètres.
C'était une formalité.
Effectivement, parce que très peu de deploye durent aussi longtemps.
Oui, c'est...
Une intégration continue qui durent 18 heures.
A priori, normalement.
Oui, c'est...
C'est trop de l'intégration continue.
Le concept est...
En vrai, il me semblait que c'est incroyable qu'elle marche encore.
Parce qu'elle était plus émarchée aussi longtemps.
De fous.
Un moment, elles vont décider.
Écoute, on ne sait pas quand.
Je ne sais pas l'info dessus.
Tout le monde est étonné que ça fonctionne encore.
Non, mais c'est une merveille.
Et c'est fou.
Tu vas bien se le faire.
Tiffanie, petite news.
Oui, désolé.
Moi, j'ai une petite backup.
Qui est simplement un tweet que j'ai vu passer, qui je trouve assez original.
Je ne sais pas exactement quel est l'appareil qu'ils utilisent pour faire ce genre d'analyse.
Mais en fait, c'est les entrailles de Airpods d'Apple, les originaux, versus des copies chinoises.
Et en gros, ça vous permet de comprendre pourquoi il y en a un qui coûte 4 fois plus cher que l'autre.
Concrètement, ce qui se passe à l'intérieur de ces deux objets, qui à l'extérieur, on l'aire parfaitement identique.
Et en fait, pas du tout.
Il détaille un petit peu si vous voulez aller voir le stress, c'est vraiment bien fait.
Et ça permet de voir notamment la densité de composants.
En fait, c'est vachement vide, les copies à droite.
Oui.
Ils montrent aussi, ils s'arrêtent un peu plus bas, ils s'arrêtent sur les soudures.
Tu vois que c'est dégueulasse, tu as des petits bouts de métal qui dégoulinent.
Et alors qu'Apple, ils ne font pas soudure, je j'oublie le terme exactement, directement sur la carte de bière.
C'est propre, quoi.
Exactement.
Ok, assez marrant.
Ils ont trouvé d'autres trucs.
Il n'y a pas de mouchard caché qui a voité donner un chine.
Mais je trouve ça marrant de voir visuellement la raison qui fait que c'est...
l'explication du faible prix de ces clones.
Peut-être qu'il y a un mouchard caché, mais on ne le sait pas.
Oui, c'est pas le propos.
C'était pas le propos.
Mais est-ce que ça vaut vraiment, du coup, le prix que ça coûte ?
Et les copies ou l'avner ?
Non, les vrais.
Je pense qu'ils ne s'aient pas prononcé dessus parce que c'est trop subjectif, quoi.
C'est comme toujours dans les appareils d'Apple, le prix des composants, c'est un dixième.
Il y aurait assez de la R&D, du marketing.
Et surtout, sur l'audio, c'est assez simple de faire des contrefaçons de moins bonnes qualités.
Parce qu'il suffit de mettre...
Tu prends tous les composants en audio faible qualité.
T'en trouves plein et ça coûte en effet dix fois moins cher.
Mais du coup, t'as beaucoup d'aigus, t'as beaucoup de médium et t'as beaucoup de basses.
Ça, c'est un truc très classique dans les contrefaçons en termes d'audio.
Et surtout, c'est contrairement à de l'image, c'est pas instantané.
C'est-à-dire que des gens qui ont l'oreille, ça va leur faire saigner.
Et souvent, il faut faire un comparatif pour s'en apercevoir, pour porter l'un et l'autre.
Oui, c'est assez relatif comme différence.
Mais c'est marrant parce que c'est pas la première fois que je vois ces derniers mois-là,
des images comme tu as montré de city scan, je crois, on a vu.
Je pense qu'il y a un... je sais pas si quelqu'un a acquis la machine ou quoi
et s'amuse à faire toutes les expériences du monde.
Je sais pas si c'est la même personne ou si c'est la même société, etc.
Il fait des traits de régulièrement, ça va être tout et rien.
C'est factuellement très joli à regarder.
Même si je comprends pas tout, c'est très joli à regarder.
C'est un bon système.
Et sur ce, je vous annonce le petit programme, le petit programme de la soirée.
On va commencer avec une chronique de moi pour commencer, tout simplement.
Est-ce qu'on est tous fatigués ce soir ou pas ?
Pour ceux qui n'ont pas suivi, il y a eu...
Enfin, forcément, il y a des annonces mais tous les deux jours,
or, moi, j'ai pas fait de chronique.
Il y a depuis à peu près six mois, donc je suis en manque là.
Donc je dois pas lire ça.
Et vous faire une mise à jour de tout ce qui a été annoncé la semaine,
notamment par OpenAI.
J'en ai encore quatre autres des sujets, en fait.
Mais clairement, on m'a fait comprendre qu'il fallait que je me calme.
Je sais pas, mais je sais pas.
Là, on a rien dit du tout.
Mais je voulais sortir petit à petit parce que je sais qu'il y en a qui aiment bien,
il y en a qui n'aiment pas.
En même temps, c'est l'actu.
Exactement.
C'est là que tout le monde...
Tiffany, tu boses dans le lien.
C'est quoi cette impartialité ?
T'essaie l'actu quand même.
Vous allez voir, je vous ai dégoté les petites démo vraiment très très stylées.
Après, on aura une chronique de Mathieu sur les processeurs M3.
Ce sera pas simplement un petit résumé comme moi.
Je vais le faire avec la compréhence d'OpenAI.
Mais tu vas un peu nous expliquer les coulisses de la création de CEPUS,
notamment des semi-conducteurs, des trucs comme ça.
Et un peu la stratégie cachée.
La stratégie cachée.
Bon, je pense qu'il y a derrière ces processeurs, finalement.
Et en troisième partie, vous avez intérêt à être encore avec nous parce qu'on est trop contents.
On va savoir, enfin, une boîte que tu suis Mathieu depuis un certain temps.
Qu'on attend.
Je veux dire qu'on attend d'avoir dans l'émission quand même.
Qui s'appelle Alice et Bob.
En une phrase, comment tu...
Vraiment, c'est des Français.
Ils sont pas très nombreux.
Ils fabriquent même un ordinateur quantique face notamment à Google et IBM.
Voilà.
Voilà !
C'est vraiment incroyablement stylé ce qu'ils font.
Et en plus, là, ils viennent, non seulement avec des images incroyables d'ordinateurs quantiques.
Je me suis spoilé.
C'est vraiment très beau.
J'ai pas vu.
Et une qualité de production qui est...
Ils pourvoient les images et ils font...
Ah ouais !
Et pas mal.
Mais surtout, ils viennent avec...
Pourquoi ils pensent qu'ils peuvent arriver à faire un truc de malade ?
Et la technique derrière, comment ça fonctionne ?
Un ordinateur quantique.
Et quel est le défi actuellement pour qu'on puisse arriver à avoir...
Parce que pour l'instant, on n'a toujours pas d'algorithmes quantiques qui fonctionnent réellement.
Il y a un peu des batailles de com à la con.
Mais eux, ils vont nous expliquer vraiment pourquoi et ce qu'ils font eux de leur côté.
Et ce n'est pas un procédé de narration.
C'est-à-dire quand on vous dit qu'ils ont vraiment des chances, parfois on exagère un peu.
On dit, ils vont peut-être dépasser à ma zone.
Mais non.
Là, c'est pas faux quoi.
C'est vraiment...
Peut-être qu'ils vont vous regir.
Et moi, ce que je dis, c'est que ça se trouve dans dix ans.
Tout le monde connaîtra le nom d'Aly Cébob.
Peut-être pas.
Peut-être pas.
C'est voilà.
Il y a plein d'étapes à faire.
Ils ont plein de travail à faire.
Ce qui est sûr, c'est que ce serait dommage de la décision.
Ça, c'est de travailler à l'entraînement.
En plus, attendre, je propose de passer à la chronique.
Ce que je vous expliquais, c'est qu'on essaye ici de ne pas vous inonder
de trop de nouvelles dans un lien.
Mais là, faut que...
Voilà, faut que ça sorte.
On peut savoir que tout le monde a décidé de sortir en même temps les plus grosses nouveautés
en novembre 2023.
Y compris OpenAI, qui lors d'une grande...
Qui qu'on attendait depuis quelques mois, qui n'avait pas fait beaucoup de bruit,
mais qui lors d'une grosse conférence a balancé d'un gris sur d'un gris.
Et je ne dis pas ça pour faire comme les threads Twitter un peu énervants.
C'est vraiment, vraiment intéressant.
Et c'est...
Chaque nouveauté, c'était un truc que j'attendais en fait.
Et c'est ça où je trouve qu'ils sont très, très forts quand même
pour arriver à se synchroniser sur l'attente des gens.
Ce qui est un truc qui est facile à planter.
Là, tout ce que je vais vous présenter, je vais le faire par ordre du plus évident,
dans tout le monde parle, jusqu'au truc dont on parle moins,
mais qui sont pour moi même encore plus intéressants.
Et vraiment, chaque truc est impressionnant
ou va vraiment changer quelque chose, y compris nous pour la boîte.
Enfin voilà, je sais qu'il y a beaucoup de choses qui vont nous être directement utiles
et à vous aussi peut-être.
Ce qui était assez marrant, c'était de voir,
juste après la flopée de tweets de gens qui expliquaient que leur startup venait disparaître.
Ah oui !
Tout simplement.
Quand quelqu'un a demandé combien de startups n'ont pas disparaît.
En plus, il a arrêté de faire ça.
Nan mais, il faut l'avouer, il y a énormément de startups
et de soi-disant applis qui sont en réalité des rip-offs
des appels d'open eyes avec juste un prompt ou deux qui changent, pèrement.
Mais du coup, normalement, tu t'y attends un peu.
Et on s'attend à ce qu'elles aient des durées de vie relativement faibles.
C'est un peu comme Apple quand ils implémentent
une super appli qui était sur l'app Store mais en natif
avec leur propre version hyper intégrée.
C'est une boîte qui coule.
Mais souvent Apple, ça met deux, trois ans.
Là, c'est vrai qu'ils ont été rappelés.
Là, la durée de vie des startups, c'est zéro
parce que comme vous allez le voir, il y a des fonctionnalités qui vont permettre
de faire en sorte qu'on n'ait plus besoin de passer par des services extérieurs
qui viennent combiner Charge-EPT avec de la vision, avec de l'intelligence,
avec des prompts, etc.
Là, ils ont imaginé un système de marketplace directement intégré
où on peut créer des chatbots custom.
Alors, qu'est-ce que c'est exactement ?
Est-ce que c'est du fine tuning ?
Ce n'est pas leur nom.
Est-ce que c'est quand même quelque chose de très puissant,
malgré que ce n'est pas du fine tuning ?
Oui, je vais vous expliquer ça en détail.
Concrètement, quand on réfléchit à comment est-ce qu'on peut customiser le comportement d'un chatbot,
on a accès à quoi ?
Tiffany, tu me dis si je dis de la merde.
De ce que j'ai bien compris, on a accès.
On peut modifier le prompt du système,
ce sont les premières instructions qui guide le plus le comportement d'un chatbot,
la manière dont il va parler,
et même dans son arbre statistique,
où est-ce qu'il va se déplacer pour fournir des réponses d'experts dans tel ou tel domaine ?
On peut modifier des documents.
Par exemple, si le chatbot a accès à des fonctions,
comme c'est le cas maintenant souvent,
c'est plus seulement de la génération de textes,
mais ça devient des assistants qui peuvent appeler des fonctions
qui évoluent dans un univers sans deboxer sur les serveurs d'open AI,
on peut modifier quelles sont les outils auquel cet assistant a accès.
Par exemple, là, tu peux créer un super assistant de la finance
à qui tu fournis par exemple des CSV qui contiennent toutes les performances récentes
de Tesla, Apple et compagnie,
et cet assistant va pouvoir requêter,
pendant que tu lui parles,
sans même que toi tu te rends compte qu'il va pouvoir requêter ces documents.
Et de réfléchir si je vois d'autres exemples,
mais je pourrais imaginer un chatbot qui est spécialiste de midjournée
et qui a dans sa base de données énormément d'exemples de super prompts qui marchent vachement bien,
et il a la documentation aussi complète du service dans son local storage en fait,
et à chaque fois que tu vas lui parler, toi, t'es même pas au courant,
mais derrière, en tâche de fond,
il va aller faire des recherches,
récupérer les informations dans certains documents, etc.
C'est le tout début de cet app Store,
donc on sait pas exactement ce qui va permettre concrètement,
mais ça va être assez marrant parce qu'on va dire que la friction
pour customiser le comportement du bot
est mille fois moins que faire du functioning,
qui demanderait énormément de ressources,
de temps à être calculé à tout le monde.
Là, chacun va pouvoir bidouiller avec.
Et on sait que cet effet statistique là est très intéressant.
On n'aurait jamais découvert autant de trucs sur les modèles de diffusion
si il n'y avait pas des millions de gens qui avaient pu prendre un bâton
et tapette dans tous les sens et voir ce qui sort.
Il va probablement se passer la même chose avec cet app Store.
J'ai trop trop hâte de voir les meilleures applications qui sortent.
On a quelques premiers exemples.
C'est un mentor en mathématiques,
quelqu'un qui a accès à plein de ressources sur comment écrire,
donc potentiellement que la personne qui a créé ce bot-là
a mis des bouquins de conseils sur l'écriture dans sa mémoire vive.
Sur les Strad, ils ont aussi fait une démonstration
où le CEO, Sam Altman, expliquait comment lui.
On lui posait tout le temps des questions sur comment créer une start-up qui fonctionne.
C'est quoi en fait ces conseils qui donnent un...
Il a créé son double virtuel, en fait,
qui est un chatbot qui a dans sa mémoire le bouquin
qui pour lui est le plus important et qui synthétise tout ça.
Il lui a donné quelques instructions pour qu'il se comporte de la bonne manière
qu'il soit proactif, qui répond aux questions, etc.
Et comme ça, il redirige maintenant les gens vers ce bot-là
pour avoir des conseils sur l'entrepreneuriat.
Visiblement, les résultats sont assez convaincants.
C'est un exemple parmi d'autres. Je ne sais pas si t'en as vu d'intéressant.
Alors, j'en ai vu des intéressants parce que je travaille dans le domaine.
Il y a certaines choses que je ne pourrais pas dire jusqu'à la fin.
Je vais me retenir.
Il y a un parallèle que j'aime beaucoup utiliser par rapport à ce que tu viens de dire.
C'est sur ces IAO, qui sont augmentées, donc elles ne sont pas fine-tunées,
elles sont juste augmentées.
C'est l'image du stagiaire.
Moi, j'ai l'impression que les IAO ne sont pas du tout augmentées.
On va dire, à un chat de JPD normal, comme il était avant à la base.
C'est comme un stagiaire qui sort de l'école.
Il est ultra bien formé, il est ultra compétent,
mais il n'a jamais bossé et il ne connaît rien au business, par exemple, de ta boîte.
Quand il rentre le premier jour, il y a une différence entre demander un stagiaire
de faire quelque chose alors qu'il n'a aucun contexte.
Le premier jour, lui donner un manuel ou un gros descriptif
de tout ce que fait la boîte et c'est quoi le business case,
enfin, je recommence à marcher tout.
Ensuite, lui demander de faire une tâche.
C'est juste ça. Tu te donnes à ton stagiaire, donc à ton IA,
toutes les connaissances dont elle a besoin et où est-ce qu'elle peut piocher.
Ça limite ce qu'on appelle les hallucinations,
donc tu avais déjà parlé à l'évoque,
qui est qu'en fait les IA, quand elles veulent répondre à une question,
parfois elles sont complètement convaincues qu'elles disent la vérité,
alors qu'elles essaient juste de trouver la réponse statistiquement probable,
alors qu'en fait, quand tu leur donnes la source d'information,
elles sont obligées de chercher dans la source d'information la vérité.
Et du coup, ça limite ces phénomènes d'aducination là
qui posent problème, en fait, parce que les gens ont tendance à croire ce que disent les IA,
alors que là, il y a quand même une source qui est vérifiée
et tu peux faire en sorte que ton IA, si elle n'a pas trouvé dans la source, elle l'admette.
Ok.
Donc en fait, ça limite vraiment les hallucinations dans le sens
où même si elle n'a pas la réponse, elle va te dire,
même dans ma stack de connaissances, je n'ai pas trouvé la réponse et je te le dis.
Et là, elle est sûre et c'est assez cool.
Ce qui est assez marrant aussi, c'est pour de la donnée.
Mais il y a aussi dans cette Marketplace-là, l'accès à des outils.
Du coup, les outils, ce serait quoi ?
C'est de la génération d'image, par exemple,
ou de la compréhension, ou de la vision,
ou de l'exécution de code dans des sandbox pitons.
On sait que OpenAI a développé ce système-là.
C'est fait que tu peux avoir ton assistant qui est spécialisé à requêter
sur une base de données SQL, par exemple.
Donc tu pourrais t'imaginer que dans ta boîte,
tu as ta base de données de ton entreprise,
tous les jours, tu la synchronises avec ton bot OpenAI.
Tu déportes ta base de données SQLite, par exemple,
ou peu importe, et ton bot peut tout seul,
sans que toute ton équipe soit au courant de la manière dont ça marche,
aller requêter cette base de données, et te pondre des graphiques, par exemple.
Ça permet de faire en sorte que je ne sais pas, moi,
des quelqu'un qui a une ressource humaine, qui n'a aucune notion technique,
peut dire, ok, j'aimerais bien savoir, c'est quoi le turn-up sur les 3 derniers mois de nos employés.
Et ça, c'est vraiment un usage très, très doux.
On est dans l'aconut total des ingrédits qui vont être faits avec ça.
Donc, 3 de voir ce que ça va donner.
La deuxième grosse nouveauté, évidemment, c'est des questions de performance.
Donc la sortie de GPT-4 Turbo, notamment.
J'ai fait un petit aperçu dans le playground de ce que ça donne.
Si vous avez déjà utilisé GPT-4 Turbo, vous savez que d'habitude, ça va.
GPT-4, vous savez que ça va, jamais aussi vite que ça.
Mais je voulais donner un peu plus précise, et j'ai trouvé un tracker
qui mesure à chaque instant les temps de réponse des différents chat-votes,
que ce soit ébergé chez Microsoft Azure, que ce soit ce d'entropique,
que ce soit ce de Google, etc.
Et ça, c'est stylé parce qu'on va vous le montrer.
Il y a un graph qui te montre au cours du temps lesquels répondre plus ou moins vite.
Ça peut te aider à prendre des décisions si ta boîte a besoin de tel ou tel API.
Tu peux décider la plus fiable et répondre le plus vite.
Et là, si tu survales toute à droite,
on peut voir que, notamment, la différence entre le nouveau GPT-4 Turbo et l'ancien est astronomique,
ça passe de 16 secondes à 3 secondes de réponse moyenne sur un texte donné.
Oui, clairement, ça change beaucoup de choses.
Ça peut paraître anodin parce qu'on peut se dire, ok, mais à quoi bon, en fait,
là, on est en train de... moi, je suis en train d'utiliser mon chat.
Il déroule plus vite que j'arrive à lire dans tous les cas, donc, non fiche.
Sauf que ce serait sous-estimé tous les cas d'usage qui sont techniques pour des développeurs.
Parce qu'il y a plein de cas où, ce qu'on a envie de faire,
c'est que par exemple, quand t'as un utilisateur clic sur un bouton,
il y a tout un chain of thoughts, comme on dit,
donc une série d'interactions qui se passent en arrière-plan sans qu'on en ait même connaissance,
et qui vont donner un résultat complètement dingue,
sans que l'utilisateur ait à voir toute la conversation.
Et ce genre de cas d'usage peut nécessiter de faire des générations et des générations en arrière-plan, en fait.
Il faut que ça aille à la vitesse de la pensée, en fait.
Exactement, il faut que ça aille le plus vite possible.
Donc franchement, 16 secondes vers 3 secondes, ça fait très, très plaisir.
Surtout que ça se combine avec une augmentation du contexte.
Vous le savez probablement que les chatbots ont une mémoire limitée, en gros.
C'est-à-dire que la conversation qu'il y a au-dessus,
il finit par l'oubli à un moment si elle dure trop longtemps.
Et c'était 8000 tokens sur GPT4, et ça passe à 128000.
Ce qui est...
Les ordres de grandeur, c'est-à-dire.
Ce qui est dingue.
C'est complètement dingue.
Ça pose quelques petites questions.
Moi, je m'en bats pas trop trop parce que sur les gros contextes,
tu me dis si je dis pas de bêtises, mais il y a des problématiques.
Alors ils appellent ça le problème du trou.
Je sais plus comment dire ça en français.
Mais c'est que concrètement, si tu donnes un bouquin entier par exemple à GPT4,
et que tu lui poses des questions,
qui peuvent, dont la réponse peut se trouver, au début, au milieu ou à la fin,
il va avoir tendance à trouver beaucoup plus de choses au début et à la fin de sa fenêtre de contexte.
Ok.
Et donc, en fait, c'est un problème parce qu'on pourrait croire que sa mémoire,
elle est comme la nôtre en fait, elle est linéaire,
ou inversement,
ou alors qu'il oublie le début comme nous, on oublirait nos souvenirs anciens.
Mais en fait, non, il y a un phénomène où,
ce qui est au milieu, il utilise beaucoup moins dans sa réflexion.
Donc, on a tendance de voir que ce soit sérieusement benchmarké par des sources externes,
mais si ça marche bien, avoir beaucoup de contexte,
comme tu le disais à Tiffany, ça permet énormément de choses,
parce que si le stagiaire, on peut lui donner une toute petite documentation de deux pages,
ou alors un bouquin entier,
ces capacités sont d'autant plus décuplées.
Et ça, c'est dans le contexte.
Oui.
Oui, c'est dans le contexte, pas dans une base de données.
De toute façon, une base de données extra-heur qui pourrait...
Victorise, tout ça.
Mais le contexte est ultra puissant aussi.
Tu vas le dire, Mathieu ?
C'est pas le sujet, mais je trouverai ça super intéressant de comparer
comment fonctionne la mémoire, entre guillemets,
d'un LLM, d'un chatbot,
versus notre mémoire.
Tu as dit, potentiellement, les linéaires, et tout machin.
Je suis pas sûr.
Ah, les problèmes pas les liens.
Du coup, ça m'intéresserait de savoir,
s'il y a des gens qui ont théorisé, ce sont d'autres,
comment fonctionne notre mémoire, par exemple,
sur un livre ou sur un texte.
Oui, oui.
C'est vrai.
Parce que ça n'a rien à voir avec le placement,
c'est juste de l'émotionnel.
Bref, ce n'est pas le sujet, mais...
C'est sûr que ça doit être très, très imagé.
Oui.
Et du coup, si ça se trouve, ça doit être très, très dur de comparer notre truc.
Oui, sans doute.
Je pense que c'est très...
C'est très différent de la fonction des gens, aussi.
Alors que, du coup, pour les modèles, c'est...
Ouais, oui.
C'est toujours le problème des humains, ça.
Sur les différences, c'est chiant.
Et la troisième nouveauté, c'est une baisse drastique du prix.
Ce qui fait très plaisir.
On passe sur GPT4, à 3...
On passe à 3 centimètres.
Bon, en gros, ça diviserait pas.
C'est absolument...
Je vais résumer.
Stadium Explodes & Jury.
On a un petit retour, Dieu merci.
Pour GPT4, les inputs, le prix des inputs est divisé par 3 et des outputs est divisé par 2.
On dit de vous que c'est beaucoup réduit, voilà.
Oui, c'est...
Part token, enfin, c'est pas...
Part token, oui.
Ok.
Mais comme tu peux en mettre plus, du coup...
Exactement.
Tu peux te retrouver, en fait, à avoir tes coups qui augmentent.
Mais pour la même...
Parce que tu avais avant...
Oui.
Ça te coûtera deux fois ou trois fois, cher.
Mais oui, tu peux avoir un effet...
Comment on appelle ça un effet rebond, en fait?
Ou tu te mets beaucoup plus utilisé de...
Bah, je pense qu'il serait bon d'avoir un effet rebond.
Je pense qu'il mise la tuyau aussi, à mon avis.
La nouveauté suivante est là qui a donné à beaucoup de démonstrations très sympa et très visuelles sur Twitter.
Ce sont les appellées de GPT Vision et de Dali3 qui sont enfin sorties.
Ça faisait un moment qu'on pouvait faire jouer avec dans l'interface native du chatbot.
Donc, GPT Vision, c'est le fait de pouvoir uploader une image et d'avoir une discussion dessus.
Exemple, vous prenez une photo d'une caissautie ou d'un schéma et vous demandez à GPT
quel outil je devrais utiliser ou comment je pourrais résoudre ce schéma technique
et va tous aller pointer à tel ou tel endroit de l'image ce qui doit être fait.
C'est très impressionnant et vous allez voir que une fois que c'est combiné avec le côté automatisation
parce que, à partir du moment où il y a qui dit « appayez, dit automatisation, dit qu'on peut aller le plugger »
plein d'autres choses, ça devient vraiment puissant.
La première des mots que j'ai vus que j'ai trouvé génial, c'est...
Du commentaire.
Un belifiant, c'est super.
C'est super, c'est super.
Le stade explose de joie.
C'est le plus fin de la magie.
C'est le plus fin.
C'est le plus grand sensuel.
Le plan d'avant, il était loin.
Franchement, c'est vraiment très impressionnant.
Et concrètement, comment ils ont fait ça ?
Ils ont pris la vidéo, ils ont pris une frame toutes les quart de seconde, je crois,
et ils ont donné à la paix de GPT Vision,
en lui demandant de décrire probablement quelles étaient les actions dans le jeu.
À partir du moment où tu as cette brique,
où tu peux avoir un flux vidéo continu
et en tirer une suite d'actions de qu'est-ce qui se passe à l'écran,
qu'est-ce qui rentre dans la scène, qu'est-ce qui sort, etc.
C'est fou, c'est tout ce que tu peux en faire.
C'est fou.
Dans ce cas-là, ils ont imaginé un commentaire en direct d'une régie de foot,
mais on peut imaginer plein d'autres concepts.
Il y a une autre démo qui est sortie,
qui était l'équivalent, mais avec une webcam.
Concrètement, il a fait en sorte que toutes les secondes,
il y a une photo de sa webcam qui est prise
et c'est envoyé à GPT Vision qui va décrire ce qui se passe.
Donc là, il le voit, il prend un objet
et il le met devant sa webcam pour voir ce qui se passe.
Et, t'as GPT Vision qui opte en paire
et qui explique qu'il vient de prendre sa boîte de ras-bé-répis.
C'est assez fou.
C'est assez dingue parce que, en gros,
la brique, on vient de trouver une brique supplémentaire
dans notre set de Lego, en fait.
Et on sait pas encore ce qui va être possible avec.
C'est ça qui me fascine le plus.
J'ai l'impression que c'est un bon résumé de cette conférence,
alors moi, je l'ai pas trop suivi, mais de ce que tu racontes,
c'est que, globalement, ils ont rajouté des briques.
Ils ont pris leur boîte de Lego,
et maintenant, on a des nouvelles briques à vous présenter
dans vous les avez à disposition.
Amusez-vous.
Amusez-vous, démerdez-vous.
C'est un peu le résumé.
En fait, c'est super sard, parce que c'était ce qui manquait un peu.
En fait, on voyait le potentiel de chet-gbt.
Et on a vu toutes ces entreprises se monter très rapidement
pour faire ce genre de choses-là.
En fait, ils sont dit, mais non,
il faut rendre les choses plus facilement utilisées par les gens,
donc on crée ces briques-là.
Mais du coup, à partir de là, je pense qu'il va y avoir des choses complètement hallucinantes.
Mais c'est sûr, parce que, déjà, on sentait que,
ce qui capait un petit peu les possibilités de chet-gbt4 et compagnie,
on sait la compréhension du monde, c'est un peu de...
voilà, c'est des hallucinations, il y a des choses comme ça,
mais quand même, ils se débrouillent vraiment pas mal.
On sentait qu'il y a un plafond de verre,
ça restait la compréhension de l'image, en fait.
Et imagine maintenant ce genre de modèle intégré dans un casque de réalité virtuelle
où t'as ton assistant qui a constamment le contexte de ce que tu dis,
mais aussi ce que tu vois.
Mais en fait, là, tu vois ce que tu dis ?
C'est comme si, à OZIA, on avait rajouté des yeux.
Oui.
En fait, ce dont tu parlais avant, c'était leur donner la capacité
de pouvoir faire des actions,
genre comme par exemple prendre des décisions,
par exemple sur des transactions financières, des trucs comme ça,
et là, on leur donne des bras.
Ouais, c'est ça.
Et là, je pense qu'on commence à glisser doucement,
faire quelque chose de t'est où tu fais, OK ?
Très stant.
Ouais, c'est clair.
Évidemment, là, je partage tout mon enthousiasme,
mais il y a une partie de moi qui a un peu peur de ce qu'on va voir dans 6 mois quand même.
D'autres démos qui utilisent ça, qui sont potentiellement plus pratiques,
c'est sûr qu'elles vont être utilisées rapidement par des boîtes,
parce que c'est juste trop pratique, c'est de l'automocup.
J'ai appelé ça comme ça.
Concrètement, vous faites un petit dessin d'une application
ou d'un composant comme fait un designer web finalement.
Donc là, il fait un tweet en deux secondes avec like, comment, partage,
et un truc très basique, et il envoie à son API qui lui génère ça.
Je sais pas si vous en réalisez quand même,
parce que le composant est propre, il n'est pas parfait,
je pense qu'il pourrait encore l'améliorer.
Mais en gros, ce qui se passe en arrière-plan,
c'est que l'image, son dessin fait en deux secondes et envoyé à GPT Vision.
Et à partir de ça, on lui demande directement, sans intermédiaire,
de générer du code HTML en utilisant probablement une librairie de stylisation comme Tailwind
pour faire le composant équivalent.
Ce n'est pas moche, ce genre de démo s'existe depuis quelques années quand même.
C'était pas fou-fou.
Là, ça commence à être vraiment utilisable.
En fait, ce qui est très intéressant avec cette démo-là,
c'est qu'elle, comme tu dis, elle existe déjà depuis longtemps.
Enfin, ça fait un moment qu'on essaie de générer des sites directement à partir de mock-up.
Mais ce qui est très intéressant, c'est de voir comment les techno derrière ont changé.
Et je me rappelle que c'était il y a un an, quand je suis venue dans la première note de Microsoft,
on avait parlé.
C'était pratiquement il y a un an.
Non, il y a deux ans même.
C'était il y a deux ans ?
Oui, c'est probablement.
Mais je me rappelle qu'on avait parlé déjà à cette époque-là d'une techno qui était similaire,
mais qui ne marchait pas du tout avec les mêmes adro.
Vous vous êtes à la langage ?
Et c'est fou comme ça va vite.
Moi, je suis hallucinée.
Comme d'habitude.
On ne l'en dit plus, mais c'est vrai que...
En fait, il y a l'impression que des fois, c'est quand on travaille dans le domaine,
on est encore plus à Ip que les gens qui ne travaillent pas dedans.
Oui, c'est vrai parce que c'est plus dur de mesurer la vitesse de progression.
Quand de ton produit, c'est un peu de la magie.
Oui, parce que ce que tu viens de montrer là, je pense qu'il y a beaucoup de gens qui vont faire
« Ah mais j'avais déjà vu ça il y a longtemps ».
Non, c'est pas du tout la même techno qui est derrière.
C'est super intéressant d'ailleurs de regarder comment ça marche.
C'est pas autant utilisable du tout.
Là, vraiment, le code qui est pendu, j'ai regardé un peu, c'est effectivement,
c'est du Tailwind déjà.
Ça utilise des règles de l'art.
C'est responsif.
En fait, tu peux vraiment l'utiliser dans ton projet.
Dernière démonstration sur GPT Vision.
On peut appeler ça ?
C'est quoi ça ?
Le jeu d'acteur, je le veux tous les jours.
Tu as ton nation et tout.
Imagine, sur ton ordinateur, t'appuies sur un raccourci clavier,
tu sélectionnes une zone n'importe où de ton image et tu demandes ce que c'est.
Donc, concrètement, tu sélectionnes la zone et tu demandes ce que c'est.
Donc, ça s'applique à, je sais pas moi, si tu es en train d'étudier des schémas scientifiques.
Donc, là, il va donner l'os exact.
Tu vas sélectionner, mais bien sûr.
Ou alors, il va montrer aussi une équation mathématique
où tu peux sélectionner un des paramètres et lui demander précisément
qu'est-ce que c'est que cette constante-là ?
C'est génial.
Mais alors, ça...
C'est génial.
C'est trop bien.
C'est trop bien.
Ok, là, j'achète.
C'est quoi, sur des images, du coup ?
Le pire, actuellement, c'est vraiment des screenshots.
Et puis, on va...
Alors non, ça peut marcher avec du texte, puisque j'ai pété vision
à comprendre tout ce qu'il texte.
Mais moi, ce qui me fume, c'est que ça, c'est un script de 20 lignes.
C'est-à-dire qu'il a juste connecté la pays avec la capture d'écran.
Il n'y a aucun travail de sa part.
Il n'y a pas d'intelligence, tu vois.
C'est le niveau zéro, quoi.
Donc...
C'est l'idée.
Exactement, qu'est-ce que ça va être quand ce sera des produits,
un truc qui met plus...
plus...
C'est le mec qu'on a vu à l'écran, là, qui a...
C'est ça, il a connecté, je sais pas, tu prends un récast,
ou un truc comme ça, bam, tu fais une sélection d'écran.
Quand t'obtiens une image, envoie une requête à OpenAI
avec telle prompte, dis-moi ce qu'il y a en une ligne,
bam, affiche-tu à l'écran, t'as mis.
En fait, c'est vraiment ça.
C'est qu'ils nous ont donné des nouvelles pièces de Lego,
ils nous ont donné les moyens de les assembler, quoi.
Exactement.
En gros, la conférence, c'est...
Ils n'auraient plus refaire en 30 secondes.
Si.
Je réagis sur la message du chat qui dit que les IA
pourront réaliser les capsha pour nous, la boucle est bouclée.
Et c'est pas une blague.
C'est-à-dire que j'ai vu des...
La première file.
Non mais les capsha fallait en même temps qu'ils seront nouveaux,
là, un peu là.
Non mais honnêtement, des X et WZ, là, j'en ai marre.
J'ai vu sur un projet, sur un concurrent de GPT Vision
au point de source, que leur modèle de démonstration,
donc en gros, le data set qui permet de faire un peu...
Le modèle, c'est des capsha.
En gros, vraiment...
Je pense que moi, ce modèle, je suis sûr que tout le monde te demande d'en faire.
Je pense que c'est pas qui a ma, mon avis.
Ok.
Et je sais pas si c'est celui-là ou si c'est un autre.
Mais en gros, tu t'installes le modèle
et la première chose qu'on te propose de faire,
c'est de craquer des capsha.
Je trouve ça juste le pied de nez à mourir de rire.
Mais oui, ça pose question, c'est pas sûr qu'ils aient réussi
à faire une version suivante de capsha, franchement.
Ça va devenir très compliqué.
Je l'enchaîne parce que...
C'est que le début.
Non, non, non, il y a encore...
Peut-être que ça arrête de poser des questions d'interagir.
Je vais aller un peu plus vite, mais honnêtement,
il y a encore des trucs dont on a moins parlé
qui sont pour moi vraiment intéressants.
Le point suivant qui est un peu pas assez soutenant,
c'est qu'on a maintenant un modèle directement
dans l'interface de tchatch-gpT,
qui est all-in-one,
dans le sens où avant, il y avait la version normale,
la version qui peut accéder à Internet,
la version qui peut générer des images avec Dali 3,
la version qui peut exécuter du code
dans un environnement Python avec Data Science,
tout ça, et maintenant réunis dans un seul modèle
qui peut tout faire, en fait.
Ce qui permet de débloquer des nouveaux usages
qui n'existaient pas.
Par exemple, quelqu'un a fait la démonstration,
il a envoyé sa photo,
il lui a demandé de générer un avatar avec.
Donc juste drag-and-drop dans tchatch-gpT.
Est-ce que tu peux me générer un avatar ?
Un avatar et bim.
Alors qu'avant, il aurait fallu lui demander
une description précise de la photo,
ensuite de générer un prompt pour Dali,
et ensuite de faire un avatar.
Là, on va dire que, comme tu le dis justement,
ils ont connecté tous les trucs,
ce qui débloque des nouveaux usages
qui n'étaient pas possible avant.
Attention, en vrai, c'est un peu de la triche,
parce que c'est pas de l'image tout image,
c'est de l'image tout texte, tout texte, tout image, en fait.
Ah oui, parce qu'en fait,
en arrière-plan, ce qu'on voit pas,
c'est tous les prompts cachés que lui utilise,
et en fait, il décrit l'image
à partir de laquelle il fait un avatar.
Donc parfois, ça marche moins bien.
Ok.
Oui, c'est bien de le savoir.
Oui, c'est bien de le savoir.
Et il n'y a qu'ici, quand vous le dis, parce que,
sur le tweet, il va direct...
Exactement.
Le tweet, il a un vote, c'est génial,
c'est une révolution, le monde va changer.
Dans l'effet, ça marche une fois sur trois.
Parce que t'as essayé de le faire, du coup.
Parce que j'essayais, évidemment.
Mais c'est cool, non mais c'est...
Alors tout le monde va vouloir voir ces avatars, mais...
Novoltaire d'après, c'est le text-to-speech.
Et ça, c'est vraiment, vraiment cool.
Pour l'instant, il y avait, en gros,
que Eleven Labs, une entreprise spécialisée
en text-to-speech,
qui arrivait à un certain niveau de qualité,
donc à produire des voix humanoïdes
qui soient pas trop malaise.
C'est pas mal quand même.
C'était impressionnant, vraiment, c'était impressionnant.
On l'a déjà utilisé sur un danscore.
On l'a déjà utilisé dans des vidéos.
Pour faire des outros danscore que je pouvais pas tourner.
Ça se voit un tout petit peu, mais...
Et ça coûte un petit peu cher à la requête.
Ah, ok.
Mais c'est quand même assez impressionnant.
La version d'OpenEye, elle est seulement disponible
sur 6 presets, mais qui marche.
Très très bien.
Et pour le coup, c'est deux fois moins cher.
Voilà.
C'est bon, hein.
C'est quoi 6 presets, ça va dire quoi ?
D'ailleurs, en gros, il y a 6 voix différentes.
D'ailleurs, j'ai fait une petite...
une petite génération pour vous,
pour vous montrer un petit peu à quoi
on peut s'attendre.
Tout simplement, j'ai pris un des...
Et je lui ai fait dire une phrase...
si tu arrives à l'envoyer.
Salut underscore.
J'espère que le chat va bien
et que Mikod raconte pas trop de conneries pour une fois.
Allez ciao, les skips qui dit.
Mais du coup, on peut pas entraîner sa propre voix.
Non, c'est pas fait pour ça.
C'est fait pour avoir une voix ultra crédible.
Parce que là, les intonations,
les points d'exclamations, les 3 petits points
modifient vraiment la manière dont la personne parle.
Et franchement, très calie.
Moi, je suis à l'aéros très réactif.
Moi, je prends.
Et les deux derniers, je vais rapidement sur la fin.
Non, ok, on t'entend.
Et les deux dernières annonces, vraiment cool,
c'est des intégrations dans les interfaces.
Alors, je vais expliciter ce que c'est exactement.
Et une nouvelle version de Whisper,
qui a un modèle open source, très très cool.
Je m'explique.
Personne en a parlé de ça,
mais pourtant, c'est assez original.
J'ai trouvé comme manière d'utiliser un modèle comme TGPT
et leur système de fonction.
Concrètement, des développeurs vont pouvoir intégrer
dans une web app un assistant qui n'est pas juste
une petite boîte de discussions dans un coin,
qui est le truc surutilisé, qui fait un peu chier tout le monde,
mais faire en sorte que cette discussion-là
ait un réel impact sur l'appli.
Ils ont fait la démonstration en live, justement,
de ce que ça pourrait donner, par exemple,
sur une appli de conseil de voyage.
Donc, concrètement,
t'es là-dessus à me discuter avec ton assistant
qui te prépare ton voyage à Paris.
Et tu vas lui demander, je sais pas si tu as la vidéo,
trop bien,
et tu vas lui demander une série de conseils.
En vrai, je pense que tu peux avancer un peu parce que ça va m'aimé un peu.
Ah bah non, trop fort.
Tu vas lui demander peut-être 10 endroits
que tu pourrais visiter sur la ville de Paris.
Et plutôt que de simplement te donner
la 10 endroits tout cuit,
il va dynamiquement pouvoir modifier la page web
sur laquelle tu es, et la carte qui est à droite,
et te rajouter des petits points d'intérêt
qui correspondent aux endroits.
Pas si vous... si on regarde un petit peu dans l'interface.
En fait, c'est un peu plus petit.
On mettra ça plus gros sur la VOD.
Mais concrètement, l'interface ressemble à ça.
Il y a une carte à droite, un assistant à gauche,
et plutôt que de simplement avoir d'un côté l'assistant,
de l'autre, ton appli.
Il y a une intégration forte en fait,
et l'assistant peut aller modifier la carte,
et rajouter les éléments.
Par exemple, si tu lui dis, non, c'est trop loin pour moi ce point.
Ton petit point sur la carte, il va se déplacer
pour te proposer d'autres choses.
Il va déplacer le monument.
Il prend un autre exemple,
où il met un fichier PDF dans la conversation avec ses billets,
et hop, les données du PDF sont lues automatiquement
par ChagPT, et ensuite sont intégrées
dans un composant de l'interface,
avec les bonnes heures,
et le bon aller-retour, etc.
pour te générer, comme on peut voir à droite.
Lui est modifiable par l'assistant.
Un peu flippant.
Et ça, c'est ouvert ou pas ?
En fait, concrètement, ce qu'ils utilisent d'ailleurs,
c'est leur système de fonction,
et de Jiswane valider.
Donc concrètement, faites pas de conneries.
Je veux dire, ça reste que les développeurs
vont pouvoir s'en emparer, et lui...
C'utilisent que des choses qui sont déjà disposées,
c'est juste qu'il te montre un peu
qu'est-ce que tu peux faire avec de la validation
de données de type Jiswane, etc.
On va en rentrer dans le détail.
Ça permet d'être plus sûr que un assistant
va générer des données interprétables
par un programme automatique.
Donc c'est assez puissant.
Ah, visiblement, il y a des choses
qui se préparent du côté d'Amazon,
mais encore les dire.
On est sur Andy, à la cam' à gauche.
Tout ce qui est validation d'output,
c'est un truc sur lequel tout le monde bosse,
et qui est très important.
C'est déjà possible sur les modèles open-source depuis...
Ah, mon ennemi, à vrai.
C'est ça qui est marrant.
C'est que, parfois, ils ont de l'avance.
Mais moi, j'avais une question.
Qu'est-ce qui te ferait plus utiliser
chat GPT OpenAI, GPT4, etc.
que tous les modèles open-source
qu'on a pu voir sur plein de trucs différents...
Honnêtement, j'en ai vu plein passé.
J'ai un peu oublié tous les noms,
mais entre OOPIX, ZFIR, etc.
Je pense que tu as une place pour les deux vraiment.
A mon avis, tu as vraiment des applications différentes
où l'un ou l'autre, c'est plus pertinent.
Dès que tu veux faire du fine tuning sur tes propres données
en fait, partir d'un petit modèle ultra-perfumement,
c'est beaucoup plus réaliste.
Et ça va te coûter genre un million de fois moins cher
pour des performances relativement décuplées.
Pour les modèles propriétaires privés,
en vrai, pour l'instant,
il n'y a rien qui arrive à leur niveau,
en termes de capacité.
Et quand tu te vois que le prix que ça coûte,
et les temps de latence que tu vas voir,
et la non-infrastructure que tu dois déployer,
et la qualité du service qui est disponible à peu près tout le temps,
en fait, il y a un moment, ça peut devenir intéressant
de ne pas devoir déployer toi-même tes propres modèles.
Le calcul va être un peu suivant ton usage.
C'est un peu bidouilleur, etc.
Tu peux prendre des modèles open source,
voir un peu ce qu'il se fait et tout.
Si tu veux juste la fonction et l'utiliser au quotidien...
En fait, plus tu as besoin d'intelligence,
plus tu vas tourner vers des gros modèles propriétaires.
En réalité, c'est ça.
Ah ouais ?
Oui.
Il y a un certain niveau de...
Tu me dis, je suis cordé à avoir ton avis après.
Je pense qu'il y a un certain niveau de...
Je ne sais pas comment dire,
mais de compréhension du monde, en fait,
ou de logique,
ou on n'a pas encore d'équivalent open source,
de GPT4 et Anthropique, etc.
Mais est-ce...
Mais est-ce grave ?
En vrai, ça dépend de ton use case.
Ça dépend vraiment de ce que tu veux faire.
Souvent, tu n'as pas besoin d'un...
Ouais, c'est ça, Yorine.
C'est ça un peu ce que...
C'est ce que soudain t'entendais ma question, pardon.
En vrai, tu n'as rarement besoin d'avoir
une telle performance.
En fait, je parle dans la plupart des cas,
en tout cas, pour les...
pour des petites applications, des entreprises, tout ça.
Souvent, tu te rends compte que tu n'as pas besoin d'avoir
une technologie comme chadgpt, etc.
Et à ce moment-là, tu peux bidouiller ton truc.
Mais en fait, c'est...
Je pense que c'est tout le...
quand on a le overhead,
en fait, tout le fait de devoir...
comment dire, mettre à jour ton modèle,
ou alors l'infrastructure qui est derrière,
ou alors...
La pénibilité.
Juste la pénibilité, en fait,
de devoir être sûr que c'est tout le temps au top, tu vois.
Et en fait, ça a toujours été comme ça.
En fait, c'est toujours le même débat.
Oui, c'est ça, toujours le même débat.
Du coup, ça n'a rien de changé avec Yorne.
Ne le mange pas, je veux dire.
Rien de changé avec Yorne.
C'est toujours le même débat.
Pour ceux qui aiment bien bricoler,
très bien qui se déjaillent,
mais il y aura toujours beaucoup plus de taffes.
Et ce sera disponible aussi pour les gens
qui veulent lancer leur truc rapidement
et qui veulent mettre de liens directement dans leur appli.
Et que ça ne les dérange pas de payer un petit peu par mois.
Donc voilà, le débat est toujours le même débat.
C'est ça.
Et la dernière news qui moi,
m'a fait vraiment très plaisir,
c'est le nouveau whisper.
Whisper, c'est le dernier...
Non, c'est un des derniers modèles open source d'open AI.
Qu'on peut appeler close d'AI maintenant,
parce que clairement, ça n'a...
Il n'y a plus rien d'open AI.
Ça rend que c'est un vrai problème de branding.
Il y a un changement de trajectoire.
En plus, on peut quand même leur donner
qu'ils ont un dernier modèle très compétitif
où il n'y a juste pas d'équivalent actuellement sur le marché.
C'est Whisper, qu'ils ont encore amélioré,
pour leur version 3.
Donc Whisper V3.
Concrètement, à peu près tous les langages,
ont un gain de performance.
On a un petit graph qui monte sage par langage.
Tu vois le gain.
Il y en a où c'est énorme,
où juste la V3 va tout changer.
Pour le français, on ne le voit pas très bien ici,
mais pour le français,
le gain est assez marginal,
de l'ordre d'un petit pourcent ennemis
ou quelque chose comme ça.
Mais en fait, pour vous expliquer,
Whisper, ce que ça permet de faire,
c'est d'écouter de l'audio
et de le transcrire en texte.
Donc c'est du speech-to-texte.
C'est ça qui vous permet de transformer une vidéo YouTube
en résumé, en 10 points en fait.
Ou alors c'est ça qui permettrait d'avoir un jarvis
qui comprend très précisément toutes les phrases que vous lui dites,
même le vocabulaire ultra spécifique,
même quand vous marre-monnais dans votre barbe,
c'est très important et très frustrant
quand un assistant ne comprend pas bien ce qu'on lui dit.
Et donc ces modèles-là, c'est hyper, hyper crucial en fait.
Et on a encore du prografaire.
Et donc ce modèle est vraiment bienvenu.
En français, ce ne sera pas dingue,
c'est une petite augmentation, mais pour ça,
il ne faut pas négliger ce que c'est.
C'est quand même des dizaines de fautes,
en moins sur une transcription
d'une discussion comme celle qu'on a en ce moment.
Franchement, ça fait très plaisir.
Merci à eux de le garder open-source, n'est-ce pas ?
Si vous pouvez recommencer.
Par exemple, en vrai, il y a plein de gens qui disent
qu'il pourrait mettre en open-source
GPT 3.5 Turbo.
Il y a plein de gens qui disent ça et je suis assez d'accord.
Parce que c'est probable, ça a liqué
dans un papier de Microsoft
que ça ferait probablement 20 milliards de paramètres.
Ça n'a pas été confirmé, etc.
Mais c'est probable que, en fait,
très loin des 130 qu'on s'imaginait,
ce chat GPT 3.5 Turbo,
ce sera en réalité que 20 milliards de paramètres.
Donc, avec de la quantisation,
un truc pour le rendre un peu plus petit,
concrètement, tu pourrais le charger
sur à peu près n'importe quel gros GPU
à ta maison.
Ce n'est pas sûr qu'ils vont le faire,
je ne crois même pas trop, mais ce serait vraiment...
Si je le publie, est-ce que
tu peux savoir un peu leur méthode de travail
d'entraînement ? Non.
Je pense que les gens veulent juste les poids.
Oui, évidemment, mais tu as fait de bord.
Je pense que c'est un des trucs que tu réfléchis.
Non, mais c'est une bonne question.
Peut-être qu'ils veulent garder le secret
de leur entraînement, etc.
Mais franchement, ça serait...
Ils remontraient dans le cœur de beaucoup de gens
si ils faisaient ça.
Ils se sont un peu fermés dans le cœur des gens.
Alors que Facebook est devenu un bon élève.
Alors qu'à la base, c'est Facebook, quand même.
C'est dingue, comment META,
en quelques mois dans la sphère Tech,
a pris un...
Conclusion, si vous êtes une boîte Tech
que tout le monde déteste,
vous avez pas de sourcil à un truc,
les gens vous aiment bien. Exactement.
Exemple de Facebook.
Mais c'est vrai.
On rend.
Je sais pas si c'est...
Ouais, si c'est de bonne conclusion,
si ça donne de l'espoir dans la vie, mais je sais pas.
Je sais pas si ça donne de l'espoir dans la vie, mais c'est tout à fait vrai.
Oui, c'est vrai.
Et les seules petites déconvenues,
enfin, les seules trucs qui m'ont un petit peu déçu,
c'est qu'il n'y a pas de diarisation.
Ce qui est aussi un truc très important,
c'est le fait de pouvoir repérer qui parle
dans une conversation à plusieurs.
Quand je passe Underscore dans Whisper,
il a un peu de mal à savoir
que c'est Tiffany, Mathieu ou moi
qui en train de parler. Et voilà, il y a des petits
overs-là, etc.
Ça marche, mais en gros,
tu dois rajouter des algos
et des technos par-dessus
le modèle qui ne le gère pas nativement.
C'est un peu dommage.
Et...
Et j'aimerais bien que...
Voilà, j'aimerais bien qu'il bosse un peu là-dessus,
parce que c'est bon.
Je pompe leur travail gratuit.
Ce que je vous propose,
parce que j'ai fait un énorme tunnel,
c'est que si...
Honnêtement, je n'ai pas du tout regardé le chat.
Oh, coco, petit raid de Bastille 8
que je vois pour une fois, alors que je le règle.
Alors, il faut que je te raconte,
c'est que quand on oublie de remercier un raid de Bastille,
je me...
Il m'envoie un message pour rire.
C'est vraiment pour rire Bastille 8.
Mais il est là en mode,
super le raid !
Et comme quoi il nous raid toujours.
Il n'arrête pas de nous raider.
Alors ça, c'est sympa quand même.
Il dit, il leak.
Il continue de nous raider,
c'est quand même sympa.
J'ai fait un tunnel dont je n'ai pas suivi aucune de vos réactions.
Donc, s'il vous plaît, s'il vous avait des réactions
à la conférence,
ou des trucs que vous avez vus que j'ai probablement raté,
n'hésitez pas à y partager,
parce que je ne l'ai juste pas vu.
Je peux essayer de remonter, mais vraiment,
j'ai enchaîné parce que sinon, ça allait être très bon.
Diarisation avec un H.
Non, non, pas ça.
C'est vrai que quand j'ai entendu le mot pour l'après-un-fois,
je suis dit, tiens, est-ce que c'est le meilleur mot qu'il a choisi
pour écrire la chose ?
Your eyes.
Je ne sais pas exactement ce que ça veut dire.
Non, bon.
Est-ce qu'il y a des trucs que peut-être vous vous avez vus
ou qui vous ont pas eu
particulièrement intéressant ?
Pour rebondir.
Moi, c'est pas... C'est pour rebondir sur quelque chose.
Donc, mais pour rebondir,
à quel point ça va vite.
Moi, vraiment, quand je me refais l'échelle,
la techno qui a permis les LMS
et 2017, les premiers LLM, ça doit être quoi ?
2019-2020,
GPT3, ça doit être 2021
ou 2022.
Chut, GPT 2022.
Enfin, vraiment, tu te dis, la techno,
c'est 2017, on est en 2023.
C'est vraiment la vitesse à laquelle
ça va qui me sidère.
Et il y a 5 ans, justement,
justement, il y a
quelqu'un qui disait, il y a 5 ans, on aurait pu
dire que la voiture autonome serait là dans 5 ans.
Mais par contre, on aurait jamais pu dire
qu'on aurait ce type d'IA
qu'elle qu'on versait. Résultat, on n'a pas la voiture autonome
qui les dit à.
Mais il y a pas mal de gens que je trouve pas
stupides du tout qui disent que c'est possible
qu'on ne l'ait jamais.
On a les mêmes sources.
C'est une take intéressante quand même.
Et c'est vrai que c'est frappant
de se dire, si tout le monde aurait dit
à 10 ans qu'on serait plus conduits
par des robots et non, non, non.
À la place, on parle
à des gens qui n'existent pas.
Du coup, je trouve ça vraiment fou
l'évolution de tout ce que c'est.
Très, très stylé.
Le fait que le pressing de l'input
soit 3 fois moins cher, à la toute 2 fois moins cher, c'est un peu signe.
C'est un bon signe pour encourager
aux longs pré prompt et aux enbaignées.
Oui.
Moi, j'ai vu des gens se plaindre
du fait que
la nouvelle version de GPT4 Turbo
avait un contexte gigantesque
où tu pouvais mettre un livre.
Par contre, l'output, lui,
était toujours limité à 4 000 tokens.
Donc tu peux pas faire
écrire un livre.
Mais en fait,
c'est pas si dramatique
dans la mesure où tu peux toujours lui faire générer
des choses et le mettre dans son ancien contexte
et qu'il poursuit
un livre.
C'est marrant parce qu'à chaque fois,
c'est le genre de truc que je vois en conversation
que j'ai vu sur Twitter par exemple,
où des gens se tapent sur un propos de ça.
Donc la personne nous a dit, personne ne répond.
Mais non, tu dis n'importe quoi,
t'as qu'à faire plusieurs générations.
Mais en fait, cette personne n'a jamais essayé
de produire des contenus de longue durée.
Pourquoi ? Parce que c'est hyper important
la taille d'un output,
d'un modèle de langage.
Parce que, comme on le sait,
les châts GPT, ils ont
très envie de conclure tout le temps.
Ok ? Donc en fait,
tu lui demandes d'écrire un article.
Si tu entre un article écrit
en une fois, ou en quatre fois,
en
termes de qualité de la narration et de la
carte etc., ça n'a rien à voir en fait.
C'est comme si on écrivait 4 mini-articles, c'était nul.
Non mais,
tu dois être vulgarisé de façon...
Ou alors des articles, où tu commences à partir sur quelque chose
et après tu te mets à conclure tout de suite
et après tu es sur comment ?
Tu es conclu tout de suite ?
Clairement...
Non non, c'est genre, je n'ai jamais écrit
de format long.
Mais ouais.
GPT 5 et GPT 6 en 2024,
je crois que, de ce que j'ai compris, ils sont
déjà en train de bosser sur GPT 4.5.
Là en réalité,
les améliorations, c'est
juste de la vitesse, mais on s'attend
à un modèle bientôt, qui soit
GPT 4.5, où là, on passe
à un modèle en termes de capacité de compréhension
ou de raisonnement etc.
Je me suis bien trop perdu sur
ce qui ferait que ce serait un 4.5 ou un 5
ou un 6, autant entre le 1, le 2, le 3, on les avait
bien, un peu le 4.
Mais là maintenant, ça devient un plus ou moins
qu'au final, l'univers de version,
deviennent plus ou moins commerciaux ?
Ouais je sais pas, non je pense qu'il y a...
Ça décrit vraiment, des changements d'architecture.
Dans le sens où GPT 3.5
c'est vrai de ce que j'ai compris
en termes de taille de modèle etc.
C'est assez proche de GPT 3.
Là où sur GPT 4, ils vont complètement
changer le système, en fait,
c'est un modèle un peu un serbert,
dans le sens où il ne sait pas un seul modèle.
Comment ça s'appelle ?
Il y a un multimodèle ?
Ouais, en fait, sur le serveur,
il n'y a pas qu'un modèle, il y en a 8
mais qui sont scotchés ensemble
et entraînés différemment.
Et je ne sais même pas comment ça marche.
Alors ?
C'est du multimodèle effectivement,
mais...
Mais secrète fabrication ?
Une chronique sur le sujet.
Moi, je l'ai envie d'en savoir plus.
Michael ou toi, Tiffanie,
qui me dites...
Si jamais ça peut se faire,
et c'est compréhensible, etc.
Non seulement, bon, eux c'est un peu
les pionnés là-dessus, mais maintenant,
tu commences à avoir des modèles open source, par exemple.
On dévie un peu, mais je m'autorise,
parce que c'est la chronique qui finit.
Il y a des modèles open source, genre Mistral,
qui est incroyable et qui fait seulement 7 milliards de paramètres.
Il y a des gens qui tentent
de reproduire du multimodèle
avec des petits modèles comme ça open source.
Par exemple, d'avoir 3 Mistral scotchés ensemble,
que tu entraînes à faire des choses différentes, par exemple.
Produire un output, critiquer l'output
et régénérer quelque chose de mieux.
Et c'est pas juste du prompting, tu vois,
tu finis une tune, tes 3 mini-modèles, à faire ça.
Et apparemment, ça, c'est tout début.
Mais apparemment, c'est prometteur.
Mistral qui est français.
Et qu'on arrive pas à prendre...
Lise Vodem.
Après, ils ont pas fait de presse,
mais on n'est pas la presse ici.
Ce n'est pas un passé.
Vous venez sans aucune annonce, on est content.
Exactement, vous venez sans aucune annonce.
On discutera, mais...
Non, mais c'est sûr que, si...
Ce que je comprendrai, c'est qu'ils aient un peu des choses dans la cuisine.
Au premier degré, je pense qu'ils n'ont juste pas l'humidité.
Je vais aller relancer.
Ce qui est probable aussi, c'est qu'ils ont des annonces prochaines à venir.
Et qu'ils sont en mode,
on bosse dans l'ombre et on balance des dingrilles.
Ce que je comprends, ce que je respecte.
Ils se sont construits cet été, donc c'est quand même jeune.
Je pense qu'on va aller up quand même, parce qu'on a trop envie de leur parler.
Maintenant qu'on l'a dit publiquement sur Twitch,
je vais être au vide-là, up demain.
Et sur ce, je vous propose qu'on enchaîne,
parce qu'il est déjà 20h05.
Oui, c'est clair que nos invités n'ont pas quelque chose de prévu ce soir.
Et on enchaîne avec ta petite chronique.
C'est parti.
Petite ou pas, je ne sais pas.
Je ne sais pas.
Le soir d'Halloween, Apple a présenté d'une danse à quinocht
sa nouvelle gamme de processeurs, les M3, M3 Pro et M3 Max.
Honnêtement, rien d'exceptionnel à se mettre sous la dent.
En réalité, Mathieu, derrière le développement de Cephus Apple Silicon,
il y aurait quand même une stratégie cachée,
dont peu de personnes ont parlé.
Alors pourquoi est-ce que Apple développe Cephus ?
Est-ce qu'ils sont vraiment derrière la fabrication de Cephus ?
Quel est l'intérêt pour le produit et l'utilisateur final
de mettre en avant des M3 qui sont un tout petit peu meilleurs ?
Tu vas nous parler de ça.
Oui, et comme tu le disais en regardant les annonces d'Apple lors de sa quinocht,
ça m'a même un peu surpris qu'ils fassent une quinocht pour ça.
Parce que globalement, si je résume, ils ont annoncé leur nouvelle gamme de processeurs M3
gravés en 3 nanomètres.
Certes, c'est les seuls à proposer des processeurs en 3 nanomètres.
On va y revenir.
Ils ont annoncé des nouveaux MacBook et des iMac
avec cette nouvelle gamme de processeurs, mais pas grand chose de plus.
Et c'était fini.
Ça a duré une 30 minutes.
En fait, ce que je me suis dit, c'est pour avoir suivi les conférences,
les quinochtes d'Apple il y a 5-7 ans,
ils n'auraient pas fait une quinocht juste pour ça.
Ils auraient mis à jour les MacBook et les iMac sur le store,
mais ils n'auraient pas fait une annonce.
Après, je comprends.
Ça fait plusieurs années qu'ils ont annoncé ce qu'on appelle Apple Silicon,
donc le fait de faire leur propre processeur pour ordinateur.
Ils le faisaient déjà pour les iPhone.
Et ils veulent mettre en avant ces nouveaux Mac et MacBook.
Et ça marche bien. Le MacBook marche super bien.
J'ai dit que tu as oublié quand même la couleur noir sidérale.
Donc je te trouve un peu dur.
C'est vrai qu'elle est belle.
En plus, je suis certain qu'elle est jolie.
J'ai oublié la couleur noir sidérale.
Non, mais ça m'a vraiment laissé en demi-temps.
Je vais vous dire à quoi ça sert de faire une annonce pareille.
Mais moi, j'y ai quand même trouvé une petite raison.
Je vais y revenir.
Mais juste avant, pour vous expliquer ça,
il faut qu'on comprenne un peu comment fonctionne un processeur.
Donc on va revenir un tout petit peu à la base du fonctionnement d'un processeur.
Un processeur déjà, c'est méga complexe.
C'est vraiment très complexe.
Il y a très peu d'entreprises dans le monde qui sont capables de fabriquer des processeurs.
Et même pour Apple, qui possède des milliards de dollars,
c'est très compliqué.
Et vous allez voir que c'est bien plus compliqué que ce que vous pensez.
Un processeur, c'est avant tout un semi-conducteur.
Donc c'est un matériau dont on va pouvoir contrôler
le fait qu'il conduit ou pas l'électricité.
Et le fait qu'il conduit ou pas l'électricité,
ça va permettre de faire des zéro et des un.
C'est ce qu'on appelle le dopage, le semi-conducteur.
Le dopage, en fait, c'est ce qui contrôle la conductivité du semi-conducteur.
Et c'est ce qui va créer les transistors,
qu'il y a par milliard dans un processeur.
Et c'est ça qui fait les calculs d'un ordinateur.
Je sais pas si...
Non, il n'y a pas eu de...
L'illustration, mais globalement,
c'est un matériau pour faire des semi-conducteurs très connu.
C'est le silicium,
qui vient un peu sur ce qu'on appelle les wafers.
C'est un wafer de silicium.
C'est une plaque de silicium sur lequel on vient faire les processeurs.
Et en fait, les trois nanomètres,
c'est la distance, la fine couche de gravure.
Et c'est la taille d'un atome d'hydrogène.
Non, d'oxygène, je crois.
Vraiment, je crois qu'un cheveu, c'est 80 000 nanomètres à côté.
Donc, pour se dire qu'il y a des machines aujourd'hui
qui sont capables de graver des plaques de silicium
avec une finesse de 3 nanomètres,
je peux vous dire que c'est pas ta grand-mère qui va faire ça dans son garage,
ni même le petit inventeur du coin.
Qu'est-ce qui fait que c'est dur, en fait ?
Parce qu'on peut se dire qu'il faut un truc suffisamment pointu,
genre qu'est-ce qui fait que c'est vraiment compliqué ?
Alors, ce qui fait que c'est vraiment compliqué,
c'est que la machine qui permet de faire ça,
il y a globalement 3 sociétés dans le monde.
Je fais un petit aparté, mais c'est très bien qu'ils sont capables de faire ça.
Il y a une société, c'est AS...
Alors, il faut que je retrouve son nom.
ASMC ?
Non, c'est pas ASMC. ASML, voilà, exactement.
Ça, c'est une machine qui permet de faire des processeurs.
Ça, à la taille d'un bus, ça coûte 160 millions de dollars.
Et c'est fait par ASML, c'est une société au pays bas,
qui est sans doute une des sociétés les plus importantes au monde,
parce que c'est la seule machine capable de graver en 3 nanomètres à l'heure actuelle.
Et il y a QTSMC qui en a, on y reviendra.
Et ils ont à peu près 80% du marché des machines,
donc c'est des machines à lithographie ou photolithographie,
qui permettent de graver ces processeurs avec une finesse aussi importante.
Donc Apple ne le fait pas eux-mêmes.
Quand on dit qu'ils font leur propre silicium,
en fait non, ils font la puce.
Apple est incapable de produire et de fabriquer aucun processeur.
Ils la conçoivent, ils l'ingénientrient,
ils la designent si vous préférez,
mais ils ne fabriquent absolument aucun processeur.
Les concurrents de ASML, c'est Nikon et Canon, mais ils sont assez hors-tart.
Donc c'est quand même de gros puissants japonaises.
Mais il y a, je crois, quasiment les 3 seuls sociétés.
Il y en a d'autres, mais en tout cas,
qui sont capables de faire des machines à lithographie modernes.
Et ASML, on pourrait en faire une chronique dédiée,
parce que c'est une entreprise absolument incroyable,
paumée au Pays-Bas, et qui sans eux,
toute l'industrie des semi-conducteurs s'effondre.
Sauf qu'à la base, c'est pour remettre un peu dans le contexte,
mais à la base, nous ce qu'on connaît des semi-conducteurs, c'est Intel.
Intel, ils conçoivent leurs processeurs, ils les fabriquent, ils les vendent.
Ils les vendent même en leur nom, Intel.
Il y a Samsung, il le fait également.
En France, il y a ST Micro-électronique, qui est un peu connu,
un salet vert-grenoble. C'est des acteurs historiques.
Et puis il y a un moment, il y a eu un changement,
qui littéralement a tout changé dans le monde des semi-conducteurs.
En fait, il y a commencé à avoir une séparation
entre les gens qui conçoivent les processeurs, les gens qui les fabriquent.
On a appelé ça des fondries pour les entreprises qui les fabriquent,
et on a appelé ça des entreprises fablesses, donc sans usine,
pour ceux qui conçoivent les processeurs.
Intel n'a pas fait ce choix.
Ils sont restés dans le fait de produire toute la ligne,
parce que ça paraît cohérent.
Tu conçois un processeur jusqu'à le vendre,
et c'est vrai que le choix n'était pas bête.
Et en fait, c'est un peu l'autre choix qu'il a emporté.
Aujourd'hui, il n'y a quasiment plus que des fablaises d'un côté
et des fondries de l'autre, à tel point que AMD,
concurrent d'Intel et qui fait des puces,
a revendu sa part de fabrication, donc la fondrie,
c'est devenu global from the rest.
AMD, maintenant désormais, est infabresse,
qui donc du coup conçoit ces processeurs,
et après va avoir une fondrive, et maintenant, vous nous les fabriquez.
Ces fondries achètent des machines à 160 millions de dollars
ou 200 millions de dollars, et c'est eux qui font les processeurs.
C'est ça que tu n'en as aucune idée, parce que c'est pas vraiment le sujet,
mais juste au cas où, est-ce qu'il n'y a pas une histoire aussi
dans la précision de la gravure, qui choque tout le monde,
parce que le fait que tu as besoin d'un bus pour faire un truc plus petit qu'un cheveu,
c'est quand même ça paraît assez drôle.
Mais est-ce qu'il n'y a pas une histoire sur les 3 nanomètres,
où en fait, c'est tellement petit que tu viens être emmerdé par les interactions faibles.
Il me semble qu'il y avait, ça participait à la complexité de concevoir des puces aussi précises,
c'est qu'en gros, tu as des problèmes à l'échelle quantique,
qui te créent des erreurs dans tes calculs,
parce que tu as des interactions entre tes transistors.
Alors, je n'ai pas la réponse exacte à ça, parce que ça me dit un truc,
ce genre de problèmes quantiques.
Moi, ce que je sais, c'est que la gravure en 3 nanomètres a pris un petit peu de retard,
parce qu'en fait, c'est une chose d'arriver à le prouver, mais c'est une autre chose d'arriver à l'industrialiser.
Tiquement, je crois que Samsung l'avait fait avant TSMC,
donc un grand fond, une fonderie très connue à Taïwan, qui est aujourd'hui leader du marché.
Mais en fait, c'est TSMC qui a réussi à le faire en premier,
parce qu'ils ont réussi à l'industrialiser plus vite.
Mais en effet, ça pose des problèmes.
Je n'ai pas exactement la réponse sur le quantique.
Par contre, j'ai une réponse sur une machine,
en fait, ce fameux fabricant de TSMC qui du coup travaille avec Apple,
et Apple travaille exclusivement avec TSMC,
en fait, a fait le pari d'une machine d'ASML de nouvelle génération,
vers les années 2019, et cette machine, j'ai essayé de juste retrouver son nom,
c'est la machine EUV pour Extreme Ultraviolet.
Et en gros, il n'y a que cette machine aujourd'hui qui est capable de faire du 3 nanomètres.
Intel, bien, ils sont bientôt capables, mais pour l'instant, ils n'ont pas cette capacité-là,
et c'est une... Nikon et Canon sont, entre guillemets, un peu à la ramasse.
Et c'est une machine, mais pour faire le laser, il faut 457 000 pièces.
Enfin, c'est de l'ingénierie qui dépasse l'entendement.
Ça, c'était pour la petite aparté de cette machine en particulier.
On pourra en faire une chronique si ça vous intéresse.
Je ne sais plus quelle était ta question juste avant que tu me lance sur la gravure.
Euh... Non, je ne sais plus.
Ok, on peut revenir sur le modèle.
Donc, on a d'un côté des fonderies.
Donc, j'en ai parlé TSMC à Taïwan, qui s'est lancée, UMC en Corée, Global Fonderie aux États-Unis.
Et de l'autre, je parlais des Fabless, vous allez reconnaître des noms.
Qualcomm, Fabless, ils font ces puces, mais ne les fabrique pas.
Qualcomm ne sait pas fabriquer.
C'est vrai ? C'est marrant.
Ah non, tous les... Qualcomm, c'est ce qui est...
On voit.
Tous les téléphones d'Android, ils ont un modèle de... On conçoit les puces.
D'accord.
Et les fabriquants, ils fabriquent... Je sais que eux, ils distribuent, ils en donnent à Samsung, ils en donnent à TSMC.
Ils en donnent potentiellement à d'autres acteurs également.
C'est la même chose pour Nvidia.
C'est la même chose pour Xilings, qui est connue pour ceux qui font du système embarqué,
ou qui mine des crypto-monnaies au Sinaire, je crois qu'ils utilisent des cartes de Xilings.
Et AMD, donc, qui est devenu Fabless, et évidemment Apple,
quand ils se sont dit, ok, potentiellement, il faut qu'on prenne notre indépendance vis-à-vis d'Intel,
parce qu'ils nous bloquent dans le fait de développer des Macs qui soient intéressants par le grand public.
Je leur dis, bon, comme l'iPhone, on va faire nos propres processeurs.
Ils ne fabriquent pas leurs propres processeurs, ils n'ont absolument aucune usine.
C'est un Fabless, donc, un fabriquant sans usine,
qui a un contrat avec TSMC pour fabriquer ces processeurs.
Et ce qui est marrant, c'est qu'on est déjà à deux strates, donc Intel fait tout d'un coup.
Là, on est à, il y a quelqu'un qui conçoit le processeur, qui le design en fonction de ses besoins.
Apple, par exemple, ses besoins, c'était d'avoir un rapport performance-watts qui soit leader du marché.
En gros, leur ligne de route, ce n'est pas forcément de faire les meilleurs processeurs,
c'est de faire des processeurs performance-par-watts qui soient imbattables.
Ils ont très bien testé avec l'iPhone, ça marche avec le Mac.
Et en fait, il y a un troisième acteur, c'est ARM.
Parce que ces processeurs Mac, on dit que c'est des architectures ARM.
En fait, ARM, c'est une licence.
Il faut payer le droit de pouvoir concevoir un processeur.
Et donc, ce n'est pas l'architecture Intel X86, c'est l'architecture ARM,
qui est vendu à un Fabless qui développe son propre processeur, par exemple, l'Apple M3,
qui demande à un fonder de faire ces Apple M3, M3 Mac, M3 Pro,
et qui va enfin se terminer dans nos Macbooks.
Et donc, ça, c'est toute la chaîne qui pour Intel, en fait, de base, était une seule chaîne.
Mais en fait, ils l'ont découpé en trois gros morceaux.
Moi, je m'étais demandé un moment, pourquoi est-ce que Apple utilisait un jeu d'un architecture de processeur
qui était connu pour lequel il devait payer une licence,
plutôt que de faire comme à l'époque, vous avez co-créé le PowerPC.
Et je me demandais pourquoi pas revenir à l'ancienne et faire leur propre truc.
J'ai regardé un petit peu, on ne sait pas exactement, évidemment,
mais c'est plausible qu'en fait, la licence ARM soit pas trop chère,
et qu'en fait, juste ce que tu gagnes en nombre d'années, en outillage,
parce que ARM, c'est ultra testé, développé, et enfin, voilà, tu as énormément d'outillage pour,
ça prend un truc qui a déjà fait ses preuves sur des millions et des millions d'appareils,
de devices, où justement, en performance par what, tu as un ratio qui est abusé.
En fait, apparemment, le calcul est vite fait entre faire ta propre architecture versus utiliser ARM.
Oui, et alors, ça va peut-être se tromper un poil barbu et au pire, on ne faut pas de la VOD,
mais ARM est une entreprise britannique, et à mon avis, eux, ils vendent juste leur licence.
Je suppose qu'il y a un travail derrière, mais aujourd'hui, ils doivent vraiment se faire des couilles en or,
si je peux me permettre. Et donc, je pense qu'elle n'est pas bien chère, peut-être même comparée par Intel.
Et en fait, il y a des pays, notamment pour la souveraineté, la Russie et la Chine,
qui essaient de développer leurs propres jeux d'instruction,
donc pour ne pas dépendre d'un acteur américain, notamment.
Et en fait, pour l'instant, ils se basent beaucoup sur des choses qui existent,
les Chinois se sont basés sur MIPS, qui était un jeu d'instruction américain,
d'autres, et ils se basent sur ARM, parce qu'en fait, c'est quand même des choses super dures, mais...
– Comment tu sais ça ? – De base, ça m'intéresse, et je l'ai un peu étudié,
et de deux, j'ai un peu étudié le sujet, mais d'ailleurs, on verra peut-être que...
– Le gars connaît toutes les architectures de brosses. – Non, non, pas tous.
Mais, il y en a une qui est super intéressante, et que j'ai découvert il n'y a pas longtemps.
Ça s'appelle Risk 5, et c'est un architecte et un jeu d'instruction
qui est open source et libre et que tout le monde peut utiliser.
Et du coup, tous les Russes, les Chinois et tous s'intéressent beaucoup
parce qu'ils disent, tiens, on peut peut-être utiliser ce jeu d'instruction.
C'est un jeu d'instruction qui a été développé par l'université Berclay
pour des raisons de recherche, pour l'enseignement, les études.
Et en fait, de plus en plus, les industriels, cela qu'à part, c'est encore un peu jeune.
Pour l'instant, il n'y a pas vraiment de vrais ordinateurs.
Je crois qu'il y a un Raspberry Pi like qui s'appelle Star 65.
Ou je vais vous le checker. Je dois l'avoir quelque part.
Mais c'est un jeu d'instruction super intéressant.
Il est pour l'instant utilisé surtout en système embarqué.
Et peut-être qu'un jour, il sera dans nos téléphones,
enfin, quand je dis système embarqué dans les objets connectés, etc.
Peut-être qu'un jour, il sera dans nos téléphones, dans des ordinateurs.
Je sais que la communauté Rust s'intéresse à risque faille pour faire un Rust OS.
Oui, non, mais il y a des choses.
On y est, on est déjà sur risque 5.
C'est un sujet risque 5 qui me passionne pour en reparler, mais j'ai une chronique à faire.
Comme dirait-il, l'odeur de cette discussion.
Oui, non, mais ça, ça sera coupé.
Je connais cette nouvelle architecture de processeurs.
Vous avez tapé risque 5 dans Google et perdez trois heures comme moi.
Je dis ça, mais en plus, c'est le sujet de ma prochaine vidéo.
Oui, je fais de l'assemblée en ce moment.
C'était d'ailleurs.
On va revenir aux raisons qu'on fait que Apple, pourquoi je vais réussir à faire cette phrase ?
Pourquoi Apple s'est lancée dans la fabrication de processeurs pour ses ordinateurs ?
Ce n'est pas un choix, Nodin, comme on l'a vu, c'est super dur de fabriquer un processeur
et même en étant faiblesse, de base, Apple y vend des produits au grand public.
Ils ne vend pas des processeurs.
Il y a plusieurs raisons à ça.
La première raison, je l'ai déjà dit,
essayer de prendre son envol par rapport à Intel, qui est devenu bloquant,
même sur la supply chaine, la logistique,
c'était une dépendance trop forte selon eux pour garder cette dépendance vis-à-vis d'Intel.
Deuxième choix, le fait que...
Je vais retrouver ma dot.
Pardon.
Deuxième choix, c'est pour la stratégie d'intégration verticale, comme on dit.
Apple, ça, l'a toujours fait.
Ils aiment bien contrôler tout le matériel, tout le logiciel.
Quasiment tout est Apple.
Il y avait un composant dedans qui n'était pas Apple qui était Intel.
Bon, il y en a d'autres, mais on va dire un composant phare.
Aujourd'hui, quasiment le hardware, le processeur, l'OS, les applications développées,
tout ça est Apple et en fait, c'est vraiment la stratégie de pouvoir tout contrôler
et du coup d'être plus efficient, plus efficace.
Mais surtout, moi je pense qu'il y a une dernière stratégie
et puis j'ai vu des gens documenter un petit peu cette stratégie que je trouve très intéressante,
c'est qu'en fait, ils prennent un contre-pied vis-à-vis de l'IA.
C'est marrant parce que tu en as parlé dans ta chronique.
Mais oui, il n'y a pas d'IA.
Tout le monde s'attend...
Apple...
Tout le monde est là, moi, de m'icranter, ce qu'ils annoncent des trucs.
Ils ne parlent jamais d'intelligence artificielle et de LLM, ou très très peu.
Et quand ils en parlent, c'est pour des fonctions dans l'iPhone, ils disent que c'est Powered,
comme on dit, assister, paria, les suggestions sur votre iPhone, l'auto...
Rien que les photos.
Les photos.
Mais ils en parlent très peu alors que tous les actionnaires,
y compris, je me souviens, pour l'Apple Vision Pro, lors de la keynote de l'Apple Vision Pro,
s'attendaient à des annonces en termes de LLM tellement c'était incontournable, en fait,
pour un gaffe, pour un géant de la tête, de ne faire aucune annonce.
Mais surtout, le plus curieux, c'est pas que ça ne les intéresse pas.
Évidemment que ça les intéresse de fou.
Il n'y a qu'à voir leurs contributions GitHub et ce qu'ils font dans les coulisses
pour savoir que... Non, non, non, mais en fait, ils les intéresse.
Ça les intéresse.
Du coup, c'est encore plus étonnant qu'ils n'en parlent pas, quoi.
Et en fait, ils en parlent, mais très certainement,
enfin même, c'est sûr, ils en parlent à travers leur nouvel PUS M3.
Et moi, ce qui me fait que c'est un point d'importance qu'ils aient présenté ça lors d'une keynote,
sans doute pas le seul point, c'est le fait qu'en fait, dans ces PUS,
il y a toutes les intégrés, c'est des systèmes on-cheap,
il y a ce qu'ils appellent « Neural Engine ».
Donc c'est un processeur d'intelligence artificielle, un NPU, comme on l'appelle,
« Neural Processeur Unis » qui est là pour assister dans les fonctions de prédiction de modèle.
C'était déjà le cas sur l'iPhone.
Ça va arriver sur le MacBook.
Et en fait, le fait que Apple contrôle ses logiciels, son hardware et le silicium, ces processeurs,
ça lui confère un avantage dans l'intelligence artificielle
parce qu'au lieu qu'ils investissent à fond dans des immenses data centers avec des Nvidia H100, H1000, je sais pas,
pour entraîner des gros LLM, en fait, ils vont amener l'IA on-device,
le Machine Learning on-device, comme ils l'appellent, ils amènent l'IA au niveau de la machine
et donc de ce qu'ils vendent.
En fait, c'est logique pour eux.
En fait, les traitements, il y a, eux, ils comptent sur ces processeurs-là pour les traiter.
Plus le fait qu'il y a des gens qui ont essayé d'entraîner des LLM sur des grosses machines de travail avec des M2 Ultra,
leur version de Megaboost et que ça marche super bien,
et pourquoi ça marche super bien aussi parce qu'ils ont une mémoire unifiée.
C'est-à-dire que dans leur System On-Chip, ils ont tout leur composant, le GPU, le NPU, le CPU,
et ils ont une mémoire qui sert à tout.
Et dans le M2 Ultra, je sais plus combien, il y a de gigas de mémoire unifiés.
On va pas 190 à peu près, gigas de mémoire unifiés.
Alors ça n'empêche qu'ils ont sans doute des datacenters pour entraîner des gros modèles à côté et qu'ils travaillent là-dessus.
Surtout, c'est de l'inférence.
Ouais, exactement.
C'était pas de...
Bah oui.
Allez jusque là, mais vas-y.
En fait, entraîner un modèle où le faire parler exactement, c'est pas la même chose.
Bien sûr.
Et pour l'instant, la question de l'entraînement de modèle est non résolue sur les Apple Silicon.
Mais par contre, l'inférence, qui est le truc qui intéresse 99% des gens,
c'est utiliser des modèles d'IA.
Comme tu dis, les machines d'Apple, elles ont un avantage compétitif du fait de cette mémoire unifiée qui est absurde.
Quand vous avez votre super PC gamer avec 64 giga-drammes, mais qu'en fait votre GPU,
il n'a que 6 gigas de mémoire à vivre, vous faites tourner rien du tout.
Et rien du tout.
Alors que là, tu prends ton M3 Ultra là, qui n'existe pas encore.
Je pense que ça peut vite devenir, sauf si ils augmentent trop les prix,
mais ils peuvent vite se positionner comme des machines les plus efficientes énergétiquement
qui peuvent faire tourner des modèles de type GPT-4 dans les prochains mois, prochaines années, localement.
Et ça, c'est fou.
C'est ça, c'est fou parce que c'est une guerre de paradigme en fait.
Comme si d'un côté, on a parlé de OpenAI tout à l'heure, d'un côté, tu as OpenAI qui est en mode
non mais nous, on y va à coup de GPU A100 de Nvidia chez nous et on maîtrise tout.
Et de l'autre côté, il y a Apple.
Tu vas avoir ton Mac chez toi en fait et ton GPU chez toi.
Et si on compare par exemple la stratégie de Microsoft qui ne contrôle pas tout,
ils ont que un OS, eux, pour gérer les requêtes d'IA, en fait, ils sont obligés de passer par le cloud.
Donc c'est-à-dire d'avoir des zigs immenses data center avec de la puissance NPU, GPU, ce que vous voulez.
Mais sans parler d'entraînement juste d'inférence, ils ne peuvent pas compter, pour l'instant en tout cas,
sur un calcul on-device, donc sur le mobile, ils sont obligés de passer par le cloud.
C'est vraiment la stratégie inverse d'Apple et je trouve ça super intéressant.
Et d'ailleurs j'ai vu que Apple allait sans doute offrir un portage au moins partiel de stable diffusion sur les puces de la série M.
Je ne pense pas que ce soit, enfin j'ai lu ça dans un papier d'analyste, mais apparemment ils travaillent dessus, c'est une rumeur.
On le voit sur GitHub même, si je ne dis pas ça.
Oui, c'est possible.
Il y a des contributions d'Apple.
Je trouve ça fou que mon Mac, peut-être même mon iPhone,
puisse avoir des capacités que stable diffusion entre générations d'images et d'entraînement d'images.
Ça pourrait être incroyable.
Et tu as plus de latence.
Oui, c'est clair.
En plus de la rapidité d'inférence et tout ça, mais tu as plus de...
Tu gagnes le trajet, tu as quand même le temps de calcul.
Et du coup, c'est vrai que la mémoire unifiée nous a fait un peu chier parce qu'il faut l'acheter super cher,
mais c'est quand même un peu un avantage pour tout ça.
Et non mais effectivement maintenant que je le dis, ça a du sens parce que les ajouts sur la PCM3,
en plus, c'est principalement au niveau du GPU qui est vachement sollicité.
Quand tu... On vous essaye le liama.cpp, voilà, où tous les projets d'inférence en local,
tu vois que c'est ça qui va avoir le plus d'impact sur ta vitesse,
sur le nombre de tokens par seconde que tu peux produire.
Et donc, c'est la nouvelle plus de l'IA.
De ce que j'ai vu, les deux trucs qui s'améliorent vraiment, il y a de la meilleure réaction partout,
c'est que tu l'as dit que j'ai pu et le NPU par rapport au M2 et M1.
Et pour moi, c'est pas nodin.
Et en fait, je pense que même si ils ne communiquent pas du tout, ils sont à fond sur le sujet,
pour avoir leurs propres stratégies bien différentes du reste.
Et ça, c'est clairement permis grâce au tout le développement d'Apple Silicon
qu'il n'aurait jamais pu faire avec des puces Intel.
Jamais.
C'est clair.
C'est clair.
Mais j'ai même pas pensé.
Et surtout, il y a un scénario où il restait stuck Intel.
Parce que franchement, c'est un côté un peu courageux.
Tu vois, tu as un partenaire de 10 ans, ça fonctionne, tu vois.
Il y avait des problèmes avec les puces, mais ça marchait bien.
Mais en fait, avoir les guts de se dire,
on fait l'investissement colossal de développer notre propre truc.
Et que ça paye là maintenant, alors qu'il ne vous aurait pas pu prédire
tout ce qui allait se passer sur les LLM.
Et de ce que j'ai lu, il y a eu des grosses discussions en interne.
Ils ont jugé ça comme méga risqué le passage à Apple Silicon.
T'avais un mec dédié au département qui est devenu du coup un mec super important d'Intel,
parce que c'est au cœur de leur stratégie.
Et il se posait plein de questions.
Il y avait même, en plus, il y a eu le Covid juste avant qui dévoile ça.
Donc ils se sont dit, est-ce qu'on reporte,
parce que les capacités de fabrication quand le Covid était désastreuse ?
Honnêtement, je pense qu'ils ont sué un peu,
je ne veux pas dire d'expression, mais ils ont sué du cul, voilà.
Pour le changement, parce que c'est pas le business à la base d'Apple de faire ça.
Aujourd'hui, ça nous paraît cohérent.
Et moi, je peux vous raconter une petite anecdote.
J'ai acheté mon Mac juste avant qu'il passe au Apple Silicon.
Je savais qu'ils allaient lancer des processeurs.
J'avais pas méga confiance.
Je me suis dit, les premières versions, vous auriez moins bien.
Bah ça aurait été logique.
Et en fait, non.
Mais du coup, je suis un peu le somme.
Mais j'ai envie d'une telle.
Mais non, non, c'était un...
J'ai lu des papiers qui racontent Apple Ecoolis de ce passage-là.
Faire un peu des balls pour se lancer dans les Apple Silicon.
Et aujourd'hui, ça, c'est sans doute leur principale stratégie de développement.
Leur principal à tout.
Et on a hâte de voir ce que donnera M3 Ultra sur Bench,
avec 200 Giga de mémoire.
Juste de voir, parce qu'on pourra pas l'acheter.
Voilà. Non, non, clairement, on ne l'achètera pas.
Mais on y dirait qu'au bout, comme ça, de loin.
Et taper Risk 5 sur Google, dites-moi de faire une chronique dessus et grand plaisir.
Ok, alors pour les illusions, on va faire comment là ?
Et c'est la fin de cette chronique.
Oui, mais je crois qu'on a perdu Mico, des matières, et Tiffany en investi.
Non, mais...
C'était trop...
Non, mais c'est... Est-ce que c'était trop barbuleux, Tchatt ?
Ça m'intéresse un peu.
Parce que c'est vrai que j'ai fait des tests aujourd'hui.
Non, je pense que tu as rétrapé les gens à la fin.
Et qu'il y a un petit passage à la vie.
C'est parce que tu m'as posé des questions.
C'est là où tu sens que la passion est plus forte.
Ouais, on n'avait pas résisté, en fait.
Si vous voulez, je vous refais un point sur TSMC.
Mais TSMC, qui, du coup, grâce à Apple, je ne peux pas m'en empêcher.
Et pas ses premiers fabricants de semi-conducteurs, alors qu'avant, ça avait toujours été Samsung Intel.
Pas que grâce à Apple, mais aussi par les très bons choix qu'ils ont fait, honnêtement.
Et c'est incroyable qu'aujourd'hui, ils soient premiers.
Et ils ont des puces partout.
Il y a de très grandes chances que vous ayez une puce fabriquée par TSMC.
Et moi, je ne pensais pas qu'il y en avait autant.
80% c'est quand même...
Ça, c'est la SML.
Ok.
C'est les machines qu'il a 80% du marché.
Non, non, non, non, non, non.
C'est plus combien de pourcent.
Ça marche.
Peut-être 30%, mais c'est déjà énorme.
Sur ce, je vous propose qu'on enchaîne parce qu'il est déjà tard.
Avec nos invités, on va faire une petite pause de 5 minutes.
Ne bougez pas.
Si vous n'êtes pas là à l'intro quand j'ai annoncé le programme, on reçoit.
On a l'honneur de recevoir aujourd'hui.
Des gens qui construisent des ordinateurs quantiques.
Il y en a 12 en France.
Non, peut-être plus quand même.
Mais...
On leur pose la question.
On leur pose la question.
Peut-être qu'ils ont un petit meeting, une soirée.
Je ne suis pas sûr qu'il est beau.
Ils sont vite.
Ouais, je pense.
Ils mettent leur 8 ordinateurs là, comme ça.
Non, en vrai, c'est fou.
Ils font une lande de étoiles.
Ils nous ont même ramené un petit objet.
J'ai vu de loin que je ne me suis pas spoilé.
Mais vous allez voir, ça va rentrer ici.
Et on fait des gros bisous à Mathieu et Tiffany.
Oui, des bisous à tous.
Qui nous quittent pour ce soir, mais qui reviendront dans la prochaine émission, évidemment.
Salut !
Si vous appréciez Endorscore, vous pouvez nous aider de ouf !
En mettant 5 étoiles sur Apple Podcast,
en mettant une idée d'invité que vous aimeriez qu'on reçoive,
ça permet de faire remonter Endorscore.
Voilà.
Telle une fusée.
Je suis avec mes invités.
Comment vous allez ?
Super bien.
Je suis très content de vous avoir, comme on l'a dit.
Vous nous avez peut-être entendu tout à l'heure.
Mais ça fait...
On était très, très IP de votre revenu.
Ce n'est pas tous les gens qu'on a des invités.
Encore moins des gens qui bossent dans le quantique.
Donc c'est trop stylé.
Ce que je vous invite à faire, c'est de vous installer dans vos chaise,
de prendre ce que vous voulez.
Si vous...
Les micros, c'est les micros de podcast.
Donc, il faut bien les manger dedans.
Tu peux le prendre et le ramener vraiment à 2 cm.
Et voilà, en dessous comme ça, ça captera bien tout ça.
C'est la première fois que vous vous faites du Twitch ?
Bah ouais, ouais.
Moi aussi.
Il y a un influenceur quand même entre vous deux.
Il faut qu'on crève l'accès, il faut qu'on le dise dès maintenant.
J'ai l'honneur de recevoir...
C'est sur TikTok, YouTube, principalement.
Ouais, TikTok, YouTube, un peu Insta.
Je republie les TikToks sur short.
Maintenant tout le monde a créé son truc.
Je vous invite vraiment à aller voir Premier Déré.
Parce que si vous voulez avoir de vulgarisation en format court,
il n'y a pas de 12 billes de gens qui font ça et qui souhaitent en plus la légitime à le faire.
Donc allez voir ça.
T'as lancé ça il y a longtemps ?
Ça fait 2 ans.
Non, c'est cool, ça marche bien.
Je suis content.
C'est des petites cafes psules de 1 minute
quand on ne peut pas trop rentrer dans les détails.
Tu nous disais que la 30 minutes,
ça serait un peu chaud pour parler de quantique,
mais en 1 minute, ça doit être encore plus galère.
Ouais, du coup, il faut s'implifier.
Mais du coup, il y a un challenge de résumer 1 minute un concept.
Tracier.
Ils sont courants chez Alice Ebop, qui est bien sûr le nom de la boîte.
Ah oui, ils sont tous au courant.
C'est mes premiers fans.
Non, c'est une vraie question parce que c'est même pas un projet de la boîte directement.
Non, pas du tout.
C'était lancé là-dedans.
Puis on m'a découvert.
Et du coup, ça te donne quand même accès, j'imagine, à du matos.
Ah bah pour les TikToks, c'est trop cool.
Ah ouais, là, c'est...
Je vais dans la pièce d'à côté, j'ai les frigos.
C'est la du cryo-sta.
J'ai les ordi quantiques juste à côté.
C'est parfait.
Dans la salle des ordi quantiques, j'imagine, je ne sais pas,
on va en parler, on va en parler de ça.
On aura des images.
Dans le premier dégrafier, je pense que c'est la première question
que je suis en train de me poser.
C'est à quoi peut bien ressembler une salle info quantique ?
Alors, si tu avais été dedans, tu te poserais...
Enfin, ce que tu ressemblerais surtout, c'est le bruit que ça fait.
C'est vrai ?
Comme une salle saveur un peu.
Mais un peu différent.
Ok, ok.
Tu ressors, ton oreille, en fait, a pris à le filtrer quand t'as passé
quatre heures dedans de la filée.
Et du coup, t'as l'impression que le monde extérieur,
tu ressors et tout est silencieux.
Exactement.
On pense aux doctorants qui sont restés trois ans,
dans ces salles, en t'es parlé bruit.
Et donc, toi, tu fais la première fois,
que tu es en live avec nous.
Tout à fait.
Est-ce que, moi, avant qu'on se lance dans le sujet,
où est-ce qu'on peut...
Je sais que, à chaque fois qu'on a ce genre de discussions,
c'est frustrant pour les gens qui vont aller plus loin,
pour déjà d'entrée de jeu.
Est-ce que vous...
Il y a des publications, par exemple,
qui permettent de pousser un peu les sujets dont on va parler.
Qu'est-ce que vous conseilleriez, comme ressource un peu ?
Alors, comme ressource d'entrée,
toi, peut-être que t'as une idée.
Être embauché chez Elizabeth.
Se lancer dans la lecture d'un article scientifique,
c'est vraiment dur.
C'est vraiment dur, c'est aride.
Et même nous, tu as des consorts un peu de notre sujet, vraiment.
C'est hyper dur de lire un article scientifique.
Donc, c'est peut-être pas le premier truc.
Non mais moi, je le dis mieux.
Le meilleur format pour ça, c'est plutôt de la discussion,
en mon avis.
Quelque chose qui serait, genre, en vidéo, par exemple.
Où on aurait des tours des illus.
Et...
Visuel.
Qu'est-ce qu'on va faire de notre mieux ?
Je pense que tu peux baisser un tout petit peu ton micro,
parce qu'on va te cacher.
Faut que tu puisses mettre ça visse ou menton.
Excellent.
Je fais ma petite intro, et on rentre sans plus tarder
dans le vif du sujet.
Vous avez, sans doute, déjà entendu parler d'informatique quantique,
sans peut-être trop comprendre concrètement,
en fait, ce qui se cache derrière.
On en avait déjà parlé avec Vivien de Microsoft à l'époque.
Et ces nouvelles capacités de calcul informatique
pourraient changer pas mal de domaines de la vie.
Par exemple, créer des nouveaux matériaux pour les batteries,
fabriquer des nouveaux médicaments encore inconnu,
peut-être casser les méthodes de chiffrement actuel qui c'est.
Aujourd'hui, l'objectif, en fait, c'est de comprendre une fois pour toutes
pourquoi c'est si difficile de faire ces ordinateurs quantiques,
pourquoi ça fait des années qu'on en parle,
et que, entre guillemets, ça n'arrive pas.
Sauf un grand coup de marketing,
où on dit qu'on y a réussi, mais en fait,
quand on regarde de plus près ce qu'on annonce des gaffes,
etc., c'est pas forcément non plus si foufou.
On a la chance pour ça de recevoir deux experts du domaine
qui nous viennent de l'entreprise Alice et Bob.
Ils ne vous le diront pas vous-même,
mais Alice et Bob, c'est une petite boîte,
avec peu de gens qui fait légitimement concurrence
avec les plus gros acteurs du marché en ce moment
sur la création d'un ordinateur quantique.
Vous pouvez imaginer que c'est une course.
Et on a la chance, en France, d'avoir au moins une structure
qui mène ce combat avec la rage de vaincre
et qui potentiellement, en 4 ans,
vous allez me le dire, c'est vous qui allez me le confirmer,
mais potentiellement en 4 ans,
pourrait faire ce que Google n'a pas réussi en 15.
Sans plus attendre, je vous propose de rentrer dans la discussion.
On va parler d'un, de dérouler un petit peu tous les sujets.
Désolée, est-ce que vous vous faites,
est-ce que d'entrée de jeu vous pouvez vous présenter
pour les gens qui ne vous connaissent pas ?
Donc, je viens de t'y giver.
Bonjour à tous. Je m'appelle Diego.
Comme t'as dit, je travaille chez Alice et Bob.
Je suis en Thèse, 2e année de Thèse,
sur la formatique quantique.
C'est trop cool de travailler dans ce domaine.
Je m'appelle Ulis. Je suis également en Thèse,
en 3e année, je rédige mon manuscrit.
Je suis arrivé au tout début d'Alice et Bob.
Logiquement, je suis le premier employé.
Et donc, en quelle année ?
En 2020.
De 2020, donc c'est tout récent.
C'est déjà fou, en fait.
La boîte a un peu plus de 3 ans.
On est 4 ans, maintenant, donc on est une grosse start-up.
Oui, c'est à dire que...
Ça fait très bizarre.
80 employés en 4 ans.
Vous êtes plutôt une bonne...
J'imagine que les moitié, c'est l'année dernière.
Je sais souvent comme ça, en général.
Un peu près ça, oui.
Est-ce que, pour commencer,
vous pouvez nous expliquer à quoi ça sert un ordinateur quantique.
Quel est le but de travailler dans ce domaine ?
Le but d'un ordinateur quantique,
c'est de faire certains calculs
qui prendraient énormément de temps sur des ordinateurs classiques.
Ça, c'est vraiment le terme qu'on utilise.
Ordinateur classique, c'est tout ce qu'on a,
nos smartphones, nos tablettes, les centres de calcul.
On appelle ça des ordinateurs classiques.
Donc, le but, c'est pas de faire des calculs 2 fois plus rapidement
qu'un ordinateur classique,
parce qu'on le verra, mais c'est hyper compliqué
de construire un ordinateur quantique.
Le but, c'est pas que ça prenne 30 secondes au lieu d'une minute.
Le but, c'est vraiment de faire certains calculs
en quelques heures ou quelques jours
qui prendraient éventuellement des dizaines de milliers d'années
ou des millions d'années, ou même des milliards d'années.
Le but, c'est vraiment de ramener certains calculs
qui sont complètement intractables aujourd'hui
dans la sphère des calculs possibles.
C'est vraiment ça le but.
Par exemple ?
Donc, c'est un peu ce que tu disais en intro.
La personne qui a imaginé,
à première, les ordinateurs quantiques,
c'est Richard Feynman,
donc très, très grand physicien du XXe siècle,
qui avait dit, on c'est...
On c'est à sûr un peu inexact,
mais si vous voulez simuler la physique quantique,
utilisez pas un ordinateur classique,
utilisez un ordinateur quantique,
puisqu'il sera fait pour ça.
En fait, l'idée, elle a un peu émergi du fait
que simuler la physique quantique, c'est hyper compliqué.
Tu vois, si tu veux simuler de molécules,
pour ce mode-là, à chaque fois que tu rajoutes un atome
à cette molécule, tu vas doubler le temps de simulation par 2.
Et donc, c'est exponentiel et très vite,
tu peux plus du tout calculer les propriétés de ta molécule.
Par contre, un ordinateur quantique,
lui, il est câblé pour ça,
il pourra faire...
Donc, le premier, je pense,
ce qui sera la plus grosse application
de l'ordinateur quantique,
c'est vraiment simuler la physique quantique.
Alors, dit comme ça, ça a peut-être l'air de rien.
On peut dire...
Alors, on ne se demande pas de quoi,
à quel point c'est important, en fait.
On peut se dire que c'est un délire de physique.
Ouais, mais c'est pas le point de lui dire.
Mais, en fait, tout est quantique, en vrai.
Mais, par exemple, les propriétés d'un matériau,
c'est souvent des propriétés émergentes de la physique quantique.
Et donc, pour prédire les propriétés
que va avoir un matériau,
en fait, c'est des simulations de physique quantique.
Et pareil, on avait parlé,
alors, il y a quelques années,
du repliement des protéines
quand Google avait réussi,
avec AlphaFault, c'était ça, ouais.
À prédire le repliement des protéines.
Ça aussi, c'est un problème,
en fait, un problème de physique quantique
qui est hyper compliqué à simuler.
C'est pour ça qu'on est, c'est par IA.
Et, typiquement, là, un ordinateur quantique
pourrait être très bien,
savoir comment une protéine se replie.
Et donc, et comme c'est le repliement,
un peu comme un origami qui détermine
ces propriétés à quel molécul
elle va s'accrocher, etc., je ne suis pas spécialiste.
Mais, en tout cas, ça intéresse beaucoup,
beaucoup, les gens qui sont de la bio,
et c'est uniquement un truc qu'on pourrait faire
sur un ordinateur quantique.
Et on parlait de la médecine.
Là aussi, il y a des perspectives,
du coup, très concrètes,
de trouver des médicaments.
C'est un peu le même sujet, j'imagine.
Après, on ne peut pas dire précisément
si on a un ordinateur quantique,
on pourra faire cette simulation
et trouver le remettre contre le cancer.
On n'est pas en train de dire ça.
Mais on dit qu'il y a beaucoup de chevins,
c'est des trucs qui sont envisageables.
Aujourd'hui, pour déterminer la structure de protéines,
soit AlphaFot te donne la réponse,
dans ce cas, tu es content,
soit tu dois faire de la cristallographie
à rayon X,
et c'est tout de suite des semaines de mesure
si tu avais un simulateur quantique
pour replier la protéine
en quelques minutes de calcul,
ça te permettrait, on imagine,
que l'industrie formacétique
puisse y térer bien plus vite
pour trouver des protéines intéressantes.
C'est pas juste une optimisation,
on est sur un changement de paradigme.
Ok, donc déjà, c'est un peu plus concret.
Maintenant, la question d'après,
c'est, ça a l'air génial,
on a l'air de pouvoir faire plein de trucs.
Comment on fabrique un ordinateur quantique ?
Au commençant, par quoi ?
Du coup, je vais.
L'ence-toi.
En réalité, il n'y a pas qu'une seule stratégie
pour essayer de fabriquer cette machine.
Il n'est pas clair quelle va être la stratégie
qui va gagner à la fin la course
à l'ordinateur quantique.
Je pourrais citer les ions piégés,
les atomes froids,
le...
Photonique.
Photonique, merci beaucoup.
Nous, c'est pas ce qu'on fait.
Nous, on est sur une techno
qui est probablement l'une des plus représentées
aujourd'hui dans la course à l'ordinateur quantique,
qui s'appelle les circuits supraconducteurs.
Tout à l'heure, il passait des images du labo,
enfin des cryostats peut-être
qui peuvent en repasser à la régie.
Les circuits supraconducteurs, c'est une plateforme
sur laquelle on va venir essayer
de stocker de l'information
en exploitant les propriétés de la matière.
Et pour faire ça, on a besoin
d'énormément, énormément refroidir.
Quand tu utilises cette technologie,
tu as besoin de travailler avec des énergies
qui sont bien en dessous des énergies
qui casseraient la supraconductivité de tes matériaux.
Donc là, on voit un cryostat.
C'est l'intérieur des frigos.
On les appelle comme ça au laboratoire,
dans lesquels on met nos puces.
On les met tout en bas.
Là, on est en train de voir quelqu'un
d'assembler les puces.
Il faut bien voir que là,
tout est doré.
C'est du cuivre,
tout est en cuivre,
recouvert d'or pour faire d'excellent contact thermique.
Et ces cryostats, ensuite, on les referme
une fois qu'on a mis nos expériences.
On met plein de couches en pouperus
pour nous isoler au maximum de l'environnement
électromagnétique environnant.
Parce qu'on va travailler à des fréquences
typiquement, de l'ordre de la dizaine de gigaires.
Donc en fait, c'est exactement la fréquence
des télécoms.
Donc si tu es mal isolé,
tu vas le capter Louis Fy sur tes types.
J'exagère, mais Raphaël,
je ne vais pas vraiment capter Louis Fy.
Ah oui non, c'est sûr.
C'est sûr.
C'est du 5.5 gigaires, typiquement.
Donc il faut bien bien t'isoler.
Et une fois que tu as fait ça,
tu fais un très bon vide
et tu vas venir refroidir ton échantillon.
Et les températures que l'on travaille,
c'est typiquement 10 millis calvines.
Donc 10 millis calvines,
tu vois, c'est 10 millis calvines au-dessus
de moins de 173.15°C.
C'est le zéro absolu.
Donc c'est moins de 173.14°C.
Exactement.
Et il n'y a pas une histoire comme quoi
c'est plus froid que dans l'espace, non ?
Bien, l'espace,
si tu veux lui donner une température critique,
c'est celle du fond cosmologique diffuse,
un bon point de référence.
Et il est à genre,
on a rediscuté 3°C calvines.
Donc voilà, c'est...
Il est à moins 270°C,
et nous, on est en-dessous.
Dans l'espace, c'est vraiment ces boucliers
qui nous permettent de bloquer ce rayonnement.
Tout l'univers est plongé dans ce rayonnement,
qui a été émis après le Big Bang.
Et nous, avec les boucliers, on le bloque,
donc on peut descendre plus bas.
Plus froid que l'univers.
Plus froid.
C'est une bonne façon de le dire.
C'est pas pro.
Et voilà,
et donc ces circuits supraconducteurs,
typiquement,
t'en as sur la table, en fait,
ils ressemblent à ça, je sais pas si on peut les...
Les cipres non les montrôles.
On m'a dit, on a amené des ordinateurs quantiques,
et j'ai vu des tout petits trucs
qui payent pas de bines.
Je sais pas si on y voit très bien à la régime,
et donc là, ce que je tiens, c'est une boîte.
Donc c'est typiquement ce genre de boîte
qu'on met au fond du cryostat.
Je peux la monter un peu ?
Oui, regarde, c'est un tal retour ici.
Euh, voilà.
Pardon, j'ai un coup de micro.
Et donc si je ouvre la boîte,
on va voir à l'intérieur un petit circuit
qui est lithographié, donc,
là je sais pas si c'est du silicom ou du sapphire,
et ce qu'on lithographie, c'est typiquement
du néobiome ou de l'aluminium,
qui sont en fait des métaux tout à fait usuels,
mais ce que les gens ne réalisent pas,
c'est que la plupart des métaux usuels
sont supraconducteurs,
faut juste les refroidir suffisamment.
Ah oui, d'accord.
Donc évidemment, mon CPU
n'est pas à 0°C, Calvin.
Qu'il n'ait pas supraconducteur, tout à fait.
Tout à fait.
Et donc, tu vois,
sur cette puce, on a plein de petites entrées sorties
qui nous permettent de greffer des lignes coaxiales
pour envoyer et recevoir des signaux micro-ondes
qu'on va venir contrôler
avec une électronique à température ambiante.
Par des lignes de descente,
on les voyait tout à l'heure,
on va pouvoir acheminer ces micro-ondes
par des chemins qu'on a bien choisi
et qu'on a bien, bien isolé
pour pas qu'il n'y ait n'importe quoi qui rentre dedans.
Et ces lignes, on va les récupérer
et les analyser avec, typiquement,
l'électronique utilisée dans les télécoms.
Et c'est un truc qui est chouette,
c'est que pour travailler avec les circuits supras,
tu dois travailler à quelque chose comme 5 GHz.
Et la plupart des télécoms aujourd'hui
sont optimisés pour travailler dans ce régime de fréquence.
Donc en fait, pour un prix raisonnable,
tu peux avoir une électronique d'extrême bonne qualité.
Et ça fait partie des nombreuses raisons
qui font que cette technologie
émerge beaucoup parce que,
dans les concurrents, si tu veux faire
mettons des ions piégés,
c'est tout de suite des expériences d'optiques, en fait.
Avec des tables où tu as des lasers dans tous les sens,
tu fais des optical tweezers pour manipuler tes atomes.
Enfin, tu as des tésards qui perdent de 3 ans de leur vie
à calibrer des lasers pour...
Ça va juste pour commencer.
Pour commencer à faire l'expérience
et des manips qui ont des temps très longs,
les circuits supras, tu peux y térérer très vite.
C'est un vrai avantage.
Et alors, est-ce que ça, du coup,
on peut appeler ça un inordinateur quantique ?
Alors...
Non, c'est un peu ambitieux, celui-là, il est un petit.
C'est un prototype.
Mais du coup, tu vois, le petit carré argenté
que Lysse Montresse, c'est vraiment ça, le processeur.
Donc c'est 1 cm par 1 cm.
Et du coup, dans ce processeur, il y a les fameux qubits,
donc pour quantum bits en anglais,
qui sont l'équivalent, donc,
dans un ordinateur, je vois si on zoom,
c'est des 0 et des 1, vous en parlez tout à l'heure.
En informatique quantique,
on utilise donc des qubits.
Donc c'est ça qui retienne l'information quantique.
Et ils peuvent être dans 0, dans 1,
ou dans une superposition des 2.
Donc c'est là qu'on va peut-être commencer à parler de physique quantique.
Superbe d'ordégent.
Donc en gros, il peut être un peu...
En même temps, dans 0 et dans 1,
pour le dire simplement.
Et donc l'intérêt, c'est que si tu as...
si tu as d'octiavé,
je vais préparer une petite animation,
si la régie la retrouve,
mais si tu as plusieurs qubits,
tu vois, par exemple, c'est à 3 qubits,
en fait, tu pourras les mettre
dans la superposition des 2 puissances 3 états possibles.
Tu vois, tu pourras avoir en même temps
0, 0, 0, 0, 0, 1, jusqu'à 1, 1, 1, tu vois.
Et tu peux créer, et tu vois, c'est exactement ça.
Donc là, c'est à 3 qubits, tu peux créer une superposition,
donc c'est ce qu'on voit entre les petits crochets.
Donc les petits...
La notation pour dire que c'est quantique.
C'est quantique.
Tu vois, tu mets des...
T'as des 0, des 1, c'est normal.
Tu mets des crochets.
Tu mets des crochets, c'est quantique.
Là, ça marche plus sur mon ordinateur.
Et donc tu vois, et l'intérêt,
si tu as n qubits,
du coup tu peux faire une superposition
de 2 puissances n états,
et l'intérêt, c'est qu'ensuite,
tu vas faire une opération
sur ton ordinateur quantique.
Donc c'est vraiment des trucs,
je sais pas, une porte O,
une porte E,
enfin c'est vraiment l'équivalent,
tu vois, les...
Une processur normale, oui.
Ouais, les briques de base,
elle va s'appliquer en même temps
sur toute ta superposition.
Donc c'est pour ça que les gens résument
parfois en disant que
tu as une espèce de paralysation
inéante à la physique quantique,
qui fait que tu peux calculer
sur tous les états en même temps.
Alors, il y a quand même
une petite subtilité à ça,
c'est qu'en sorti ton ordinateur quantique,
tu vas mesurer qu'un seul résultat.
Tu vois, donc tu vas avoir
une bit-string de 0 et de 1,
et tu vois, tu n'auras pas
une superposition géante.
Ouais.
Donc en fait, tout le jeu
d'un algorithre quantique,
c'est d'arriver à exploiter
au milieu de l'adgorithme,
tu vois, cette superposition,
sachant qu'à la fin,
tu veux quand même que ton truc
converge vers la bonne réponse.
OK.
Mais tu vois, c'est en exploitant
la paralysation au milieu.
Ouais, c'est super raison.
Je pense que, est-ce qu'on peut pas
faire un parallèle en disant que
on peut dire que c'est un processur normal,
par exemple, c'est un petit ruisseau,
on va dire qu'il y a
une certaine largeur normale.
Et bien, un processur quantique,
il permet de...
En entrée, tu as toujours
le même petit ruisseau.
Au milieu, ça peut devenir
un énorme torrent, en fait,
qui peut processer, entre guillemets,
beaucoup plus d'informations.
Et en sorti, ça redevient
un tout petit ruisseau.
Et tout le jeu, c'est de trouver
comment faire...
Comment profiter de cette puissance
au milieu de l'algorithme,
tout en ayant qu'un input,
un output limité comme d'habitude.
Est-ce que c'est un parallèle
que tu validais ?
C'est plutôt une image
pas trop mauvaise.
Peut-être que je te la volerais.
J'irai plus, ouais,
où c'est plein de petits ruisseaux
au milieu, tu vois.
C'est-à-dire, au milieu de l'algorithme,
tu as un peu de puissance sans ruisseaux.
Il se t'arrive à bien les manipuler.
Tu auras l'info que tu veux
quand la France a reconvert de faire un ruisseau.
Si tu veux partir dans les images
un peu plus...
Mindfuck, peut-être
qu'un truc qui serait pas complètement déconnance
est de dire que ton ruisseau,
c'est une onde qui se propage.
Tu as un torrent d'onde.
Et à la fin,
tu veux les faire interférer
de telle façon que tu es un gros pic
à l'endroit de la solution
de ton problème.
C'est intéressant.
Ok.
Et en fait, en disant ça,
tu te rends compte que tu ne peux pas faire n'importe quoi
parce que manipuler des trucs
qui ont des phases,
c'est beaucoup plus con qu'un train
que de juste explorer toutes les branches
dans l'ambiente en même temps.
Effectivement, je pense que pour avoir l'analogie,
il faut en faire du traitement du final
ou des trucs comme ça.
Mais peut-être,
techniquement,
le son est un peu...
On peut faire le parallèle avec du son,
qui est une onde comme une autre.
Il faudrait faire en sorte que
si tu veux que ton algorithme donne la bonne note,
sans qu'il y ait d'interférence entre guillemets,
entre toutes les autres qui aient été mises,
je ne sais pas.
Ça part un peu loin.
Ça part un peu loin.
Vous êtes comme un exagère.
Il faut faire très attention aux analogies
parce qu'il faut se péter sur les doigts.
C'est vraiment pour ça
qu'on ne peut pas juste prendre un algorithme classique
le passé dans la moulinette
et avoir un algorithme quantique
qui marche 10 000 fois plus vite.
C'est justement parce que c'est
ce jeu complexe d'interférence
qui...
Donc c'est vraiment...
C'est vraiment des chercheurs
qui trouvent des algorithmes quantiques
et qui n'en trouvent pas un toutes les deux semaines.
C'est ça.
Ce que je trouve fascinant,
c'est que là,
on va justement parler un peu
de ce qui est difficile
et pourquoi peut-être
là cette fois-ci,
ça pourrait marcher et pas trop les fois d'avant.
Mais juste avant,
ce qui me fascine,
c'est que les algos,
on les a depuis bien plus longtemps
que le hardware
pour les faire tourner.
Et je trouve que c'est...
Quand on le sait pas,
ça mind fuck.
C'est à dire que c'est...
on sait déjà
qu'elle...
précisément quelle ligne de code
entre guillemets on va pouvoir exécuter
sur ces processeurs le jour
ils vont arriver,
mais ils ne sont pas là.
C'est fou.
Je crois que c'est...
En fait, le premier algos quantique
qu'il y a été trouvé,
c'est 1994,
donc c'est Peter Shaw.
Et justement,
l'algorithme pour casser RSA.
Du coup, bon,
j'ai pas besoin d'expliquer...
Ensuite, les gens lui ont dit
ça marchera jamais.
Alors, juste pour expliquer,
RSA qui est derrière
tous les algorithmes
de chiffrement symétrique.
Donc globalement,
ce qui fait toute la confiance
sur Internet,
vos paiements en sécurité,
tout ça, imaginez que tout ça
est basé sur RSA,
derrière.
Et cet algorithme de Shaw,
c'est ça,
permettrait de casser
avec un ordinateur quantique,
n'importe quel chiffrement
d'une taille...
Parce que c'est ça la différence.
À l'heure actuelle,
on sait casser
du chiffrement
qui est sur...
avec des clés trop petites.
Ça te prend un temps exponentiel
avec la taille de la clé.
Avec un ordinateur quantique,
tu peux imaginer faire ça
en temps polynomial.
Et donc, en gros, ça veut dire que
c'est pas juste
faire des clés plus grosses,
ou 10 fois plus grosses
ou 100 fois plus grosses.
C'est une méthode.
Il faut changer la méthode.
C'est pas l'application
qui vend le plus du rêve,
parce que tu as juste l'impression
que tu vas juste devoir
changer tout nos systèmes
de sécurité génial.
En pratique,
il y a des systèmes d'encrep,
de chiffrement post-quantique
qui exisent déjà,
je sais, aux États-Unis,
ils sont sur le coup,
en tout cas en France aussi,
pour justement
quand il y aura des ordinateurs quantiques,
ne pas que n'importe qui
puisse pas déchirer les messages.
Et donc, c'est pas...
La panique.
Final, ça va aller.
Et l'ordinateur quantique
servira, c'est pas le but.
Ce que je vous propose,
maintenant,
qu'on a eu un petit peu
un visageuel de ce qu'il y a
tout au coeur de la machine,
c'est de comprendre
qu'est-ce qui fait que c'est dur,
en fait.
Pourquoi, toujours maintenant,
on n'a pas beaucoup
de résultats concluants.
Pourquoi c'est...
Alors que pourtant,
j'imagine qu'il doit y avoir
des milliards investis.
Enfin, ça doit être
une course entre des suscitants.
C'est une énorme bulle financière, ouais.
Est-ce que vous pouvez expliquer,
justement, pourquoi c'est...
En fait, pourquoi c'est dur.
Et qu'est-ce qui a été imaginé
de votre côté,
pour...
J'imagine qu'il y a
plein de secrets de fabrication,
mais pour donner une idée...
une idée générale,
qu'est-ce que vous avez imaginé,
vous, pour surmonter
ces difficultés-là ?
Alors, déjà,
pourquoi ça marche pas ?
En fait,
la raison profonde,
c'est que la physique quantique,
c'est très fragile.
Tu aurais disait, par exemple,
qu'on refroidit à des températures
très, très froides,
mais dans votre ordinateur
que vous avez chez vous,
par exemple,
si il monte de 20 degrés,
ça va rien changer,
tu vois, le truc marche toujours.
C'est hyper robuste, en fait.
Un ordinateur quantique,
si ça monte de 1 degrés,
tout est cassé, tu vois.
Et donc,
et typiquement,
quand...
si la température des frigos
monte trop,
on voit que les performances
des cuvides se dégarnent, tu vois.
Donc, c'est...
Comme la physique quantique,
c'est hyper fragile.
Mais c'est encore plus froid
que l'espace, à ce moment-là.
On a quand même vu la dégradation.
Donc, on est hyper sensible
à toutes les conditions extérieures.
C'est pour ça qu'il y a...
c'est hyper protégé,
il y a plein de boucliers, etc.
Mais à la fin,
ça fait que dans...
que, en fait,
le temps de vie de l'information
dans un ordinateur quantique,
aujourd'hui, en tout cas,
dans les supraconducteurs,
c'est, disons,
entre la microsegonde et la millisegonde.
Donc, concrètement,
tu vas pas dans un sich-fé,
je sais pas,
t'enregistre,
tu sauvegardes un film
sur ton disque dur.
T'espère que,
quand tu reviens 2 jours après,
les 0 et les 1 qui composent le film
sont toujours là
et les 0 sont pas changeants en 1
et les 1 sont pas changeants en 0.
Et dans un ordinateur quantique,
aujourd'hui, toutes les...
centaines de microsegondes,
le, un 0 se transforme en 1
ou un 1 en 0 sans que tu le veuilles.
Donc, tu vois, tu peux pas faire des calculs avec ça.
T'as en train d'aller ton film
et là, pfff, tout explose, tout te crache,
je vois, ailleurs, de ma display.
Putain, du bruit blanc.
Donc, c'est...
Donc, ça, c'est...
Et c'est pour ça que, vraiment,
quand...
quand Chor, il a sorti son algorithme,
je crois qu'il racontait que, un an après,
il y a un papier qui est sorti qui a dit,
mais en fait, c'est impossible,
parce qu'on n'arrivera jamais
à construire des systèmes assez robustes.
Tu vois, le temps d'exécution,
tu vois, pour faire l'algorithme de Chor,
il faut un truc qui survive,
je sais pas, au moins 1 heure
ou un truc comme ça, tu vois,
faire tourner un truc pendant 1 heure,
donc, il faut que ton information
sur des milliers de qubits, pas juste 1.
Sur les ordinateurs d'Alice et Bob,
on prévoit de le faire tourner en combien d'heures ?
C'est 8, c'est...
les benchmarks qu'on a fait.
Il faudrait, tu vois,
il faut que l'information vive pendant 8 heures.
Ok.
Et...
Avec le nombre de qubits que...
Avec beaucoup de qubits.
Et donc, les gens pensaient que c'était impossible,
ils se sont dit, bon, on n'y arrivera jamais.
Puis, en fait, c'est Chor,
qui a à nouveau inventé un truc
qui est vraiment hyper fort,
je suis admiratif,
qui a inventé
ce qu'on appelle la correction d'erreurs quantiques.
Donc, l'idée de base...
enfin, les reprises de la correction d'erreurs classiques,
c'est un truc qui existait déjà pour...
En fait, le développement des premiers...
Alors, je crois que c'était pour les télécommunications.
C'était Amin,
donc un physicien, informaticien des années 40-50,
qu'on avait marre que quand il envoyait ces signaux,
ces zéroes transformant 1,
et donc, il a inventé la correction d'erreurs.
Donc, le premier truc que tu peux m'imaginer,
c'est que, voilà,
si mon 0 ou mon 1, il est trop fragile,
bah, je vais juste répéter l'information.
Tu vois, je vais juste dire,
mais en fait, mon 0, c'est 3 0,
et mon 1, c'est 3 1.
Et du coup, si j'ai un 0 qui transforme en 1,
tu vois que j'ai encore 2 0 qui retiennent mon information.
Et donc, je peux faire un vote de majorité,
dire bah, le 1, il est tout seul, il est louche,
par contre, j'ai encore 2 0.
À mon avis, c'était 0 0 0,
et hop, le 0, je rentre en transformant 1.
Et après, tu vois, dans ton algorithme,
ça voudrait dire que tu vas avoir une étape
où tu vas faire des opérations,
une étape où tu vas corriger les erreurs,
une étape où tu vas faire des opérations.
Donc, tu vois, tu vas avoir...
En fait, à la fin, la machine Quota,
elle corrige autant les erreurs qu'elle fait des calculs.
Les deux seront l'un après l'autre.
Autant d'énergie à corriger les bugs interpestifs
qu'à calculer des trucs, quoi.
Ouais, bah en fait, à la fin,
parce que c'est ce qui était sur l'animation,
c'est que si tu as 3 0,
mais que tu as 2 0 qui se transforme en 1,
bah là, ça marche plus.
Tu vois, même ton vote de majorité,
il va inverser le 0, le dernier qui restait qui était bon,
il va le mettre en 1,
et tu t'auras ajouté une erreur avec ta correction.
Donc en fait, ce qu'on appelle le seuil de la correction d'erreur,
donc c'est hyper important,
c'est le fait que ta correction d'erreur, elle marche,
mais si de base tes qubits y sont assez bons,
si de toute façon,
par rapport à la fréquence à laquelle tu peux faire ta correction,
si de façon, il y a 10 erreurs entre chaque étape de correction,
ça marchera pas, tu vois.
Et donc...
Je veux dire que c'est hyper important,
parce que je pense qu'on peut se dire,
ok, alors il me parle de cette erreur de correction d'erreur.
En fait, si vous voulez un parallèle de ce que c'est quoi,
la correction d'erreur, c'est un QR code.
Si vous avez déjà vu un QR code,
et que vous scratcher un petit bout,
et que vous réessayez de le flasher,
ça marchera toujours en fait,
parce qu'il y a une redondance d'information
qui fait que même s'il y a un petit bout et pas là,
tout va bien.
Et par exemple, dans les CD,
si tu le rayes en CD,
comme il y a de la correction d'erreur, c'est pareil,
tu vas avoir le film intact quand même.
Mais là en fait, c'est vraiment important,
ce que tu dis, c'est là où tout se joue en réalité,
parce que c'est ce qui distingue un ordi qui sert à rien.
T'as un ordi avec lequel on peut vraiment, vraiment faire des trucs.
Aujourd'hui, on n'a que des ordi qui sert à rien,
justement parce que...
C'est pas tout à fait rien.
Non, c'est des très beaux objets de physique, c'est incroyable.
Par contre, on n'a jamais fait...
Alors si en fait, on a fait...
Enfin, en fait, c'est Google qui a fait un calcul
plus rapidement sur un ordinateur quantique,
qu'ils ont estimé qu'il aurait fallu 10 000 ans
sur un ordinateur classique,
après, il y a des gens qui ont dit, bon, j'ai optimisé,
en fait, il aurait fallu moins, etc.
Mais bon, on ne va pas rentrer dans ce tunnel.
Mais en tout cas, ils ont appelé ça la suprématie quantique.
Mais en fait, le calcul était tellement...
Enfin, il était choisi spécifiquement,
c'était le seul calcul qu'il pouvait faire,
qui marchait, et ce n'est pas du tout un calcul utile.
Et pour faire vraiment un calcul utile,
il y aura besoin de cette correction d'erreur,
donc il est juste rajouté de la remondance dans mon système.
Et le problème aujourd'hui, c'est vraiment que,
comme il y a beaucoup de bruit,
il y a beaucoup d'erreurs, il faut beaucoup de remondance.
Et donc à la fin, des chercheurs toujours de chez Google
ont estimé que pour faire tourner l'algorithme de Chor,
donc qui est souvent ce qu'on utilise pour les benchmarks,
donc pour KCRSA, il faudrait 20 millions de qubits.
Et pour donner un ordre de grandeur,
le record aujourd'hui, c'est...
Google, on a 70.
Google, on a 70.
IBM, ils en ont en 400, à peu près.
Il y a une entreprise qui a annoncé qu'ils en avaient 1000.
Après, IBM, il faut faire attention parce qu'on sait pas trop ce qu'ils font.
Ils sont extrêmement opaques.
C'est un peu une boîte noire, IBM.
Google partage beaucoup plus ce qu'ils font.
Ok.
En tout cas, tu vois qu'il y a...
On est sûr qu'eux, ils en ont moins de 70,
parce qu'il y a à priori très, très loin du compte.
Oui.
On est très, très loin du compte, et donc je le...
Et c'est pas juste mettre 100 fois plus d'argent,
j'imagine vous faire ou dupliquer la machine pour augmenter les qubits.
En fait, le nombre de qubits est un des critères qui est...
Qu'on arrive...
Enfin, qui est dur à augmenter, je bâgne.
Oui, en partie...
Enfin, du coup, là, tu rentres dans ce qu'on appelle le problème du scaling.
C'est-à-dire qu'il faut que tu choisisses une technologie telle que...
Une fois que tu as validé la brique technologique unitaire,
en mettre 100, c'était pas plus dur que d'en mettre un, tu vois.
Et en reculant, c'est pas 100, c'est plutôt tout de suite des centaines de milliers.
Mais du coup, avec les nombres en question,
par exemple, une première barrière, c'est la taille des cryostats à dilution, tu vois.
Je t'ai montré des frigos.
Oui, ça va.
Et c'est combien de qubits un frigo comme ça, là ?
Alors si vraiment tu le...
Ah, waouh, j'aurais dû...
C'est pas 100 qui laisse nombre.
Tu peux en mettre jusqu'à 50 ou 100, je crois.
Ouais, en termes de lignes de descente et de montée,
ouais, physique, ouais.
Tu pourras pas en mettre 20 millions là-dedans.
Imaginons qu'on optimise comme des ouf-gudins et qu'on ait que des lignes d'essais,
je pense qu'une safe bound sur un cryostat que t'as vu en image, c'est moins que 5 000.
Et là, je suis vraiment mes maxigénéoratures.
Ok.
Bon, en gros, soit on se retrouve avec des buildings replies de frigos,
à zéro de ré-Kelvin, soit on trouve une autre solution.
Mais j'imagine que cette première solution n'existe même pas.
C'est-à-dire que...
Moi, effectivement, c'était un des rares moments où le grand public a entendu parler du quantique à nouveau.
C'était, c'est bon, Google a atteint la suprématie quantique.
Suprématie quantique qui est censée être le point d'inflexion
où on a prouvé qu'on savait faire un truc mieux avec un quantique quantique,
qu'avec un algorithme, enfin, c'est plus normal.
Et donc là, tout le monde entendait parler de ça.
On va dire, oh, vous avez vu, c'est bon, ça y est, etc.
Et en fait, comme tu dis, bon, l'algo, il sert à rien là.
A priori, personne n'en a entendu parler à nouveau.
Et vous, vous n'êtes pas partis sur, a priori, la même stratégie.
C'est ce que j'ai compris.
Vous êtes sur un chemin complètement différent.
Expliquez-nous pourquoi déjà, pourquoi vous ne faites pas comme Google.
Pour dire si Google le fait a priori, c'est qu'ils ont des bains de raisons d'être sur ça de voilà.
Pourquoi vous ne faites pas comme Google et à quoi ressemble votre solution ?
Je me...
Je me...
Vas-y, il faut un peu plus...
Donc, l'idée de Google et IBM, ils utilisent la même techno
qu'on appelle les transmons pour ceux qui voudront creuser.
Donc, il y a un truc qui a été développé en 2008, je crois,
et qui, qui quand même marche très bien.
C'est...
Et tu vois, l'expérience de suprématique antique,
même si en fait, c'est qu'un point de départ dans l'histoire de l'ordinateur quantique,
ça montre quand même que, tu vois, Google, ils ont réussi à maîtriser
50 qubits de transmons ensemble, à faire ce qu'ils voulaient, etc.
Donc en vrai, c'est...
C'est une expérience de physique absolument magnifique, quoi.
C'est un énorme exploit technique, déjà, ce qu'ils ont fait.
Enfin, il faudra saisir ce qui est très bizarre, quoi.
Oui, ça a fait nature directe.
Nature, c'est le journal le plus prestigieux.
Nous, c'est vraiment...
C'est une expérience incroyable ce qu'ils ont fait.
Donc, l'histoire d'Alicebob, elle commence plus vers...
Donc, 2014-2015, où en fait, des chercheurs français ont inventé
un nouveau type de qubits, qui donc s'appelle le qubit de chat.
C'est pour ça que sur les logos d'Alicebob, il y a des petits chats.
Donc, c'est une référence au chat de Schrödinger.
Et donc, l'idée du qubit de chat, c'est...
Oui, donc en fait, il y a...
Pour comprendre le qubit de chat, il y a un truc à expliquer d'abord.
Parrain du qubit.
C'est...
En fait, il y a...
Dans un variateur quantique, donc, non seulement il y a beaucoup d'erreurs,
mais en plus, il y a deux types d'erreurs.
Donc, souvent, ce qu'on utilise, c'est une représentation sur une sphère.
Donc, en fait, un bit classique, on peut imaginer,
c'est juste une pièce pilouflase, par exemple.
En fait, un qubit, son état, on peut le représenter
comme une flèche qui pointe sur une sphère.
Donc, tu vois, si elle pointe vers le nord, c'est zéro.
Si elle pointe vers le sud, c'est un.
Si elle est sur l'équateur, c'est qu'elle est en superposition de zéro et un.
Mais tu vois qu'il y a un continuum d'état le long de la sphère.
J'vais prendre juste une seconde.
Tu vois, on a à pas de dire, on fait des états à superposer.
Et ce que ça veut dire, c'est que t'es 20% dans zéro et 40% dans un qubit.
Non. Et vite, voilà, je suis une erreur de mathémie.
Donc, 40% dans un.
Et du coup, intuitivement, tu pourrais dire, ah oui, un qubit, c'est un curseur, quoi.
Oui.
Et en fait, il se trouve que si tu fais les maths de la mécanique quantique,
malheureusement, la réalité n'est pas aussi simple.
Il te faut les nombres complexes pour en parler.
Et du coup, tu es sur la surface d'une sphère.
On empêche que si tu es proche du Pôle Nord, tu es plus dans zéro,
tu es proche du Pôle Sud, tu es plus dans un.
Sur l'équateur.
Mais une sphère est une bonne représentation.
Et si tu es en représentation, exact, c'est un qubit.
Un qubit.
Ok.
Et donc, tu as les erreurs dont on parlait.
C'est passer du Pôle Nord ou Pôle Sud.
Mais après, tu peux aussi être sur l'équateur et drifter le long de l'équateur.
Tu vas passer de l'Afrique aux Amériques.
C'est aussi un problème.
Et c'est aussi une erreur qu'on doit corriger.
Donc, c'est ce qu'on voit là.
D'accord.
Donc, en fait, il y a deux types d'erreurs dans l'ordinateur quantique
qu'il faut corriger.
Et cette deuxième erreur où tu drites le long de l'équateur,
on appelle ça un face flip.
Donc, la première, on appelle ça un bit flip.
Ok.
Donc, c'est une erreur qui existe que en physique quantique.
Donc, non seulement il y a beaucoup d'erreurs,
mais en plus, il y a un nouveau type d'erreur qu'on doit corriger.
C'est fascinant.
Ce qui me fait plaisir, c'est de découvrir le vocabulaire.
C'est un monde que...
Un peu à retirre.
Alors, c'est un vrai truc.
Quand tu arrives en thèse dans ce domaine,
et que tu n'es pas trop familier au début,
la première chose qui te choque, c'est que les gens au labo parlent.
Et tu comprends rien.
Et tu comprends vraiment rien.
Et tu n'as...
Il te manque les mots, en fait.
C'est vraiment apprendre...
Donc, rentrer dans ce domaine profondément,
c'est un peu apprendre un nouveau langage.
Un camp qui n'existe.
Nul pari, comme tu dirais.
Les zones boarding à Elisabeth, c'est long.
Et donc, voilà, il y a ce nouveau type d'erreur.
Non seulement il y a beaucoup d'erreurs,
mais en plus, il y a un deuxième type d'erreur.
Et donc, ce que typiquement Google fait,
c'est ce qu'ils utilisent.
Ils utilisent en fait un code correcteur d'erreur,
qui est en 2D.
Donc, on appelle ça un code de surface.
Et c'est vraiment par rapport,
ou tu sais, je te disais,
on met 3 0, on en met 5, etc.
On augmente la rebondance selon une direction.
Là, pour corriger les deux types d'erreur,
ils sont obligés d'avoir des qubits en 2 dimensions.
Donc, une dimension pour corriger les 0s
qui vont se transformer en 1.
Et une dimension pour corriger,
donc les drifts selon l'équateur,
quand tu es en superposition de 0 et 1,
en fait, mathématiquement,
tu es dans l'état 0 plus 1.
En fait, tu peux passer dans l'état 0 moins 1.
Genre, le signe peut changer.
Avec les crochets.
Et avec les crochets, c'est aussi un problème.
Et donc, ils ont besoin de ces 2 dimensions
pour corriger les deux types d'erreur.
Et c'est pour ça qu'on arrive au chiffre de 20 000 lus.
Parce qu'à la fin...
Oui, en fait, quand on t'augmente d'un qubit,
tu as besoin de corriger deux fois ces erreurs.
Donc, la progression est au carré.
Et ils sont à 1 pour 1000.
En gros, ça veut dire qu'ils prévoient
l'informatique incantique du futur,
selon Google,
il manipulera, lui,
il sera un niveau plus abstrait
où il ne s'embêtera pas avec la correction d'erreur.
Mais en fait, chaque qubit qui manipulera,
ça sera en vrai 1000 qubits derrière.
Ouais, d'accord.
Caché, mais qui corrigeront tout ce qu'il fait.
Voilà, et c'est comme ça qu'on arrive à chiffre de 20 millions.
Ah mais c'est marrant.
J'ai compris, enfin, pourquoi,
depuis tout à l'heure, on parle de 70 qubits, 200 qubits,
et que pourtant, quand on...
Parce qu'on peut faire des simulations
via des API de d'IBM ou de Azure.
Oui, tout à fait.
Pour interagir, il est qubit et...
Les nombres, c'est plutôt 7 ou 8.
Je me rappelle plus exactement.
Alors, sur l'API d'IBM,
c'est vraiment des qubits hardware que tu as.
Ce n'est pas des qubits, on dirait, logiques,
qui sont des collections de qubits
qu'on corrige en continu pour essayer d'en avoir un mieux.
Et du coup, t'en as pas beaucoup sur leurs API.
Mais je crois que sur leur API,
ils ont au moins un chip à 50 qubits.
OK.
Mais voilà.
Pardon, j'ai des vies.
Ce qui nous ramène à la question,
ça, c'est la stratégie donc de Google,
qui pose ce très gros problème-là.
Première question.
Est-ce que eux, ils pensent qu'ils vont y arriver comme ça ?
J'imagine s'ils continuent à investir,
mais ou est-ce qu'ils sont un peu désespérés ?
Je dirais pas qu'ils sont désespérés.
Il y a une très grosse conférence de physique
où il y a un chercheur de Google
qui avait présenté les résultats du code de surface.
Encore une fois, ils sont très forts dans ce qu'ils font.
Ils avaient dit, oui, bon, le chiffre paraît-il est gros,
mais on pense qu'on y arrivera.
Après, on ne sait pas ce qu'il y a.
Après, il faut savoir qu'ils recherchent en parallèle
d'autres types de qubits.
Ils ont un espèce de département R&D à l'intérieur
de leur unité quantique.
En département R&D ?
En fait, ce qu'il faut que tu vois,
c'est que les circuits supraconducteurs
c'est une plateforme qui est extrêmement versatile
et en réalité, tu as toute une zoologie
de façon de faire des qubits sur cette plateforme.
Aujourd'hui, ils sont souhaités transmon,
mais ils explorent tout l'état de l'art en parallèle
et s'il y a un jour, il y a une techno
qui devient sensiblement meilleure,
ils se festeront.
Ils se festeront.
Je pense qu'ils changeront.
Et en parlant de technos différents,
vous n'avez pas choisi ce qu'ils font,
pourquoi et qu'est-ce que vous avez fait ?
Nous, on utilise, je reviens en après un petit déte-four.
En 2015, il y a des chercheurs français
qui ont inventé le qubit de chien.
Il y a aussi un circuit supraconducteur
où tu mets juste un circuit et câblé différemment.
Ce qubit, il n'a jamais de bitflip.
On supprime expédentiellement un des deux types d'erreurs
et il reste que l'autre type d'erreurs à corriger.
C'est ce qu'on voit assez bien visuellement
qu'à la place d'avoir un carré pour corriger des erreurs,
on a juste une ligne.
C'est linéaire du coup, c'est à dire que...
Oui.
Ça a l'air super, surtout il y a un petit chat.
Quel est cette magie ?
Après, pourquoi tout le monde n'utilise pas des qubits de chats ?
Parce que c'est quand même un peu plus dur à faire,
qu'un transmon.
Mais nous, on pense vraiment que c'est la bonne voie.
Quand on regarde les chiffres de 20 millions,
que les...
Donc, typiquement, ce chiffre de 20 millions,
il se compare chez nous à une centaine de milliers de qubits.
C'est à dire qu'une centaine de milliers de qubits de chats,
tu pourras faire la même chose que ce que fait Google
avec 20 millions de qubits.
Donc c'est toujours gros, 100 000, mais ça reste quand même plus...
C'est plus raisonnable.
Fais moins sursauter les expérimentateurs.
C'est sûr.
Parce que si tu mets un expérimentateur,
un mec qui branche des câbles,
qui passe sa vie à mesurer des qubits...
Dans la même pièce.
Dans la même pièce qu'un mec qui dit,
oui, 20 millions de qubits sera facile.
Il fait une 5-hop, quoi, le mec.
C'est un peu vrai ça, la situation aujourd'hui.
Et donc, 100 000, effectivement,
ça paraît une progression de dingue.
Comment ça se fait ?
Comment ça marche ?
Comment ça marche un qubit de chats ?
Beaux call-ups.
Donc je vais fâcher
de vous expliquer un peu, avec les mains,
comment on s'y prend pour faire
nos qubits,
telles qu'il n'est pas de bitflip.
C'est-à-dire que quand on les place dans zéro,
il reste dans zéro, il y reste tellement bien
qu'on n'a pas besoin de faire de la correction
d'erreurs software par-dessus.
On s'en préoccupe plus, on l'oublie.
Et donc pour ça, je vais prendre une analogie,
qui a été proposée par Raphael Esken,
un peu après sa soutenance de thèse,
donc l'un des deux fondateurs d'AiCeMbub.
Donc, tu vois, nos circuits supraconducteurs,
ça reste des circuits.
Oui, ils sont parcourus par des courants supraconducteurs,
mais au fond, tu peux penser,
quand tu fais de l'électronique au lycée,
tu as des courants, tu as des tensions,
et puis il faut calculer des résistances.
Ce n'est pas si différent que ça,
ce n'est pas les mêmes composants.
Nous, on travaille plutôt avec des flux magnétiques,
des super courants et des tensions.
Et ces nombres,
je peux venir,
ils ont une certaine équation de la dynamique
sur nos circuits.
Tu peux écrire comment ils se comportent au fil du temps,
l'équation qui réagit leur comportement.
Et du coup,
ils se trouvent que pour les circuits supraconducteurs,
la plupart du temps, tu peux construire des systèmes mécaniques,
mais
qui ne sont évidemment pas quantiques,
mais qui ont le bon goût d'avoir
les mêmes équations du mouvement,
et du coup, il est regardé comment ils se comportent,
ça te donne une bonne intuition de ce qui se passe
à l'échelle quantique.
Et du coup, je ne sais pas si la régie peut envoyer
l'aide première animation du dossier 4,
mais là, je vais vous montrer ce qui s'appelle
un pendule paramétrique.
Là, vous envoyez 6 à l'écran,
donc je vais vous décrire ce système.
Vous voyez un pendule
qui est suspendu à une petite plaque,
qui est elle-même suspendue à un ressort,
et donc la petite plaque peut monter et descendre.
Alors là, on ne le voit pas, on a l'impression qu'elle ne monte pas et qu'elle ne descend pas.
Si on revient au début, vous voyez, au début, elle aussi,
là, est très vite,
tous mes pendules y convergent soit dans un sens, soit dans l'autre.
Alors pourquoi ça se passe ?
C'est parce que le ressort, en haut,
je l'agite
à deux fois la fréquence propre du pendule.
Ok ?
Si bien, alors je vais le faire avec les mains.
Donc, tu peux rentrer dans un régime
où si le pendule est en haut à gauche, mettons,
je tire le ressort vers le haut, ça compense
l'accélération du pendule vers le bas,
et ensuite je redescends
l'agitateur en haut,
et le pendule arrive en haut à droite.
Du coup, tu peux rentrer dans ce régime oscillatoire
où quand le ressort fait une oscillation complète,
le pendule fait une demi-ossilation.
Et là, ce qu'il faut voir, c'est que
si je commence depuis l'état d'équilibre,
depuis le vide,
ce qu'on appelle le vide, on y reviendra.
Et bien, tu vois, le pendule, il doit faire
un choix au début. Il doit choisir
s'il part d'abord à droite ou d'abord à gauche.
Et du coup, si je te donne
une référence de temps,
et bien, la trajectoire où il est parti d'abord à droite
et la trajectoire où elle est partie d'abord à gauche,
c'est ce qu'on voyait dans l'inémation,
tu peux la discerner et ça peut te servir
de trucs binaires.
De quoi ? Corrégé.
D'un 0 et d'un 1.
Et alors, il se trouve que
le circuit que vous avez vu, on l'a fabriqué en vrai.
Oh, trop bien.
Du coup, tout le monde.
Je le voyais un peu derrière, je me demandais vraiment
ce que c'était depuis le début.
Donc c'est vraiment ce que vous avez vu
sur l'animation, vous voyez. Ici, je sais pas
si on voit bien la régie, j'ai un ressort.
Avant, pour préciser ça,
dans l'idée, c'est
un cubit de chat.
Évidemment, ce n'en est pas.
C'est une analogie.
Ça va donner les équations.
Ça a vraiment les mêmes équations.
Si tu as écrit l'équation
sur Teta et Teta.
Du pendule
et sur X et X.
Je te montre les équations du circuit.
C'est les mêmes, seulement dans notre circuit
sur pré-conducteur. Si vous faites de la mécanique quantique,
nous, on ne écrit pas des variables.
On a des opérateurs qui ont des chapeaux
et du coup, il y a des crochets partout.
Mais au-fous.
C'est un peu la même chose.
Et donc,
ce truc-là monte et descend.
Je peux l'agiter avec ce petit moteur.
Et ça aussi.
Déjà, un truc marrant,
je sais pas si la régie peut envoyer la vidéo,
c'est qu'avec le pendule, on a montré
que...
Par contre, je pense qu'on peut couper le son.
Si tu peux refaire play, c'est parfait.
En gros,
on a plus la vidéo.
Il s'est pas grave.
Donc, là, j'ai superposé plein d'images
de mon pendule
en même temps et je les ai synchronisés.
Il y en a quatre.
Au début, ça fait un peu n'importe quoi
quand je pars de l'état au repos.
Le système est dans un régime assez chaotique.
Mais très vite,
ça commence à arriver, tu converges
soit vers la trajectoire qui est dans un sens,
là, c'est bon, on est bien synchronisés.
Soit vers ça qui est dans l'autre sens.
J'avais pas compris que les personnes d'avant,
j'avais pas bien compris.
Et là, c'est très clair.
Le chat qui va osciller comme ça,
ça va être note 0.
Et celui qui va aussi en opposition de face, ça va être note 1.
Là, il y a une observation cruciale
à faire.
Si vous regardez la partie supérieure de l'image,
là où le pendule est ancré,
toutes les vidéos sont
parfaitement superposées.
Au début, tu peux.
Mais pas dans le régime permanent.
Il fallait le temps que ça se synchronise.
Mais à la fin,
tout ce qu'on peut considérer comme de l'erreur
disparaît.
Alors, j'ai envie de y arriver.
Donc déjà, je vais vous dire pourquoi
ce système est bien
protégé contre les bitflips.
Alors ça, c'est la vidéo suivance.
Je profite.
Mais moi, j'ai hâte qu'on le fasse marcher.
Vous voulez le faire marcher en vrai ?
J'ai la lime et tout,
mais il faut que quelqu'un
me ramène le sac de course qui est dans le lobby.
Franchement, ça vaut le coup.
On le fera de la fin.
Ils ont le temps de t'amener tout ça.
Si on peut envoyer la vidéo suivante,
je vais vous démontrer
que ça marche.
J'ai pris 2 vidéos
qui sont en phase.
Avec mon doigt, je viens donner des coups dans le pendule.
Vous pouvez imaginer que c'est le monde extérieur
qui vient perturber le système.
Il s'auto-stabilise et revient tout seul.
Il ne passe pas dans l'autre état.
Il reste dans l'autre état.
C'est un système qui est extrêmement robuste
aux perturbations.
Ça, c'est un bon candidat pour être un bit.
Tu m'as dit, génial,
tu m'as fait un bit classique
avec un pendule du lulule.
Il m'en faut plus que 50 millions
pour faire d'ordinateurs normal.
Oui, même pas quantiques pour l'instant.
Ok, et donc là,
le point crucial,
je vais faire un tout petit détour,
mais je pense que ça vaut le coup.
Vous voyez, pour l'informatique classique,
vous ne voulez pas que vos ordinateurs
aient des erreurs.
Ce que ça veut dire, c'est que le monde extérieur,
l'électricité statique,
les rayons Cosmix que vous voulez,
est transformé à un 0 ou un 1.
Vous pouvez imaginer que c'est une porte non
conditionnelle
à quelque chose d'extérieur.
Le chat a marché sur le processeur
et a changé un bit.
Exactement.
En informatique quantique,
il y a un truc qui s'appelle la mesure
qui a le mauvais goût
de projeter les États.
Et en fait, c'est totalement analog
à ce que
ce que tu ne veux pas, c'est que l'environnement
puisse modifier, pardon, le système
puisse modifier l'environnement.
Il ne faut pas non plus que
ton ordinateur puisse modifier
pendant le calcul.
À la fin, évidemment, tu vas le regarder,
mais pendant le calcul, je ne veux pas que ton système
puisse faire fuir de l'information
vers l'environnement.
Et il se trouve
que, étant donné la façon dont nos circuits
sont designés, le seul endroit
où il y a un vrai gros point de fuite,
si je le montre sur le pendule, c'est ici.
Ok. D'accord.
C'est vraiment à cet endroit que notre circuit
on dit qu'il est très dissipatif, qu'il y a
beaucoup de décoérences.
Or, ce truc-là,
tu vois, quand tu es bien dans
ton code space, on parle
de la trajectoire qui nous sert de 1 et de 0,
si tu regardes que ce truc,
tu te caches le reste.
Tu ne peux pas savoir si le système est dans 0
ou dans 1. Et ça, ça veut dire
que, alors, bon, évidemment,
ce serait plus dur que ça, mais si je prends ce pendule
et que je le refroidis très, très froid,
bien plus froid que l'énergie typique
d'excitation de ce pendule et que je l'agiter
avec des états cohérents, enfin,
bref, sur le principe,
on pourrait imaginer le mettre dans une superposition
cohérente, s'il n'y avait pas du tout de frottement
à cet endroit, et qu'il y reste.
Et en fait, c'est exactement ce qu'on fait dans nos circuits.
Seulement, ce pendule dans nos circuits,
c'est évidemment pas un pendule,
c'est en réalité le champ électromagnétique
autour d'un petit raisonnateur.
Tu peux y penser comme une petite boîte
dans laquelle on met des photons,
parce qu'au fond, ce qu'on soit avec quoi on travaille,
c'est de la lumière, c'est des modes bosoniques.
Et le champ électromagnétique dans ces boîtes,
la façon dont elle aussi,
c'est soit avec une phase
nul par rapport à ce qu'on appelle le drive,
soit avec une phase de pi, et du coup,
ça nous sert de 0 et de 1.
Du coup, ce qui fait que c'est à peu près équivalent
avec cet objectoire en arc de cercle de ce truc.
Tout à fait.
D'ingrédit.
Alors, est-ce que...
Je vais essayer de...
de résumer ce que tu viens de dire.
Tu me dis si je...
si il n'est rien compris.
Et il ne me jugeait pas, parce que c'est quand même...
C'était la partie la plus dure du lal.
La partie la plus difficile.
Ok.
Déjà, il y a un truc pour qu'on raccroche le monde.
Si moi, j'ai bien compris.
Il y a quelque chose dans la physique quantique
qui est hyper perturbant quand on découvre
le concept de base,
qui est que la personne qui constate quelque chose,
qui vient faire une mesure,
peut avoir une action
sur le système qu'elle mesure.
Ce qui est pas trop le cas dans la vie,
c'est-à-dire qu'à priori,
je ne sais pas moi,
quelle énologie on peut prendre.
Le fait de regarder le système,
alors là, il y a plein de problèmes avec la façon
dont je viens de le dire,
a une... enfin, change le système, quoi.
Par exemple, j'avais dit...
Ça, si tu mesures la vitesse d'un ballon de foot,
ça ne va pas changer sa vitesse,
juste parce que tu as pris une caméra
et tu as filmé sa vitesse.
Alors qu'en physique quantique, si.
A priori, si.
Et donc, c'est pour ça que...
ce que tu expliquais,
c'est que ici,
il y a un système qui permet
de faire cette synchronisation,
qui met...
Stabilisation, ouais.
Stabilisation.
Et pour autant,
quand tu regardes
l'endroit que tu as pointé,
quand tu regardes le milieu,
on ne peut pas savoir
dans quel état le cubit.
Donc, si il est à...
ici, s'il est à gauche ou à droite,
s'il est proche de 0 ou de 1,
tu ne peux pas savoir dans quel état il est,
juste en regardant cet endroit.
Et donc, tu ne peux pas
ni qu'il calcule.
Tout d'affaire.
C'est un peu.
C'est un peu ça.
Et je tiens...
et je vais rajouter une petite couche par-dessus,
qui est que,
même pour un mec qui fait de la physique quantique,
c'est en fait assez contre-intuitif,
parce que...
donc, ce que j'ai pas dit,
c'est que pour que cette stabilisation marche,
il faut que là,
ça fuite beaucoup, quoi.
Ça frotte,
ce qu'on a...
Ce à quoi on s'attendrait,
qui provoque des erreurs.
Et il se trouve
qu'on a
designé ce système
pour que, ok,
à cet endroit, c'est tout pourri,
il y a beaucoup d'informations qui fuient,
mais on l'a tailoré
pour que l'information qui fuit
n'emporte pas
le morceau crucial
qui est
est-ce que je suis dans 0 ou dans 1.
Ok.
Quand je dis on,
c'est véritablement le papier de 2015.
C'est pas moi qui ai eu cette idée.
Oui.
C'est des papiers
produits par les fondateurs.
C'est ça, d'Alice Bob ?
Plutôt, les directeurs de tests des fondateurs.
D'accord, ok.
Mais c'est...
Killer a après donné l'idée
de créer le...
C'est ça.
...l'entreprise Alice Bob.
Alice Bob qui est évidemment
une référence
à ce qui est possible
dans la crypto.
Est-ce que j'ai le droit
de partir un tout petit peu plus loin ?
En prix.
Il y a une dernière animation.
Mais ça,
c'est pour les gens du live
qui ont envie de regarder
des papiers.
Je tiens à la montrer.
Donc, tu vois,
à gauche, là,
on remonte le cubit
sur la sphère de bloc.
Ce qu'on appelle la sphère de bloc.
La boule qui représente
l'état quantique.
Et à droite, ce que je te représente,
c'est un truc qui s'appelle
la fonction de Wigner,
qui représente...
Enfin, qui est une représentation
de l'état d'un résonateur.
Et tu vois,
un physicien, lui,
il regarde cette fonction de Wigner, tu vois.
Et il a deux blobs,
un rouge en haut et en bas.
Bon, bah c'est le zéro et le un.
Et tu vois, quand la fonction de Wigner,
elle a des franges au milieu,
ça veut dire que t'es dans un état
qui est bien cohérent.
Le chat, il a des moustaches.
Et voilà.
Et du coup, si un jour,
vous allez sur Archive
et vous regardez des papiers,
bah vous verrez,
pel-mêl, ce type de représentation.
Ok.
C'est...
Pour les gens qui font des technos
proches de la nôtre,
en tout cas, c'est vraiment
avec sa contravalle.
C'est juste pour le...
Ça, c'est vraiment le print-f
de l'ordinateur quantique.
C'est ce que les physiciens
regardent en sortie de l'ordre
en disant que c'est qui.
Ah mais tu vois, genre...
Tu as deux physiciens qui discutent.
Il y en a un qui dit,
ah ouais, j'ai un Qubit,
l'autre dit,
bah montre-moi les franges de...
Là, dans le schéma qu'on a vu,
si jamais au milieu,
oui, il y avait un truc tout rouge,
enfin...
qui note et qui tourne.
C'est-à-dire que tu es bien sur
l'équateur de la sphère de bloc
que tu as bien un...
un mélange quantique
de 0 et de 1.
Ok.
C'est ça.
Ça marche.
J'allais dire très clair,
mais peut-être pas non plus très clair,
mais un peu clair.
Ce qui est pas mal, déjà.
En vrai, quand t'y réfléchis.
Franchement, c'est hyper intéressant.
Merci pour...
pour ces schémas
et de nous les avoir amenés ça.
Ça rend effectivement le truc
un peu moins abstrait et absconde,
ce qui est souvent le cas
quand on s'en parle de ces choses-là.
Est-ce que...
parce que on...
on a parlé du fait que tout ça
venait d'un papier en 2015, etc.
fait par un français, du coup.
Est-ce que, pourtant,
vous êtes les seuls
à travailler,
à mettre en place
ce système-là ?
Alors, ce système-là, précisément,
on est un peu les seuls.
Donc, le notre système,
il s'a...
Donc, on fait des cubites de chat.
Donc, ça, c'est...
c'est l'image
qu'on vient de flasher.
Et la façon dont on les fait,
c'est une stabilisation dissipative.
On est un peu les seuls à les faire,
mais on n'est pas les seuls
à travailler avec des cubites de chat.
Il y a d'autres façons de les faire.
Il y a quand même Amazon qui fait pareil, mais...
Mais c'est pareil.
Mais ça, on ne va pas...
Du coup, en fait, Amazon, ils ont...
en gros, ils ont...
c'est un peu les derniers à s'être lancés.
Enfin, Google et IBM,
ils sont lancés depuis dix ans,
à peu près, même un peu plus maintenant.
Et Microsoft aussi,
ils sont dans ces plus-à-cès longtemps.
Et Amazon, bon, ils s'étaient pas lancés,
justement, ils ont annoncé
qu'on va travailler sur ordinateurs quantiques.
Et en fait, ce qu'on a appris après,
c'est qu'ils ont...
ils ont recruté plein de chercheurs,
donc vraiment des gros stars aux États-Unis,
genre 50 chercheurs hyper connus.
Ils les ont fait travailler pendant un an
pour savoir quelle est la bonne voie
pour construire un ordinateur quantique.
Et la conclusion, c'est qu'il faut faire comme Alice et Bob.
C'est...
C'est vraiment à peu près ça qui s'est passé.
Ouais, tout à fait.
Et donc, ça...
Enfin, si tu regardes cette situation comme ça,
tu peux te dire que, bon, ça a mis un gros coup de pression
au fondateur de la boîte, évidemment.
Mais finalement...
Tu as un inculateur d'avoir le papier de...
Enfin, les acquis, hein,
sur tous les sites d'Amazon, quoi.
C'est ça qui est...
Donc, c'est...
Par exemple, pour...
je sais pas, une des premières questions
que je vais m'étais posée
quand on m'a raconté cette histoire,
c'est, enfin, est-ce que la technologie...
enfin, notre technologie, elle est brevetée,
et ce qu'ils ont le droit de l'utiliser.
Donc, oui, elle est brevetée.
Mais en fait, tant que tu vends rien,
tu as...
Tu vois, ils peuvent construire un labo,
faire des cubites de chat dedans,
les tester, tant qu'ils vendent rien,
ils...
On ne peut rien faire, tu vois.
Donc, c'est...
Parce que c'est le principe de la science, quoi.
Tout le monde a le droit de faire de la science.
Il peut faire des publications qui complètent les...
Ouais, totalement.
C'est le même principe de la science, quoi.
Et...
Et du coup,
déjà, en fait,
ça fait énormément de pubs
pour la technologie de la lycée Bob.
Et même en termes de validation, tu vois, quand...
C'est une très bonne chose, en réalité.
Quand notre...
notre CEO, il va...
Tu vas présenter des investisseurs
et que tu dis, ben, il y a Amazon
qui a validé notre technologie
et qui fait pareil.
Tu vois, c'est...
Ça... ça...
Ça met un peu en confiance, quand même.
Puis après, il y a aussi un autre point,
c'est que, on a...
Donc, on a commencé avant eux,
on était un peu en avance,
et on a...
Au vu des résultats qu'on a aujourd'hui,
on a quand même gardé notre avance.
Donc, ce qui est assez cool,
parce que c'est pas...
Enfin, tu parles un peu de ça,
c'est pas qu'une question d'argent, justement.
Certes, Amazon, ils ont plus d'argent
que nous, c'est clair.
Ils ont sûrement aussi plus de gens, maintenant.
Mais c'est surtout une question
de cerveau, quand même, aujourd'hui.
Vu que ça reste quand même
de la recherche fondamentale.
En France, on est très bons
pour produire des cerveaux.
Ça fait incontestable.
Et donc, c'est pas...
En tout cas, c'est...
Et j'imagine que, suivant les domaines,
la population de gens
en capacité de résoudre le problème
et pas forcément la même,
est-ce que, dans ce secteur-là,
donc, la informatique quantique de pointe,
il y a beaucoup, beaucoup de gens
qui peuvent travailler là-dedans,
qui peuvent pousser les choses aussi.
Il y a de plus en plus de...
Enfin, c'est vraiment un champ qui est nouveau.
Donc, il y a pas...
Tu vois, des experts, des cuïdes, de chats,
il y en a pas, des milliers.
Et bien, il y en a beaucoup qui sont en France.
Et c'est pour ça, c'est en partie pour ça
qu'on arrive à garder notre avance aussi.
Après, il y a de plus en plus de masters
qui sont créés en informatique quantique,
mais ça...
La perception du truc, c'est que c'est un peu comme LIA.
Mais, tu vois, l'informatique quantique d'aujourd'hui,
c'est LIA de...
des années 98 fois.
C'est aussi dur de rentrer dans LIA maintenant.
2005, par là, quoi.
Début des années 2000.
Tu vois.
Mais à un moment donné,
je pense que ça va arriver, quoi.
À grand coup de vulgarisation
et tout, les gens vous rentraient plus facilement dedans.
Et puis, quand il y aura des applications,
ils marchent vraiment.
Là, quand vous allez avoir 200 candidatures
de la live,
déjà, pour commencer,
on a pas mal parlé de projection,
de ce qui sera possible.
Il faut atteindre 100 000 cubites de chats
pour résoudre telle ou telle algorithme.
Concrètement, si on parle pas de projection,
maintenant, là, tout de suite,
vous arrivez à voir combien de cubites
et vous projetez d'en faire combien.
Qu'est-ce qu'on a le droit de disclose ?
J'ai peur de...
On peut dire, là,
l'étape que tout le monde veut franchir aujourd'hui,
c'est de faire marcher la correction d'erreurs.
Oui.
Et c'est un truc que personne n'a...
Donc, on serait ce fameux cuite logique
arrivé à corriger les heures.
Personne n'y est arrivé jusqu'à aujourd'hui.
Donc, il y a Google, qui était vraiment très, très proche,
mais qui était juste au-dessus de la barre.
Il était 20 % au-dessus.
Et donc voilà...
Passer en-dessous de la barre.
Il faut passer en-dessous, ouais.
Ça, c'est pas ouf comme métaphore.
Mais ça, en sens là que ça marche.
Et donc, Alice, c'est bon, on a toujours l'espoir
d'être éventuellement les premiers à passer
la barre de cette correction d'erreurs.
Et l'intérêt, c'est que même pour juste faire ça,
même pour montrer que la correction d'erreurs, elle marche,
tu vois, c'était le carré par rapport à la ligne,
on a besoin de beaucoup moins de cuites.
Donc, typiquement dans le labo aujourd'hui,
on a... disons une...
Qu'est-ce qu'on a le droit de dire ?
On travaille sur des prototypes de... disons, entre...
Enfin, il faut au minimum 5 cuites.
On a des prototypes avec au moins 5 cuites
jusqu'à une dizaine de cuites.
Et pour l'instant, on travaille vraiment sur ça
et fait un marché de la correction d'erreurs.
C'est vraiment la priorité numéro 1.
Après, évidemment, on travaille aussi sur ce qu'elle est ça
parce que à la fin, il en faudra 100 000 quand même.
Tout à fait.
Mais voilà, on est vraiment...
Donc entre 5 et 100 000 en gros, à peu près.
Bon, à peu près.
Bonne fourchette.
Et après, est-ce que vous pensez...
Si on... je sais que c'est toujours dur de faire des projections,
mais c'est ça qui nous intéresse aussi.
Si on devait s'imaginer ce moment-là
où justement, le labar va être franchi,
vous pensez que c'est quand ?
Ben, je pense qu'on le verra, c'est sûr.
Et moi, si mon petit réseau de neurones baillésien
intégré à force d'écouter les conversations de couloir,
enfin, à l'horizon de temps de 20 ans,
ça me paraît même peut-être 10.
Enfin, c'est tout à fait possible.
C'est pour construire un ordinateur quantique.
Pour faire marcher la correction d'erreur.
Oui, ça, c'est beaucoup plus court.
Je vois peut-être l'année prochaine.
Ah ouais, enfin, Google est bien...
Google est... pas long, en vrai.
Ils ont quasiment réussi.
En fait, c'est même dommage pour le...
Enfin, même, on sera contents que si Alice et Bobby arrivent en premier,
pour le change général, en vrai, ça aurait été cool qu'ils arrivent.
Plutôt le mieux, quoi.
Mais c'est quand même le fait de se dire
que vous pourriez arriver à faire cet débat-là
avant Google, alors que ça fait 15 ans
qui se rend sur le dos.
C'est quand même fou, non ?
Bah, on donne tout.
Alors, on donne tout et on va pas de la peau de l'ours,
mais on donne tout.
Ouais, c'est ça.
On va suivre ça de très, très près, évidemment.
Question bête, mais est-ce que...
Moi, j'y m'en reste d'autre, évidemment.
Mais est-ce qu'il y a des aspects qu'on n'a peut-être pas
suffisamment explorés selon vous, des trucs,
des idées reçues que peuvent avoir les gens
sur votre domaine,
qu'est-ce que ce serait l'occasion, justement,
de dévincer ?
Les idées reçues qu'ont les gens sur le calcul quantique,
on ne l'avait jamais fait de celle-là.
En vrai, il y en a, c'est-à-dire que,
typiquement, il y a pas de gens qui pensent
qu'ils vont avoir chez eux un ordis quantique.
Alors, là, du coup, effectivement,
on peut répondre, les premiers ordinateurs quantiques
presque à coup sûr, ça va être comme
les premiers ordinateurs.
Peut-être qu'à un moment donné, on va casser
une barrière technologique et que, j'en sais rien,
on va trouver un super supraconducteur
qui est proche de la température ambiante,
si c'est les supraconducteurs qui gagnent la course
et qu'on pourra beaucoup miniaturiser.
Mais les premiers ordinateurs quantiques
y a fort à parier, que ce seront
des grosses grosses machines
dans des fermes de serveurs.
Un peu comme ces premières photos qu'on voit
des ordinateurs qui prenaient des salons entières.
C'est sûr que les premiers ordinateurs quantiques,
ça ressemblera à ça.
Exactement.
Après, ce ne sera pas grave, parce que quand on voit
les applications, en fait, c'est de l'ordre de...
C'est des trucs qui vont bénéficier
à l'humanité,
sans pour autant qu'on en ait chez nous.
Disons que si
ton objectif, c'est de regarder des vidéos sur YouTube,
voilà quoi.
Ou de jouer à 500 fps.
Non, ça ne va pas t'aider.
Mais en fait, il faut voir plus loin.
Voir plus loin.
Après tu vois, tu pourras y accéder en ligne.
Voilà.
Donc finalement, ce n'est pas si grave qu'on n'aille pas chez nous,
chez nous.
Ok.
Non mais je pense qu'on a...
Je pense qu'on a fait le tour. Je peux prendre quelques questions
si vous en avez dans le chat.
J'ai pas du tout regardé.
Est-ce que... Ah mais oui, est-ce qu'on ne ferait pas
cette démo ?
Ah bah alors, si vous voulez, mais il faut...
Il faut prier pour que ça marche.
Oh wow.
On m'a rapporté le sac.
On a ramené le sac.
Incroyable.
Potentiellement il faut avoir une petite rallonge, j'imagine.
Tout est prévu.
T'as vu ?
T'as vu ?
Une rallonge de rallonge.
Très conseiller ça.
Là, c'est le moment où on va voir si le truc a pas pris l'eau
pendant les transferts.
Non mais c'était sûr qu'on allait le demander.
Moi, je ne vois jamais une machine aussi bien conçue.
J'allais évidemment...
C'est le stress de l'expérimentateur.
Oui, c'est ça.
Ulysse a fait ça tout seul sur ses week-ends.
C'est vrai.
Il a imprimé les pièces en 3D.
Vraiment il s'est chauffé.
C'est le vrai project sur l'imprimant de 3D de ma chambre.
C'est trop bien.
Au lieu de rédiger sa tête.
Oui, on va espérer qu'il n'y ait pas un effet...
Non mais ça, il ne faut pas le dire.
Il n'y a pas trop de thèses.
Tu préfères rédiger.
Tu peux brancher le câble un peu plus.
Bon, alors là c'est le moment du roulement de tambour.
Ouais, déjà le truc est sous tension.
Alors si j'appuie là normalement, ça va être posé.
Oh !
Ok, donc là je commente ce qui se passe en temps réel.
Donc là tu vois, on est en train de partir du vide.
Et progressivement on est en train d'injecter d'énergie dans le pendule.
Ok.
Le pendule et ta résonance, ça amplifie.
Et donc là on va atteindre un régime stationnaire.
Alors ça bouge un peu.
Mais en réalité...
Si tu regardes là...
Si tu regardes là, mais en fait le problème de cette démonstration c'est que c'est beaucoup plus parlant de la voie en vidéo.
Mais tu vois, le mouvement est symétrique que le pendule fâche gauche 3 tout droit de gauche.
Et du coup ça marche.
Tu peux voir aussi que cette partie est fatigueuse.
Tu peux super poser des...
Exactement.
C'est vraiment là que tu vois que le truc m'a fait.
Voilà.
Je peux donner des pichonnettes ou quoi ?
Tu peux donner des pichonnettes.
Tout à fait.
Ah c'est bon, il est resté du même côté là.
Il me semble bien que tout s'est bien passé.
Je vous fous avoir l'œil mais là...
Ouais.
Un autre truc c'est que c'est très dur de se rendre compte si tu as vu un bitflip ou pas.
Il faut vraiment la vidéo en replay.
Je n'ai pas vu un bitflip, pardon.
On dirait un move de skateboard.
Non mais incroyable.
C'est quoi la machine derrière ?
Ça c'est juste une alimentation de laboratoire.
D'accord.
Après tu peux...
Mais bon, je ne vais pas rentrer dans ce tunnel.
Tu peux réguler la vitesse du moteur.
Ça va changer plein de trucs sur la situation paramétrique.
Ouais peut-être pas faire un cours de physique trop profond ce soir.
Merci.
Non mais déjà on a eu beaucoup d'informatique en tic-cantique.
Grâce à vous deux donc merci énormément.
Un tonnerre de love dans le chat.
Vraiment c'était passionnant.
Et j'ai envie de vous rappeler dans quelques années.
Ou même moins.
Pour faire l'opera.
On a fait marcher la correction.
On vous viendra.
On vous viendra.
En tout cas vous êtes bienvenue ici vraiment.
Ça marche.
Très très cool.
Merci beaucoup.
Encore une fois vous ne vous le direz pas parce que vous êtes trop humble etc.
Mais c'est possible qu'un jour, dans dix ans,
Alice et Bob, tout le monde connaissent son nom.
C'est possible.
Il y a un prix Nobel ou des trucs comme ça vraiment.
Et vous pensez à nous.
Et vous reviendrez voir cette vidéo.
Donc franchement c'est très excitant en tout cas de suivre ce domaine.
Et d'avoir vos traductions en théorique pour qu'on n'y capte un petit peu quelque chose.
Parce que sinon...
On espère que c'était un peu préclare.
On n'est pas...
Pour difficile à vulgariser.
La physique quantique de base c'est un enfer à vulgariser.
Et juste pour faire des jolies images.
Non mais c'est parfait.
Vous nous avez mis très bien.
Et si vous voulez en apprendre un petit peu plus justement.
Vous pouvez aller voir String Theory.
Où tu fais des vidéos de vulgarisation.
Qui sont même plus courtes.
Parfois qui avez-ci.
Ou plus longues je sais pas c'est quoi le format.
C'est vraiment des trucs de une minute là.
Est-ce que tu peux faire une pub pour les vidéos à venir peut-être ?
Allez-y, allez-y.
Non mais...
Je voulais pas spoiler.
Ah bah alors pas de spoiler.
Non mais il y a des vidéos qui viendront plus longues sur l'ordinateur quantique.
Il faut juste que je fasse ça sur mes soirées et ça prendra...
Mais euh...
Et bah merci encore à vous deux.
N'hésitez pas à follow la chaîne Twitch pour la prochaine émission qui sera dans 2 semaines.
Mais redis à 19h.
Et à vous abonner à la chaîne Youtube.
Si vous avez raté les petits bouts de cette émission.
Et bah y aura les redis dans les prochains jours.
Je crois que pour une fois on a prévu de les sortir vraiment très très vite.
Donc n'hésitez pas à vous abonner.
Et puis moi je vous dis une très très bonne soirée.
Et la prochaine, tout simplement.
Ouais salut tout.
Au revoir.