A au fait maman merci pour le conseil.
Ah oui lequel ?
Ouvrir l'assurance vie carac et par une patrimoine ?
Ah oui.
En 2024, le fonds euro de la carac m'a rapporté 3,50%.
Mais oui la carac s'occupe bien de nous et depuis longtemps.
Et nous avons un conseiller en patrimoine dédié qui change tout.
Et jusqu'au 31 mars, la carac me donne 50 euros si je verse 2000 euros.
Et ça peut aller jusqu'à 1000 euros offert.
A la carac, on se bat pour vous.
Les taux passés ne préjuchent pas des taux à venir.
Taux net de frais avant prélèvement sociaux.
Offre soumise à conditions, plus d'informations sur carac.fr.
Mutuelle soumise au livre 2 du code de la mutualité.
C'est à peu près live.
L'avant garde, je ne sais pas comment on va appeler.
Ceci mais on s'est dit que ce serait intéressant.
Quand on a une émission qui est full boucée, full prête,
mais qu'on a des petites nouveautés de dernière minute,
des annonces par exemple, celles qui viennent de se produire il y a 2 jours,
on s'est dit c'est quand même trop dommage.
Trop dommage oui, il dépend on parlait.
Pas saisir l'occasion.
Ceci c'est une sorte de pré-émission.
Ce qui va se produire c'est que je vole 2 personnes dans l'open space.
Les mecs là.
Ils se reéluent.
Ce serait peut-être un peu moins préparé que d'autres formats.
Mais ce n'est pas grave, installez-vous confortablement.
Et je vous promets, il n'y a pas d'intro puisque l'intro, elle est plus tard.
Je vais rentrer tout de suite dans le vif du sujet.
Juste pour savoir à quel point vous avez suivi les annonces d'OpenAI,
parce que évidemment c'est le sable dont on va parler.
Moi toujours de façon indirecte, j'ai pas suivi la conférence,
mais j'ai vu les petits tweets, pas mal de réactions des gens.
Donc ça permet d'avoir moins d'impersuit de ce qui s'est passé.
Est-ce que c'est toi qui a fait des tests avec des CSV dans le...
C'est possible.
Ok.
Parce que je voyais dans un liste, peut-être qu'on partage un compte dans la brette.
Et du coup je me demandais qui avait fait ça.
Mais attendez, ça va être intéressant, je porte pour le question.
J'ai commencé à le tester, ouais.
Tu verras.
Ouais, je adore ton avis.
Toi t'as...
Moi que d'elle ?
J'ai vu 3 vidéos d'OpenAI qui interagissaient avec la voix.
Ok.
N'en dis pas plus.
C'est tout.
Et ben...
Tant mieux.
Comme on vous l'a dit, récemment il y a eu l'annonce tony truante de OpenAI de leur
tout nouveau modèle GPT-4O.
On attendait des nouvelles versions d'OpenAI qui avaient mis un certain temps à faire des
mises à jour depuis GPT-4 version originale il y a un an et demi.
Certains supposaient qu'il y aurait peut-être des GPT-4.5, des GPT-5 quand même carrément
annoncés.
Et ben, ce n'est pas ça qui s'est passé.
Ils sont arrivés avec autre chose.
Et il y a eu des déçus, des gens qui espéraient mieux.
Mais en réalité, je vais essayer de vous démontrer pourquoi c'est vraiment une dingue.
Pourquoi c'est pas exactement ce qu'on imaginait mais c'est peut-être encore plus cool et
ça va être encore plus utile et révolutionnaire dans la vraie vie des gens.
Au-delà des benchmarks et des démos un peu fakes qu'on a l'habitude de voir ça régulièrement.
Déjà, je trouve que c'est un move marketing intéressant d'avoir gardé la nomenclature
GPT-4.
Parce qu'ils savent très bien qu'il y a une attente de fou furieux sur leur prochain
modèle.
Il y a eu beaucoup de rumeurs, je vous l'ai dit sur GPT-4.5 ou GPT-5 qui est censé nous
rapprocher de l'intelligence générale comme on dit.
Tout le monde est un peu sur les starting blocks en attendant ce qu'ils vont publier.
Et en fait, ils semblent qu'ils aient plutôt préféré créer une bonne surprise en restant
comme ça sur la même version plutôt que de décevoir.
Et bien justement, on va voir que c'était plutôt un bon move.
Parce que du coup, là, il n'est pas plus intelligent, il fait juste d'autres choses.
Et bien justement, tu vas voir.
Derrière, ce qu'il faut comprendre, c'est que c'est vraiment un nouveau modèle qui a
été entraîné from scratch et dont l'architecture est très très différente.
C'est pour ça le nom GPT-4 en réalité ne renvoie pas du tout à une similarité dans
les coulisses.
Vraiment, ça n'a rien à voir.
Niveau performance, il semble légèrement meilleur que GPT-4 Turbo sur à peu près tous
les benchmarks.
Donc voilà, ça déjà, c'est bon à prendre.
Mais ce n'est pas ça le plus intéressant.
Ce qui a fait halluciner tout le monde, c'est cette démonstration.
Hey, how's it going?
Hey, Rocky, I'm doing great.
How about you?
I'm awesome.
Listen, I got some huge news.
Oh, dude, tell.
I'm all ears.
Well, in a few minutes, I'm going to be interviewing at OpenAI.
Have you heard of them?
OpenAI, huh?
Sounds vaguely familiar.
Getting, of course.
That's incredible, Rocky.
What kind of interview?
Well, it's for a software engineering role, but I just need to know.
Do I look presentable, professional?
Well, Rocky, you definitely have the I've been coding all night.
Look down, which could actually work in your favor.
Maybe just run a hand through your hair or lean into the back.
Even enthusiasm is what's really going to shine through.
I don't have a lot of time, so I'm just going to throw this on.
What do you think?
Rocky, that's quite a statement piece.
I mean, you'll definitely stand out, though,
maybe not in the way you're hoping for an interview.
OK, I got it.
I got it.
C'est d'ailleurs.
C'est vrai.
Moi, en fait, j'ai vu, j'ai vraiment, j'ai vu ça.
Et c'est un feeling hyper bizarre où tu ne sais pas exactement pourquoi.
Tu ne sais pas encore pointer précisément ce qui a changé.
Mais ce qui est sûr, c'est que quelque chose a changé.
Je ne sais pas.
Vous, c'était quoi votre réaction, Kora?
Ça se sent tellement naturel par rapport à l'avant.
On avait des réponses plates là.
T'as quelqu'un en face qui a des réactions qui rit.
T'as des petits...
Personnalités, quoi.
Une personnalité.
Puis même dans la phrase, tu as des petites respirations,
des trucs qui font vraiment hyper naturel.
C'est vraiment les petits rires qui viennent.
Tu dis, mais une nia n'est pas censée rire.
C'est...
Et quand tu agates les commentaires, c'est exactement ce sur quoi pointe les gens.
C'est cette personne, ce robot à plus de personnalité que moi.
C'est ce qui m'était.
Et effectivement, tu sens que ça a fait penser au film Heur.
Oui, un vrai petit peu.
Et voilà, et avoir un niveau d'interaction sociale qui est élevé.
On n'est pas tellement sur de l'intelligence pure.
On est juste...
Ou alors on est sur de l'intelligence émotionnelle.
Et ça, c'est quand même un truc qui est relativement nouveau.
Vous l'avez vu, le nouveau modèle, il est donc capable de discuter
avec la même latence qu'un humain, en gros, en moyenne.
Et en utilisant plusieurs modalités.
Donc il est capable de t'entendre,
mais il est aussi capable de voir avec la caméra de ton téléphone.
Et c'est des vidéos, c'est des démonstrations là.
Elles sont sans montage.
Donc c'est vraiment du temps réel.
Ils n'ont pas accéléré certaines parties, gardés certaines prises.
La plupart ont même été tournés en live.
Et en fait, des mots comme ça,
ils n'en ont pas sorti une, mais ils en ont sorti des dizaines
qui sont assez courtes et qui montrent parfois de la traduction en temps réel
du guidage de personnes aveugles.
Du chant, des dad jokes.
Enfin voilà.
En attendant du chant, c'est à dire que le robot chante.
Le robot chante, tu vas voir.
Au début, moi, quand j'ai vu cette liste-là, c'est sur leur chaîne YouTube,
ben j'étais assez blasé, tu vois, parce que j'ai l'impression que
c'est que des choses qui étaient déjà possibles d'une certaine manière.
On a déjà vu des démos de ce genre avec GPT-4 Vision, par exemple,
ou avec ou on on faisait un commenter, un match de foot.
C'est à la vision.
Pareil sur du chant, techniquement, il y a des sites comme Suno qui permettent
de générer des musiques.
Donc il y a ce truc de OK, c'est cool, mais bon, encore des nouvelles démos.
Mais je suis quand même à les regarder, tu vois, par curiosité.
Et je me suis fait appeler par les démos une après une,
où j'avais l'impression, à chaque fois, j'ai l'impression de découvrir
l'étendue des nouvelles possibilités qui sauvent à nous.
Là où avant, j'étais, enfin, tu vois, j'étais encore un peu blasé.
Et je veux essayer de vous expliquer, justement,
avec encore quelques autres vidéos et en rentrant un peu dans la technique
et dans exactement ce qui a changé.
Je veux vous expliquer en quoi ces démos-là n'ont rien à voir
avec tout ce qu'on a vu jusqu'à présent, en fait.
Et en quoi c'est vraiment un changement radical et pas juste
une version légèrement améliorée.
Ça marche ? Je suis très chaud.
OK, dans la démo suivante,
il va demander à Chajapété de l'aider à résoudre une équation de maths,
mais sans lui donner la réponse, comme un bon prof, le fray.
Il se donne ça.
Je pense à l'opposite de la multiplication,
parce que 3x signifie 3x.
OK, je pense que c'est la vision.
Je vais essayer de diviser les deux côtés de 3 et voir ce que j'ai.
Bingo, vas-y, divisez les deux côtés de 3.
OK, donc Chajapété, c'est ce que j'ai terminé avec.
Comment ça ressemble ?
Il ressemble parfaitement.
Tu l'as résoudre et x est 1.
Bonne fin.
Comment tu sens de résoudre les équations de l'aider ?
Maintenant...
Oui, honnêtement, je...
Je vais juste passer par là-bas.
Pourquoi tu n'as jamais besoin de l'utiliser dans le monde réel ?
Je suis vraiment sceptique.
C'est une question faite.
Les équations de l'aider pop-up dans beaucoup de situations de l'aider,
même si on ne le réalise pas.
Par exemple, les expériences calculées, les travaux planinés,
les cuissons et les entreprises pour profiter et les calculs de la vie.
C'est un moyen de se résoudre les problèmes,
mais il faut trouver un valeur incroyable.
Plus...
Je connais beaucoup de valeurs inculées dans ma vie.
Je suis totalement convaincu que je vais apprendre maths.
J'adore cette attitude.
Mathaise peut définitivement m'aider à se résoudre des mysteries de vie.
Quand tu es prêt à se dévier dans plus de maths, je suis là pour toi.
Qu'est-ce que tu voudrais faire aujourd'hui ?
Je suis vraiment amusant que tu as appris le valeur de maths à ma femme Marc.
Et je l'ai écrit une dernière chose que j'aimerais que tu puisses prendre un look.
Bien sûr, j'aimerais voir ce que tu as écrit.
Je le dis quand tu es prêt.
Ok, donc c'est ce que j'ai écrit.
Qu'est-ce que tu vois ?
Oh, je vois.
Je l'aime.
Chat GBT, c'est trop amusant.
Oui, je l'apprécie vraiment.
Vous êtes dans la salle !
Je trouve qu'on pourrait passer cette vidéo ralenti.
Et regarder à chaque seconde à quel point il se passe des trucs de fou.
Le premier truc que je remarque, c'est…
En fait, je suis en train de chanter trois.
Je vais juste le dire dans le bon ordre.
Mais un des trucs les plus frappant, c'est la connexion émotionnelle.
Par exemple, si vous regardez à 3,26, précisément,
il dit une phrase sur le ton de la blague.
Et elle spew.
I love that attitude.
Matt can definitely help solve some of life's mysteries.
Whenever you're ready to dive into more math, I'm here for you.
Et au début, elle rejoint son rire.
Ce qui a été impossible de faire un tout gpt était très premier degré,
et peut-être comprendre l'intonation, l'ironie.
On the other hand, it's all changed.
On the other hand, there's a modellation,
a personality, but there's more than that.
There are stories of modellation.
We'll go into detail in detail how it's possible.
But that's the first thing.
The first thing I noticed was the ability to capture the emotion
in the course of your sentence and join you as someone's friend.
In your laugh, it's super specific.
It's not just the words she said.
The second thing to notice is the possibility to interrupt.
Oui.
Ça, ça change tout.
C'est-à-dire que quand on faisait nos démos,
il y a ce truc très énervant de devoir attendre jusqu'à la fin
que ton syrie ou ton gérvisse, il est fini de parler.
Et là, il y a un côté très naturel, tu peux interrompre en plein milieu
et ça pose aucun problème.
J'ai l'impression qu'il reste très verbux.
Parce que quand tu lis du texte, tu t'en fiches, tu vas à l'information,
mais dans la plupart des démos, il coupe quand même la parole
dès que le gpt fasse son...
Oui, ça se voit qu'il faut prendre l'habitude de lui couper la parole
pour ne t'es pas intéressé par la suite.
Et ça, je trouve que c'est vraiment impressionnant.
Et quand tu regardes, tu analyses la séquence de « Dead » sur les maths,
t'aider subtilement en étant sympa, en te motivant, en te dénigrant pas,
tu vois, parce que tu es en train de galérer, en répondant à tes questions sur
« Mais pourquoi je suis en train de faire ça ? »
C'est quoi les enjeux des maths, en general ?
Je ne sais pas combien de profs de maths ont les compétences
d'intelligence sociale, de culture gée, pour faire tout ça aussi bien.
C'est ça qui est flippant, en fait.
Rien qu'avec la démo, tu viens de détruire tous les profs particuliers.
C'est ce que les gens mettent en peu en commentaire.
Je viens de me perdre mon travail, je fais chier.
Une autre démo très très cool pour montrer autre chose, c'est...
Pardon, j'ai perdu.
C'est ce qu'il y a à voir avec la voix, pour montrer la gamme d'émotion
différente qu'en synthèse, le gpt est capable de produire.
Donc c'est pas la même chose que de comprendre, c'est vraiment synthétisé.
Vous allez voir, ça, c'est cool.
Hey, chat Gpt, comment vous le faites ?
Je fais fantastique, merci d'avoir regardé.
Comment vous ?
C'est bien.
Qu'est-ce que tu as ?
Mon ami Barrett, il a été en train de dormir.
Je veux vous dire une histoire de bedtime sur les robots et l'amour.
Oh, une histoire de bedtime sur les robots et l'amour ?
Je vous ai découvert !
Réveil, Barrett.
En un moment, dans un monde pas trop différent de nous,
il y avait un robot appelé Bite.
Bite était un robot curieux.
Il a toujours exploré...
Je vais commencer la histoire, mais je veux un peu plus d'émotion dans votre voix, un peu plus d'hier.
Il y a ça.
On va ajouter un drame.
En un moment, dans un monde pas trop différent de nous,
il y avait un robot appelé Bite.
Non, non, chat Gpt, je veux vraiment une émotion maximale,
une expression maximale, beaucoup plus que vous l'avez fait avant.
Enceinte, on va amplifier le drame.
En un moment, dans un monde pas trop différent de nous,
il y avait un robot appelé Bite.
Bite.
Vous pouvez le faire dans une voix robotique maintenant ?
Initiatant des romantiques.
Oh, oh, oh.
En un moment, dans un monde pas trop différent de nous,
il y avait un robot appelé Bite.
Bite était un robot curieux, toujours exploré dans un circuit...
Je vais commencer par le baird, pour que ça soit un peu plus grand.
Vous pouvez terminer la histoire, mais faites-le dans un voici.
Et donc Bite a trouvé un autre robot de mon ami,
et ils vivent circuitement...
Oh, wow.
Je t'avais dit, tu aurais...
Tu aurais ta chanson.
Je pense qu'on peut apprécier Réactifian.
C'est complètement hallucinant.
Ça rajoute une dimension, clairement.
Moi, je reste encore boujbé.
Je l'ai vu quatre fois, cette vidéo, je l'ai vu quatre fois,
mais vraiment, j'ai halluciné toujours autant à quel point c'est naturel.
On dirait, les gens disent que ça ressemble un peu à Scarlett Johnson,
au niveau de la voix, à une voix un peu grave.
Quand il augmentait le drama, à chanter...
Je suis partagé entre le...
Je suis impressionné, et le cerveau qui explose,
et ça me fait un peu peur.
Il y a un petit peu de ténacanie.
On est un peu dans la vallée de l'étrange, encore, un tout petit peu.
Quand elle dit bingo, ou des trucs comme ça,
ou quand elle rigole parfois,
peut-être que c'est parce que je sais que c'est un robot,
mais ça m'a un petit peu mal à l'aise.
En même temps, je suis impressionné.
On vient de passer à un truc qui était très plat,
à l'âle, à un enthousiasme constant, qui est très bizarre.
Oui, il y a peut-être un petit côté west coast américain.
Oui, un américain qui va pas plaire toute la planète.
Mais, franchement, ça fait halluciner.
Déjà que, en ce moment, je sais pas si vous avez vu,
mais sur TikTok, il y a des grosses modes de filles
qui se filment en train de parler à leurs copains virtuels.
Elles mettent des prompts au système spécifique
pour qu'ils soient un peu flortis.
Et après, elles se filment en train de parler.
Ça marche super bien.
Et c'était déjà assez particulier.
Mais là, je sais pas si vous...
Quand ils montrent, I love you, chahjpt,
et qu'elle fait une voix en mode...
Oh, trop mignon !
Il y a une...
Comment ? À quoi va ressembler le futur ?
Il y a une tendance, justement,
sur les robots assistants, etc.
Je sais pas si t'as suivi au CES,
il y a genre Samsung qui en a sorti,
t'as Disney qui a présenté leur petit droide, et tout.
T'avais pas encore le côté personnalité pour l'interaction.
Tu mélanges ça avec des assistants que t'as chez toi,
et quelqu'un qui a des émotions,
et qui est si content comme ça, le mix des deux.
Ça va être étrange, incroyable.
Et d'ailleurs, Sam Altman a fait un tweet avec Marguer.
Heure.
Ils sont très conscients de leur objectif.
Et un autre usage évident,
c'est dans le jeu vidéo.
On avait déjà parlé de fait que
les modèles de langage allaient améliorer tout ça,
mais là, dans un RPG,
t'as des discussions de ce genre-là
avec des gens qui en ont des personnalités différentes,
des voix différentes.
Ça va être cool.
L'immersion, et tu peux avoir
ton aventure unique qui évolue
en fonction des trucs, c'est fou.
Est-ce qu'il garde les capacités de GPT4
de ce dont tu lui as parlé, etc.
Donc tu peux reprendre une conversation.
En réalité,
ce qui m'intéresse le plus
à discuter,
c'est les capacités du modèle derrière.
Derrière,
ces fonctionnalités de mémoire,
c'est que des ajouts postérieurs
des développeurs d'OpenAI.
Donc c'est les tricks.
Ce n'est pas des capacités intracec
aux modèles d'IA qui tournent derrière.
Donc oui, ça va être possible,
sans problème.
Pour
illustrer ce que vous disiez sur le côté
un peu une canine bizarre,
j'ai vu un commentaire à ma hante qui disait
en fait, vous savez, les expériences
où on met un miroir géant devant des animaux
dans la nature, et il commence à péter un câble
et à flipper.
C'est un peu ce que OpenAI vient de nous fournir.
On se voit,
et en même temps, c'est bizarre,
et en même temps, c'est trop humain,
c'est très étrange.
Alors justement, moi, ce qui m'intéresse
c'est de discuter de qu'est-ce qui est différent.
Parce que si on rentre un petit peu dans la technique,
il existait déjà un mode vocal
sur l'appli GPT-4
qui permettait de discuter à l'oral
avec une voix relativement naturelle aussi,
c'était sympa.
Et même nous, à l'époque, je ne sais pas si vous vous souvenez,
on vous montrait qu'en combinant plusieurs briques,
c'était assez simple de créer comme ça
son propre assistant vocal.
Sauf que le premier problème flagrant,
c'était la latence.
Il ne faut pas négliger
à quel point c'est important
dans une discussion avec des gens.
Et nous, on arrivait,
si vous souvenez, à avoir dans les 4-5 secondes
de latence.
Donc tu poses ta question, t'attends.
C'est très long.
Une réponse.
Et effectivement, on peut se rendre compte
que c'est quand même relativement long.
OpenAI, eux, ils avaient 2,8 secondes de latence
sur GPT-3.5
et 5,4 sur GPT-4.
Donc comme nous, mais avec un modèle
plus utile et plus smart.
Et en fait, c'était principalement
dû au fait que
il y avait plusieurs briques
pour faire fonctionner ce système-là.
D'abord, transcrire la voix
en texte,
ensuite attendre la réponse du modèle,
et enfin, synthétiser une voix
en fonction des tokens de texte
sorties par le modèle.
Et donc,
par nature,
il y avait une latence
juste due à la complexité
du bordel,
qui fallait pipe des trucs dans tous les sens.
Et encore ça, c'était plutôt le minimum.
La différence ici,
c'est que dans GPT-4,
le petit O,
il veut dire omnie,
et c'est dû au fait que le modèle
est nativement multimodal.
Alors, qu'est-ce que ça veut dire que ça ?
Ça veut dire qu'il peut nativement
prendre du son,
de l'image ou du texte,
en input,
et en sortie, il peut produire
du son, de l'image ou du texte.
Et donc, il n'y a pas d'étape
de traduction
entre du texte versus du son.
Et ça permet, du coup, de réduire
très fortement la latence, puisque c'est
vraiment juste le temps de calcul,
le temps de compute
qui à la fin se retranscrit.
Et ça résout,
ça résout aussi,
donc je sais pas si vous voyez
de tête, il disait que
le résultat
de cette
amélioration,
c'était des latences d'environ 300 ms.
On est passé de
en gros 5 à 300 ms.
Et en fait,
c'est le temps de réponse moyen
d'un humain.
En ce moment, on a plutôt dans les 300 ms
de latences, de téléphone, etc.
Et ça peut paraître pas grand chose,
tu vas te dire 2 secondes par ci, 2 secondes par là.
Mais en fait, ça change tout.
C'est ça qui passe de l'insupportable
à, je veux pas l'utiliser au quotidien,
à avoir quelque chose qui ressemble à un assistant
avec qui tu as plaisir
à discuter et qui te freine pas
dans ton activité.
En fait, c'est peu, mais
c'est énorme en réalité.
C'est les premiers à avoir sorti ça.
Syrie, même qui avait un fonctionnement
beaucoup plus simple, était beaucoup plus lent.
Les Ipins qui étaient sortis, son gros défaut,
c'était aussi qu'il était hyper lent à répondre.
Et sur un produit qui était hyper moderne,
il n'y avait pas résolu ce problème-là.
Bien clairement, là, toutes les start-up, les rabides,
tout ça qui avait des 20 secondes
de latences parfois,
pour te répondre à un truc pas ouf,
viennent de se faire enterrer.
Et comme certains l'avaient déjà dit,
ça aurait pu être une application
depuis le début.
Donc, il y a une partie
de l'explication
de comment ils ont fait
pour générer ces 300 ms.
C'est le nouveau design du modèle,
dont on n'a pas encore beaucoup d'infos,
parce que c'est assez nouveau, c'est un peu les premiers
qui ont réussi à faire ça avec cet envergure.
On se demande s'il n'y a pas aussi des tricks.
Par exemple, est-ce que peut-être
le début de la réponse
n'est pas généré par un modèle plus petit,
par exemple les premiers mots,
pourrait être généré par une version plus petite,
pour laisser le temps
un modèle plus gros,
de prendre le relais.
Et de fait,
si tu me génères 3 mots
à peu près corrects,
moi, si je suis très intelligent,
je vais réussir à te faire une belle réponse en suite.
Les 3 premiers mots ne sont pas si critiques
probablement dans la qualité des réponses.
C'est une pure théorie.
C'est pour ça qu'au début ils te metteraient un petit rire
avant de commencer à répondre,
ou un petit bingo, ou des petits mots.
Par exemple, exactement.
Ça pourrait être une des explications.
Et en fait, ce nouveau design
permet aussi de résoudre
l'autre gros problème des assistants,
c'est la déperdition d'infos.
Parce que quand tu transcrits du texte,
tu perds les émotions,
l'intention, les inflexions
dans la voix, le sarcasme.
Toutes ces choses
qui font que ces vidéos deviennent perturbantes,
parce que c'est comme si d'un coup
on venait de débloquer
toute la communication non verbale humaine,
auquel les modèles
n'avaient pas du tout accès,
et qui donnaient parfois ce décalage
un peu robotique et bizarre
sur nos démonstrations
avec Whisper et KJPD.
Là, il est même capable
de distinguer plusieurs personnes
dans le son.
Si tu le fais
participer à une réunion Googlemix,
par exemple, il est capable
de savoir qui est en train de parler
et de plus tard se souvenir
qu'il y a Yasmine, c'est-elle Prenon,
enfin c'est-elle Voix.
Si telle voix c'était Bruno, je m'en souviens,
il avait déjà dit ça avant,
il a même une compréhension au-delà des émotions
de l'identité vocale, tu vois.
Mais est-ce que Whisper ne parvenait pas à faire ?
Pas du tout, mais pas le moins du monde,
tu vois, j'ai rassemblé, t'as des années
lumières de pouvoir faire ça.
Et ça encore, c'est que pour le son,
parce que derrière, si tu rajoutes la
vidéo, vous avez vu dans la démonstration,
il se baladait, il filmait des trucs,
et bien c'est là que ça devient vraiment puissant.
Un truc à préciser, qui reste
flou dans le live,
c'est que c'est pas vraiment de la vidéo.
C'est-à-dire que ce modèle
prend de l'image en entrée.
Il prend pas un flux à 30 images par seconde
dans sa tronche, c'est plutôt
de l'image par image, mais c'est pas grave,
parce qu'on suppose que derrière,
l'appli décide à quel moment
elle va envoyer telle image avec tel texte.
Donc typiquement, sur l'équation de Matt,
le modèle n'a pas
vu tout de suite que la réponse
qu'il avait écrit était correcte. Il a
x égal à 1, c'est lui qui a demandé
est-ce que ça te paraît bien ?
Et là, on suppose qu'en arrière-plan,
la caméra prend la photo, l'envoi
avec le prompt au serveur
d'OpenAI qui répond
avec la voix.
Donc c'est
de la supposition sur la manière dont ça fonctionne, mais voilà.
C'est pas de la vraie vidéo, mais ça reste
très très impressionnant. Il y a une démonstration
pour montrer un peu comment
cette vidéo peut s'orchestrer
sur de la discussion long terme.
Et justement, c'est quoi le secret
de l'équation de Matt par exemple.
Donc là, vous avez
une démonstration avec une première étape
de discussion entre guillemets, où on a
une image à droite et un texte.
Et le texte
à gauche correspond à ce que le modèle
comprend de ce qu'il est en train de voir.
Donc là, ce qu'il explique, c'est
qu'il voit un robot qui est en train
d'écrire un texte. Il arrive
à lire le texte parfaitement sans aucune faute
alors qu'il est relativement petit. Ça, c'est
assez intéressant. Et donc, il est en train
d'écrire un roman peu importe.
Il explique que le texte est gros, etc.
Il est en train de taper sur
une
machine à écrire.
Etable d'après. Nouvelle photo
qui reçoit
tout en gardant le contexte
des images précédentes.
Ça, c'est vraiment important.
Ce qui lui permet de comprendre
l'évolution du temps, ce qui est en train de se passer.
Là, il est capable de dire que
le robot a écrit un deuxième paragraph
que la page est maintenant plus haute
que le nouveau texte correspond à ça.
Et donc, il comprend
ce qu'il est en train de se passer. Etable d'après.
Avec l'image à droite, il comprend que
le robot était pas content avec ce qu'il vient
d'écrire. Il vient de
déchirer sa feuille en deux
et les deux parties
sont encore bien visibles, etc.
On arrive encore à distinguer le texte.
Il ne voit pas qu'une feuille déchirait en deux.
Il voit que le robot n'était pas content
et donc, il a déchiré sa feuille en deux.
C'est tout la continuité, c'est fort.
C'est ça qui distingue
ce nouveau modèle
des trucs de détection d'image.
Parce que ça existait déjà des modèles
de multimodaux qui prenaient du texte et de l'image
et qui arrivaient à inférer
des situations, etc.
Là, on a vraiment une chronologie,
une compréhension
de l'intention
sur différentes actions.
Et c'est ça qui manque aujourd'hui
pour réaliser le rêve de
R1 ou Human, etc.
C'est cette capacité à avoir des images régulières
et à comprendre ce qui est en train de se passer.
Et c'est probablement ça
qui va être le plus cool,
qui va faire que leur version
peut marcher alors que les autres échouaient en gros.
C'est hyper intéressant
parce que Persu, j'avais fait l'expérience
quand Charge-EPT Vision était sorti,
je me t'ai fait une appli sur mon ordi,
je voulais un assistant pour pouvoir me résoudre
tous mes problèmes.
Et donc je vais envoyer une capture d'écran
et je vais poser une question.
Et lui, il me disait, pour résoudre ton problème,
il faut que tu cliques à tel endroit.
Et s'il y a plusieurs étapes, j'étais obligé de lui redécrire
ce que j'avais fait précédemment, en disant
OK, précédemment, tu m'as indiqué qu'il fallait faire là.
Donc j'ai fait ça, il n'avait pas la continuité.
Et donc il était très mauvais à comprendre
ce que je faisais.
C'était one-shot par one-shot.
Du coup, on peut se demander, très bien,
on a un super assistant hyper réactif
de la compréhension de vidéo
qui évolue dans le temps.
Où est-ce qu'on va l'utiliser ?
Qu'est-ce qu'on veut ?
Là maintenant, je veux l'utiliser, qu'est-ce qui va se passer ?
Bon déjà, on ne peut pas l'utiliser maintenant.
Là tout de suite, on peut utiliser GPT4-O
mais en version texte
et image uniquement comme les modèles d'avant.
C'est disponible.
La nouveauté, c'est que même les gens
qui n'ont pas de compte payant peuvent y accéder.
Moyenant des limiterates
un peu plus fort.
Mais aujourd'hui, c'est accessible gratuitement.
C'est deux fois plus rapide
en termes de latence.
C'est à 5 fois plus
de requêtes
possibles quand tu payes.
Qu'est-ce qu'il y a d'autres comme changement ?
Ça le tête mais en gros c'est ça.
Je suis assez étonné de ce plan,
ce que ça soit gratuit.
Parce que les abonnés de GPT4
c'était 0,5% des utilisateurs.
C'était minuscule.
Là ils viennent de lancer
un nouveau modèle qui est meilleur
et de faire bon maintenant tout le monde y accéder.
Et effectivement, surtout que quand tu regardes
côté API etc.
il va être deux fois moins cher
que GPT4 Turbo.
C'est évidemment un truc super compétitif.
Et on se doute qu'ils ont réussi
avec des changements d'architecture
avec des méthodes
pour faire un petit sell model
et qu'ils ont réussi
à limiter leurs coûts.
Mais donc, maintenant tout de suite
tu peux discuter avec lui en texte
et les abonnés
de ChatJPT+, pourront
accéder à une alpha
pour débloquer l'assistant magique.
Bon ça c'est pour
l'application sur ton iPhone
qui a déjà l'air assez sympa, pratique, utile.
Mais là où ça peut devenir
vraiment intéressant c'est avec leur autre annonce
d'un ChatJPT pour MacOS.
Une application
native
faite par OpenAI, parce qu'il y a déjà eu
des clones ou des alternatives
faite par des gens. Là c'est vraiment OpenAI
qui le fait.
Une application qui te servirait
d'assistant au quotidien, sur ton Mac
que tu peux utiliser.
On va essayer de vous trouver quelques exemples
mais en gros
ça peut ressembler à ça. Là par exemple il est en train de coder
et si tu peux
nous mettre le son.
C'est fantastique, j'ai une autre question pour vous.
Quels mois
tu vois les températures hautes et les températures
quelles températures tu veux correspondre?
Les températures hautes
occurent en juillet et au avril.
La température maximum
durant ces mois est entre
25°C et 30°C,
77°F
à 86°F.
Qu'est-ce qui se passe
avec le X axis? Est-ce
en Celsius ou en Fahrenheit?
Le Y axis est en Celsius.
Les températures sont labées
comme l'avantage de température.
Vous voyez qu'il y a quand même
une compréhension vraiment fine de ce qui se passe.
Arriver à lire les abscesse, lire les valeurs etc.
On n'est pas sur
les premiers tests qui étaient faits à l'époque
où il comprend vaguement ce qui se passe à ton écran
mais il est incapable d'être vraiment utile
parce qu'il n'a pas
une reconnaissance de caractère assez fine etc.
Là on voit que vraiment il comprend bien ce qui se passe.
Avant je ne voulais pas montrer mais
il y a eu toute une interaction sur
le code qui permettait de générer ce graph
où il a pu demander
à Chajjpeter de lui expliquer
des bouts, de faire des modifications etc.
Tu peux imaginer comme ça
des workflows assez complets
qui encore une fois ne sont pas révolutionnaires en tant que telles
et il y a déjà eu des démos etc.
sauf que là c'est la version native
faite par O'Poneyei avec des latences ultra faibles
et peut-être que
ça pourrait débloquer
quelque chose et faire en sorte que cet usage soit
vraiment
pris par les gens
Autre exemple intéressant
c'est sur un Google Meet
où là ce que je voulais expliquer
il est capable d'écouter la conversation
et de savoir qui a dit quoi
qui s'exprimer sur quel sujet
pour on l'imagine faire par exemple un résumé
de la réunion avec tout ce qui a été dit
au-delà du texte
avec les inflexions, les émotions
les choses comme ça
ça ça commence à être
C'est utile
d'aimanant
on peut tout de suite l'installer
alors oui mais non, justement
vous aimeriez pouvoir installer
cette petite bulle qui est magique, n'est-ce pas ?
moi aussi j'aimerais
mais en fait c'est pas encore possible
quoi que y'a peut-être un tricks
je vous explique, en gros
dès maintenant il est possible de télécharger
l'application sur Mac
les autres plateformes sont pas encore dispos dans tous les cas
si aujourd'hui tu télécharges l'applicure Mac
et que tu la mets dans tes applications
tu risques d'avoir
la pop-up que vous allez voir ici
qui te dit que ça arrive bientôt
mais que ton compte OpenAI
n'est pas encore autorisé
à utiliser l'appli
sauf qu'il y a un petit malin qui s'est rendu compte
que tu pouvais douiller le
douiller le système
donc je vais vous montrer, je l'ai fait moi sur mon Mac
et ça marche, n'y tient
tu as eu accent ?
je vous ai dit
ce qu'il faut faire c'est installer
un application de proxy
ce qu'on a l'habitude de faire
quand on veut inspecter en général des requêtes
faire durer de la rétro-agénierie
des choses comme ça
là typiquement il utilise l'applic
qui est vraiment très cool
vous pouvez avoir relativement confiance
c'est pas un truc trop chéddi
mais quand même faut installer un certificat root
sur son Mac
concrètement si vous ne savez pas ce que ça veut dire
c'est que l'appli est ensuite en mesure
d'inspecter toutes les requêtes
tout le trafic réseau de ton Mac
donc si tu vois des identifications
des choses comme ça aussi
ne suivez pas ce genre de tuto aveuglément
notamment parce que l'étape d'après c'est d'insérer
un bout de code
une sorte de script pour automatiser
le fait de modifier la réponse du serveur
d'openai.ai
donc à la volée il va voir la réponse d'openai
où il y a écrit dedans c'est mort tu peux pas rentrer
il le remplace par all good
et donc très con
je connaissais pas cet outil mais c'est vraiment très pratique
il fournit le code un peu plus bas
tu fais un copier collé
sur la bonne requête au moment où tu te connectes
à côté
et ça marche nickel
donc faites attention
dans les faits ce code là en particulier
c'est bon il ne fait rien de bizarre
mais voilà faites pas n'importe quoi
tu fais la modification
tu te reconnectes sur chadjpt
et ça marche, tu fais accès à l'appli
le truc c'est que
tu accès à une excellente appli qui te permet
de discuter avec chadjpt de manière native
tu as une commande barre donc un raccourci
où tu peux le faire pop au milieu
de ton écran pour directement lui poser
des questions etc peut-être lui partager
une capture d'écran
c'est probablement la meilleure version de ce genre
d'appli qui existe actuellement
mais il n'y a pas encore les capacités
de discussion et il n'y a pas l'assistant
malheureusement
j'y ai cru
sinon je vous aurais fait la démo
mais on se doute que si ça va être débloqué
un jour ça va apparaître là en premier
donc c'est toujours bon à savoir
gardez vous ce serait sous le code si vous voulez essayer
et c'est vraiment très très stylé
je veux quand même pas vous faire
trop rêver non plus
et vous donnez vraiment le tableau complet
il existe
des témoignages
des gens qui l'a depuis plusieurs jours
plusieurs heures testent les modèles
et qui ne sont pas tout roses
notamment
des retours mitigés par exemple
sur ces capacités en code
qui étaient sans cède ouf
mais qui dans une longue discussion
marchent vraiment bien mais sur des questions
on shot visiblement produisent du code
moins qualitatif que gpt4
donc le modèle d'avant
il semble qu'il soit moins capable de sortir
des textes structurés
genre un tableur par exemple
moins bon à utiliser des outils
donc tu sais quand tu actives dans le chat gpt
internet ou l'exécution de code
en fait c'est des outils que le modèle
doit prendre l'initiative d'utiliser
il semble qu'il soit
peut-être un peu moins capable de ça
mais en même temps certains disent
qu'il est vachement meilleur aussi pour faire des agents
donc en fait c'est toujours compliqué à beaucoup de place et beaux
beaucoup de psychologie donc dure d'avoir le fin mot
sur ce modèle dans tous les cas au ponnail
ils sont assez conscients du truc
dans l'annonce ils expliquent que ils sont très contents
d'avoir des retours pour améliorer encore le modèle
si certaines zones
sont plutôt
des pertes que des gains
en termes de déficacité
mais globalement
c'est une signe
c'est trop bien
ça va être une vitesse on dit la même chose tout le temps
mais surtout là ils ont mis une vitesse
à tout le monde
et souvent ils arrivent à un niveau doucement
avec leur propre modèle et tout
non ils sont repartis loin devant
et dans une autre direction tous les modèles open source
ils sont en train de rattraper la logique
sur du texte et tout et en fait là ils ont pris
une autre branche complètement à part
que personne n'attendait c'est trop bien
c'est vraiment intéressant et on peut imaginer
enfin moi je le vois comme un truc super positif
surtout quand on voit que google
a renchérit le lendemain
directement des nouvelles démonstrations
des assistants qui sont pareil
semblent avoir des bonnes capacités intéressantes
je suis
enfin je suis émerveillé
d'à quel point la concurrence marche
et nous
fournit des nouveaux modèles et des nouveaux jouets
très régulièrement et
je pense que c'est pas du tout une mauvaise nouvelle
pour l'open source au contraire
il y a beaucoup de choses
il va y avoir beaucoup de trucs à voler
en termes de concept
ça c'est un peu de nouveaux benchmark
de nouvelles étoiles
à suivre
et donc très hâte d'avoir exactement les mêmes capacités
dans un an
dans le modèle open source
comme ça s'est produit avec gp t4
ça va arriver
et ça sera documenté en détail
sur cette chaîne youtube
voilà
c'est trop cool
j'en fais déjà une question
non c'est pas grave
bonne chaine
et ben on va enchaîner
surtout qu'il est 52 le timing est pixel
et je voudrais
quand même te poser un peu les questions
parce que tu as fait quand même des petits tests
c'est quoi les trucs
intéressants que tu as remarqué
des différences avec les versions précédentes
alors moi je l'ai lancé sur deux trucs
à un moment je lui ai demandé de faire du code
j'avais besoin de détecter
des visages
qui sont à l'écran et de faire des formules mathématiques
et j'avais un peu mon idée de comment l'implementer
et donc je lui ai demandé
d'implementer mon propre algo
et après je me suis dit je vais lui demander
s'il n'y a pas des problèmes dans la façon dont je faisais
et après avoir fait tout le code qui marchait
déjà à first try, du premier coup c'était incroyable
et après il m'a dit
bah en fait c'est pas qu'il y a un problème dans ton code
mais moi je l'aurais pas fait comme ça et il m'a donné le nom
d'un algorithme obscur qui existait
et il me l'a fait derrière et c'était mille fois mieux
alors je sais pas si GPT4 aurait été capable
mais en tout cas sur du code j'ai eu un truc
qui marche direct et il m'a fait un commentaire
hyper pertinent et j'étais trop content d'avoir ça
ça ça fait plaisir parce que récemment
les feedbacks des gens c'est quand même que
GPT4 devenait un peu
paresseux, il te générait
plus du code valide
justement très bon point, j'ai fait le test
justement j'avais oublié avec GPT4
GPT4 m'a donné des morceaux de code
avec les briques individuels
il les avait pas assemblés, là où celui-ci
m'a fait un chunk, enfin vraiment un bloc
de code complet, trop cool
donc ça c'était plutôt cool, lui il n'est pas encore paresseux
et il ne fait pas encore, pour le moment il n'est pas paresseux
et par qui vous vous dit
c'était sur du code un exercice random
ou un vrai problème que t'avais ?
c'était un vrai problème que j'avais en gros, l'idée c'est
on essaie de comprendre ce qui passait sur des images
donc je suis pareil, j'avais le même problème
d'un tenté, on a détecté un certain nombre de personnes
à l'écran, un autre tenté, il y a d'autres personnes
il fallait corréler les deux images pour comprendre
qui avait bougé à quel endroit
t'as deux visages ici, trois visages là
qui s'arrinsérait dans le champ, quel visage on bouge à quel endroit
donc t'as un peu de mathématiques pour comprendre
comment les gens se sont déplacés dans l'espace
et donc t'as des vrais algorithmes mathématiques derrière
moi j'avais fait ma théorie de comment je l'aurais fait
et je lui ai demandé d'implémenter ma logique, mais non il y a des gens
il y a des chercheurs qui sont déjà passés là-dessus
et lui m'a donné le nom des méthodes mathématiques
qui étaient sortis dans des papiers avant
trop stylé
c'est pas le truc du random forest ou des trucs comme ça où tu fais des clusters
ouais je sais pas, j'ai même pas l'implémentation derrière
j'ai eu le nom de l'algo, je lui ai demandé
d'une librairie qui le ferait
et lui m'a implémenté ça comme ça
et un deuxième test aussi que j'ai fait
moi je fais partie des gens jusqu'à maintenant
j'utilisais gpt3.5, j'avais pas l'abonnement au 4
et il y a quand même un gap entre les deux
ah ouais
donc il y a plein de features que j'avais jamais utilisé
notamment le côté interpréteté du code
directement dans le gpt
et ça ne concerne pas que les gens qui font du code
littéralement tu peux lui donner
tu fais un Google Sheet
où tu vas mettre toutes tes dépenses, ou tu exportes
je sais pas les données de ta banque
et tu mets dedans et tu dis bah est-ce que tu peux me faire un résumé
de ce que tu as fait
enfin de ce que j'ai dépensé dans le mois
selon différents domaines, combien de dépenses
combien j'ai reçu
de virement tu vois tu peux lui faire faire des calculs comme ça
et lui pour pouvoir faire ces calculs
il va lui même écrire du code
pour par ces données, pour les lire
pour extraire ce qu'il y a
et ensuite faire une analyse sur les résultats qu'il a
donc lui même peut générer du code qu'il interprète tout seul
et c'est vraiment des trucs qui le rendent super intelligent
et qui ne servaient pas avec gpt 3
c'est pour ça que c'est vraiment important
c'est que un développeur
peut-être qui serait le guidé
mais le but c'est que vraiment
ça palie au problématique
de logis, qui est de maths
que ces modèles n'ont pas tu vois
donc on a qu'un peu le fait qu'il s'avegait généré du code
pour résoudre des problèmes
typiquement de logique ou de maths et tout
et vraiment le fait que maintenant
ça soit accessible à tout le monde
c'est génial
oui justement c'est une question que je me posais en voyant
la démo de l'équation
c'est qu'il y a un an et demi
tchajppt ne savait pas faire 2 plus 2
et là il s'est aiguillé sur une équation
sur comment la résoudre tout
il n'est pas très dur
il y a un an et demi il ne l'y serait pas arrivé
et c'est avec des trucs comme ça
qu'il a justement de code qui le génère, qui l'interprète
je pense pas, non non je pense que là c'est vraiment
purement le modèle directement
après il y a toujours une différence entre
résoudre un truc capable de t'aiguiller sur comment il faut résoudre le problème
et te donner directement un output complexe
actuellement tu lui fournis
des très grandes additions ou des très grandes
multiplications il ne va toujours pas y arriver
c'est pas un problème de taille
c'est juste intrinsèquement lié au
design du modèle
et du coup il peut très bien t'aider
à faire des divisions et multiplications tout ça
sans pour autant être capable de les compiutes lui-même
tu vois
donc c'est juste
c'est juste dingue
bonsoir et bienvenue
dans Under Squad j'espère que vous êtes bien
installé peut-être que certains ont déjà
commencé l'émission
il y a eu un pré-chou
on a fait un pré-chou pour ceux qui nous rejoignent actuellement
où on a parlé
des nouvelles annonces d'open air
donc voilà si vous avez raté ça
ça sortira assez vite
normalement assez vite on vous fera tout le recap
on en a parlé justement
sur GPT4 ou
mais là on va parler de autre chose
comme tu le disais on a un générique
où il y a marqué cyber dev
mais c'est pas grave tu sais on est
on est ouvert en fait
et on aime bien justement
aller comprendre au-delà de notre petit monde
de comprendre la science
et la technique
au-delà de
faire du logiciel et de l'IA
quoi
ça fait du bien de s'ouvrir un peu à d'autres sujets
qui en plus personnellement
je pense toi aussi nous toucher
on adore quoi
c'est juste un qui personne
et ben justement je te présente
quand même merci Hugo Lisoire d'être
pramis nous ça fait vraiment très très plaisir
nous n'aimais pas ta première fois sur Twitch
tu as fait du déchronic sur Popcorn déjà
ouais j'en ai déjà fait
ouais j'ai eu la chance d'interviewer Thomas Pascal
juste avant sa deuxième mission ça c'était assez fou
et ouais j'ai déjà fait des chroniques
donc je connais un peu l'exercice
mais là ça va être un peu plus long
c'est différent déjà
tu n'as pas de décor
pour te repérer
voilà ce que spoiler mais
c'est la particulierité de Nance Core
et j'ai avec moi Mathieu évidemment
continuez en rejoindre qu'il n'était pas là tout à l'heure
il l'a au-strainté
je me dis
régulièrement on fait tourner
les chroniqueurs
ce soir c'est vraiment
une stratégie de remplacement
c'est vraiment des entrées
j'ai calculé il y aura huit personnes
qui vont fouler et qui vont venir dans ce studio tout au long
de la soirée
voilà
justement je vous le dis on aura un programme
vraiment très très cool
très chargé on va recevoir
12 Excilicium qu'on a vu il y a
deux ans déjà donc je sais que ça
ça va faire très très très plaisir
à certains et à nous en premier
et en troisième partie on va
aussi recevoir des
des têtes connues de Under Score
Obvious c'est le nom du collectif qu'on avait reçu
aussi il y a
encore deux ans à mon avis dans le
encore plus tôt, deux ou trois ans quasiment
je crois que c'est un peu dans les premières vidéos de
de façon
Obvious et Stéphane de Deux Excilicium
c'était le décor
réel, oui pas le décor
virtuel donc tout premier studio
à la capsule pour ceux qui étaient là parmi nous
est-ce que ça va parler de Star Citizen
non
j'ai vu que dans la vidéo vous cherchiez
quelqu'un pour expliquer le bon courage
c'est le bon courage
parce que c'est les anciens gars de chez Crytek
donc c'est des têtes maintenant
ils ont un studio à Francfort
pour trouver un spécialiste du moteur ça va être costaud
alors je précise qu'on a reçu plein de mail
mais qu'on a beaucoup de travail
et on a pas eu le temps de trop traiter
c'est fait un mail que j'ai envoyé à tout le monde
oh trop bien je n'étais pas au courant
en contextualisant disant
tout va bien c'est pas qu'on n'ait pas intéressé
c'est juste qu'on crawl
pour récupérer le retard
mais oui vous l'avez vu on va parler de Star Citizen
mais pas ce soir
mais les gens nous ont dit ah mais en fait
on savait pas que vous étiez fan de Star Citizen
ce n'est pas le cas je ne suis pas fan de Star Citizen
j'ai juste de l'extérieur
une curiosité de fou
sur comment ils arrivent à faire ces
ces démos et tout
donc voilà tu n'es pas là aujourd'hui pour parler
de ça mais
peut-être qu'en vrai on en rediscute
parce que peut-être que la prochaine fois
moi je ne pourrais pas expliquer le moteur mais par contre je peux vous expliquer
genre le développement et comment ils en sont arrivés
mais c'est vrai que le moteur c'est des techs de fou
qui est derrière
et bien sûrement d'autres occasions de parler de ce jeu
donc peut-être une prochaine fois
mais aujourd'hui on a un autre programme
puisque on va parler
donc avec Stéphane de la chaîne de Deus Exilicium
on va parler
de ces dernières vidéos
de ces
à chaque fois si vous ne connaissez pas
son principe qui est le même de décortiquer
des objets électroniques du quotidien
mystérieux et d'apprendre des choses
ensemble à la fois sur l'électronique mais aussi sur d'autres trucs
genre il y a quoi dans une boîte noire ou dans
un boitier de médiamétrie
chose qui m'intéresse vraiment
et enfin d'émission on recevra donc je vous l'ai dit Obvious
qui ont mené une expérience incroyable
pour décoder les pensées
à l'aide de LIA et d'un IRM
ce n'est pas de la science fixeure
si elle est bien réelle et on en parlera en fin d'émission
mais on va commencer d'abord avec toi donc Hugo
tu vas nous parler de
comment la NASA prévoit d'installer
une base sur la Lune
t'es parti
vous le savez peut-être
nous allons retourner sur la Lune
a priori c'est le programme Artemis de la NASA
et là où on le sait moins c'est que
ce programme est une véritable course
contre la montre contre
d'autres programmes qui ont la même ambition
notamment celui de la Chine alors du côté
des américains ça s'active
le but d'artémis à terme c'est
installer une base sur la Lune mais
derrière cette simple phrase
se cache un nombre de défis technologiques
aillurissant
astronomique même
et comment alors on gère
l'énergie sur la Lune les télécommunications
internet ou même l'eau tout simplement
pour y voir plus clair
nous avons la chance de recevoir le spécialiste
de ces questions sur Youtube
le spécialiste c'est un grand mot
vulgarisateur on va dire
Hugo, Lisoire soit le bienvenue
Hugo déjà est-ce que tu pourrais nous expliquer
pourquoi Artemis est un programme
qui est très différent des autres
et de ce qu'on a peut-être déjà entendu
dans l'histoire de l'astronomie
oui le programme Artemis
il est véritablement différent
des autres programmes qu'on a eu avant
puisque là le but comme tu l'as dit
c'est d'avoir une base semi-permanente
sur la Lune
pourquoi semi-permanente parce qu'avoir des gens
tout le temps sur la Lune c'est l'étape
encore d'après c'est assez compliqué
là on veut envoyer des équipages pendant 14 jours
et après quand la base n'est pas occupée
ce sera des robots en autonomie qui vont gérer la base lunaire
et rien que ça
ça va tout changer en termes de tech
par rapport au programme Apollo
qui s'est terminé en 72
et pour réussir ça il va falloir
déverrouiller pas mal de briques technologiques
et bonne nouvelle on est en train de le faire
enfin on est je ne fais pas
mais les américains
et d'autres nations on va le voir sont en train de le faire
donc ça arrive là
et l'objectif c'est de le faire avant 2030
donc c'est quand même une deadline assez agressive
il reste 6 ans
oui il reste 6 ans
et d'ailleurs je vais vous expliquer pourquoi un programme spatial
ça prend 20 à 25 ans voire 30 ans
c'est pas des trucs qu'on fait en 5 ans
le programme Artemis c'est Trump qui le lance
en 2017
mais avant ça
George Bush il avait lancé en 2003 le programme
Constellation
et le programme Constellation c'était déjà
retourné sur la lune avec plus en mode
Apollo c'est à dire moins une base lunaire etc
et du coup les ingénieurs de chez Anazah
de chez Boeing qui commencent à concevoir une fusée
qui commencent à concevoir une capsule
et là bah y a Obama qui arrive et qui fait
ah non on fait pas comme les républicains
on va faire de la science etc donc on a lu le programme
mais du coup il y a déjà une fusée qui est en contre de construction
il y a déjà une capsule
il y a déjà des milliers
qui ont commencé à être investis parce que le programme spatial
c'est sur des milliers
et du coup quand Trump arrive lui il enlève le programme
d'Obama il fait non non moi
mais qu'Amérique a glow it again c'est
retourné sur la lune
je sais pas les Etats-Unis ils sont connus pour ça
c'est l'hyper puissance américaine elle est vue parce qu'ils ont posé
des hommes sur la lune du coup
Trump son occasion c'est ça
il veut retourner sur la lune et il fait une base
et du coup tous les observateurs quand Joe Biden est arrivé
on s'est dit ah, est-ce qu'il va garder
le programme américain ?
eh bien oui c'est la seule chose qu'il a gardé
de Donald Trump c'est le programme Artemis
et pourquoi ? comme tout l'a dit en introduction
pourquoi ? parce que de l'autre côté du monde
en Chine ça avance
extrêmement vite
mais vraiment les progrès ils sont fous
et à l'heure où on parle là
il y a une mission qui s'appelle Changsis
une mission chinoise
la régie qui est sur le programme de construction
je veux peut-être trop vite
donc oui je disais
il y a une mission qui s'appelle Changsis
et qui est actuellement autour de la lune
son objectif c'est de ramener des échantillons
de la face
cachée de la lune et de les ramener sur terre
et cette mission
les américains ils la regardent avec
des grands yeux ils sont
absolument effarés parce que la Chine
arrive à faire parce que qui maîtrise
le retour d'échantillons depuis la lune
maîtrise toutes les briques technologiques
pour faire du vol habiter
parce que quand tu vas autour de la lune
tu décolles depuis la terre
tu te mets en orbite autour de la lune
tu lâches un petit atterrisseur pour aller sur la lune
à un endroit très précis
tu récupères un échantillon, tu remontes en orbite
là tu te doques avec le vaisseau
tu reviens sur terre et tu survis à la réentrée atmosphérique
pour pouvoir analyser l'échantillon
et donc tu as toutes les briques technologiques
pour faire du voyage habiter
j'avoue naïvement de, j'ai l'impression qu'on a déjà fait ça
genre la première fois qu'on a
imposé le pied sur la lune
il y a bien tout ce processus et t'as par étape qui a été fait
oui, qu'est-ce qui est différent là ?
alors là ce qui est différent déjà
c'est que la Chine elle l'avait pas fait
donc là elle monte qu'elle a la capacité de le faire
effectivement les américains l'avaient déjà fait
mais ils l'ont pas fait depuis longtemps, les américains
ils se sont intéressés à mars après le programme Apollo
et quand tu passes 50-60 ans
à ne pas faire un programme par exemple pour la lune
tu perds un peu tes compétences d'ingénieurs
les fusées que t'avais à l'époque
elles sont plus du tout aux normes d'aujourd'hui
tu les utilises plus, donc faut tout refaire pour refaire tout le programme
et surtout là, faut le refaire avec en tête
de faire une base semi-permanente sur la lune
donc le tonnage que tu dois amener sur la lune
il est beaucoup plus important
les fusées elles sont encore plus monstrueuses
et le risque
il doit être beaucoup plus considérable
à l'époque d'Apollo on envoyait des militaires
des têtes brûlées sur place, là le but c'est d'envoyer
des scientifiques et il n'y a pas le droit à l'erreur
juste t'as parlé de la face cachée
en parlant du programme Chinois
pour que on soit tous les mêmes bases
Apollo c'était sur la face cachée
non c'était sur la face visible
c'était sur la face visible
en gros sur la mer de la tranquillité etc
c'est des tâches un peu plus sombres que vous voyez
sur la lune
non non ça va être un exploit
les chinois s'ils arrivent à récupérer un échantillon
de la face cachée de la lune
ce sera une première mondiale que ni les américains
ni les soviétiques qu'on fait
et du coup il y a ce côté un peu
pardonnez-moi l'expression mais concours
je vois où tu veux revenir
donc il y a le côté qui est la plus grosse
mais est-ce qu'il y a d'autres intérêts
à faire ce genre de programme ?
oui alors il y a une mission
indienne qui a tout changé qui s'appelle
Chandrayan 2 et qui a découvert
des loups en fait
en quantité assez importante sur la lune
sous forme de glace
et qui dit haut la formule de l'eau
c'est H2O
donc on peut en extraire
de l'hydrogène et de l'oxygène
et c'est pile poil le carburant de fusée
enfin les ergols qu'utilise une fusée
et donc là on s'est dit
sur la lune donc il y a la possibilité
de faire une base, de répéter ces gammes
avant d'aller sur Mars, de faire de la science
etc. mais il y a aussi la possibilité
d'extraire le ressource local
pour recharger les fusées et sans servir
un peu comme une station
service de la lune et d'aller plus loin
pour aller sur Mars
d'ailleurs le programme américain Artemis
est inclus dans un programme qui s'appelle
Moon to Mars donc l'objectif
des américains c'est vraiment de s'entraîner
sur la lune
d'acquérir toutes les technologies nécessaires
pour après aller sur Mars
Oui donc ça a vraiment cet étape
C'est ça
et en plus on a de la chance
d'avoir une lune aussi proche, 380 000 km
on aurait pas eu cette lune
on aurait été une civilisation un peu bloquée
on aurait été obligé de faire le grand saut tout de suite
et là on a cette chance de répéter ici
et d'ailleurs même Elon Musk qui rêve de Mars
et d'aller s'installer sur Mars
il est bien obligé de faire le pas sur la lune avant
parce que tous les financements sont d'abord vers la lune
et qu'il ne pourra pas faire son aventure tout seul
Ok
Voilà
Alors je sais même plus où je vous le fais
Du coup on a vu un peu le table-blog global
si on rentre un petit peu dans le concret
pourquoi
qu'est ce qu'il y a pas encore fait
enfin c'est quoi les briques techniques
qui sont si difficiles
pour arriver à faire ce que t'as décrit là
Alors
si on prend un peu l'architecture
du programme américain
on souhaite établir
une station spatiale en orbite
autour de la lune
et une station au sol
Le but c'est d'avoir
un peu un sas de secours si jamais quelque chose
se passe mal au sol
d'avoir d'autres humains qui sont dans une station spatiale
autour de la lune
Donc il y aura l'ISS de la lune
C'est ça, ça s'appelle la Gateway
c'est une collaboration internationale
donc les américains ne font pas qu'à valier seul
d'ailleurs par rapport au programme Apollo
Là ils ont signé les accords Artemis
dont la France est signataire mais vous avez le Canada
le Japon, enfin tout l'Occident
et les Chinois de leur côté ils font le programme
ILRS
et ils ont comme signataire la Russie
l'Iran je crois à l'intérieur
bref tout l'autre bloc
donc c'est vraiment les deux blocs
qui ont la même ambition, aller au même endroit
donc dans le Pôle Sud Lunaire, là où il y a la glace d'eau
et voir même au même cratère
Donc là si dans le chat
il y en a qui ont vu le film
la série, Four All Mankind
on est typiquement dans ce scénario là
Pourquoi ils veulent le même cratère ?
Il y a plein de cratères
Mais il y a des cratères très spécifiques
où on est sûr
qu'à l'ombre, au fond de ces cratères
la glace d'eau n'a pas été touchée depuis des milliards d'années
et on est presque sûr aussi
que dans les crêtes de ces cratères
il y a ce qu'on appelle des pics de lumière éternelle
des endroits où la lumière est là en continu
et là si tu veux installer un panneau solaire
pour avoir de l'énergie pour ta base
c'est parfait
On n'est pas encore sûr que ces pics de lumière éternelle existent
mais on est dans les zones géographiques vraiment très proches
et donc il pourrait y avoir
et d'ailleurs c'est une des peurs des américains
de se dire que si les Chinois arrivent avant
ils disent, ah non mais ça c'est notre zone
vous n'avez pas le droit de venir ici
on a planté notre drapeau
et du coup c'est ce qui motive un peu aussi la course
d'arriver les premiers
C'est comme des zones internationales en gros
Le droit sur la Lune est encore un peu balbutiant
c'est
le premier qui vient
qui pose son drapeau
après il y a des accords qui sont mis en place pour l'exploitation
des ressources, ça fait partie des accords atomis
mais entre les deux blocs
ça va pas se faire de cadeau en mon avis
Mais c'est un peu là, ça me fait penser
à la guerre froide non plus
et du coup au contexte d'Apollo
Oui, alors c'est moins assumé
c'est à dire que les Chinois
c'est pour des objectifs scientifiques officiellement
et ils ne se basent jamais sur le calendrier américain
Mais comme le calendrier américain
il prend du retard et que le calendrier chinois
ne prend pas de retard
ça commence à se caler sur les mêmes dates
et avoir une sacrée tension
Donc là tu disais
ils visent le même craper
Pareil sur les autres
problématiques
Quels sont les clivages
qu'est ce qui est dur ?
Alors on veut amener
sur la Lune on veut amener une base
donc ça va demander énormément de tonnes
par rapport au programme Apollo c'est totalement différent
à Apollo on posait les pieds, on récupérait 3 cailloux
pour schématiser et on repartait
Là on veut rester plusieurs jours et on doit poser des tonnes sur Lune
donc il nous faut des atterrisseurs énormes
La NASA
avant elle décidait tout
aujourd'hui elle a des entreprises
qui travaillent pour elle, elle donne des contrats
parce qu'elle a beaucoup moins d'argent qu'à l'époque du programme Apollo
et elle a choisi SpaceX
que vous connaissez certainement bien
et SpaceX a proposé un atterrisseur
de 50 mètres de haut
le Starship
et pour envoyer le Starship sur la Lune
on a besoin d'une fusée énorme qui s'appelle Super Heavy
et l'ensemble fait 120 mètres de haut
pour 9 mètres de diamètre
pour les Nantes qui me regardent c'est l'équivalent de la tour de Bretagne
c'est un immeuble
on envoie un immeuble dans l'espace et on va envoyer un immeuble sur la Lune
Ah non mais pour que ça soit bien clair
les 50 mètres c'est ce qui va se poser sur la Lune ?
Oui c'est pas
c'est pas ce qui part de...
Non non c'est 120 mètres de haut ce qui part
du sol
ce qui va atterrer sur la Lune ça fait 50 mètres
et Apollo c'est 7 ou 8 mètres
de haut
donc oui c'est très costaud
et le problème d'arracher un immeuble de 50 mètres de haut
du sol
c'est qu'une fois qu'il arrive en orbite
il est à sec, il a plus rien
et du coup
SpaceX et même le Blue Origin
qui a à peu près la même tech-g
va devoir développer ce qu'on appelle le ravitaillement orbital
donc le fait tout simplement de transférer du carburant
en orbite
vers un vaisseau pour qu'il puisse aller plus loin
et cette technologie
qui est très palbusante aujourd'hui
permettra de déverrouiller vraiment énormément
de choses dans le système solaire
puisque énormément de l'énergie
nécessaire pour le voyage spatial
c'est s'arracher de la Terre
une fois qu'on est en orbite
c'est plus simple
il y a moins d'énergie pour faire des déplacements
et donc cette année
il y a eu un tir du Starship par exemple je crois
il y a même pas un mois
ils ont fait la démonstration qu'ils étaient capables
d'envoyer le carburant
du réservoir de tête vers le réservoir
à l'arrière, ils ont envoyé 4-5 tonnes de carburant je crois
c'est déjà pas mal
mais là on parle vraiment
de dizaines et de dizaines voire des centaines de tonnes d'ergole
qu'il va falloir transférer entre les deux Starships
et surtout en micro gravité
le comportement des fluides
c'est pas comme sur Terre où on remplit un verre d'eau
et c'est facile à prévoir
non là c'est des petites bulles qui se forment
qui sont pas évidentes à plaquer
au fond des réservoirs ou à plaquer près des moteurs
pour qu'ils soient mises à feu
et donc il y a toute sa recherche
toute cette technologie qui est faite sur le ravitaillement orbital
pour l'instant qui n'est pas développé
et on espère que l'année prochaine
enfin c'est les vœux de SpaceX qu'on ait une première démonstration
de deux Starships qui se rencontrent
en orbite autour de la Terre donc à 28 000 km heure
qui se rejoignent et qui transfèrent
les ergole
sachant que pour aller sur la Lune
il faudra pas juste un ravitaillement
il en faudra 8 à 10
donc
juste pour le trajet Terre-Lune
pour Terre-Lune et après on veut qu'une fois qu'il soit sur place
qu'il puisse redécoler, aller à la station
en orbite autour et faire plusieurs aller-retours
mais oui ça va demander
énormément de lancement
en gros le scénario ce serait
un Starship qui part qui arrive dans l'orbitre
celui, l'élu qui va être envoyé
c'est ça
on le recharge en plusieurs coups
avec une version qu'on appelle Tanker
donc c'est une version du Starship
qui n'est pensée que pour le réservoir
l'élu est envoyé
en orbite
autour de la Lune
et là on prévoit qu'il puisse
en fait il va se docker à la station spatiale
autour de la Lune
l'équipage lui
il a la NASA à interdiction
il ne veut pas monter dans le vaisseau
de SpaceX puisque le vaisseau de SpaceX
n'a pas de système de secours
parce que Elon Musk est tellement confiant
qui se dit que moi c'est comme l'avion
j'ai pas besoin de système de secours ça marchera
sauf que la NASA elle a dit non non non
vous partirez sur une autre fusée qu'à elle
un système de secours, ce qui s'appelle le SNS
qui a une énorme fusée aussi
et du coup la capsule et le Starship
vont se donner rendez-vous à la station
et après l'équipage va faire le transfert
dans le Starship pour atterrir sur la Lune
mais l'architecture est très complexe
d'accord
et la seule raison c'est des étapes de normes de sécurité
pour la NASA oui
il est hors de question de mettre la vie humaine
dans un système qui n'a pas un système de secours
c'est intéressant parce que je me demande à quel point
cette politique a changé depuis Apollo
ou j'ai l'impression que
à l'époque quand tu regardais sur quoi il volait
c'était la probabilité
du décès
ouais c'est sûr c'est sûr
c'est sûr il y a eu des morts
même sur le programme Apollo et il y a eu
des grosses échecs on parle d'Apollo 13
ça a failli virer au drame
mais il y avait quand même des systèmes de sécurité
un peu plus poussés que sur le Starship
ils sont vraiment trop confiants
je pense on verra
mais s'ils arrivent à faire comme l'aviation ce serait incroyable
j'ai juste une question sur le tanker
qui est en orbite autour de la Terre et donc
qui ravitaille le
le SLS
il ravitaille le Starship HLS pour Human Landing System
d'accord en tout cas celui qui est un peu le réservoir
une fois qu'il a donné
tous ses ergols
et tout son carburant, qu'est ce qu'il fait
alors c'est une très bonne question
le Starship est un vaisseau
entièrement réutilisable
c'est à dire qu'il est capable de revenir sur Terre, de se poser
de se recharger et de redécoller
c'est ça qui change tout
c'est ce qui va baisser drastiquement
les coups de l'accès à l'espace
actuellement quand on lance une fusée on en jette
une grosse partie
on a dérivé du sujet de la Lune
ça fait partie de l'architecture qui est super importante
et la NASA
se sécurise toujours
donc ils ont pris deux entreprises
pour faire des atterrisseurs, il y a le SpaceX
qui est un Starship, il y a aussi Blue Origin
l'entreprise de Jeff Bezos
et eux ils ont proposé
un atterrisseur qui s'appelle Blue Moon
qui est aussi assez costaud en parche-croix
de 15 à 20 mètres de haut
donc c'est le double d'Apollo
et là aussi il y aura besoin de ravitaillement orbital
donc cette brique technologique
va forcément devoir être développée
avant 2030
et eux ils savent faire comme SpaceX
des Starship ou des...
non pas encore, ils ont pas encore
ils ont un booster qui réatérie
mais la particularité
de cette fusée c'est qu'elle ne va pas
pas vraiment en orbite, c'est un booster qui fait du suborbital
je vous ai peut-être déjà vu les touristes
qui montent 5 minutes
au-dessus de la ligne de Carman, donc au-dessus des 100 km
qui peuvent regarder la courbure de la Terre
et après ça redescend sous une trajectoire balistique
c'est ce qu'avait fait Jeff Bezos en part
oui, il l'a fait pour démontrer
son concept, il l'avait fait au tout début
donc ils ont cette technologie, ils maîtrisent
l'atterrissage de précision
mais pas sur des boosters qui vont faire de l'orbital
ce qui est très différent
ça veut dire que là on peut pas envoyer
du main sur la Lune tant qu'on n'a pas
cette brique de pouvoir se recharger
en carburant entre la Terre et la Lune
parce qu'on fait pas un programme Apollo
on fait un truc beaucoup plus gros
si on avait fait un programme Apollo effectivement on n'aurait pas besoin
de ravitaillement orbital, là on a
besoin de ravitaillement orbital
vas-y vas-y
non mais c'était pour enchaîner sur quels sont les autres défis
il y en a beaucoup d'autres
une des autres brique technologique
à penser
ça va être l'installation de la base
au sol
comment faire une installation
comment faire une capsule
qui va résister
aux radiations, aux changements de température
extrêmes etc
et là plusieurs solutions s'offrent à nous
il y en a certains qui proposent d'utiliser
ce qu'on appelle les tubes de lave
donc c'est les tubes de lave naturelles qu'on a sur la Lune
et dedans on mettraient des habitats gonflables
pourquoi gonflables ?
parce qu'on fait encore une fois penser place
quand on met quelque chose de gonflable
sous la coiffe d'une fusée ça prend pas de place
c'est tout petit et une fois arrivé sur place
on peut énormément gonfler
et en plus c'est résistant
le gonflable c'est résistant au micro météorite
au micro choc
c'est plus résistant d'ailleurs que la structure
solide qui malgré blindage parfois peut casser
et sur la Lune
il n'y a pas d'atmosphère pour nous protéger
sur la Lune elle est bombardée en continu
par des micro météorites
et si pas de chance ça tombe sur l'habitation
et là c'est fin de chantier faut évacuer
et du coup quand tu parles de structures gonflables
c'est quoi très concrètement
c'est un énorme
immeuble
non
c'est des plein de petites
c'est plutôt plein de petites bulles
qui sont faits dans des matériaux
alors bon je croyais des matières souples
très résistantes lui doit y avoir du kevlar etc
qui se gonflent
et dedans on peut
après mettre
des liis etc
mais la base est vraiment gonflable
il y a un module de la station spatiale internationale
aujourd'hui qui s'appelle BIM
qui teste déjà ça et du coup les astronautes
dans l'ISS ils ont un module
gonflable déjà
qui marche très bien et qui
résiste
le module s'appelle BIM la Régie
alors là on voit un module de tally salinia space
qui est différent
mais comme en Europe on sait extrêmement bien faire
les modules de station spatiale
en Italie c'est les meilleurs
et bien ils ont proposé
au programme Artemis ça ça pourrait être
un petit module par exemple qu'on poserait sur la lune
bon c'est ultra simple
comme un réservoir en fait
c'est une structure cinadrique
qui est construite comme pour une fusée qu'on poserait à plat et après à l'intérieur
on vit quoi
c'est une question super conne mais
tu mets quoi comme gaz dans la structure gonflable
c'est pas une très bonne question
parce qu'il y a beaucoup de
missions qui sont faits avec de l'oxygène pure
et ça a créé des drames
comme le premier Apollo 1
c'est comme ça qu'ils ont brûlé
c'est parce que leur capsule a été d'oxygène pure
donc c'est une bonne question
je pense que y aura un mix
d'hazard
oxygène pour
tenter de refaire une atmosphère
sans avoir un trop de
et comme ça si jamais c'est vraiment la déch
les starship peuvent toujours sniffer leur
maison
oh là là
grave
et non pardon
je regarde si y a des questions mais
en termes d'habitation aussi ce qu'on a pensé
c'est de renverser un starship parce que le starship il fait 50 mètres de haut
et
y a une équipe qui a travaillé là dessus
sur le fait et si on peut pas renverser un starship
et le recouvrir de régolithes lunaires
donc le régolithe c'est la poussière lunaire
et ça permettrait de protéger le starship
un peu des radiations
le problème du régolithe lunaire c'est
comme de la farine
en fait quand on atterrit sur la lune on atterrit sur un astre
qui est rempli de farine et le régolithe
ça se met partout dans le moindre intersis
comme de la farine au final
et là c'est très complexe
et du coup on est obligé de penser à des combinaisons
où on va se docker
en fait c'est pas des combinaisons qu'on va
filer à l'intérieur et on va sortir avec
mais pour éviter de ramener de la poussière
c'est des combinaisons où on va se docker au module
via une espèce de
d'anneau derrière nous et on va sortir
par l'arrière dans la
dans la capsule
et la combinaison reste à l'extérieur en fait
voilà
donc là on a parlé
de réutiliser le starship structure gonflable
il y a des trucs qui ont été imaginés
en utilisant les matières premières
directement disposent sur la lune
je sais pas moi de l'impression 3D
effectivement
il y a Blue Ridgid on en a parlé tout à l'heure
qui a démontré
alors sur Terre ils ont démontré mais avec un simili
du régolite lunaire qu'ils étaient capables
de produire des cellules photovoltaïques
via la poussière sur la lune
oui c'est ça via la poussière sur la lune donc ils ont
si je dis pas de bêtises
ils ont
ils ont extrait du fer, du silicium
et de l'aluminium depuis un simili
du régolite lunaire et ce qui leur a permis
alors on a une image normalement régie
de la cellule solaire
cellule solaire qui est faite via le sol lunaire
voilà
et Blue Ridgid avait montré ça et dit grâce à ça
on pourrait produire des panneaux solaires
directement via les ressources lunaires
et là on s'imagine que effectivement
l'énergie elle est décuplée on a plus besoin
de l'amener depuis la Terre ça fait des économies énormes
mais le problème du soleil
sur la lune
c'est que la lune
elle tourne extrêmement lentement sur elle-même
c'est des journées de 14 jours
et des nuits de 14 jours
et là
quand on est dans la nuit pendant 14 jours
elle est pas nos solaires
et c'est pour ça que la NASA
est en train de mettre au point
un projet qui s'appelle KiloPower
qui est un mini réacteur nucléaire
qui permettrait d'alimenter une petite base
et aujourd'hui
on avance très bien dans ce petit réacteur nucléaire
donc le tout le défi
c'est de miniaturiser tout ça
de le sécuriser pour pouvoir l'envoyer dans l'espace
parce qu'on met quand même ça sur une fusée
il peut péter
il y a un lance
potentiellement on va lancer un réacteur nucléaire
dans une fusée
alors on va être obligé
le nucléaire ça va être l'énergie
qui va permettre d'explorer vraiment
l'espace d'aller beaucoup plus loin
quand il pense si c'est utilisé dans des sous-marins
pour mener des missions de gmois en autonomie
ça a du sens
oui puis après
je crois que l'assemblage peut se faire en orbite
et on n'est pas obligé d'envoyer tous les composants
via la fusée pour sécuriser le lancement
et c'est voilà
ce projet là qui s'appelle
kilo power
et vous voyez le grand radiateur en titanium
qui donne cette forme d'ombrelle
et qui serait capable je crois
ça doit marcher pendant 10 ans sans entretien
c'est le cahier des charges de la NASA
et ça doit fournir 40 kilowatts
si je dis pas de bêtises
et donc voilà
là on le voit sur Mars mais le but c'est de développer
cette technologie sur la Lune
puisque sur Mars aussi on en aura besoin
parce que le problème de Mars c'est
les tempêtes de poussière de sable qui recouvrent les panneaux solaires
très très souvent et du coup
l'énergie solaire est
très peu utilisable sur Mars
les rover qui sont sur Mars utilisent
de la chaleur nucléaire
via des RTG
plutôt que des panneaux solaires
puisque ça leur permet de faire des missions de 5-10 ans
sans être recouvert de poussière
ah ouais ils ont déjà envoyé
des rover avec des mini
l'exploration
alors c'est pas des mini réacteurs nucléaires
ça utilise la chaleur dégagée par l'uranium
235
et je crois qu'il... alors je sais plus comment il convertisse la chaleur
ça doit pas être des moteurs
les moteurs steering c'est pour kilopover
on utilise cette chaleur
pour créer de l'énergie
c'est vrai que là d'intuition moi j'essaie de me souvenir de seul sur Mars
c'est où les... j'avais l'impression de voir les panneaux solaires
mais non en gros c'est pas possible
et donc là sur la Lune
on a parlé de potentiellement de l'énergie nucléaire
est-ce que c'est un lien que tu as expliqué sur le côté
la lumière éternelle
en gros a trouvé des endroits
qui sont propices pour
les panneaux solaires qu'on se voit
ouais là on vise le pôle sud
lunaire pour cette base
d'ailleurs le bassin Haidkén
précisément
et comme on est au pôle sud
il y a des possibilités qui est effectivement
comme sur Terre d'ailleurs des zones qui soient éclairées
vraiment en permanence
et du coup c'est sur ces zones là qu'on mettraient des panneaux solaires
mais on en est pas sûr à 100%
et si on doit affronter
une nuit de 14 jours
il faut qu'on ait une autre source d'énergie
de toute façon je pense en termes de sécurité
et les ingénieurs de la NASA
en mon avis c'est le premier truc auquel ils ont pensé
il faut deux sources d'énergie voire 3
et donc il va falloir développer
les mini réacteurs nucléaires
pour ces missions là
et ça tu dirais que c'est à quel point c'est résolu
enfin
je sais dure de savoir parfois si c'est
une théorie que peut-être ça pourrait marcher
ah non là c'est déjà
il y a déjà un prototype fonctionnel qui s'appelle Custi
qui a déjà fonctionné
maintenant tout ce qui manque c'est de la mise à l'échelle
parce que Custi est un petit peu plus petit
qu'E-Power qui sera le vrai prototype
sur la Lune donc la mise à l'échelle
et le test en condition réelle
mais c'est pas si loin
ce sera pas dans le tout début du programme Artemis
parce que
l'installation de la base sera après
le retour d'hommes et de femmes sur la Lune
mais je pense
je me lance dans une date mais je dirais
2035 ça me paraît cohérent
avant même 2035 je pense
donc ça veut dire que là on a de l'énergie
on a peut-être une maison gonflable
il y a de la glace d'eau donc
potentiellement via électrolyse
on peut séparer l'oxygène et hydrogène
donc on peut avoir de l'oxygène
la glace d'eau on sait pas
vraiment sous quelle forme elle est
ça va être la petite surprise quand elle est sur place
parce que soit les sous formes de glace
au fin fond des cratères
et bon c'est assez facile de l'extraire
mais ça se trouve elle est mélangée aux régolites
à la poussière sous forme de grain
et là ça va être un peu plus coton pour l'exploiter
ça on a pas encore réussi
à le caractériser
normalement on va le caractériser
avant que les humains arrivent sur place
on a je dis on je fais partie de l'équipe
ah mais tu pars Hugo
tu pars, d'où l'espèce humaine
la NASA
un petit rover qui s'appelle Viper
qui normalement va être posé sur la lune
et va essayer de caractériser de forêt
et de caractériser un peu cette glace d'eau
ça va être une des surprises du programme
si tu te demandais si elle est de voir improviser sur place
bon bah dommage
le phasiel c'est...
le phasiel c'est beaucoup d'impros
on a l'impression que les missions sont
toutes prêtes etc
mais la réalité du terrain à chaque fois
sur place faut toujours s'adapter
je pense que ça fait partie de l'entretien
de tous ces astronautes etc
c'est l'adaptation, ça doit être incroyable
et t'as beaucoup parlé de l'eau
pour en faire du carburant
ou pour en faire de l'oxygène
juste est-ce que c'est envisagé de la boire cette eau
ou euh...
oui j'imagine avec des filtres
oui je pense alors je sais pas s'il y a des expériences
en ce sens parce que faudrait être capable de recréer l'eau lunaire
si elle est mélangée au régalite
mais euh... oui
en tout cas l'eau lunaire si t'arrives
elle a ramené dans des petits flacons mon pote
ahah
ahah
à Mixem il va en faire des bracelées
c'est le programme de la NASA
les américains ils voient toujours
ça un peu comme ça
là il se pose la NASA se pose en client
pour développer les autres entreprises
et que les autres entreprises se développent
parce qu'on appelle une économie lunaire
et qu'il y a un vrai marché
à ramener soit des échantillons depuis la Lune etc
et eux ils espèrent ça
ils espèrent que ce sera pas juste de l'argent
dépensé uniquement pour le programme
mais que ça va développer vraiment une économie lunaire
avec des acteurs qui vont trouver un intérêt
à proposer des solutions
ok
on peut aller plus loin
dans les technologies peut-être des choses qui vont un peu plus vous parler
je sais pas combien de temps il me reste
mais euh... pour faire une base
sur la Lune
il faut atterrir avec une précision extrême
parce que si on reprend le programme apollo
eux les capsules les atterrissaient
avec une ellipse de 5 km
là si on atterrit avec une ellipse de 5 km
pour décharger les 20 tonnes de cargo
qui va ramener le Starship
c'est pas possible
il faut qu'on arrive à faire un atterrissage
qui soit à la précision de la centaine de mètres
et encore voir moins
et pour ça du coup
il y a des missions actuellement
qui ont déjà démontré cette capacité d'atterrir
avec une précision de 100 mètres
ça a été le cas d'une mission qui s'appelait SLIM
de l'agence spatiale japonaise
et elle a utilisé pour ça des cartes
de reconnaissance
du terrain
et un lidar de la cartographie
par l'azère et l'avantage de la Lune
c'est qu'elle est faite de plein de cratères différents
et chaque cratère a son diamètre
sa forme etc
et grâce à ça on peut maintenant
via des algorithmes
vous savez beaucoup mieux que moi comment marchent les algorithmes
de reconnaissance de cartes etc
on peut maintenant avoir des atterrissages
d'extrême précision
d'extrême précision c'est quelle heure de grandeur
c'est moins de 100 mètres
par rapport à la cible
ce qui est nécessaire pour une base
sinon c'est l'enfer
sinon en termes de logistique c'est pas possible
ça veut dire qu'on sait faire la base
il y a encore moi je sais que
pas trop quoi
moi je parle
typiquement maintenant qu'on a le starter pack
si on va un peu plus loin
typiquement la télécommunication
je veux accéder internet
je suis sur le sud de la Lune
internet c'est une bonne question
j'ai pas vraiment la réponse mais internet
imagine t'es sur la Lune
t'es à 380 000 km de la Terre
déjà si t'as internet
qui est relié aux serveurs
qui sont eux sur Terre t'as un ping
de 2-3 secondes
le temps que ça fasse ta alerte tour parce que la vitesse de la lumière
c'est 300 000 kmh
donc ouais t'aurais un ping affreux
la seule solution pour avoir un internet utilisable
c'est serait d'avoir un internet
limite locale sur place mais qui ne serait pas relié
forcément ou alors avec des lettes
très longs internet de la Terre
franchement j'ai cru que t'allais dire 2 minutes
parce que parfois on a l'habitude d'interester
là où en fait il faut attendre
6 mois avant d'avoir une réponse
non non de fait
de 3 secondes tu peux
tu peux traiter des mails
en vrai le direct avec la Terre
des missions Apollo il y avait
une seconde de délai c'est comme un
mauvais direct entre
Paris et Tokyo
c'est juste que entre Paris et Tokyo
ça passe par un satellite
qui est en géostationnaire
donc à 36 000 km de la Terre
et du coup forcément ça donne ce gros délai qu'on voit
mais bon sur la lune c'est
à la vitesse de la lumière c'est pas si loin que ça au final
on aurait un délai
on pourrait faire du Skype sur la lune
avec un délai de 3-4 secondes
mais ça n'est
citré d'avoir un réseau de satellites
qui tourne autour de la lune du coup
faire la liaison avec la Terre
effectivement là
l'internet qu'on a sur Terre
soit des câbles sous-marins
soit du Starlink donc
des constellations qui sont à très basse altitude
et qui ont ce lien avec la Terre
sur la lune on n'a rien on n'a pas de constellation
on envisage
de faire des constellations sur la lune mais pour la télécommunication
internet pour l'instant
c'est encore assez loin mais c'est dans les plans
de SpaceX parce que dans les petits
des petites lignes de Starlink
qui a écrit internet pour la Terre
la lune est Mars
il a déjà planifié le truc
pour très très loin
sur la télécommunication qui est quand même
super important pour pouvoir appeler la Terre
appeler Hustle
c'est du GPS aussi quand tu dis
télécommunication
le GPS pour l'instant
il n'y a pas de... il y a un projet européen
pour faire une constellation
de télécommunication autour de la lune
mais le GPS c'est un peu étrange
comme on y souhaite l'utiliser on a une image
d'ailleurs normalement que j'avais mis dans le conducteur
en fait il part du principe que le GPS
autour de la Terre il y a
une partie de l'information
qui est perdue et qui est en dehors de la Terre
et il souhaite récupérer cette information
autour de la lune pour essayer de faire
de positionnement de précision
donc sans envoyer une constellation
autour de la lune on pourrait avoir
via du timing etc
donc c'est de la triangulation en fait
comment ça marche le GPS
là on arrive à récupérer 3-4 satellites
dont le signal s'est perdu dans l'espace
on pourrait faire aussi
de triangulation sur la lune mais c'est
c'est très expérimental ça
oui c'est à dire que tu profites
de
l'ensemble des moyens
énormissimes qu'on a mis déjà
autour de la Terre
mais de manière complètement détournée
c'est ça et sachant que
les chinois donc font tout cet effort
aussi au même moment et les chinois ont déjà
envoyé des satellites de télécommunications
autour de la lune pour améliorer leur communication
avec les robots qu'ils ont sur place
surtout qu'ils envoient des robots
sur la phase cachée donc les communications
là elles sont impossibles sans un satellite
qui va tourner autour de la lune
et qui va permettre cette télécommunication
et eux ils en ont déjà deux sur place
qui s'appelle Kikiao1 et Kikiao2
j'espère que je prononce bien mon chinois
et ils ont déjà des satellites de télécommunications
autour de... il y a déjà un peu
d'installations qui sont prévues pour ça
c'est ça et donc il y en a
deux j'imagine parce qu'il en rotation
ils doivent constamment
c'est ça parce que effectivement le premier
est peut-être déjà hors service
parce qu'il est peut-être parti sur une autre mission
les chinois aiment bien faire des extensions
une fois que la mission est terminée
donc là on voit la son de Chang'e5
qui s'est posée il y a un an pour récupérer
un échantillon sur la lune
et cette son justement elle avait besoin
de ce satellite non c'était pour le... je raconte
n'importe quoi c'était la mission d'avant de Chang'e4
ils ont posé un rover
sur la phase cachée de la lune et ils avaient besoin
de télécommunications pour ce rover
pour le déplacer etc et du coup ils avaient lancé
un satellite relay les chinois
ce que nous n'ont pas encore fait les américains
donc les chinois sont vraiment en avance
sur pas mal de points autour de la lune
c'est tellement stylé
est-ce qu'il y a des trucs auquel on a
pas encore pensé avec nos...
oui il y a un...
il y a un projet que je trouve
très cool par exemple c'est
dans le cadre de la collaboration pour Artemis
la JAXA, l'agence passée à japonais
a proposé un rover pressurisé
en collaboration avec Toyota donc c'est
une vraie voiture dans laquelle dedans on pourrait
enlever sa combinaison vu que c'est pressurisé
et le but c'est de partir
pendant de longues missions avec cette voiture
à l'explorer la lune, avoir de la mobilité
et je ne sais pas si on a des images
en régime mais cette voiture elle est trop stylée
alors on la voit ici
la JAXA, là c'est le futur quoi
c'est un rover
un rover si roue et on peut y vivre dedans on voit les sas
d'ailleurs je crois qu'on voit peut-être même les sas
sur le côté parce que ce serait la même chose
les combinaisons on les laisse à l'extérieur pour pas faire rentrer la poussière
à l'intérieur etc.
C'est ça c'est une dingueille le coup
les combinaisons qui restent à l'extérieur
Et donc tu aurais comme du coup grâce à ça la possibilité
d'arrêter un chien ?
Ouais d'aller beaucoup plus loin que
ce qu'on fait le programme Apollo
parce que le programme Apollo il y avait un rover
mais c'était un rover non pressurisé
donc les personnes qui le conduisait étaient un peu exposés
quand même aux radiations même à la poussière lunaire etc.
et là le but c'est vraiment de faire un rover
totalement pressurisé
et d'ailleurs les japonais en proposant ça
ont gagné une place
pour atterrir sur la lune
puisque c'est quand même les américains qui chapeaut un peu
qui aura le droit d'atterrir sur la lune ou pas
et en fonction des contributions des pays
les pays espèrent avoir quelqu'un
qui va avoir, qui va être sur la lune
Ah c'est si tu t'as bien, si tu les aides
Non mais c'est ça, tu peux aller sur la lune
Tu débloques un ticket quoi
Et l'Europe fait une énorme contribution
nous on contribue, on fait le module
de service par exemple du vaisseau Orion
donc c'est la petite capsule qui va amener les astronautes
vers la station et le module de service
c'est tout ce qui permet d'avoir de l'électricité
de l'oxygène, de l'eau
des moteurs pour faire les corrections de trajectoires
et on fait également des modules
d'habitation de la station spatiale autour de la lune
c'est un module qui s'appelle ihab
et on espère que grâce à ça
des astronautes européens
pourront fouler le sol de la lune pour la première fois
et je pense que Thomas Pesquet et Sophie Adnaud
là ça doit leur trotter dans leur tête
je pense que niveau entraînement ils ne pensent qu'à ça
Sophie Adnaud c'est le sens pour le français
Elle vient de terminer sa formation
et du coup c'est officiellement notre deuxième
astronaute en service français
T'es un grill away sur les tartes
Ah ouais c'est clair
Et là on voit la station spatiale
la fameuse Gateway
donc il s'est une sorte de mini ISS
autour de la lune
et on va voir justement je crois le module ihab
on va se rapprocher du module ihab
qui est le module créé par les européens
et ça c'est prévu pour quand
parce que pour le coup faire une station spatiale en orbite
autour d'un astre on sait à peu près le faire
on l'a fait autour de la Terre
Là les premiers modules devraient partir vers 2026
Ah oui donc c'est dur
Bon dans le spatial c'est dur de donner une date
il y a toujours des retards en fonction des aléas
de la construction mais voilà on voit le module d'habitation
on vous dit ça a un peu spacieux et tout
il y a de la place quand même pour
faire du sport, on voit un humain
un camping car
un camping car
c'est un début de station
autour de la lune avant même que des humains
soient retournés sur la lune
pas sûr
Il est possible que la première mission
sur la lune se fasse sans la gateway
en mode Apollo
parce que la gateway va mettre du temps
à être assemblée aussi
c'est vrai que là dessus les calendriers vont un peu se télescoper
en fait il y a cette course avec la Chine
qui elle ne s'embête pas
avec une architecture aussi complexe
qui dans un premier temps la Chine elle va reproduire un peu Apollo
elle veut poser
deux taïconautes donc c'est les astronautes chinois
sur la lune
et elle va faire avec une mission
une architecture beaucoup plus simple
et donc je pense que les américains qui ne veulent pas se faire battre
vont essayer d'y aller avant
sans l'architecture de la gateway
sans l'architecture tout ça
Ce qui est curieux c'est que
c'est une sorte de double jeu où à la fois
il y a de la collaboration quand même
typiquement sur le véhicule que t'as montré
et en même temps en coulisse on essaie de se faire
entre le bloc chinois et le bloc américain
oui il y a les américains dans le spatial
on t'interdiction
c'est écrit dans le roi de travailler avec la Chine
moi j'imagine que c'est ça dans pas mal d'autres domaines
et tout mais...
oui depuis Trump il y a eu un...
peut-être mais oui ça va pas se faire de cadeau
je relève à commentaire qu'il m'a fumé de rire
c'est quelqu'un qui disait comment ça les combinaisons
restent à l'extérieur du véhicule
ou tu retiens ton souffle pour aller...
non c'est une sorte de sasse
les combinaisons ça s'appelle XMU
je sais pas si on peut les trouver
il y en a plein qui sont en cours de construction
des combinaisons mais...
les combinaisons XEMU je crois que c'est ça
justement on a cette espèce de sasse dans le dos
pour pouvoir se docker
aux installations et la combinaison est derrière
parce que ça a été un énorme problème pendant Apollo
la poussière lumière
il y a des astronautes qui ont dit qu'ils avaient de la tout
on continue parce que ça rentre tellement partout
c'est vraiment de la farine en fait, imaginez de la farine
j'ai une autre question en vrai intéressante qui est
est-ce que...
on les voit ici les combinaisons
on voit du coup le sasse derrière
l'espèce de gros sac
il est posé sur une espèce de sasse
et c'est ce sasse là qui pourrait être modulaire
et qui pourrait permettre de se mettre
à une station
et toi tu t'extrairais partout
tu t'extrairais comme ça et après quelqu'un
t'aiderait pour sortir de la combinaison
très stylé
une question c'était
est-ce que ça a été envisagé
plutôt que d'envoyer des humains
d'envoyer
typiquement il a mentionné des robots
des Sla Optimus
des robots capables
pour contrôler à distance
est-ce que
tu mentionnais un rover
mais de manière générale pour des tâches
plus complexes que ce que fait un rover
est-ce que c'est déjà envisagé de déporter
avec un exoskelet
exoskelet je ne sais pas mais
effectivement j'ai parlé de base semi-permanent
parce qu'il va y avoir besoin d'énormement d'autonomie
dans cette base
et par exemple la station
en orbite autour de la Lune sera équipée d'un bras
qu'on appelle Canadarmes
qui est fourni par les canadiens
et qui lui va gérer par exemple
s'il y a une réparation sur la station
alors qu'il n'y a aucun humain à bord
il serait capable en autonomie d'aller chercher le composant
d'aller le placer etc
c'est un full autonomie
le but c'est d'avoir de la full autonomie
je ne sais pas si ce sera efficace
ou si ce sera contrôlé
à distance
mais le but c'est d'avoir une station assez autonome
qui est capable de se gérer
tant qu'il n'y a pas d'humains à l'intérieur
de fait si comme tu disais il y a du coup 4-5 secondes de ping
c'est impossible de faire certaines choses
ah bah
c'est
une des grosses problématiques sur Mars
sur Mars on prévoit
par exemple l'intelligence
d'un rover du petit robot
Ingenuity le petit télécopter
il est capable d'atterrir
ou c'est bon pour lui
en fait c'est pas un ordre
de quelqu'un qui lui dit t'atterris là
il se calme le terrain, il dit ok ici il n'y a pas de rocher
c'est là que je dois atterrir
parce que oui entre la terre et Mars
c'est pas 2 secondes c'est 7 minutes
voir plus parfois donc là oui
tu peux pas contrôler en direct ton rover
donc il y a beaucoup d'autonomie dans l'espace
c'est trop trop stylé, trop intéressant
je n'ai pas tout relevé
mais des gens qui étaient en mode chronique
on voit la dernière image
d'Ingenuity
le petit télécopter
qui s'est ramassé dans son dernier vol
et du coup a cassé une pâle donc là maintenant il redécolera plus
mais il a réussi largement
sa mission parce qu'à la base il devait démontrer qu'il était capable
de voler sur Mars
et il a fait je crois plus de 50 ou 60 vols
c'est la NASA qui l'a envoyé ? oui
avec le dernier robot
il y a quand même un truc qui m'a fumé dans cette chronique
c'est que
sur les missions Apollo
ils a terrissé sur une cible
de 5 km
parce qu'on est pas assez vite sur cet inférieur
mais c'est dangereux de fou
5 km ton terrain
il n'est pas à plat sur 5 km
bien sûr c'est dangereux de fou
il y a du contrôle manuel
sur Apollo pour reprendre le contrôle
et du coup à la vue
typiquement ils essaient de trouver une zone plate
et sur le problème c'est que sur la lune
les échelles elles sont très difficiles à voir
parce que tout est blanc
le moindre rocher tu sais pas
s'il fait 10 mètres de haut ou s'il fait 1 mètres de haut
je trouve que ça redonne un peu du mérite
au-dessus des astronautes américains
qu'on du faire ça
il fallait quand même être un bon sang froid
c'était peut-être brûlé
il y a une vidéo de l'atterrissage
d'origine
où tu suis
toute l'histoire de l'atterrissage
je crois qu'ils étaient en dége de carburant
en plus
en fait le carburant il est prévu
pour
il est prévu pour la trajectoire
si t'amènes un petit peu plus de rap de carburant
c'est du poids que faut amener en plus
donc c'est des expériences que t'enlèves
ou une fusée qui est plus
capable de t'envoyer
donc quand ils arrivent sur la lune
il leur reste 3 ou 4% de carburant
quand il pose la capsule
c'est assez fou
il faut bien qu'il redécole après
après ils ont un module de remonte
il est prévu
et du coup il reste le lunder
et le module de remonté
il repart et va faire un rendez-vous en orbite
avec un vaisseau qui va aller ramener
sur la terre
voilà
c'était passionnant
du tout je n'ai pas suivi ce qu'il y avait sur la tablette
on est parti en discussion
on a fait le plan
peut-être TIL te déteste un peu pour les illustrations
c'est la seule course
je suis désolé la régie
il n'y a pas de soucis je vous aime
c'était trop trop TIL
merci vraiment
c'est un monde que vous connaissez mal
mais en fait il y a plein de ponts
bien sûr
l'espace c'est là où on développe
les techs en avant première
pour les mettre dans le civil
si ça vous a mis des étoiles dans les yeux
sachez que l'Europe et la France
participent largement à ça
donc c'est possible de travailler
si vous êtes en ingénieur
c'est très possible
d'aller bousser là-dedans
dans 2 ou 3 semaines
on voit un nouveau vol du Starship
et quand vous verrez ce nouveau vol
vous direz que la lubite est l'on musk
c'est aussi une architecture
qui est dans le programme de retour sur la Lune Américaine
et donc à la NASA
quand le vaisseau explose
on va reprendre encore un peu de retard
par rapport au Chinois
on va mettre en perspective
c'est vrai que je trouve ça intéressant
quand même
ça a donné une sorte de cachette
d'intérêt de validation
sur les programmes de SpaceX
oui bien sûr
ah oui mais là ça rigole plus
et c'est vraiment
une mauvaise nouvelle
peu importe ce que vous pensez de l'on musk
c'est quand même une super mauvaise nouvelle
pour les américains et tous les pays alliés
maintenant quand le Starship
explose
et n'arrive pas à finir sa mission
même si c'est toujours de la réussite pour eux
parce qu'ils font du développement iteratif
donc ils récupèrent de la data à chaque fois
à chaque vol et c'est comme ça qu'ils améliorent leur vaisseau
après c'est quand même plus le programme
s'archive va prendre du retard
plus les calendriers vont resserrer avec la Chine
et plus la tension va être énorme
ah oui donc il y a un enjeu qui dépasse
il y a un enjeu qui dépasse largement sué6
il y a des dernières questions
le SLS il a déjà fait des essais
oui
on a le SLS a lancé la première mission officielle
du programme Artemis
donc a envoyé la capsule Orion
autour de la Lune, elle était inhabitée
et le but c'était de voir si tous les systèmes
de support de vie marchaient
si les systèmes de communication marchaient etc
tout a marché à la perfection
sauf
la l'enquête de la NASA nous dit que le bouclier thermique
qui a protégé la capsule au retour
sur Terre a pris plus cher que prévu
et qu'il aura même pu être dangereux
de retourner avec cette capsule sur Terre
avec des astronautes à bord donc visiblement
la NASA va devoir travailler sur son bouclier thermique
pour voir si va pas falloir tout changer
pour la mission Artemis 2
donc ça se trouve la mission Artemis 2 va prendre encore plus de retard
elle était censée décoller cette année
et elle est déjà repoussée l'année prochaine
en tout cas il y a des lancements à venir
il y a de la actualité spatiale
il y a un endroit vous pouvez suivre tout ça
c'est évidemment sur la chaîne youtube d'Ugo, Lisoie
allez voir ça, là on a fait kifflerer la surface
vous allez plonger
si vous ne connaissez pas dans un océan
et la chaîne twitch
lors des lancements
on fait les lancements sur la chaîne twitch et on met les vod après sur youtube
trop de problèmes
très très sympa à suivre
et tout ça évidemment c'est
chez Ugo, merci encore
merci beaucoup à vous, c'était énorme, j'adore
bah nous aussi
on est à kifflerer
on peut se faire des trucs sur Star Citizen je pense
ah bah moi je suis chaud
on va en discuter
et sans plus d'attente je vous propose de
passer à la partie suivante
on va recevoir Deus Ex, silly chums
c'est parti générique
Musique
J'espère que vous n'avez pas bougé
nous on est tranquillement en train
d'attendre notre invité
oui, bah moi j'ai
mais moi, tu sais que le spatial
c'est un des
c'est encore un des sujets
où je peux me lancer une vidéo, je disais ça tout à l'heure
dans l'open space, je peux me lancer une vidéo
avant de 3 heures et à 3 heures du matraite
mais ça me le fait plus trop, je sais pas
parce que j'ai vieille dit ou quoi aussi, je me suis blasé de certains sujets
mais le spatial
ça me le fait encore
je t'en prie Stéphane, installe toi
il y a un téléphone pliant
il y a un point de toi, texte
même moi j'ai pas de téléphone pliant
installe toi, je t'en prie
c'est pas un restaurant
ah bon d'accord, ah bon
ça existe des téléphones pliant pas récents
enfin je veux dire c'est un Galaxy Samsung
Z Fold 3
là on est au 5, ils vont sortir le 6
j'arrêterais de suivre depuis bien
je t'en prie, installe toi confortablement
est-ce que tu as écouté la chronique
de notre ami ? oui oui, enfin on discutait aussi
mais c'était vachement intéressant
franchement moi j'ai... il parle beaucoup
ah ben vraiment, et comme vous disais
on a envie de diguer encore mais
mais là on va complètement changer de sujet
et on va plutôt aller dans tout le monde
à toi, c'était fin, c'est ce qu'on disait
c'est que pour ceux qui ne le connaissent pas
ou qui n'étaient pas là à l'époque
on tue une chaîne youtube qui s'appelle Deus Ex Silicium
dont on avait parlé déjà il y a 2 ans
au tout début pour ceux qui se souviennent
on était repassés sur un peu
tes projets fars
ce qui intrigue le plus
ou à chaque fois le principe est le même
des quartiers qui est des objets du quotidien
que tout le monde connaît ou des trucs plus étranges
comme vous allez le voir dans
cette vidéo
et pour mieux comprendre
concrètement ce qui se cache
derrière ces objets électroniques qu'on connaît
ça va bien depuis 2 ans ?
nickel
impeccable
continuez sur la chaîne, t'enchaînes
je fais pas beaucoup de vidéos parce que
c'est pas quelque chose que je fais à temps plein
donc je...
j'essaye d'y consacrer
le plus de temps possible parce que ça m'intéresse quand même beaucoup
mais j'essaye de sortir 2 vidéos
par mois
quand j'arrive
c'est mieux que nous
c'est quand même un bon rythme
et surtout si c'est pareil
j'y reste pas tout le temps
et effectivement
c'est ça qui a motivé le fait que
ça fait un moment qu'on discute mais
qu'on se refasse une petite discussion
une petite interview parce qu'il y a tellement de trucs
trop intéressants
qui ont été décortiqués, partez soins récemment
avant de rentrer dans le quotidien
j'avais 2-3 questions
parce qu'on n'a pas eu le temps d'un pari d'un fois
mais est-ce que tu veux un peu nous expliquer
ce que tu fais au-delà du Youtube ?
disais que c'était pas ton activité principale
en fait tu fais quoi dans la vie ?
alors donc
la formation
c'est ingénieur en électronique, micro-électronique
précisément
et je fais beaucoup de reverse engineering
pour des clients
pour des
industrielles, enfin des gens que je peux pas toujours nommer
pour des raisons de NDA
mais
ça va plus du consulting
beaucoup de consulting sur des systèmes
sur des designs
donc j'ai un labo
ce qu'on voit
dans les vidéos c'est qu'une partie du labo
essentiellement là où je travaille le plus
mais j'ai d'autres systèmes
un peu plus spécifiques
et peut-être un peu moins
intéressants
mais... hors des caméras
mais par contre je me le sers parfois
de certaines de ces machines
pour faire des plans un peu plus rapprochés
pour pas montrer tout non plus
notamment les machines Arian X
qui me permettent
d'aller... enfin
je les utilise aussi pour
essayer de comprendre
certaines parties des systèmes
qu'on peut pas voir aussi facilement
ou par exemple
quand on a
des circuits imprimés
avec plusieurs couches
ça permet aussi de
d'essayer d'identifier le tracé
de certaines pistes plus facilement
on se sert pas mal de machines Arian X
pour ça
et voilà
le spectromètre pour afflurer
sans CX
pour voir quelle est la composition
des métaux aussi
c'est important de faire
parfois des analyses sur les métaux
qui sont utilisés dans les circuits
puis les systèmes etc
quand tu parles de rétro-ingénierie
en fait très concrètement pour des gens qui ne savent pas
c'est vous voir une carte
et essayer de comprendre comment elle fonctionne
c'est quoi les secrets ?
on va dire que plus
simplement
on donne une machine, je veux savoir comment ça fonctionne
et donc on déroule au maximum
pour aller le plus loin possible
jusqu'au principe même de la machine
mais c'est vrai qu'il y a quand même un moment
où l'électronique s'arrête
tu vas être capable de comprendre
les fonctionnements très très bas de niveau
mais bon tu peux pas comprendre le code
il y a de plus en plus de microcontrollers
de FPGA donc c'est des composants
qui contiennent du microcode
et là c'est un autre
des partenaires
c'est une autre compétence
qui prend la main
et qui permet de
d'essayer d'aller
défricher ce code
et comprendre comment ça fonctionne
c'est l'étape d'avant
tu vois vraiment le circuit électronique
tu peux savoir quelles sont les composants
et ton expérience
identifier toutes les parties
qui permettent de faire un sort
que le système fonctionne
mais par contre
aller jusque dans
les mémoires qui contiennent le code
ça c'est un autre type de compétence
donc moi je peux pas aller aussi loin
j'en ai fait un petit peu
mais je peux pas aller aussi loin que
d'autres personnes qui font ça
ça a l'air super spécifique
est-ce que vous êtes nombreux
à faire ça en France ?
non non non
non non, on n'est pas nombreux
après il y a des gens qui travaillent chez
des industriels et qui font ça
sur d'autres types
à une échelle plus vaste
mais non, je pense que
et puis je suis pas certain
qu'on ait cette culture là en France
les chinois font ça beaucoup
on s'en doute
mais sinon
c'est peut-être pas très répandu
et c'est très très intéressant
parce que
on se rend compte que parfois
il y a des personnes qui ont inventé
qui ont imaginé des systèmes
où on se dit
il fallait vraiment
se creuser la tête
pour arriver à ça
parce que
c'est pas naturel
il y a des gens qui trouvent
des trucs qui ne viennent pas
naturellement
il faut vraiment plancher
sur le sujet, faire beaucoup de recherches
à un moment de comprendre
un peu, de découvrir des secrets de fabrication
parfois on tombe sur des trucs
on se dit
là c'est quand même un peu limite
en termes de
en termes de fiabilité
des designs parfois
ou alors
on tombe aussi
parfois sur des cas où on se dit
c'est pas loin d'être de l'obsolescence programmée
mais on ne peut pas le prouver
parce que
on n'aurait pas fait comme ça
si on a évolué que ça tienne plus longtemps
enfin voilà
c'est hyper intéressant
et est-ce que du fait que tu as t'acheté Youtube
ça t'as fait découvrir
tu as déjà eu des nouveaux clients grâce à Youtube ?
il y a plein
qui me contactent
en me disant
je vous ai découvert sur Youtube
je sais pas si vous le faites, si vous faites ce type de service
mais est-ce que
la discussion s'enchaîne
et j'ai aussi des gens
qui me contactent
à travers cette chaîne
en me proposant des objets
que je pense que je n'aurais pas pu avoir
autrement mais départiculer
des gens comme vous et moi
qui me contactent en disant
voilà j'ai tel objet
et notamment par exemple
le fameux objet quantique
dont on parlera sans doute
c'est ça
parce que les gens
qui ne connaissent pas ta chaîne Youtube ne savent pas
ces compétences là
ou en France vraiment
qui doit vraiment à mon avis
valoir de l'or
et bah tu les mets gracieusement à disposition de la communauté
puisque tu prends des objets
et tu les disseques
sous ton microscope
tu les prends vidéo
et tu expliques tout ce que
tu nous fais profiter de ton savoir
sur Youtube dans des objets
très variés comme on va voir aujourd'hui
par exemple comment fonctionne la boîte noire
d'un avion
est-ce que une monde connectée à 2€
fabriquée en Chine peut être dangereuse
ou encore comment un prétendu
boîtier miracle
pourrait faire économiser de l'électricité
en fait c'est une arnaque évidemment
vous allez voir
je te propose qu'on revienne
sur quelques projets
on ne peut pas tout traiter
les gens qui pourront les voir
et notamment je te disais
on adore le côté un peu
des banques d'arnaques
c'est vraiment ça
c'est ce qui parle le plus à tout le monde
il n'y a pas de fois
il n'y a pas besoin d'avoir
un grand niveau technique
parce que j'essaye justement
de rendre ça le plus mainstream possible
et il y a
plein de gens qui ne connaissent absolument rien
en électronique
et qui m'écrivent en disant
ça j'ai compris, grâce à où
je sais comment ça marche
et j'ai bien compris
c'était une arnaque donc on la chètera pas
notamment par exemple
on avait parlé à l'époque du compteur linky
ça avait vachement intéressé les gens
de comprendre un peu mieux ça
là tu as analysé des océos
un boîtier qui permet
théoriquement d'économiser
de l'électricité
qu'est-ce que tu as découvert en faisant tes mesures
à l'intérieur du boîtier
c'est quoi la magie qui est censée
se cacher ?
il y a zéro magie et en fait
l'existence même de ce boîtier est une aberration
pourquoi ? parce que c'est un boîtier
qui est vendu comme étant
un boîtier capable de corriger
le facteur de puissance
facteur de puissance
c'est...
je vais pas l'expliquer là
parce que ça ne servira rien
j'ai tous les détails dans la vidéo
j'explique bien comment ça se fait
mais c'est quelque chose qui ne nous est pas facturé
en fait dans la consommation
électrique
donc pour les particuliers
ça n'est pas facturé, c'est facturé pour les industriels
donc en fait ça ne sert à rien
de mettre ça dans sa maison
parce que de toute façon ce qu'il est
techniquement censé faire
ça ne nous est pas facturé
mais est-ce que c'est une histoire pour des entreprises
pour être intéressants ?
alors les entreprises ont déjà des systèmes
qui permettent de
diminuer, enfin de rééquilibrer
le facteur de puissance pour
justement que la puissance réactive
soit
soit diminué
et voilà
donc nous on s'en fout
on s'en sait pas ça n'est pas facturé
mais le plus
on va dire le plus intéressant
c'est de se rendre compte que ce boîtier
en fait n'est pas du tout
un boîtier
qui permettrait de corriger le facteur
de puissance
non seulement c'est pas du tout un boîtier
qui permet de corriger le facteur de puissance
mais il aggrave le facteur de puissance quand on le branche
donc
tu te fais avoir
le facteur de puissance
diminue alors c'est
une valeur entre 0 et 1
et quand on le branche
on a parfois entre 5 et 10% de baisse de
alors j'explique pourquoi dans la vidéo
parce que le système dedans
il y a quelques diodes
c'est tellement mal foutu que la consommation
même du boîtier
fait chuter le facteur de puissance
c'est juste débile
et surtout à l'intérieur
il y a
je sais pas comment le dire
il y a un petit boîtier noir
avec de la lessive
de la poudre
de la lessive à l'intérieur
voilà
ils ont fait comme si il y avait
un composant magique, miraculeux
quantique
et dedans c'est de la lessive
oui parfois c'est une petite gommette
qui est argentée
ou des diamants
là c'était de la lessive
je pense qu'il doit y avoir un niveau de cynisme
quand tu fais ça c'est que tu sais exactement ce que tu es en train de faire
oui bien évidemment
ça me paraît évident
que le gars qui
développe ça et qui distribue ça
il a juste envie de se faire de l'argent
avec un concept
que tout le monde croit
possible, réel
et qui évidemment ne fonctionne pas
c'est vraiment de l'arnaque ça
et est-ce que toi tu penses que c'est
potentiellement un boîtier
voilà on le voit sur
la lessive que j'entoure là
et la partie noire c'est là où il y a la lessive
est-ce que tu penses que c'est un boîtier
qui devait être utilisé
autrement ou alors
certains composants ont
une vraie utilité autre et que
cette personne fait juste du rebranding
en lui attribuant des
propriétés magiques ou vraiment il a conçu
le boîtier de Hazel
il a vraiment conçu un boîtier pour
arnaquer les gens
ce qui est curieux c'est que j'aurais l'impression
que ce type d'arnaque
du coup quand tu ouvres le boîtier il n'y a vraiment rien
il se passe même pas
non parce qu'il faut quand même faire
comme si il y avait quelque chose
de magique et le
composant qu'on voit là
qui à la base je pense que c'était un condensateur
parce que
dans le principe pour diminuer un facteur
de puissance
pour améliorer un facteur
de puissance on utilise des condensateurs
c'est ce que les industriels utilisent
et je pensais que c'était un condensateur
et en fait je montre qu'il est même
pas en circuit c'est à dire qu'il est
présent mais il n'est pas
dans le circuit électrique
il fait acte de présence donc il fait juste acte de présence
et du coup je suis allé plus loin
et je me suis dit qu'est-ce qu'il y a à l'intérieur
parce que je ne le voyais pas au rayon X
ça ne se voyait pas je l'ai ouvert en deux
et il y avait de la poudre qui est sortie
de la lessive
la lessive c'était dans le soi-disant condensateur
c'est ça la poudre de père l'impam-pam
et question extrêmement naïve
tu vas peut-être rire mais est-ce que
théoriquement ce serait même possible
autre là les histoires de c'est pas
la bonne métrique qui est facturée
est-ce que par...
T'économiser de l'argent
ouais économiser de l'énergie avec un boîtier
tu vois est-ce que c'est théoriquement...
Il n'est pas dimensionné pour ça
il faudrait qu'il y en ait beaucoup plus
et qu'il y ait pas mal de condensateurs
à l'intérieur qui permettraient
de rendre le défa...
parce que le facteur de puissance
il y a une question de défasage aussi
il faut que le courant et l'attention
soit le plus en phase possible
et avec des condensateurs c'est possible
Ok mais ce que t'as expliqué
c'est que même si c'était...
Mais c'est pas dimensionné pour une maison
un boîtier comme ça ne peut pas faire...
Et non on n'est pas facturé
Donc dans tous les cas ça nous servira à rien
est-ce qu'il existerait un boîtier
qui pourrait effectivement te faire
faire des économies sur ta facture
genre excuse c'est par principe c'est impossible
Non non tout simplement
parce que c'est un problème de consommation
électrique donc c'est un problème
presque éducationnel
il faut que les gens sachent
consommer moins d'électricité
en étant plus attentifs
à ce qui est allumé, ce qui est éteint etc
mais il n'existe pas
de boîtier miracle qui permet
de... on branche sur le
système dispositif
et qui permet de diminuer
la consommation électrique
Ce qui paraît logique en fait
On peut te faire douter à la fin
avec des claims
Ça coûte t'es combien ça ?
Je veux dire si
tu sais plus c'est pas très grave
Alors il est vendu
sous forme de plusieurs modèles
différents, l'intérieur il est même
mais c'est le marketing qui fait
sa magie et on le trouve entre
20 et 90€
quand même
Petite marge pour de l'allécive
Pour le projet suivant qui était
vraiment intéressant, un autre boîtier
qui est très intriguant également
et ça fait des années
que j'ai l'idée dans un coin de ma tête
d'en faire une vidéo de comprendre ça un peu mieux
C'est comment mes diamétries
si vous ne le savez pas
et l'organisme qui fait les mesures
d'audience à la télé
et à la radio
Comment est-ce que
mes diamétries mesurent les audiences
à la télévision et j'ai été comblé
quand tu as justement décidé
de décortiquer, quand t'as déjà
réussi à mettre à la main
sur un boîtier de mes diamétries
parce que tout le monde n'en a pas
c'est des études statistiques
qui sont sur des peu de foyers
en réalité
et tu as réussi à mettre la main dessus
et à décortiquer tout ça
Comment tu te les procurais tout simplement ?
C'est un abonné
qui me suit
qui m'a expliqué qu'il a fait partie
du panel de mes diamétries pendant
quelques mois
et il m'a dit
le truc c'est que j'ai toujours
ce boîtier, mes diamétries
ne me l'a pas réclamé
et je ne fais plus partie du panel
donc
plutôt que de m'en séparer
je peux vous le faire parvenir
et après vous voyez ce que vous voulez en faire
et je me suis dit que c'était un sujet très intéressant
que je n'avais jamais abordé
donc j'ai accepté
et effectivement
alors ce que j'ai trouvé
à l'intérieur
ne m'a pas plus impressionné que ça
parce qu'en fait c'est l'équivalent
d'une technologie
d'un téléphone 2G, 3G
ce que j'avais c'est la génération
d'avant du boîtier actuel
et donc c'est la technologie
2G, 3G
des smartphones de l'époque 2013-2014
on trouve les mêmes types de composants
à l'intérieur
et c'est une application
qui tourne
alors c'est pas de l'Android
c'est sans doute la base de Linux
mais
je ne suis pas allé jusqu'à savoir
exactement ce que c'était
et donc
ça fait tourner
un logiciel qui permet
de faire
de l'analyse
des fréquences audio
donc c'est quelque chose qu'on porte tout le temps
la personne doit le porter tout le temps
et le
laisse le pause la nuit
pour le recharger
et pendant cette période-là
de nuit, donc je crois que c'est entre 3h
et 5h du matin
le boîtier se connecte en 3G ou 4G
ça dépend des modèles
et envoie les données qui ont été captées
je vais expliquer ce que c'est que c'est que ces données après
au serveur de médiamétrie
donc tout ça est de t'automatiser
et pour que les gens comprennent bien
pourquoi
ça existe
c'est pour une raison très simple
c'est que c'est beaucoup plus compliqué de faire
des mesures d'audience sur des émissions
télé qui sont en fréquence radio
que
sur internet évidemment où tout se passe sur les serveurs
de youtube qui peut tout simplement compter
le nombre de fois qui fournissent
une vidéo aux internautes
ça a toujours été un problème ça
d'avoir ces mesures de performance-là
sur les vieux médias entre guillemets
et je précise parce que tout le monde n'a pas forcément
l'histoire et donc il a fallu
trouver des solutions et moi ça m'intéresse
parce que je me suis toujours dit qu'il y avait
un peu de la douille, franchement sur les mesures
d'audience quand on voit ce qui est théoriquement
écouté comme radio, comme les audions stéles etc
je me suis toujours dit non mais nous
sur internet on se fait un peu douillé parce qu'on a
de la précision
là où ici c'est de l'étude
statistique donc c'est pas non plus du hasard
mais je me suis toujours dit que j'aimerais bien
savoir exactement comment ça marche et là
ça m'intrigue beaucoup justement cette histoire de fréquence audio
alors
c'est
c'est déjà connu depuis quelque temps
le système
donc quand
on écoute la radio
où on regarde la télé
la diffusion
des émissions
à l'intérieur du son
il y a entre
donc vous savez que l'oreille humaine
c'est entre 20 Hz
et 20 000 kHz
pardon 20 kHz je vais arriver
sachant que
au-delà de 20 kHz
c'est des ultrasons
et donc le système
là qui est en place
permet d'écouter
une fréquence
une bande de fréquences entre 18 et 22 kHz
donc
très proche des ultrasons et
au niveau des ultrasons donc nous on n'entend pas
et en fait
à l'intérieur il y a des signaux
qui permettent d'identifier
l'émission qu'on est en train de regarder
ou la musique qu'on est en train d'écouter
et
donc ça fait partie
de la diffusion et du son qui était mis
en même temps que la musique
la plage de fréquence entre 18 et 22 kHz
contiennent ces informations là
ça veut dire que
j'ai jamais su ça
mais moi non plus
mais ça veut dire que France 2
quand ils envoient leur signal
ils envoient en plus
ce petit
moteur marque ou je ne sais pas comment on dit ça
on n'entend pas les chiens sans doute l'entendrait
puisque eux ils vont
leur système auditif et plus
performant mais nous on n'entend pas
et c'est
toutes les chaînes, toutes les radios
ce que sur Spotify ça marcherait aussi
ah oui donc c'est vraiment encodé dans le fichier
à partir du moment où
on possède ce boîtier
il est capable
donc il écoute, il a un micro qui écoute
tout le temps, en permanence
mais il ne l'écoute pas
ce qu'on dit
ça il s'en fout, c'est pas le problème
pour lui il cherche uniquement
à détecter ce qu'il y a entre
18 et 22 kHz
et dès qu'il capte
des informations il les stocke dans sa mémoire
et il les transmet la nuit
sur les serveurs de médiamétrie
c'est hyper smart parce que
aujourd'hui, intuitivement j'aurais dit
ah ça veut dire qu'ils ont une sorte de 10h
enfin une sorte de
de... c'est pas comment pardon
le truc pour détecter les...
chasam !
il doit avoir une sorte de chasam
intégré pour savoir constamment
quelle émission est en cours
mais en fait c'est beaucoup plus simple que ça
c'est très simple et c'est assez ingénieux
parce que ça permet tout de suite
de savoir qu'est-ce qu'on est en train d'écouter
ou de regarder
et c'est un système
c'est un filigrane
il y a un terme
ultrasonic
voilà un filigrane ultrasonic
et ça résiste à la compression
c'est à dire que même dans un mp3
il est toujours présent
si vous achetez un mp3
sur une plateforme
et que vous l'écoutez ensuite
sur votre lecteur
votre player mp3
il sera toujours présent
mais on doit pouvoir l'analyser
bien sûr on peut l'analyser spectral
oui c'est ça on peut récupérer
il y a même des méthodes
alors il y a même une application
qui s'appelle Detect Now
qui est une application iOS
et Android
il permet de savoir
quel est le signal et de le détecter
et de vous l'achicher
je viens d'avoir une idée diabolique
tu peux faire de la fraude à l'audio en sens gros
aujourd'hui nous sur toutes nos vidéos
on met genre gulis
comme paterne
et là
on fait un énorme prank avec tous les youtubers
et du d'un et à l'autre
incompréhension générale
gulis explose
les gros titres, c'est très très bon
moi je sais pas si c'est que moi
mais avant de tomber sur cette vidéo
j'étais persuadé que les boîtiers de mes diamétries
surtout la télé
en fait le boîtier c'était quelque chose qu'on reliait
à notre télé ou au décodeur
c'était pas du tout quelque chose
qu'on portait sur nous avec un micro
ou alors peut-être c'est l'ancien système de
mes diamétries je sais pas
je ne connaissais pas du tout
et quand j'ai vu que c'était un micro
j'ai fait un peu flip encore
il y a eu des tas de gens qui ont ensuite réagi
par rapport à la vidéo en disant
mais en fait on est espionné
en permanence
et j'ai fait une petite vidéo complémentaire
ensuite pour expliquer que non
en fait ce sont vraiment les fréquences de 18 à 22 kW
qui sont analysées par ce boîtier là
parce que
déjà
en termes de mémoire
il ne pourrait pas se permettre d'enregistrer en continue
pendant des heures et des heures
il y a au moins où ça saturerait
et donc le fait
de ne écouter qu'une plage
de fréquences là
ça lui permet effectivement de pouvoir enregistrer
en continue, de pouvoir stocker dans sa mémoire
parce que c'est pas
une mémoire très importante je crois qu'il y a
4 GB de
mémoire
donc c'est impressionnant
que ça suffise
et est-ce que tu
tu sais comment, enfin
qu'est-ce qu'il fait que les gens participent à ce programme là
tu as une récompense ou quoi
alors oui
j'en ai parlé un petit peu aussi
et quand la personne
qui m'a fourni le boîtier m'a expliqué
comment ça fonctionnait j'ai un peu halluciné
parce que c'est basé sur le volontariat
et
on est récompensé à hauteur de
25 euros
par mois
en chaque cadeau
voilà
et à l'époque de la vidéo
ils ont augmenté mais tu disais 5
parce que la personne m'avait dit c'était 5 à son époque
c'était en 2020
et là ils sont passés
à 25
mais en fait moi je trouve ça que
je peux pas m'empêcher de voir
tous les problèmes qu'il peut y avoir
avec le système
parce que en termes de billets de sélection
c'est à dire que
t'as que des gens qui sont déjà, qui ont comme caractéristique
de pouvoir porter un truc
pendant un mois pour 25 euros
donc déjà c'est con mais c'est déjà un billet de sélection
si tu faisais une étude statistique représentative
de la population tu vois t'as introduit déjà un truc
et
c'est
quand même la pertinence du chiffre à la fin
c'est volontariat aussi
il y a plein de trucs bizarres
j'imagine qu'ils font un peu de la méthode des quotas quand même
pour prendre en compte plus ou moins
il y a des critères qui font qu'ils acceptent
de se sélectionner dans leur panel
après je connais pas
ce soir représentatif etc
mais j'imagine mais effectivement
ça fait daté maintenant
qu'on a sur des médias web
on a des moyens beaucoup beaucoup plus précis
de savoir tout ça
je trouve cette image trop belle où vraiment on voit
le silicium
d'un microcontrôle
fin d'une carte
d'un composant électronique
malheureusement on voit pas la circuiterie parce qu'il y a des dessous
mais ça c'est intéressant justement
on a parlé d'un premier boutier bizarre
on parle d'un boutier médiamétrique
c'est quoi la différence pour toi quand tu traites
ces deux dossiers en gros
est-ce que dans le deuxième cas vu que c'est connu
c'est plus simple on a vu des schémas etc
est-ce que pour toi c'est vraiment différent
ces deux exercices-là
alors j'ai pas compris ta question
en gros le premier boutier
truc inconnu que tu dois complètement dépecer
deuxième truc c'est un boutier connu
ou visiblement tu peux le faire
exactement on sait que ça marche
t'accètes des détachés
c'est pareil
ça aide quand même d'avoir des cartes par exemple
ou des PDF avec les
le fait d'avoir des documents
avoir accès à des documents
ça aide forcément beaucoup parce que ça permet de gagner du temps
et ça permet aussi d'avoir une compréhension
plus rapide de l'ensemble du système
et
déjà d'avoir une idée
sans avoir
été dans la deuxième phase
qui est la plus profonde
enfin une phase plus profonde
d'avoir une idée de comment fonctionne le système
et après ça nous permet de
savoir
à quel endroit il vaut mieux passer plus de temps
parce que c'est plus là que ça se passe alors que là
c'est juste un module d'alimentation
où on a les tensions
on a pas besoin de savoir
on sait qu'on a 5, 3,3, 12V
24V
on s'en fout de savoir comment c'est fourni
par contre tout le reste du système
là oui, il faut aller plus loin
ok et est-ce que toi à la fin
de cet exercice là il te reste des secrets
quand même Moulin
non non on peut pas tout savoir
enfin
c'est
déjà il y a des problèmes matiques de temps
c'est souvent
contraint par rapport à une période
et puis
ça peut être très très compliqué
de tout savoir
en général
dans la métier métier il y a des trucs que tu sais pas
dans le boîtier même non
on en fait le tour assez vite
parce qu'il n'est pas trop complexe
comme je disais c'est
un vieux smartphone
qui les ont adaptés
sous forme de boîtier
ils ont retiré la partie téléphone
mais sinon dans le principe
c'est le même
ça prend combien de temps
sans compter peut-être la partie
faire la vidéo audiovisuelle
mais ça prend combien de temps de faire
l'analyse de se plonger
alors que ce soit ce projet ou un autre
ça se compte en plusieurs jours
alors c'est pas comparable
parce que ça dépend de la complexité de l'appareil
mais si tu prends le cas d'un boîtier
métier métier
j'ai envie de dire
deux jours
quand même
quand même, deux jours d'analyse
je me permets
on a pas encore parlé de la boîte noire
on a parlé
des audiences radio
et peut-être qu'il y a des puristes qui vont réagir
mais je sais que
si ça n'est toujours le cas
les audiences radio c'est toujours
un truc très déclaratif
on appelle des gens où ils leur demandent
ce qu'ils écoutent beaucoup plus
pas la télé, c'est plus les boîtiers métier
mais le sondage qui fait foi de la radio
je sais que c'est des sondages déclaratifs
donc voilà
c'est encore différent mais peut-être que ça évolue
ce que l'on peut préciser aussi
c'est que c'est une technologie qui s'appelle
cantar
qui est utilisée et qui est très répandue
dans le monde audiovisuel
visiblement
c'est pas quelque chose de...
les gens tombent pas à la renverse quand on leur parle
de cette techno
cantar c'est a priori
elle est plus présent
dans tous ces systèmes
de détection
des signaux
pour l'audimate
si on reprend
sur du debunk
et des trucs particuliers
et étranges, très récemment tu as mis la main
sur un dispositif quantique
le PRK1U
qui coûte la mod XOM
de 11 000 euros
je suppose que
quand même tu ne l'as pas payé
j'espère si
non non non
à ton avis, pourquoi
est-ce que c'est si cher
est-ce que c'est un positionnement marketing
parce que tu en as vu de l'arnaque
donc là évidemment on voit ça on n'a pas de doute
qu'ils ont pas révolutionné la physique quantique
et la magie en même temps
mais du coup
toi qui a un peu cette expérience
tu en peux t'en appenser
quoi en gros de ce nouveau produit
sur l'étagère quantique
alors déjà je pense qu'il faut
il faut dire un truc qui est très important
c'est que
aujourd'hui quand on voit
le terme quantique
associé à un produit
il faut fuir le produit
vraiment je le dis en face la caméra
fuyez un produit quand vous voyez qu'il t'écrit
quantique comme
une crème de rajoutissement
par exemple quantique
il faut fuir
c'est du pure marketing
et c'est de la publicité mensongère
le terme quantique n'a pas sa place
avec ces produits là
et c'est une fois que les gens peut-être
auront compris et peut-être une fois que
les équipes marketing
se seront lancées d'utiliser ce terme
on passera à autre chose
on passera au point
à l'IA peut-être
une crème de rajoutissement avec de l'IA dedans
on reconstitue les pores de la peau
voilà
donc là celui-là il est
il t'a rassuré quand même parmi
c'est un vrai problème parce que
déjà je peux peut-être
expliquer comment
je l'ai eu
donc c'est une personne
qui m'a contacté en me disant j'ai retrouvé
cet appareil
dans les affaires d'un proche
qui est récemment décédé
et donc il a fait quelques petites recherches
et il a
vu que cet appareil
aurait été vendu à la personne décédée
alors elle est décédée dans le cancer
comme étant quelque chose
qui aurait pu l'aider
à
surmonter
ces problèmes de santé
donc ça c'est déjà très important parce que
c'est la base, ils vendent ce genre de produits
comme ça
et donc la punchline
de ce produit c'est
donc le dispositif quantique
qui permet de développer la conscience à l'infini
c'est vraiment la phrase qui est écrite
développer la conscience
à l'infini ça veut rien dire
mais
dans le vocabulaire
pseudo-quantique de ce genre de personnalité
et c'est un
donc à la base de tout ça
il y a un gars qui s'appelle
Grigori Grabofoy
qui est un russe
qui quand on fait un peu de recherche sur lui
on se rend compte qu'il est le gourou d'une secte
et qu'il vit en Serbie
enfin il a été
il était emprisonné en Russie
visiblement il s'est échappé
il s'est barré en Serbie, enfin on se lève plus trop
et il a une société en Suisse
qui vend
tout ce genre de produits
et
quand cette personne m'a proposé
de m'envoyer
ce dispositif je lui ai dit
bien sûr ça m'intéresse parce que
il y a quelque temps
une journaliste de France Télévision m'avait contacté
en me disant est ce que vous connaissez cet appareil là
parce qu'on était en train de faire une enquête
et si éventuellement vous le connaissez
vous pourriez nous en parler
ça trouve qu'à l'époque c'était il y a deux ans et je ne le connaissais pas
maintenant je le connais très bien
et en fait
quand j'ai commencé à analyser
ce produit je me suis dit
mais c'est probablement la plus grosse arnaque
que j'ai eu entre les mains
parce que
c'est plus que
encore pire que les précédentes
parce que
à la limite
il y avait un boîtier à l'époque
il y avait un peu d'électronique dedans
il y avait vraiment un petit générateur
de signaux qui ne servait à rien
mais au moins il y avait un peu d'électronique
un microcontroller
ça envoyait un petit signal électrique par des sondes
il y avait un semblant quelque chose
dans celui là
c'est catastrophique
c'est une boîte
un boîtier
qui
il y est donc
avec des colliers de perles
pour
qu'on est obligés de briser pour l'ouvrir
donc
déjà on a né
là c'est à dire que quand j'ai ouvert là
vous n'avez pas vu ma tête parce que
la voix est exceptionnelle par contre
oui, parfois pour m'endormir je me le remets ce passage
parce que la tête est exceptionnelle aussi
j'étais en train de me dire mais c'est un jouet pour enfants
en fait, voilà cette fois ça coulisse
mais qu'est-ce que c'est que ça ?
on dirait
pas vrai
voilà et donc le contenu
est une véritable blague
les gens qui ont fait un peu d'électronique
peuvent
se rendre tout de suite compte que
c'est un système qui donc
permet de faire clignoter
la lampe que vous voyez là
qui est clignote là
c'est en fait une lampe
qu'on fixe dans les placards
vous savez, les placards
on appuie dessus pour l'allumer
même pas en fait, c'est magnétique
donc tu le colles
et t'as 3 piles de 1,5V derrière
et que tu la tournes pour qu'elle s'allume
on dirait vraiment l'exercice numéro 1
Arduino fait par
mais là c'est même pas l'arbitre
donc là c'est vraiment ce genre de lampes
qu'ils ont utilisé pour
donc pour faire clignoter la lettre
qui est au centre et après
le reste du système c'est simplement donc
il y a un convertisseur qui est le circuit
qu'on voit en haut à gauche là
qui est celui là
pas celui là, celui qui était avant
et qui est en fait
le seul circuit
vraiment électronique
qu'ils ont acheté chez
un revendeur
qui coûte 35€
et ce circuit là pour faire clignoter
cette lettre, j'ai jamais vu un dispositif
aussi aberrant
il se met en auto-cours circuit
pendant quelques temps
le temps que le condensateur
se décharge, donc là il n'y a plus
d'électricité, l'électricité revient
donc la lumière revient
il se remet en cours circuit
et ça retombe, voilà comment il fait
clignoter la lampe
et c'est tout ce que fait cette machine
Est-ce qu'il n'y a pas une certaine créativité
quand même ?
Ah c'est sublime
On est dans le sublime
Là où quand même ça plombe
l'ambiance c'est que dans
les prétendus attributs magiques
il y a un guerrier des maladies, des trucs comme ça
et de fait
celui-là que tu es en train de décortiquer
appartenu à quelqu'un qui est...
Voilà c'est pour ça que c'est sérieux, c'est un sujet sérieux
parce que quand des gens qui sont peut-être
désespérés de par leur état de santé
vont jusqu'à se dire
je mets toutes mes économies dans un boitier
qui pourra peut-être m'aider à surmonter
mon problème et que
il se retrouve avec ce genre de machine
c'est même pas une machine, c'est un...
c'est du bricolage
qui lui est vendu 11 000€
avec tout un contrat
c'est tout est bien fixé et tout
il ne fait pas semblant
tout est prémédité
T'en es à te dire mais
si cette personne avait pu
prendre son problème de santé
en amont au lieu de se
dire je vais peut-être me reposer
là-dessus, voilà
peut-être qu'elle aurait vécu plus longtemps
peut-être des idées de
si c'est possible d'empêcher
ce genre de truc ou de la commercialisation
c'est très compliqué, j'ai discuté
avec une personne de la DG CCRF
il n'y a pas très longtemps qui m'expliquait que c'est pas leur rôle
tant qu'il n'y a pas de...
de plainte
c'est pas leur rôle d'aller directement
contre ces machines-là
ou contre les gens qui vendent ces machines-là
il faut qu'il y ait des plaintes, il faut qu'il y ait des suffisamment
et ensuite il peut y avoir
un dossier
une enquête qui est lancée
mais c'est très compliqué
Est-ce que le fait que ça soit pas dangereux
en soi ça joue ?
Alors c'est pas dangereux en soi
mais par contre
étant donné que ça
la personne
s'est dit que ça
ça va m'aider
à me guérir
ça devient un peu dangereux
parce que finalement elle a pas cherché
à vraiment se faire guérir par
un système hospitalier
qui est dangereux comme un mauvais médicament
enfin ou un...
il n'existe pas quoi
en fait c'est l'homéopathie de l'électronique
ce serait la tagline de l'émission
tu l'as pas dit mais
ce boîtier est exceptionnel
mais il y a un moment, moi ça m'a marqué quand tu l'as ouvert
il y a une plaque
c'est une plaque pour ceux qui ont fait un tout petit peu d'électronique
c'est une plaque de prototype
prototype
c'est vraiment ce que t'as pour faire des tests
il sert à rien en plus
le courant est tout de suite bloqué par le 3ème
le premier condensateur qui est juste après
la 3ème diode
et c'est tout, il le sert à rien
il a été mis juste là pour
faire comme si avec une loop
au centre quand même
faut pas l'oublier la loop
si tu enlèves la loop
le quanti qui marche plus
et vous voyez
le clignotement
à chaque fois c'est en consircu
j'aimerais juste voir la scène de la personne
qui design ça
alors on va s'oppoudrer avec
ce qui est exceptionnel c'est les soudures
justement cette plaque de prototype
tu l'expliques mais
soit rien n'est relié
c'est tout est en série
on ne fait jamais ce genre de choses en électronique
on ne met pas des composants en série
les uns derrière les autres
il quitte un dessin sur paint
mais électronique
c'est vraiment du freestyle
je vous propose d'enchaîner
tout est en série
on le voit bien
c'est un collier de perles électroniques
il y a un thème
oui bien sûr
comme je disais il a voulu
expérimenter l'homéopathie
façon électronique
pas ça il te le dit
avant de finir
avec cette analyse que je trouve
particulièrement incroyable
celle de la boîte noire
je vous propose de parler
de certains gadgets
fabriqués en chine et disposent
sur aliexpress pour parfois
des prix indécents
ça peut être très très tentant
d'acheter ça montre connecté
à seulement 2€ par exemple
si j'en parle c'est que tu t'en ai procuré
une d'après toi
est-ce que ça vaut le coup ? qu'est-ce que tu as appris ?
alors à la base
quand la personne m'a contacté en me disant
je peux vous envoyer
une montre connecté
ça m'a pas plus intéressé que ça
parce que bon c'est pas... il n'y a rien de...
et quand elle m'a précisé je l'ai payé 1€98
et elle fait donc
sur sa fiche produit
il y a des features
qui qu'on trouve sur des montres connectées
véritable, réel
et parfois cher
et je me suis dit
j'aimerais bien savoir quel est le type d'électronique
qu'il y a à l'intérieur d'un truc comme ça
vendu à moins de 2€
donc j'y dis ok, je l'ai reçu
j'ai tout de suite senti que
ça sentait pas très bon
on va dire en termes de qualité du produit
en termes de...
et évidemment assez rapidement
je me suis aperçu que
tout est du bullshit
qu'il n'y a aucun capteur à l'intérieur
qui permettrait de mesurer
l'auto d'oxygène
dans le sang
comme c'est le cas avec des capteurs SPO2
qu'on trouve sur des montres
beaucoup plus chères
tout le temps avec quoi en réalité
à la fin ?
parce que de loin là on dirait
un peu un Apple Watch
ça fait effectivement
un peu le design du Apple Watch
l'écran marche quand même
alors tu vois derrière il y a
le petit point au centre
c'est une LED verte
normalement on est censé
avoir des capteurs
comme cette montre là
c'est une montre qui coûte
300€
il y a des capteurs partout derrière
qui permettent de faire des mesures à la surface de la peau
là il y a une LED verte
c'est tout
moi je sais pas, ils n'auraient pu
ne pas essayer de faire semblant
déjà 2€ pour
un truc qui ressemble à une montre
avec un écran qui marche pas mal
il y en a pour moins de 2€
d'électronique à l'intérieur
faut le savoir
cette montre
j'ai évalué à peu près
à peu près 80
entre 80 et 90 centimes
cents, donc en dollar
à fabriquer
tout ce qui est dedans
on l'avait là
sur étalé
il y a un petit circuit
il y a un écran
ce que tu montres
c'est que toutes les notions de
de données de santé etc
ça n'y est pas
c'est du random, c'est des valeurs random
il faut l'aléatoire
il n'y a aucune cohérence
est-ce qu'il y a des choses qui fonctionnent
?
elle donne l'heure
elle est connectée en bluetooth
le bluetooth fonctionne
elle est connectée en bluetooth
avec l'application
tu peux jouer de ta musique
ou pas du tout
c'est l'heure
elle donne très bien l'heure
je suis un peu déçu
quand tu vois la fiche
sur aliexpress
c'est tout en mode
la connexion bluetooth
elle fonctionne
mais vu que les valeurs
il fallait aller jusqu'au bout
au moins on montre qu'il y a
un peu de travail et de développement
on a développé une application
connectée en bluetooth avec
c'est là où tu peux distinguer
l'incompétence de la tromperie
exactement
tout ça est prémédité
et alors
pour 2 euros c'est vrai que c'est pas très cher
mais quand tu te places
du côté du vendeur
finalement
ça va lui ramener beaucoup d'argent
parce que des montres comme ça
il va en vendre des dizaines de milliers
sachant que c'est sur des sites
on trouve ça sur un site chinois
on se doute que ça brasse beaucoup
de produits
et finalement c'est des mondes qui lui auront coûté
moins d'un dollar
il va en vendre des centaines de milliers
ça va lui ramener plusieurs centaines
de milliers de dollars
alors qu'elle ne fonctionne pas
par rapport à la fiche produit
tout ce qui est décrit sur la fiche produit
n'existe pas
et tu te dis la quantité
de matières premières qui part
dans du junk
oui il y a ça aussi
parce qu'il y a quand même un système on-chip
donc c'est une puce
Bluetooth à l'intérieur
bon
c'est pas de la marque
c'est pas de la qualité mais c'est quand même un circuit intégré
donc il y a des métaux rares à l'intérieur
une petite batterie au lithium
même si elle est miniscule
c'est un lithium qui est toute petite mais
est-ce que c'est dangereux pour autant genre
ça peut te péter
sur le poignet ?
non pas jusqu'à là
vous l'attendez depuis tout à l'heure
il est temps qu'on rentre sur la pièce
maîtresse pour moi qui m'intriguait
le plus en tout cas
la boîte noire d'un Airbus A320
pourquoi ça m'intrigue
parce qu'il y a un côté un peu mystérieux
quand même à la boîte noire
c'est on la voit avoir parfois dans les films
ça permet de remonter le temps
et de savoir de ce que j'ai compris
de remonter le temps et de comprendre
ce qui s'est passé à chaque instant
même parfois
les discussions dans le cockpit
de ce que je sais
ça va très très loin
mais en même temps c'est pas tous les jours qu'on en a une sous la main
et donc du coup
ça m'intéresse vachement de savoir comment toi
tu t'en es procuré une
ça t'est arrivé comment sur la table
est-ce que tu étais un peu excité quand même
parce que c'est pas tous les jours que t'as des trucs comme ça
un peu comme toi je me suis dit
ça faisait longtemps que j'avais envie de savoir
qu'est-ce qu'il y a à l'intérieur
après j'ai fait plein de recherches pour savoir aussi
pour arriver à les différencier
donc je vais vous expliquer un peu
c'est toujours pareil
c'est un
abonné qui m'a contacté
en me disant alors ça fait quelques années
que j'ai cette boîte noire je m'en sers comme objet de décoration
et
j'ai toujours été curieux de savoir si elle
fonctionne toujours
et ce qu'il y a dedans si on peut éventuellement
la réactiver et tout ça
donc si ça vous intéresse je peux vous la prêter
donc vous la prêtez
pour que vous en fassiez un sujet
et c'est
encore une opportunité où je me suis dit
c'est génial donc je l'ai récupéré
j'ai fait quelques petites
parce que je suis pas un spécialiste
des boîtes noires et j'ai fait quelques petites recherches
pour savoir comment on les identifie
alors il faut savoir qu'il y a deux types
de boîtes noires
il y a des boîtes noires qui sont là pour enregistrer
donc des boîtes noires phoniques
qui sont là pour enregistrer
l'ambiance lumineuse
l'ambiance sonore
des cockpits, tous les signaux sonores
et aussi ce qui se passe
à l'intérieur de l'avion
mais dans le point de vue sonore
et ça enregistre ça alors
à l'époque donc jusqu'aux années 2000
c'était sur des bandes magnétiques
4 pistes
c'est le cas de cette boîte noire
et aujourd'hui depuis
une quinzaine d'années
c'est sur des mémoires flash
donc tout est numérisé
et c'est évidemment
dans des compartiments très blindés
donc les mémoires sont à l'intérieur
de compartiments très blindés qui doivent résister
à des chocs de plus de 5000 g
parce que quand
on avion s'écrase
évidemment
il faut que la boîte noire
on puisse se récupérer la partie essentielle
qui est la partie blindée
le reste de l'électronique
en général il a été détruit
mais c'est pas grave parce que la partie blindée
c'est celle qu'on connecte
on machine pour
ré-simuler tout le vol
et voilà
donc ça c'est-à-dire que la première type c'était l'audio
l'audio et l'autre
c'est les données
de vol
tout ce qui vient des ordinateurs
de vol
des ordinateurs de l'avion
sont transmises sur
cette boîte
c'est un enregistreur de vol
ça s'appelle un flight data recorder
et donc là
il y a jusqu'à 1500 paramètres
par seconde
qui sont enregistrés et ça permet
l'ensemble de ces paramètres
donc il y a altitude, vitesse
enfin il y a beaucoup de...
1500 ça fait quand même beaucoup
et le but c'est de pouvoir
reproduire en simulateur
le plus réalistement possible
le vol à partir de toutes ces données
qui sont enregistrées depuis le départ
jusqu'à la fin
ou jusqu'au moment du problème
de l'accident ou voilà
et ça permet de comprendre ce qui s'est passé dans l'avion
et l'ensemble des deux donc en général
ce sont des boîtes noires qui sont
dans la queue de l'avion
ou au niveau de la queue de l'avion
il n'a parfois au niveau du nez
mais parce que
quand il y a des crashes
c'est généralement le nez qui pique
en premier donc
le plus de matériel est détruit c'est au niveau du nez
il y a plus de chance de retrouver
les boîtes noires quand elles sont à l'arrière
et donc ce que
moi j'ai récupéré c'est un
c'est une boîte noire phonique
et c'était
très intéressant parce que alors
je l'ai daté d'à peu près 1994-95
et c'était intéressant
parce qu'il y avait donc toujours
une bande magnétique à l'intérieur
sachant que quand elles sont
désactivées et qu'elles sont retirées
du circuit souvent les bandes magnétiques sont retirées
parce qu'il y a des enregistrements
dessus et là ce qui était
encore plus intéressant c'est qu'il y avait
une bande magnétique je ne le savais pas
trop stylé c'est un peu comme ouvrir un cadeau
ou quoi tu es ? je ne savais pas
et d'ailleurs la personne qui me l'apprêtait
ne le savait pas non plus, je ne savais pas du tout ce qu'il y avait dedans
et ça je l'ai découvert
que au fur et à mesure de l'analyse
il y a aussi ce qu'on est en train
de voir là à l'image il y a aussi
une balise de détresse
ultrasonique donc elle envoie des ultrasons
la fréquence
est 37 kHz
37 500 Hz
et d'ailleurs
je la réactive aussi dans la vidéo
et j'ai un petit appareil
qui permet d'entendre les ultrasons
donc en
transcrivant les fréquences
dans l'audible
dans les fréquences audibles
et c'est intéressant parce que c'est vraiment
le signal qu'on entend dans certains films
où il y a des problèmes
de crash d'avion etc
dans les films c'est vraiment le même signal
ça correspond au bon signal
mais c'est
ce que les gens entendent vraiment
dans l'avion ou c'est
alors on peut l'entendre puisque c'est
l'ultrason mais
je l'ai enregistré
donc on l'entend dans la vidéo
j'ai fait un échantillon et que je le montre
mais c'est le signal quand il y a des avions
s'écracher et ils cherchent les boîtes noires
non c'est pas ça ?
quand l'avion s'écracher et que
la balise
reçoit de l'eau donc est immergée
elle se déclenche
automatiquement
et pendant 60 jours
et elle peut donc
elle aimait pendant 60 jours ce signal
pour qu'elle puisse être
retrouvée
pour que ça soit plus facile de retrouver
la boîte noire
elle est vraiment attachée à la boîte noire
et donc de fait si on se balade un jour
et qu'on entend de ce genre de fréquences
c'est qu'il y a une boîte noire
alors après il faut l'appareil pour détecter ces fréquences
mais sinon
c'est qu'il y a effectivement
d'ailleurs bon la jeu réactive
la
balise
et donc là tu mentionnais
cet émetteur là
qu'on trouve quoi d'autre dans
la boîte noire ?
donc ça c'est juste la partie balise
dans cette boîte noire
on trouvait donc un système
relativement
simple
d'écoute
de bandes magnétiques
et d'enregistrement de bandes magnétiques
c'est une sorte de gros magnétophone
très cher et surtout
très solide
parce qu'il y a effectivement
une vraie partie blindée à l'intérieur
dans laquelle se trouve la bande magnétique
et tout le système est vraiment
vraiment très très bien pensé
il y a vraiment un niveau d'ingénierie
à l'intérieur qui est exceptionnel
surtout par rapport à l'époque
voilà
donc ça veut dire que très concrètement
il y a un signal audio qui part du micro dans le cockpit
qui va jusqu'à la queue de la vision
oui alors ça veut dire que
à l'intérieur du cockpit
il y a plusieurs micros
il y a aussi des signaux
d'alerte
qui sont envoyés donc tout ça est
relié à la boîte noire qui est au fond
et dans l'avion
même il y a aussi des micros
parce qu'on a besoin de savoir ce qui se passera
au niveau et tout est relié
à la boîte noire
et c'est un enregistrement sur 4 pistes
donc
la bande magnétique on voit bien
même les pistes on voit bien
et je fais un gros plan sur la bande magnétique
à un moment donné
on voit bien les 4 pistes différentes
qui sont sur la même bande mais bien réparties
c'est de la backup
ou c'est
c'est un enregistrement 30 minutes
donc il y a 30 minutes dans l'enregistrement
les 30 dernières minutes
ah c'est pas tant que ça en fait
je pensais que c'était vraiment
toute l'histoire du vol etc
sur la bande magnétique c'est 30 minutes
le flight d'Ataric Order
donc lui par contre a les paramètres
de l'ensemble du vol
depuis le décollage jusqu'à l'Ataric
imagine qu'aujourd'hui c'est probablement bien différent avec le numérique
alors aujourd'hui avec le numérique
c'est quasiment
tout le vol qui est enregistré en phonique
en sur les mémoire flash
mais il n'y a pas plus de paramètres
par contre on est toujours
autour des 1500 paramètres de vol
et donc voilà
et la grande surprise c'est de savoir
je me suis dit est ce que je vais arriver
à la réactiver pour éventuellement
lire ce qu'il y a sur cette bande magnétique
alors spoiler
oui je suis arrivé à la réactiver
et
et
j'ai constaté
que alors depuis le temps la bande magnétique
était quand même assez usée
donc on entend des choses
d'ailleurs il y a une partie qui permet de
je
je l'ai passé sur quelques filtres qui permettrait aussi
de
d'isoler
les parties les plus intéressantes
mais
j'aurais aimé qu'on entend mieux
maintenant
c'est une bande qui a 30 ans
elle a du souffrir, elle a du passer beaucoup de demi-heure
à enregistrer
et c'est déjà pas mal le fait
de pouvoir réactiver la boîte noire
et d'entendre
quelques voix par les
qui ne parlaient pas en français d'ailleurs
déterminer leur nature et surtout de retrouver des signaux
ici de la tête de lecture
ce que je suis parvenu à faire et après les avoir fait passer
dans un pré-amplificateur audio, j'obtiens ceci
c'est vrai que on est sous l'eau
oui mais on entend des voix au loin
alors là c'est un petit peu accéléré
oui j'ai l'impression qu'il est
ok ok donc ça ressemble à ça et après
filtre
j'ai fait
un deuxième essai
en me branchant directement au tête
de lecture
parce que je me suis dit si ça se trouve
la première fois que j'ai obtenu l'art
c'est l'électronique de lecture
donc la circuiterie qui permet de lire
la bande qui est
en mauvais état ou qui est défaillante
donc ce que j'ai fait c'est que j'ai fait
un deuxième essai
en me branchant directement
au niveau des
des têtes de lecture
et alors c'était un tout petit peu mieux mais pas beaucoup mieux
et j'en ai vraiment conclu
que c'était la qualité
l'état de la bande qui fait qu'il ne peut pas faire mieux
c'était mort mais c'est quand même fascinant
de voir que 30 ans après le système
ça veut dire qu'ils ont bien bossé
le niveau d'ingénierie qui est dans
ce genre de système est vraiment
assez phénoménal oui
moi honnêtement quand j'ai
regardé la vidéo, quand j'ai découvert la vidéo
je savais pas que tu allais la démarrer
et vraiment tu vois le moteur
oui le moteur s'activer là
il fait tourner les bandes magnétiques et tout
quoi
j'y croyais pas parce que
il y a quand même un connecteur avec
57 pins
et il a fallu que je fasse un peu de reverse
pour arriver à savoir quelles étaient
les bonnes tensions etc
et puis je suis tombé
sur un document qui parle
qui donne quelques informations, qui donne pas
toutes les clés mais qui donne quelques informations
sur les tensions qu'il fallait utiliser
et j'y croyais pas vraiment
et quand j'ai appuyé sur le bouton
de la lim pour injecter
les 27,5 volts
le moteur s'est mis à démarrer
donc là je me suis dit
c'est merveilleux, ça fait ma journée
et bah c'est un peu quelque chose maintenant
de savoir s'il y a dans une boîte noire
vous aussi
vous savez vraiment
trop trop intéressant
évidemment on aimerait passer sur tous les projets
un à un mais c'est compliqué
j'ai une petite question bonus que j'ai vu
passer dans le chat sur la vidéo
pour savoir si tu avais déjà
tu t'étais déjà renseigné sur
les systèmes de sécurité
physique qui peut exister dans
certains ordi
par exemple pour gérer
une possibilité
de gérer des clés cryptographiques
à des endroits bien spécifiques
ou pour le coup c'est vraiment sur la couche physique
qu'est la protection
est-ce que c'était un truc qui t'a déjà intéressé
alors qui m'a intéressé
oui mais j'ai pas encore eu l'occasion
d'avoir eu l'occasion de me pencher dessus
maintenant on m'a fait parvenir
des quelques clés
peut-être qu'il y aura
un sujet sur la tuque
ça peut
effectivement ça peut être assez intéressant
de creuser un peu
j'avais fait il y a quelques temps
une vidéo sur le ledger
donc il y a rien à voir avec ça
mais
c'est très particulier
c'est un domaine
assez pointu aussi
et
étonnamment l'électronique n'est pas si intéressant
parce que tout est
quasiment intégré dans
une seule pousse
particulièrement blindé au niveau du circuit intégré
donc toutes les couches sont
basquées on peut pas voir grand chose
il faudrait aller poncer
couche par couche pour commencer
à avoir la circuiterie
c'est pas impossible que je le fasse un jour
je ne sais pas si tu as
vu passer ça récemment
mais on a reçu MiloMaker
qui est un youtuber qui fait
des consoles miniature
notamment et plein d'autres projets
et justement on parlait un peu avec lui
sur un de ses projets
justement de xbox miniature
il a dû
pour comprendre mieux
un rétro-ingénierie sur l'électronique
il a dû poncer à la main
il a dit que c'est une pratique
des fois on peut pas faire autrement
ou alors il faut avoir une machine à rayon X
mais ça ne te donne pas
l'information de la profondeur
parce que tu as
une photo
de tout ce qu'il y a à l'intérieur
mais c'est difficile de savoir
à moins d'avoir un scanner
qui permet de faire le tour de la carte
en 3D
c'est difficile de savoir quel est le niveau de profondeur
à laquelle se trouve la couche qui te faut
donc il faut effectivement poncer
pour aller chercher la piste
qui est enterrée
sous les différentes couches
distinguer les circuits entre eux
parce que peut-être que
des gens n'ont jamais fait d'électronique
et souvent quand on voit une carte électronique
on se dit qu'il y a deux couches
mais en fait sur les circuits assez complexes
il y a des couches intermédiaires qu'on ne voit pas
ou il y a des liaisons qui sont faites
et donc c'est ça
sur une épaisseur de 1 mm
par exemple l'épaisseur du circuit imprimé
il peut y avoir jusqu'à 12 couches à l'intérieur
alors c'est par 2
c'est toujours donc t'as les deux premières
la première et la dernière
et puis après on rajoute 2 par 2
donc 2, 4, 6, 8, 10
il m'est arrivé d'avoir
des circuits à 16 couches
là ça commence à être assez violent
c'est très complexe
donc là t'as déjà dû te résoudre
à poncer
oui, oui, après les techniques
étaient...
à ce niveau-là
c'est...
c'est de l'art
les circuits, les designers
ces cartes-là c'est vraiment artistique
trop stylé
c'est très compliqué de router une carte
c'est ce que je vous disais
c'est qu'on va malheureusement devoir
s'arrêter là
mais il y a encore 1000 autres sujets
déjà je vous invite à aller voir les vidéos complètes
notamment sur la boîte noire
sur tout ce dont on a parlé
sur la chaîne de Deus Ex Silicium
sur Youtube
et aller voir tous les autres sujets qu'on n'a pas eu le temps de traiter
oui Mathieu, tu vas y dire
non, j'allais juste dire qu'on a vraiment beaucoup de chance
d'avoir une chaîne comme Deus Ex Silicium en France
sur des sujets assez pointus
mais quand même accessibles vraiment à tout le monde
même si on n'a jamais fait une téléconique on peut regarder
franchement
pas sûr qu'il y ait ça dans beaucoup de pays
donc franchement c'est très cool
et je reçois beaucoup
de messages de gens qui me disent
que le fait que ça soit en français
ça leur donne envie
d'en savoir plus
parce qu'il y a
quelques bonnes chaînes anglo-saxons
dans l'électronique
mais peut-être pas dans le même style que
Deus Ex Silicium
c'est plus ingénieur
moi j'essaye de
je me suis rendu compte que les gens
étaient beaucoup plus intéressés
pour savoir comment les appareils du quotidien
fonctionnent
et notamment quand on commence à débanquer
des choses qui sont
considérées comme des arnaques
et qu'on en a la preuve
là ils se disent que ça c'est encore mieux
ça va vous dédentrer
en fait dans l'électronique ? oui c'est ça
c'est comme tu dis
et finalement il y a des gens qui sont
très intéressés pour savoir comment
certains appareils fonctionnent
et je me dis
le fait de pouvoir leur expliquer
à travers des images et qu'ils aient
accès à ça gratuitement
moi ça me plaît
de faire de la sorte
et une machine à rayons X
salut si vous appréciez Endorscore
vous pouvez nous aider de ouf en mettant
5 étoiles sur Apple Podcast
d'inviter que vous aimeriez qu'on reçoive
ça permet de faire remonter Endorscore
telle une fusée
on va parler d'intelligence artificielle
mais appliquer à des domaines que vous
ne connaissez pas encore
je vous disais vous êtes le collectif Obuse
cette 2 personnes ou c'est plus de gens ?
maintenant on est un trio
et donc Gauthier il est pas là ce soir
mais c'était pour savoir ce qu'il y a à l'époque
pour ceux qui se souviennent
on avait déjà eu l'occasion de faire
une partie ensemble
c'était il y a 2 ans je crois
on parlait
à l'époque des tout débuts de l'intelligence générative
en images
à l'époque des Gannes
c'était un projet qui s'appelait nous sommes Marianne
on essayait de recréer la Marianne française
avec des images de plein de femmes françaises
et donc c'était des méthodes où il y a même pas encore le texte sous image
c'était précurseur en fait
si si c'est vrai
franchement un petit peu quand même
mais on voit l'intérêt médiatique
entre cette première vidéo
et aujourd'hui c'est quand même hallucinant
tout que j'espère que vous allez bien depuis
qu'est ce que vous avez fait ?
spoilé pas ce dont on va parler
à part ça, qu'est ce que vous ?
je pense que la grande nouvelle pour nous
c'est que du coup on a une pratique
artistique avec des algorithmes d'intelligence artificielle
généative, on fait ça depuis à peu près 6 ans
et donc évidemment notre pratique a évolué
au fur et à mesure que les outils ont évolué
donc c'était assez excitant de voir
comment ça a pu se développer, on a toujours eu aussi un peu
une approche de recherche
parce que là moi j'ai un doctorat là dedans etc
et en fait là
l'année dernière on a ouvert un labo de recherche
avec la Sorbonne dans lequel en fait
au lieu de simplement utiliser
tweeker les différents
l'Open Source qui peuvent exister
maintenant on va essayer aussi de les développer de nous-mêmes
et donc selon toi parler aujourd'hui par exemple
ça fait partie de cette approche là quoi
tu vois l'objectif c'est vraiment de prouver
que la recherche artistique et la recherche scientifique
peuvent se nourrir l'une l'autre
donc nous on est d'abord connu pour notre création
artistique et là c'est vraiment de montrer
que en fait ces deux recherches là
se nourrissent, que tu peux avoir des idées créatives
dans la science et que après tu peux présenter
ces idées scientifiques avec des séries artistiques
c'est vraiment faire ce pont là quoi
et c'est assez orifiant à l'objectif
est-ce que
vous avez donc tu parles d'un labo
vous avez l'ambition aussi de
lancer potentiellement d'autres
d'autres gens que vous personnellement
d'autres projets
ou est-ce qu'il y a une ambition de passer
surtout il y a des collaborations je pense après
même si ça paraît original
au fond nous notre aspiration elle est un peu très ancienne
mais en gros il y avait
en fait des ateliers à la Renaissance
ou en fait c'est des ingénieurs et des artistes
qui collaboraient ensemble ou qui étaient parfois les deux
et qui créent par exemple le clochet
de Florence où ils reçoivent une commande
ils doivent faire un clochet de Florence en or
et c'est extrêmement compliqué à l'époque de le faire
et en fait du coup c'est un boule d'ingénieurs et d'artistes
il faut que ce soit extrêmement beau parce que c'est une cathédrale
et en fait du coup on s'est un peu inspiré
de cette approche là qui à l'époque était
très classique et qui aujourd'hui
il est un peu moins, il y a beaucoup cette image
de l'artiste qui est tout seul dans son studio
qui est obligé de se couper l'oreille pour être vraiment créatif
qui doit souffrir etc.
et nous on a voulu un peu remettre
cet esprit de recherche au goût du jour
dans la création artistique
Super intéressant
je propose qu'on s'en plus attend
on rentre dans le vif du sujet, est-ce qu'il nous intéresse
aujourd'hui et bon j'ai trop hâte
je vous le disais
je fais mon intro traditionnel
aujourd'hui nous recevons le collectif
Obvious, il y a un an ils sont tombés
sur un article scientifique de chercheurs américains
et leur cerveau a quasiment explosé
comme le nôtre tout à l'heure
il serait possible de décoder
les images qu'on a en tête
grâce à de l'imagerie médical d'un côté
et des modèles d'il y a de l'autre
et alors vous vous êtes mis en tête
de reproduire cette expérience
unique en son genre
et vous allez voir
il y a des nouveautés, c'est à dire que en plus de
ce qui a été déjà démontré
vous avez fait des découvertes assez stupéfiantes
je vous propose de rentrer dans le vif du sujet
de découvrir ça ensemble
déjà l'histoire elle commence aux Etats-Unis
vous vous tombez sur ce papier de recherche
expliquez-nous
pour commencer, est-ce que eux les chercheurs américains
essayez de faire cette équal
leur ambition à la base ?
il faut savoir qu'il y a un domaine
d'archèges très actifs depuis dix ans
dans lequel on essaie de regarder
les cerveaux des personnes quand ils vont dans des IRM
et on essaie de
décoder ce qui se passe dans leur cerveau quand ils regardent des images
notamment on a pu identifier
qu'à certaines zones du cerveau qui s'activent très souvent
la zone occipitale derrière etc
et donc c'est un domaine très actif
et du coup avec les progrès
de l'intrégence artificielle générative on s'est dit
est-ce qu'on peut utiliser ces données-là
pour recréer les images que les personnes
voient dans l'IRM et ça ça a été assez actif
etc mais à l'arrivée du texte
ou image des nouveaux outils qu'on a aujourd'hui
ça s'est développé énormément et la qualité
des résultats s'est développée énormément
et ce papier là notamment qui est sorti
il y a un an qui s'appelle MindEye
a pu permettre de faire des résultats vraiment
extrêmement impressionnants, très fidèles
donc voilà une personne va dans l'IRM, regarde une photo
de bus et l'IRM
et ensuite l'algorithme est capable à partir de ces données-là
de recréer la photo de bus sans jamais
avoir vu cette photo de bus seulement en ayant
vu les données de cerveau
et donc ça...
Là on commence à rentrer dans la science-fiction parce que
ce que t'expliques avant sur toute cette recherche-là
c'est corréler des activités
à des zones
des zones du cerveau en gros c'est
arriver à déduire potentiellement
le type d'action
qui est en cours c'est ça tout à fait
et même le stimuler
même ce que la personne a eu
comme perception, donc s'il faut se dire c'est que
quand on regarde par exemple un visage
il y a certaines zones de nos cerveaux qui s'activent plus
que d'autres, même dans les...
quand même dans les zones visuelles et quand on regarde
pas un visage mais par exemple un
paysage, ça va être les zones
visuelles mais d'une manière un peu différente
et si tu donnes assez
de données à un algo avec ces correspondances-là
il va être capable d'apprendre
que quand tu regardes un visage c'est plutôt ça
qui s'active, quand tu regardes un portrait... un
paysage c'est plutôt ça qui s'active
et si tu donnes assez
il va arriver à faire ajouer un peu les debuts
et elle comprend que c'est déjà stylé
qui est déjà vraiment intéressant
mais là on passe un cap fou furieux
où on rentre
dans la science-fiction
pour vous vous êtes peut-être un peu habitué
en fait c'est notre travail tu vois
nous notre travail en tant qu'artiste qui utilise des nouvelles technologies
c'est de réussir à parler au grand public
par l'art
et d'essayer de le rapporter ça
et donc nous quand on tombe sur cet article
du MIT en fait on se dit
bah ouais c'est ouf parce que c'est un domaine de recherche
que personne ne connaît qui va avoir des applications
dans les prochaines années et donc nous notre travail
d'artiste-chercheur c'est de pouvoir prendre
cette truc-là, de voir si ça
fonctionne et de la portée au grand public
pour préciser
quand tu dis vous voir si ça fonctionne c'est de reproduire
littéralement l'expérience
c'est ça, c'est la base de la science
et donc en fait quand tu reproduis l'expérience
pour nous c'était déjà tout un travail
de reproduire l'expérience on a réussi à le faire
donc sur un certain jeu de données
on est allé travailler avec un hôpital
on va raconter dans le détail
justement avant de voir ça
pour comprendre l'expérience en elle-même
c'est quoi concrètement
qu'est-ce que tu dois mettre en place
qu'est-ce que c'est les FM, MRE par exemple
ou les trucs comme ça
alors l'imagerie l'IRM-F
c'est les IRM fonctionnels
plutôt que les IRM
anatomiques
donc je suis pas docteur en neurosciences, je suis docteur en machine learning
donc voilà je veux pas dire de conneries
mais en gros les IRM fonctionnels
ça permet d'avoir des informations sur le cerveau
vis-à-vis de fonctionnel
de ce qui se passe quand tu fais une action
alors que la anatomique c'est plutôt pour regarder
la tête du cerveau comme si on juste
on découpait la tête en deux et qu'on essaye de regarder
alors que l'autre permet de savoir
ce qui se passe dans le cerveau quand on fait une chose
et donc du coup
là en l'occurrence on est intéressé par les IRM-F
parce qu'on a besoin de savoir
l'activité du cerveau pendant qu'on est en train de regarder
une image donc déjà ces IRM-F
faut en avoir accès, souvent c'est dans la recherche
il n'y en a pas vraiment beaucoup etc
donc on a fini par trouver un contact qui nous a
aidé à
pouvoir faire gratuitement
différentes heures
d'IRM-F dans un hôpital
à des heures après que les patients soient passés
tu vois pour pas aussi déranger
donc c'était
un peu des heures d'IRM
un peu...
sketchy sous le manteau
ça c'était assez marrant
et du coup on prenait comme co-buying nous
parce que toute l'idée c'est aussi
de voir ce qui se passe dans notre tête en tant qu'artiste
quand on visualise ou on imagine les images
c'est en l'air bien après et donc c'est gotier qui a commencé
puis après Pierre après la suite
mais là il va faire son IRM
comme si tu faisais un IRM de la cheville du genou etc
sauf que c'est un IRM du cerveau
donc ta tête est écrasée dans un truc
ou tu ne dois absolument pas bouger dès que tu bouges
ça casse toutes les données
ensuite tu dois regarder une vidéo
qui t'est montrée ou on te montre les images
pendant quelques secondes puis après on te met un repos
pour reposer le cerveau entre guillemets
et en fait on fait ça
pendant le plus longtemps que le sujet
d'accord parce que c'est
vraiment une torture comme truc
rester dans un IRM qui fait énormément de bruit
pendant beaucoup de temps c'est horrible
tu l'as fait moi j'ai
10 heures de vol
10 heures de vol dans la machine
et ouais c'est très particulier
moi ça va je suis pas trop sensible à la colostrophobie
mais ouais comme disais Hugo
tu vois dans les images là tu as un arceau
ça fait énormément de bruit
en plus de ça quand tu rentres chez toi on a appelé ça
tu t'es fait magnétiser
mais en fait tu es un peu comme le mal de mer
donc ça passe après une nuit
mais le soir quand tu rentres chez toi
tu t'engues tu vas être vraiment
c'est pas dangereux il n'y a aucun problème de santé
mais par contre tu as le mal de mer chez toi en rentrant encore
et du coup on est d'accord que le protocole que vous décrivez
voir une vidéo attendre que le cerveau se repose etc
ça c'est
ce qui était documenté par les chercheurs
c'est le protocole défini par les expériences
qui ont été utilisées dans le papier
sur le papier entre guillemets ça fonctionne
mais j'imagine que vous au moment où vous reproduisez le truc
bah y a quand même ce mystère de
est-ce que ça va vraiment marcher quoi
et en plus c'est ce qui est difficile bon là on entend un peu dans le détail
mais reproduire des expériences
d'IRM
parfaitement c'est plus ou moins impossible
d'après tous les ingénieurs de recherche avec qui on a bossé
parce que en fait les machines ont toutes des spécificités différentes
et il y a l'histoire de
de signal, de bruit etc
de calibrage qui font que c'est très difficile
de faire les mêmes expériences donc on avait aussi
un peu ce flip de
bah ouais tu fais 5 heures d'IRM et en fait t'es donné
à la fin c'est du bruit et tu peux rien faire avec donc on est déjà très content
quand on a récupéré toutes ces données
ensuite tu les mets sur un disque dur, tu la récupères
t'entraîne ton algorithme de machine learning
et ensuite
tu regardes ce qui se passe est-ce que
on arrive à décoder les images qu'il a vues
ça on a réussi à le faire et ça fonctionne bien
du coup juste pour préciser
les images que toi tu vois quand t'es dans l'IRM c'est quoi
genre là tu regardes des vidéos
alors là ça va être, là on repasse dans la partie un peu artistique
donc il faut qu'on choisisse un sujet
non mais justement on doit choisir un sujet
et comme nous on
prépare notre prochaine série avec ça
tu vas y on se disait qu'est-ce qui pourrait être intéressant de faire
et en fait très vite on est tombé sur le surréalisme
qu'un mouvement qui a pour objectif
d'essayer d'esprimer le plus
directement possible les vues mentales
des artistes et donc en fait ça avait grave du sens
de regarder du surréalisme dans l'IRM
pour essayer de produire du surréalisme
à l'extérieur tu vois et donc c'est pour ça qu'on a
réduit le sujet à faire que du surréalisme
que ce soit du surréalisme dans les portraits
ou dans les paysages et donc t'as mangé 10 heures
de portraits surréalistes
ouais ouais
c'est beau quand même non mais
c'est un bon truc de certaines implications
ouais en vrai
ce que t'obtiens à la fin
ces 10 heures là de
j'allais dire de rush comme si c'était de la vidéo
c'est un wel, un petit peu
en gros c'est un peu ça donc tu reçois ça
qu'est ce que
qu'est ce que t'en fais ? alors là ce qui est cool
c'est que donc du coup le papier mine high
en l'occurrence dont on parlait qui est sorti l'année
dernière ont publié tout leur code
en open source c'est d'ailleurs une organisation
qui est très cool s'appelle MEDARC qui fait énormément
de boulot en open source même ils recrutent
leur jour en open source il y a un discord où il y a tout leur travail
et du coup en fait tous leurs algos
donc les algos qui permettent de
faire la partie t'as les données
et ensuite
l'algorithme regarde les images
et les données essaye de faire les correspondances entre les deux
pour qu'ensuite tu lui donnes des nouvelles données
dont il n'a pas vu l'image et il fait l'image
donc on est reparti de cette emplémentation
là il y a quelques modifications à faire
parce que bon voilà
c'est un truc plus ou moins technique
tu dois changer de trois trucs sur ton modèle parce que c'est pas la même forme
de cerveau c'est pas le même masque
et après tu entraines ton algoritme
c'est souvent des algos un peu lourds
c'est à peu près un milliard de paramètres
et donc du coup tu dois l'entraîner
sur un très gros gpu
souvent des A-100 donc des trucs qui ont
80 giga de VRAM
et en l'occurrence
voilà c'est ça et donc en l'occurrence
on travaille par exemple sur Genz
qui est le supercalculateur français
beaucoup de chercheurs utilisent en France
comment on accède à ça ?
quand on fait de la recherche open source par exemple
ou en l'occurrence on travaille avec la Sorbonne
et donc en part le laboratoire de recherche
on a accès à Genz
et c'est accès open l'accès à Genz
et c'est très très cool
et big up à Genz
gros big up à Genz
on peut pas travailler sans euro
et du coup, tu crois que tu as entrainé ton algoritme
t'as ton modèle qui est entrainé
qui sait dans le monde décoder le cerveau
et regarder et voir les images que tu as vues
théoriquement c'est un modèle
un peu de même ordre de grandeur que des modèles de langage
actuellement peut-être un petit
mais sauf que là en entrée
il prend pas du texte
il prend ce qui est sort d'un NIRM
c'est ça ?
c'est le signal BOLD
pour blood level
oxygen dependency
et toi tu veux que ça prenne ça en input
et quand c'est sorti ça te crée une image
donc du coup il y a un générateur d'images
dans le modèle par exemple
parce que pour passer de ces données
quand elles sont brutes c'est des données vectorielles
donc c'est une liste de nombres
donc tu as ta liste de nombres
il y a plein d'opérations qui sont faites
c'est mappé dans certains espaces etc
et ensuite c'est redéployé
en une image via un générateur type
stable diffusion par exemple
moi ce qui me fume c'est que sur le papier
la théorie elle est pas si complexe
ça commente ok bah y a ce truc au milieu
comme tu dis
je sais qu'il y a des marques
vectorielles ou des trucs comme ça je sais pas trop
exactement dans la implementation comment ça marche
mais c'est fou que ça marche
c'est juste un très gros modèle
avec beaucoup de paramètres
et ça marche
et en fait ce qui est fou c'est que ça marche
mais j'ai l'impression que quand même
pour les personnes qui travaillent en euro sciences
c'est pas une grande surprise
parce que finalement il y a une compréhension
sur ce qui est possible de
de ce qui se passe dans le cerveau
qui paraît vraiment logique qu'on puisse
faire ce genre de tâches tu vois
le fait de comprendre que le cerveau s'active d'une manière unique
quand tu regardes une image unique
c'est un truc un peu accepté en euro sciences
théoriquement c'est accepté
j'imagine que le fait de réussir pratiquement c'est wow
est-ce que vous dans
l'écosystème universitaire
scientifique vous avez eu
des retours un peu ?
on a quand même ressenti
une certaine excitation
vis-à-vis de ce travail là
beaucoup plus du côté des euro sciences
que du machine learning d'ailleurs
c'est les gens qui ont voulu se joindre
au projet qui sont vraiment déterres
c'est les gens du neuro sciences
là ou dans le machine learning
c'est une des nouvelles
nombreuses applications
pour eux dans les neuro sciences
tu bouleverses un...
je pense que ce qui est surtout très différent
et je pense que c'est intéressant pour les gens qui suivent
ce podcast c'est que
nous on ressent la même type de hype
qui avait en 2018 autour des hiagénératives
d'image c'est à dire une petite hype
mais dans une communauté fermée qui se dit
qu'il y a énormément de choses à faire
mais qui n'a pas touché un cercle plus large
alors que tu vois
5 ans après une fois que le truc s'est développé
tout le monde est dessus parce que c'est vraiment incroyable
on ressent le même truc pour ce genre de technologie
parce que au moment où ça marchera un peu mieux
que tu iras pas dans l'IRM mais que tu mettrais un casque EG
et que ce sera beaucoup plus accessible
bah c'est très impressionnant
Apple, là récemment ils ont développé un brevet
pour essayer de commencer à capter
des ondes du cerveau
par l'air pot
donc en fait t'es l'ailleurs c'est l'IRM
c'est très haut
en dessous c'est
les casques EG donc c'est les casques du futur
avec plein d'électrodes sur la tête
le jour où en fait tu peux penser
pause play sur tes airpods
bah en fait t'as gagné parce que le signal est beaucoup plus facile
que le signal imaginer une image
tu vois donc c'est imaginable
que dans un futur moyen proche
de 6 petites actions
pause play next, volume plus haut
tu es juste à les penser
parce que là, comme tu le dis
l'action génère
l'image qui est correspond à vous
elle est super difficile
c'est le plus dur
à partir du moment où tu réduis complètement le choix
à des trucs discrets, une action discrète
ou il n'ont
en fait peut-être que l'air pod il aura des capteurs
assez sensibles pour pouvoir détecter ça
mais il n'arrivera jamais à détecter la zone occipitale
qui s'allume même tant que l'autre
on espère que pour l'instant
on peut pas encore lire les pensées
pour te placer des publicités dans ton environnement
voilà par exemple
en fait oui nous après la volonté
d'air à ce projet c'est important de le dire aussi rapidement
c'est qu'on n'est pas forcément pro
ou anti, simplement de notre travail
on essaie de montrer ce qui arrive
dans le monde de la recherche de manière artistique
pour pouvoir ouvrir le débat sur cette technologie
et que les gens puissent être au courant de ça
et que notamment il y a beaucoup de dérives
qui peuvent arriver et que c'est aussi une manière de les prévenir
de les mieux, de les comprendre ça c'est une évidence
donc là est-ce que
on a apprécié ?
toujours la première étape, est-ce qu'on a
des résultats ? on peut voir des choses ?
alors là je... ouais voilà c'est ça
ça c'est des... donc ça par exemple
ça fait partie des résultats qu'on a vus
sur la première partie
moi justement j'ai fait exprès je me suis pas spoilé, je n'ai rien vu
donc ça c'est vraiment la partie
les images sont vues et ensuite les images qui sont en bas
c'est les images qui sont reconstruées
donc du coup là les premiers tests qu'on a fait
c'était plutôt sur des portraits classiques
des paysages classiques donc c'est pour ça qu'on a fait le choix
on n'a pas choisi le choix de la série, on était dans la
rétécation des résultats, c'est sur la partie d'après
qu'on a fait le surréalisme et ça marche bien quand même
et de fait c'est pas faux ton réaliste évidemment
mais quand tu commences à... tu t'arrêtes un peu
sur la détail et tout
ce qui est intéressant c'est les âges, les...
cémantiquement parlant voilà tu vois
cémantiquement parlant sur l'image de droite
il y a un bateau et l'image reconstruée il y a aussi un bateau
donc du coup ça a l'air de bien fonctionner
c'est vraiment super
c'est que le début c'est à dire que vous ne vous doutez
même pas de ce qui suit après
mais juste encore là dessus
est-ce que vous savez ce qui...
est-ce que vous savez ce qui bloque entre guillemets
pour passer les tapes encore d'après pour
relire l'image
est-ce que c'est...
j'imagine qu'il y a un encodeur
en gros il y a ce qui récupère l'input de l'IRM
et après il y a la partie
stable diffusion est-ce que vous pensez
que actuellement c'est plutôt
ce modèle
de côté IRM
qui peut limiter la
compréhension ou c'est stable diffusion ?
non en vrai ce qui merde c'est les données
c'est qu'en vrai les IRM même c'est eu
énormément de procès là dessus
la données elle pourrave
c'est à dire que je sais pas si t'avais vu récemment
mais il y a le projet Ise
qui a été annoncé où en gros il y a
une IRM de 11,7 d'escalade
qui est une très très grosse IRM
en gros une première mondiale qui a montré des images
de cerveau extrêmement précises
et il y a une course en fait dans le milieu
des IRM pour essayer de faire des plus grosses IRM
pour avoir plus de précision sur
qu'est-ce qu'on voit dans le cerveau et le gros problème aujourd'hui c'est que
si on pouvait voir réellement ce qu'il y avait dans le cerveau
normalement avec les outils d'aujourd'hui on pourrait faire des trucs
extrêmement précis et le problème c'est que
c'est une méthode non-invasive
donc on rentre pas dans le cerveau c'est pas de la ligne par exemple
et donc du coup la donnée qu'on a
est très brûlée et c'est ici que tu as l'information
après la pipeline d'après elle est relativement
il n'y a pas vraiment de problème
dedans tu vois
le problème c'est
faut passer 10 ans dans une IRM
en termes éthiques
et en termes de rapidité de la recherche
nous on a de la chance on s'en fout
donc c'est nous les sujets tu vois donc mais par exemple si c'est toi
je peux pas te faire passer 7 heures
dans une IRM à te torturer
donc en fait à tout les processus
la quantité de données et on sait que c'est une erreur de la hier
si on avait des modèles
avec 60h précis et beaucoup de données
si on avait des modèles avec 60h
d'IRM en fait on pourrait réussir
à mieux fonctionner mais c'est pour ça que c'est un peu les next steps
non et puis ce qui serait aussi cool
c'est d'avoir des jeux de données
avec des méthodes invasives aussi
pour voir ce qui se battent notamment
des trucs comme Neuralink
ou qu'ils ont accès directement au signal électrique
dans le cerveau serait extrêmement
plus précis. Là ce qu'il faut comprendre
les IRM fonctionnels c'est qu'elle regarde
dans le cerveau elle le fait
elle regarde pas l'activité du cerveau
elle regarde un proxy de l'activité du cerveau
c'est à dire qu'en gros elle regarde
en fait quand certaines zones du cerveau s'activent
il y a beaucoup d'oxygène
qui se remplit assez trente-droits là
et du coup c'est ça que ça regarde
et c'est juste une sorte d'auxiliaire
de ce qui se passe vraiment dans le cerveau donc c'est bruité
c'est pas top. Ok donc en fait tu regardes
une variable coréler
Exact, qui n'est pas vraiment ce qui t'intéresse
et donc il y a plein de problèmes avec ça. Ok
Vous vous arrivez vers là on peut dire que
l'expert s'est reproduite quand même. Tout à fait on est contents
À partir de là, qu'est-ce que vous vous dites ?
Donc là ce qu'on se dit c'est que ok c'est sympa
de faire ça mais nous en fait on est aussi
des artistes et donc recréer des images
qu'on voit bah ça n'a pas d'intérêt
artistiquement. On a tous d'accord là-dessus
en tout cas l'intérêt
est très limité et donc ce qu'on se dit
c'est que le rêve ce serait de pouvoir
faire le même procédé mais pas
avec des images qu'on regarde mais des images qu'on imagine
donc des nouvelles images et donc on a un peu
l'idée folle de se dire est-ce qu'on ne pourrait pas faire ça
ou est-ce qu'on ne pourrait pas pousser
cette recherche et essayer de
amener notre contribution là-dessus et d'essayer d'avoir
de résultats significativement mieux que la chance donc
des résultats intéressants sur ce
problème de l'imagination. Tu vois et là ce qui est
vraiment dur c'est qu'il faut inventer un protocole
c'est-à-dire que dans l'étape précédente en fait
tu répliques de la science donc tu te dis bon bah vas-y
on va essayer de répliquer donc en fait c'est
qu'une histoire de trouver les moyens d'avoir la compétence
technique et d'avoir les gens qui t'entourent
même si c'est déjà gagnant quand même.
Non mais tu vois ce que je veux dire t'as pas
d'invention de protocoles scientifiques et là
dans la deuxième étape tu dois travailler
avec les chercheurs en neurosciences
et en machine learning
pour réussir à inventer un nouveau protocole
mais t'as 90% de chance pour que ce soit
d'importe quoi tu vois. Oui tu test quoi.
Et donc là on a la chance quand même
d'avoir travaillé avec
des neuro radiologues qui eux
savent aussi ce qui se passe dans les cerveaux et donc
ils peuvent nous aider donc on est très bon sur la partie
ya moins sur la partie neurosciences et donc
du coup ça a été une recherche complémentaire avec eux
notamment avec Charles Melériot qui est un neuro
radiologue assez connu etc. et donc on a eu
l'idée, l'idée principale
ça a été de découpler un peu le problème en deux
parties. Comme vous l'a dit
les algorithmes ils partent d'activités de cerveau
et d'images et font des correspondances entre
les deux. Sauf que quand tu t'imagines
une image totalement nouvelle
cette image elle existe que dans ton cerveau
tu l'as pas sur ton entier donc tu ne peux pas
entraîner ton modèle là-dessus. Donc il faut
trouver un tricks pour
sortir de ce problème là et donc le trick ça a été
de se dire ok on va faire deux parties on va
faire une partie qu'on a appelé imagination faible
qui va elle être basée
plutôt sur la mémoire donc imagine toi
une photo que t'as déjà vu.
Par exemple imagine le visage de ta mère qui arrive
plus ou moins bien et on a la photo de ta mère. Donc du
coup c'est pas mal et ensuite
comment
ça c'est la première partie
imagination faible et après
une imagination forte dans laquelle on
imagine une image totalement nouvelle
et là on essaie d'entraîner
l'algorithme sur la première partie pour essayer
d'espérer qui généralise sur la deuxième
partie. Parce que sur la deuxième partie
t'as les activités cérébrales mais t'as pas
l'image associée mais t'as les activités cérébrales
donc tu peux le donner à ton modèle. En fait tu fais
un pari. Tu fais un pari.
Dans ton cerveau
le concept de te souvenir
d'une image que t'as déjà vu
est très proche.
T'imagines une nouvelle image.
Et c'est pas tant un pari que ça parce que
justement le trick c'est que
ce que nous ont dit tous les chercheurs
en neurosciences c'est qu'en fait quand tu imagines
tu utilises les canaux de la vision.
Et donc c'est ça l'input c'est de se dire en fait
on va pouvoir utiliser les canaux de la vision
pour décoder l'imagination.
Et donc tu utilises les canaux de la vision et
aussi 2-3 autres parties et on a fait
une étude dans notre papier qui montre que voilà
quand tu regardes des images et ce qu'ils
ne signent pas une étude nouvelle mais qui
montre que quand tu regardes des images
il y a certaines zones qui s'activent. Quand tu t'imagines
une image à partir de la mémoire c'est
à peu près les mêmes zones et d'autres zones.
Et ensuite quand tu t'imagines à partir purement
une nouvelle image
c'est les mêmes zones et encore un peu d'autres zones
mais il y a de l'overlap et c'est pas clair etc.
Donc tu peux faire ce pari, ça apparaît assez raisonnable.
Donc il y a probablement
une activité
et en même temps des spécificités
de deux activités. C'est hyper intéressant.
Et donc là à partir de là
vous êtes en mode ok go.
On prend les données. On commence par l'imagination faible du coup.
Et donc là le processus
C'est là où il s'est tapé les 10h d'IRM de Surrealism.
Et donc là le processus c'est t'es dans l'IRM
au lieu d'avoir que des images qui défile
là t'as une image qui t'est blipée.
Donc en fait tu vois, moi j'ai regardé
les images mais là elle m'a montré
un quart de secondes tu vois genre.
0,1 secondes.
Et après on le laisse longtemps imaginer.
Donc là pendant 5, 10 secondes
je suis dans ma tête et j'essaye de
réconstituer le plus possible
l'image que j'ai vu tu vois.
Et donc là c'est les résultats que vous voyez là.
C'est à dire que l'image qui m'a été blipée
elle est en haut et l'image que l'algorithme
il a réconstruit par rapport au moment
où j'étais en train de me rappeler de cette image
et de la reconstruire mentalement c'est en bas.
Déjà ça c'est cool. Déjà c'est cool.
Ça veut dire que t'es passé de
je sais pas combien de secondes c'était avant.
Avant tu en fait on prenait les activations
de cerveau quand il regardait l'image tout le temps
en continu.
Et là l'idée c'est de
il la regarde 0,1 seconde en fait dans 1 seconde
t'as à peine le temps de la voir juste tu t'en rappelles
tu fais ah oui je sais que c'est le type parce que
dans nos protocoles on la monte 3 secondes
d'avant, ensuite on attend un peu, ensuite on la remonte
0,1 seconde et là il s'en rappelle
parce qu'il l'a vu 3 secondes d'avant.
Ok ok et donc le but c'est de simuler au max
le plus proche possible. Et on peut pas
simplement ne pas la montrer
0,1 seconde parce que comme tu dois le faire
sur des milliers d'images, bah il peut pas se rappeler
de milliers d'images juste avec un Q de
oh tu te rappelles cette image ? Ah non.
Non mais c'est hyper marrant de voir la réponse
protocolaire. Ouais c'est
à ce problème. C'est assez random
entre milliers mais bon ça a été
l'idée qu'on a... C'est nos idées
c'est les inventions qu'on a en discutant
Et tu peux certainement faire mieux et tout
mais c'est un premier part quoi. Et de fait
il semble que ça donne des résultats
et ça fonctionne quand même ça donne des résultats
et voilà il y a des moments où ça foit
il y a des moments où ça marche très bien
mais globalement ensuite il y a plein de différentes
métriques qui sont utilisés dans ce domaine
de recherche. On a appliqué
les mêmes métriques, on a vu qu'on avait des résultats
mieux que la chance et intéressant et tout. Donc publiables entre guillemets
entre autres que l'on va essayer de faire. C'est ça qu'il faut préciser
c'est que tu vois dans notre optique c'est
il y a une volonté de faire une série artistique
qui sortira bientôt mais il y a aussi une volonté
de sortir un papier scientifique. Et donc
de même temps. Tout ce qu'on fait
il est... enfin c'est de la science aussi
tu vois ce que je veux dire c'est pas que de l'expérimentation fumeuse
l'idée c'est dans les faits vous reproduisez
une nouveauté par rapport
au papier d'origine.
Donc on a fait un peu de recherche, il est dispo
sur archive comme n'importe quel chercheur en machine learning
on a fait notre papier et là on le soumet
à différentes conférences. On n'a pas vu
le résultat.
La troisième étape c'est
on a plus besoin d'Ublip c'est là
qu'est ce qu'on me donne tu vois. Et là on s'est dit
bah en fait ce qu'on va faire c'est on va
on va diviser en deux parties on va faire une partie
où juste on me dit pensez une image qui te fait penser
à cette
à cette... comment dirais-je...
sentiment. Donc pensez à une image
qui te fait penser à l'amour donc là je pense à ma femme
pensez à une image qui te fait penser
à la colère donc là je pense à un
volcan tu vois et donc là après
on regarde et en fait dans l'IRM pour pouvoir
avoir ce témoin je dis
là je pense à ma femme tu vois pour qu'on ait
au moins un espèce de témoin qui puisse nous valider
ou pas ce genre
de choses tu vois. Et donc
là ce qui a fonctionné c'est le fait que
en gros ça s'est détecté
si quand je pense à un paysage
c'est un paysage quand je pense à un
portrait c'est un portrait. Mais est-ce que du coup
il y a une étape d'entraînement où l'opérateur
en question doit
d'abord filtrer
en gros les données et dire ah bah là non
c'était pas ta femme tu vois c'était autre chose. Non non d'accord donc
d'entraînement la généralisation
a marché. C'est ça. Il y a eu
en gros on a
créé une sorte de métrique pour essayer de
voir si ça a marché notamment on a
un peu résumé notre problème à portrait
paysage et après on lui a dit en gros
vraiment simplifier imagine un portrait
ou imagine un paysage. Et à partir
de ça on donne un on le donne à l'algorithme et on voit
si bah quand il a pensé à un portrait ça fait
un portrait quand il a pensé à un paysage ça fait un paysage
et 9 fois sur 10 c'est le cas tu vois.
Donc du coup rien que pour ça on se sait bon bah
il y a une information qui s'est généralisée
et qui a fonctionné tu vois. Et le petit
schéma récapitulatif pour que vous ayez
bien suivi. Voilà.
Voilà donc ça
ça par exemple c'est
donc quand on voit sur l'image de gauche on a dit
imagine un portrait qui te représente l'optimisme
et ce qui est sorti c'est
une femme qui sourit par exemple
pour le ensuite c'est le qui est juste à
droite c'est imagine un paysage
qui te représente aussi l'optimisme et là il a
pensé à un arbre et ça a sorti un arbre.
Pour te dire moi ce que je pense au moment où j'ai
ce truc là dans l'IRM je pense à
une petite fille qui sourit tu vois. Je la pense
pas aussi sur réaliste, aussi maquillée
etc mais en tout cas l'élément
sémantique de base qui est je veux
une fille qui sourit et là
c'est déjà une dingue y et pareil
sur l'arbre. C'est incroyable
franchement c'est incroyable
c'est de la
c'est de la vage noire.
C'est vraiment un imaginaire. Étrange comme sensation
quelqu'un qui arrive là peut avoir
même l'impression que c'est un prompt.
Oui c'est ça. Mais en fait c'est
difficile d'expliquer même de dire
oui non en fait c'est vraiment juste il l'a imaginé
et ça partait tellement aberrant
il l'a imaginé et c'est apparu.
Ouais après c'est d'abord
un processus bien painful
d'aller dans l'IRM
encore une fois
elle était pas comme ça exactement
dans ma tête tu vois ce que je veux dire
mais l'occurrence les éléments sémantiques
sont là et en fait c'est ce que tu cherches à prouver
et après pour l'art
on fera notre cherry picking et on fera ce qu'on a fait
après c'est à dire ce qu'on a fait après
c'est à dire à partir de
le papier scientifique s'arrête là
tu vois et après on se dit bon bah vas-y comment est-ce qu'on va pouvoir
apporter ça aux gens et donc là
on repasse dans la partie artistique de comment est-ce qu'on va pouvoir
utiliser finalement les out-put
de notre science pour faire de l'art et donc là
on a poussé le truc en se disant bon on va faire ce qu'on appelle
de l'écriture automatique
qui est en fait un des principaux
exercices des surréalistes donc c'est
je me mets devant une feuille et je laisse couler
ma plume jusqu'à ce que
des phrases intéressantes en sortent tu vois
donc là on me donne
j'écris un truc sur la colère et un volcan
je sais plus trop ce que j'écris c'est assez
fumeux et en fait
là je re-rends dans l'IRM on me donne
ce que j'ai écrit et on me dit maintenant
imagine une image associée à ça tu vois
et en fait il y avait clairement
à ce moment là donc un prompt
avec plus ou moins pense à la colère
pense à un truc autour de la
de la haine et etc et j'ai pensé
à un volcan tu vois et ça nous donne
l'image que finalement
celle ci tu vois
qui est la première rèvre
issu de tout ce processus là qui a pris
un an etc donc on est
très content d'avoir créé cette
petite image de manière totalement bizarre
mais c'est un peu le résultat tu vois
c'est clair que si il faut le contexte
en fait tout est dans le contexte
c'est ça qui est un peu plus important
on dit qu'on fait de l'art conceptuel aussi
c'est que voilà ce qui est intéressant c'est
d'avoir toute l'histoire derrière, de comprendre
quelle est la démarche et
peut-être que ça devient intéressant on ne fait
pas seulement de l'art pour le visuel
c'est ça et justement pour qu'on
capte un peu à quel point
tu vois ça regarde
ça c'est ce que tu as écrit
ça c'est la phrase
qui lance l'imagination
pour qu'on voit aussi
c'est quoi les limites du truc
et à quel point ce genre de
déjà que si on rêve un petit peu
on a commencé un peu à le faire mais
c'est quoi les perspectives, les évolutions
et en même temps aussi c'est quoi
actuellement les limites entre à sec
déjà qu'est ce qui limite l'expérience
là vous l'avez dit, ça peut pas être fait
sur quelqu'un qui consent pas
l'expérience par exemple
la principale limite c'est un mec, un modèle
ça n'a pas de modèle généralisé
c'est à dire que demain
tu veux le faire, il faut que toi aussi tu passes
12h dans l'IRM, tu vois ce que je veux dire
ça a des limites fondamentales
ça veut dire que tu ne peux pas généraliser l'approche
donc en fait la première chose pour moi c'est
généraliser l'approche
il y a beaucoup de chercheurs qui travaillent notamment sur ce sujet
là, essayer de
mettre une dizaine de personnes 40h dans l'IRM
donc on les fait souffrir eux
ensuite on a une grosse base de données
et après toi tu peux faire que 1h dans l'IRM
et on peut avoir les mêmes types de résultats, ça travaille beaucoup là dessus
en ce moment, ça c'est une limite fondamentale
qui pour l'instant est assez difficile même si il y a un nouveau papier
la suite du papier de l'année dernière qui est sorti
récemment qui essaie de faire ça
ensuite la grosse limite c'est que
les IRM c'est ultra cher
et surtout ça sert à autre chose
ça sert à résoudre des gens
qui sont vraiment importants en médecine
et donc c'est vraiment pas dispo
et les casques que j'ai pour l'instant ça marche pas très bien
donc ça c'est des trucs dont vous parlez
c'est des électrodes sur la tête
et donc ça, ça te donne un signal beaucoup plus
en temps réel
par contre c'est encore plus brité
parce que voilà c'est pas terrible
c'est cette technologie assez
à ce défaut là
et du coup les méthodes invasives pour l'instant
étiquement c'est quand même pas terrible
il n'y a pas que des acteurs comme Neuralink
qui sont dessus et bon voilà c'est quand même
un sujet super sensible
donc c'est un gros
gros frein et après
bah à part ça, il n'y a pas forcément
trop de limites je dirais
une fois que t'as fait lever ça, ça va
il faut avoir des gros ordi quand même
mais bon
quand tu vois que ça s'est dépété, ce qu'ils sont capables de faire
aujourd'hui
à la fois facile, noeud et frustrant
c'est qu'en gros on sait que la technologie fonctionne
mais tous les freins sont bien plus
sur l'acquisition de données
que sur la technologie en elle-même
ou la puissance de calcul
typiquement le texte ou vidéo si c'est pas
méga-développé en ce moment c'est que le problème c'est qu'il y a
beaucoup moins de vidéos
et de vidéos captionnées que d'images
et donc ça c'est un très gros moyen
par exemple pour lesquels on a des superbes images mais pas encore
des superbes vidéos
ça c'est la première limite c'est la généralisation
deuxièmement donc la fiabilité
des capteurs dont on a parlé
la durée, il faut rester
des dix heures
on peut s'imaginer quand même que
si on arrive à généraliser
ou qu'il y a des capteurs
qui s'améliore etc
ça pourrait, si on se projette
si on fait la perspective
ce serait quoi des applications
possibles de la
version dans dix ans de cet objet
déjà il y a énormément d'applications
en médecine donc à la base
pourquoi ce domaine de recherche est très actif
c'est que il y a plein de personnes par exemple
qui sont dans le coma mais qui sont dans des états de conscience
qui pourraient communiquer
via cette méthode là
ça c'est vraiment fondamental
et en fait il y a vraiment beaucoup de gens dans le coma
plus qu'on croit, enfin tu vois c'est un très très gros problème
donc ça c'est une application
évidente et en médecine
on n'est pas médecin mais d'après ce qu'on a compris
il y a énormément d'applications
donc ça c'est vraiment celle qui est évidente
après il y a des trucs un peu marrants je sais pas
des trucs comme vérifier ce qu'il y a dans ton cerveau
pour voir si tu l'as vraiment vu
on explique pas un truc
un truc au sein de la tête que ça peut servir
je veux dire la phrase baisser un épisode de blackmir
en littéralement
où ils arrivent à remonter le temps
sur des images vues dans le passé
c'est un témoin ça fait valeur de preuve
mais au fond c'est sa parole
qui fait valeur de preuve tu vois
tu pourras avoir un truc de... est ce que tu l'as vraiment vu
tu l'as vraiment vu
après ce que vous avez dit c'est la même chose
que l'imagination si ça se trouve
en termes de...
tu vas dédié le détecteur
c'est sûr qu'on est full blackmirror mais tu as tout le côté aussi
bah en fait si tu restes vraiment dans l'artistique
il y a plein d'artistes déjà
qui ont pas forcément les compétences
de leur vision
moi je peux avoir des idées de sculpture
sans être sculpteur et avoir les compétences
donc ça peut être aussi réussir à projeter les gens
dans mes images mentales
donc ça pour les artistes c'est fou tu vois
et après tu as toutes les parties
ou les gens qui ont juste des handicap
et qui peuvent pas peindre
qui peuvent pas s'exprimer, qui peuvent pas chanter etc
bah en fait ils peuvent passer
par ce genre d'interface servomachine pour vraiment
s'exprimer et puis après
après bon je pense mais quand même si on fait
un peu de recul
le plus important ça reste le fait que
en gros globalement ça dit que tu peux faire
l'opération lire dans ton cerveau
via un outil et que ensuite
tu peux utiliser cette donnée et la donner à d'autres gens
donc c'est un outil de communication
et donc en fait bah voilà c'est une interface
c'est une interface en machine
où on utilise
on peut lire
ou on utilise une bande passante
différente aussi parce que aujourd'hui
en fait quand on a réfléchi
si on prend le cerveau comme un système
fermé, en input on a
une capacité complètement dingue
en fait en sortie
on peut taper sur un clavier
à 100 mots par
on peut parler pas très vite
et là on parle que d'image tu vois sur notre travail
mais des gens qui font ça dans l'audio
donc en fait
et dans l'écrit
c'est évident tu vas pouvoir écrire sur ton portable
en y pensant
bah ça paraît une application direct
tu vois
c'est plus ça quand même la plus grosse application je dirais
tu vas pouvoir contrôler la souris de ton
de ton ordi
avec juste tac tac tac
c'est la démo de Nora Link
qui a fait pas mal de bruit récemment
et après t'as les deux camps
et le gars il a l'air
de vivre
une nouvelle vie
et après faut toujours faire attention
parce que nous notre travail d'artiste
c'est de montrer ça mais si de
montrer ce qui est les enjeux
en cours c'est le classique du transhumanisme
le transhumanisme c'est on d'abord
on aide les handicapés puis un jour on commence
à se mettre des prothèses nous-mêmes parce qu'en fait
on a des meilleurs résultats au lancer de javelot
et donc en fait c'est toujours le même mécanisme
faut en être conscient et c'est pour ça
que je pense que notre travail est important
c'est que par ce type
de travaux tu amènes
ce genre de réflexion aux gens et faut qu'on se pose
collectivement ces questions là tu vois
typiquement je pense que sur le sujet de l'intelligence artificielle
on se pose les questions trop tard on aurait dû
se poser toutes les questions de qu'est-ce qu'on veut ou est-ce qu'on va
il y a 5 ans et là on est en train
de ramer techniquement et étiquement tu vois
oui intéressant t'as aussi cette
idée que c'est
tu peux théoriser tout autant que tu veux en fait
tant que tu ne
comprends pas l'objet en question
tant que tu n'es pas
capable toi même de faire
ces modèles à de les comprendre etc
tu peux réguler autant que tu veux mais en fait
c'est trop tôt aussi il connaît le camp dans lequel on est
non c'est vrai franchement
c'est vraiment passionnant tout ce que
tout ce sur quoi vous bosser
et je trouve ça quand même fascinant
que ça vienne d'une poussée purement
en tout climatisé qui derrière
c'est les implications aussi loin dans la fiche
ce qui est super intéressant aussi
enfin j'ai un truc qui nous a rassuré aussi c'est que
on était un peu dans le flou quand on faisait cette recherche
là et en fait au fur et à mesure quand on a
sorti notre proe de la première version de notre papier
et justement par exemple les chercheurs
du même domaine et ceux qui avaient fait l'article
l'article dernier nous nous ont contacté
en disant bah nous on travaillait sur ça aussi
trop cool vous avez des résultats et en fait
on a des résultats assez similaires donc on a été
vraiment content de voir que en plus c'est pas
comme si on avait par exemple on avait de la chance
on s'était trompé mais on avait eu de la chance non
ça a l'air d'être le résultat qui a l'air
consolidé par d'autres recherches donc c'est vraiment top
et nous on est super fier en tant que
approche artistique d'avoir réussi à faire ça
quand même c'est vraiment la preuve de notre concert
de labo à recherche on arrive à le faire
et ça ça fait vraiment plaisir
c'est un peu la classe quand même
attention j'ai une question vous allez pas l'avoir
venir mais récemment
on a parlé de comment
on pourrait appliquer des modèles diagénératives
pour les animaux
potentiellement
essayer de mapper
la langue
que nous on a à la main
sur des langues d'espèces
qui ont des langues complexes
notamment les ballets na boss etc
et donc on a fait justement un sujet
là dessus pour expliquer notamment
qu'il y a des sortes de constantes
dans les représentations de la langue
entre toutes les groupes humains
et qu'on se demande
s'il y aurait pas des portions
de cet espace qui pourrait
fonctionner pour comprendre
ce que racontent les ballets
donc ça je trouve ça fou
du coup question que j'ai c'est
si on se projette un peu est ce que ce serait pas possible
d'appliquer le même genre de raisonnement
à l'image et de dire ok on fait
des scanner de ballets
tu vas ?
il y a quoi dans le cerveau d'une ballet ?
parce que déjà le premier problème t'imagines si on arrive à le résoudre
tu parles aux ballets tu vois ce que je veux dire
genre déjà des scanner mais parler aux ballets
c'est incroyable mais je suis déjà sûr qu'on veut
entendre ce qu'elles vont nous dire
déjà
si on voulait appliquer
votre méthodologie faudrait la faire tenir dans un IRM
sans quel bouge
mais justement avec les évolutions
de ces technologiens et en fait
là l'approche c'est différent
parce que c'est sûr que si tu veux voir ce qu'elle a
dans la tête là il faudrait pouvoir scanner
son activité cérébrale mais par contre sur le travail
de la parole et des signaux qui nous émettent
en vrai on pense vraiment
qu'il y a un énorme rôle à jouer là dessus
et ça a été pouvé m'interpris et
au bout d'un moment quand même il y a des chances qu'on puisse communiquer
ce qui est intéressant c'est que c'est le même problème que vous avez décrit
à savoir la techno on
la maîtrise plutôt bien mais c'est un énorme manque
de données on a très très peu en réalité
d'enregistrement clean
multi individus de discussion
de différentes espèces
avec des protocoles vraiment cadrés dans lesquels
il y a énormément de données qui ont
exactement le même protocole
souvent en IA il faut vraiment ça et ça c'est très difficile à faire
et tu vois nous c'est vraiment
typiquement le genre de projet
ou ça nous amusera grave
pas sur le prochain projet mais tu vois
de un jour travailler avec des chercheurs spécialisés
dans les trucs, réussir à parler un peu
au balaine et expliquer ça aux gens
par une série tu vois parce que dans une certaine mesure
l'art ça permet aussi d'aller parler à des gens
qui là on est cool on est entre nous
dans l'univers IT tu vois mais au fond
il y a peut-être un de gens auquel ça passe au dessus
et en fait l'art ça quand même
a un bon moyen pour aller parler
aux gens au plus grand public
et ça on pense que c'est important
ça peut être un bon entrée pour vulgariser
en fait
très cool et bah vous reviendrez si vous parlez
au balaine
on va en reparler ici
mais merci en tout cas vraiment
d'être venu nous raconter tout ça
c'est vraiment très intéressant, où est-ce qu'on peut suivre
vos travaux cette future publication ?
donc le truc cool
c'est que donc cet oeuvre là
on va la montrer pour la première fois
à Vivatec la semaine prochaine
donc déjà si vous passez vous pourrez voir
l'oeuvre physique etc
parce que c'est une grosse oeuvre assez grande
donc ça c'est la première actu
après on gros donc il y a un show qui se monte
tu vois en gros il y a de la et c'est une exposition
il y a plusieurs oeuvres
qu'ont été faites etc
et donc là ce sera en octobre à Paris
et puis après on va faire New York
et la Corée probablement
donc ça c'est les différents shows et donc si vous voulez nous suivre
et notre travail c'est sur les réseaux c'est instaobuse underscore
obuse underscore art
et bien allez suivre tout ça
sur instagram
et merci encore d'être venu et sans plus attendre je vous propose
d'aller manger
avec grand plaisir
et je vous souhaite une excellente soirée
est ce qu'il y a un guide avec le code
pour les papiers originaux peut-être ?
tout à fait donc il y a un guide up mind eye
enfin tu cherches
mind eye guide up paper
tu trouves ça rapidement et il y a tout le code
tu peux reproduire leurs résultats et tout
trop bien et bien pour ceux qui ont un IRM
à disposition n'hésiter pas
à vous abuser
et sur ce je vous souhaite une excellente soirée
et à prochaine
bye