Pourquoi Banque Populaire est la première banque des entreprises ?
Je me posais des questions sur le partage de la valeur pour mes salariés.
Elodie, ma conseillère Banque Populaire, m'a proposé une solution d'épargne salariale sur mesure,
rapide à mettre en place et que je peux piloter en ligne.
C'était simple et surtout ça a fait des heureux.
Accompagner nos clients sur tous les territoires avec des solutions adaptées à leurs besoins,
c'est ça, être la première banque des entreprises, Banque Populaire, la réussite est en voulue.
Étude Quantar PMEP, mid-2023, Quatorze Banques Populaires, Première Banque des PM.
On va cette fois parler un peu d'intelligence artificielle,
mais appliquer à des domaines que vous ne connaissez pas encore.
Je vous disais où vous êtes le collectif Obuse, on peut dire ça.
C'est deux personnes ou c'est plus deux gens ?
Non, on est un trio.
Et donc Gauthier, il est pas là ce soir, mais...
Oui, c'était pour savoir ce qu'il y a à moi-même.
Vous vous souviens à l'époque ?
C'est ça, à l'époque pour ceux qui se souviennent,
on avait déjà eu l'occasion de faire une partie ensemble,
c'était il y a deux ans, je crois.
C'était...
On parlait à l'époque des tout débuts de l'intelligence générative en images.
J'ai à l'époque des GAN,
parce que c'était un projet qui s'appelait Nous sommes Marianne,
on essayait de recréer la Marianne française
avec des images de plein de femmes françaises.
Et donc c'était des méthodes, il n'y avait même pas encore le texte sous-image.
C'était précurseur, en fait.
C'est à nous le dire.
Si, si, c'est vrai, franchement.
Ouais, un petit peu quand même, mais...
On voit l'intérêt médiatique entre cette première vidéo
et aujourd'hui, c'est quand même hallucinant.
En tout cas, j'espère que vous allez bien depuis, mortel.
Qu'est-ce que vous avez fait ?
Alors, spoilet passe, ce dont on va parler.
Mais à part ça, qu'est-ce que...
Alors je pense que la grande nouvelle pour nous, c'est que...
En fait, donc du coup, on a une pratique artistique
avec des algorithmes d'intelligence artificielle générative.
On fait ça depuis à peu près six ans,
et donc évidemment, notre pratique a évolué
au fur et à mesure que les outils ont évolué.
Donc c'était assez excitant de voir comment ça a plus développé.
On a toujours eu aussi un peu une approche de recherche,
parce que là, moi, j'ai un doctorat là-dedans, etc.
Et en fait, là, l'année dernière, on a ouvert un labo de recherche
avec la Sorbonne, dans lequel, en fait, au lieu de simplement
utiliser, twequer les différents...
l'Oppenseurs qui peuvent exister,
maintenant, on va essayer aussi de les développer de nous-mêmes.
Et donc, ce dont on va parler aujourd'hui,
par exemple, ça fait partie de cette approche-là.
L'objectif, c'est vraiment de prouver
que la recherche artistique et la recherche scientifique
peuvent se nourrir l'une ou l'autre.
Donc nous, on est d'abord connu pour notre création artistique.
Et là, c'est vraiment de montrer que ces deux recherches-là se nourrissent,
que tu peux avoir des idées créatives dans la science
et que après, tu peux présenter ces idées scientifiques
avec des séries artistiques.
C'est vraiment faire ce pour-là.
Et c'est assez orifinal, objectivement.
Et est-ce que vous avez...
Donc, tu parles d'un labo.
Vous avez l'ambition aussi de lancer potentiellement
d'autres gens que vous, personnellement,
de d'autres projets.
Est-ce qu'il y a une ambition de passer ?
Surtout, il y a des collaborations, je pense, après.
Même si ça paraît original, au fond, nous, notre inspiration,
elle est un peu très ancienne, mais en gros, il y avait
des ateliers à la Renaissance,
où en fait, c'est des ingénieurs et des artistes
qui collaboraient ensemble, ou qui étaient parfois les deux,
et qui créent, par exemple, le clochet de Florence,
où ils reçoivent une commande, ils doivent faire un clochet de Florence en or,
et c'est extrêmement compliqué à l'époque de le faire.
Et en fait, du coup, c'est un bouleau d'ingénieurs et d'artistes.
Il faut que ce soit extrêmement beau, parce que c'est une cathédrale.
Et en fait, du coup, on s'est un peu inspiré de cette approche-là,
qui, à l'époque, était très classique,
et qui aujourd'hui, elle est un peu moins.
Il y avait beaucoup cette image de l'artiste qui est tout seul dans son studio,
qui est obligé de se couper le ray pour être vraiment créatif,
qui doit souffrir, etc.
Et nous, on a voulu un peu remettre cet esprit de recherche
au goût du jour dans la création artistique.
Dans la création artistique, oui.
Hyper intéressant.
Je propose qu'on s'en plus d'attends, on rentre
dans le vif du sujet, ce qui nous intéresse aujourd'hui.
Et vraiment, j'ai trop hâte.
Je vous le disais, je fais mon intro traditionnel.
Aujourd'hui, nous recevons le collectif Obvious.
Il y a un an, ils sont tombés sur un article scientifique de chercheurs américains,
et leur cerveau a quasiment explosé, comme le nôtre tout à l'heure.
Il serait possible de décoder les images qu'on a en tête
grâce à de l'imagerie médicale d'un côté et des modèles d'il y a de l'autre.
Et alors, vous vous êtes mis en tête de reproduire cette expérience unique en son genre.
Et vous allez voir, il y a des nouveautés.
C'est-à-dire qu'en plus de ce qui a été déjà démontré,
vous avez fait des découvertes assez stupéfiantes.
Je vous propose de rentrer dans le vif du sujet, de découvrir ça ensemble.
Déjà, l'histoire, elle commence aux États-Unis.
Vous vous tombez sur ce papier de recherche.
Expliquez-nous pour commencer ce que eux, les chercheurs américains,
essaient de faire.
C'était quoi leur ambition à la base ?
Oui.
Alors, il faut savoir qu'en fait, il y a un domaine de recherche
qui est très active depuis dix ans dans lequel on essaie de regarder
les cerveaux des personnes quand ils vont dans des IRM
et on essaie de décoder ce qui se passe dans leur cerveau quand ils regardent des images.
Donc, notamment, on a pu identifier qu'à certaines zones du cerveau
qui s'activent très souvent, la zone occipitale derrière, etc.
Et donc, c'est un domaine très actif.
Et du coup, avec les progrès de l'intelligence artificielle générative,
on s'est dit, est-ce qu'on peut utiliser ces données-là
pour recréer les images que les personnes voient dans l'IRM ?
Et ça, ça a été assez actif, etc.
Mais à l'arrivée du texte ou images, il y a des nouveaux outils qu'on a aujourd'hui.
Ça s'est développé énormément et la qualité des résultats s'est développée énormément.
Et ce papier-là, notamment, qui est sorti il y a un an qui s'appelle MindEye,
a pu permettre de faire des résultats vraiment extrêmement impressionnants,
très fidèles.
Donc voilà, une personne va dans l'IRM, regarde une photo de bus,
et l'IRM et ensuite l'algorithme est capable, à partir de ces données-là,
de recréer la photo de bus sans jamais avoir vu cette photo de bus,
seulement en ayant vu les données de cerveau.
Et donc ça...
Là, on commence à rentrer dans la science-fiction parce que...
Voilà.
Ce que t'expliques avant, sur toute cette recherche-là,
c'est corréler des activités à des zones du cerveau.
En gros, c'est arriver à déduire potentiellement le type d'action qui est en cours, c'est ça ?
Tout à fait.
Et même le stimuler, même ce que la personne a eu comme perception.
Donc s'il faut se dire, c'est que quand on regarde, par exemple, un visage,
il y a certaines zones de nos cerveaux qui s'activent plus que d'autres.
Même dans les zones visuelles.
Et quand tu regardes pas un visage, mais par exemple un paysage,
ça va être les zones visuelles, mais d'une manière un peu différente.
Et c'est pas si tu donnes assez de données à un algo avec ces correspondances-là,
il va être capable d'apprendre que quand tu regardes un visage, c'est plutôt ça qui s'active,
quand tu regardes un paysage, c'est plutôt ça qui s'active.
Et si tu donnes assez, bon, d'un moment, il arrive à faire,
à joindre un peu les deux bouts et à comprendre que...
Qui est déjà stylé.
Ouais, ce qui est déjà vraiment intéressant.
Mais là, on passe un cap fou furieux,
où on rentre dans la science-fiction, quasi.
Ouais, un petit peu.
Pour vous, vous êtes peut-être un peu habitués.
En fait, c'est notre travail, tu vois.
Nous, notre travail en tant qu'artiste qui utilise des nouvelles technologies,
c'est de réussir à parler au grand public, par l'art,
et d'essayer de le rapporter ça, tu vois.
Et donc nous, quand on tombe sur cet article du MIT,
en fait, on se dit, c'est ouf, parce que c'est un domaine de recherche
que personne ne connaît, qui va avoir des applications dans les prochaines années.
Et donc, nous, notre travail d'artiste-chercheur,
c'est de pouvoir prendre cet truc-là,
de voir si ça fonctionne et de la porter au grand public.
Pour préciser, quand tu dis, vous voir si ça fonctionne,
c'est essayer de reproduire, littéralement, l'expérience.
C'est ça, c'est la base de la science.
Et donc, en fait, quand tu reproduis l'expérience,
pour nous, c'était déjà tout un travail de reproduire l'expérience.
On a réussi à le faire, donc, sur un certain jeu de données.
On est allés travailler avec un hôpital, un lit.
On va raconter dans le détail, justement.
Avant de voir ça, pour comprendre l'expérience en elle-même,
c'est quoi concrètement ? Qu'est-ce que tu dois mettre en place ?
Concrètement. Qu'est-ce que c'est, les FM, Marie, par exemple ?
Ou les trucs comme ça ?
Alors, l'imagerie, l'IRMF, c'est les IRM fonctionnels,
plutôt que les IRM anatomiques.
Donc, je suis pas docteur en neurosciences, je suis docteur en machine learning,
donc voilà, je ne veux pas dire de conneries,
mais en gros, les IRM fonctionnels,
ça permet d'avoir des informations sur le cerveau,
vis-à-vis donc fonctionnel de ce qui se passe quand tu fais une action,
alors que anatomique, c'est plutôt pour regarder la tête du cerveau,
comme si on juste ont découpé la tête en deux et qu'on essaye de regarder,
alors que l'autre permet de savoir ce qui se passe dans le cerveau
quand on fait une chose.
Et donc, du coup, là, en l'occurrence, on est intéressé par les IRMF,
parce qu'on a besoin de savoir l'activité du cerveau
pendant qu'on est en train de regarder une image.
Donc déjà, ces IRMF, il faut en avoir accès.
Souvent, c'est dans la recherche, il n'y en a pas vraiment beaucoup, etc.
Donc on a fini par trouver un contact qui nous a aidés
à pouvoir faire gratuitement différentes heures d'IRMF
dans un hôpital à des heures après que les patients soient passés,
pour ne pas aussi déranger.
C'était un peu des heures d'IRM un peu...
Schedchi, oui, c'est un peu bizarre.
Schedchi sous le manteau, tu vois.
Donc voilà, ça, c'était assez marrant.
Et du coup, là, on prenait comme co-buying nous,
parce que toute l'idée, c'est aussi de voir ce qui se passe dans nos têtes
en tant qu'artiste quand on visualise ou on imagine des images,
c'est en l'irbère d'un prix.
Et donc, du coup, c'est Gauthier qui a commencé,
puis après Pierre après la suite,
mais là, du coup, il va faire son IRM
comme si tu faisais un IRM de la cheville, du genou, etc.
Sauf que c'est un IRM du cerveau.
Donc ta tête est écrasée dans un truc
où tu ne dois absolument pas bouger.
Dès que tu bouges, ça...
Casse les données.
Casse toutes les données.
Ah oui.
Ensuite, tu dois regarder une vidéo qui t'est montrée,
où on te montre les images pendant quelques secondes,
puis après, on te met un repos pour reposer le cerveau, entre guillemets.
Et en fait, on fait ça pendant le plus longtemps
que le sujet est d'accord.
Parce que c'est vraiment une torture comme truc.
Rester dans un IRM qui fait énormément de bruit
pendant beaucoup de temps, c'est horrible.
Du coup, tu l'as fait.
Moi, j'ai 10 heures de vol.
10 heures de vol dans la machine.
Et ouais, c'est très particulier.
Moi, ça va, je suis pas trop sensible à la cholostrophobie.
Mais ouais, comme disais Hugo,
tu vois dans les images, là, tu as un arceau.
Ça fait énormément de bruit.
En plus de ça, quand tu rentres chez toi,
on a appelé ça, tu t'es fait magnétiser.
Mais en fait, t'es un peu comme le mâle de mer, tu vois.
Donc ça passe après une nuit,
mais le soir, quand tu rentres chez toi, tu tangues.
Tu vas arrêter vraiment.
C'est pas dangereux.
Il n'y a aucun problème de santé.
Mais par contre, t'as le mâle de mer chez toi en rentrant.
Et du coup, on est d'accord que le protocole que vous décrivez,
voir une vidéo, attendre que le cerveau se repose, etc.
Ça, c'est ce qui a été documenté par les chercheurs.
C'est le protocole défini par les expériences
qui ont été utilisées dans le papier.
Sans le fonctionner, quoi.
Sur le papier, ça fonctionne.
Mais j'imagine que vous, au moment où vous reproduisez le truc,
il y a quand même ce mystère de est-ce que ça va vraiment marcher.
Et en plus, ce qui est difficile,
on l'a entendue un peu dans le détail,
mais reproduire des expériences d'IRM parfaitement,
c'est plus ou moins impossible.
D'après tous les ingénieurs de recherche avec qui on a bossé,
parce que les machines ont toutes des spécificités différentes
et il y a d'histoires de signal, de bruit, etc.
de calibrage qui font que c'est très difficile de faire les mêmes expériences.
Donc on avait aussi un peu ce flip de,
« Bah ouais, tu fais 5 heures d'IRM et en fait t'es donné,
à la fin, c'est du bruit et tu peux rien faire avec ».
Donc on était déjà très contents
quand on a récupéré toutes ces données,
ensuite tu les mets sur un disque dur,
tu la récupères, t'entraînes ton algorithme de machine learning.
Et ensuite, tu regardes ce qui se passe,
est-ce qu'on arrive à décoder les images qu'il a vues ?
C'est la première part que ça fonctionne bien.
Du coup, juste pour préciser,
les images que toi, tu vois quand t'es dans l'IRM, c'est quoi ?
Tu regardes des vidéos.
Là, on repasse dans la partie un peu artistique,
donc il faut qu'on choisisse un sujet.
C'est la mignonne des...
Non, mais justement, on doit choisir un sujet,
et comme nous, en gros,
on prépare notre prochaine série avec ça.
Tu vas y en se dire qu'est-ce qui pourrait être intéressant de faire.
Et en fait, très vite, on est tombé sur le surréalisme,
qu'il y a un mouvement qui a pour objectif
d'essayer d'esprimer le plus directement possible
les vues mentales des artistes.
Et donc, en fait, ça avait grave du sens
de regarder du surréalisme dans l'IRM
pour essayer de produire du surréalisme à l'extérieur,
tu vois. Et donc c'est pour ça qu'on a réduit le sujet
à faire que du surréalisme,
que ce soit du surréalisme dans les portraits
ou dans les paysages.
Et donc, tu as mangé 10 heures de portraits
surréalistes.
Ouais.
C'est beau quand même.
Non, mais...
Connais le mouvement.
Non, mais c'est un moment de certaine implication.
En vrai, on est...
C'est ce que tu obtiens à la fin.
C'est 10 heures-là de...
J'allais dire de rush comme si c'était de la vidéo.
C'est un well, un petit peu.
En gros, c'est un peu ça.
Donc, tu reçois ça.
Qu'est-ce que t'en fais ?
Alors, là, ce qui est cool, c'est que,
donc du coup, le papier Mind High,
en l'occurrence dont on parlait
qui est sorti l'année dernière,
ont publié tout leur code en open source.
C'est d'ailleurs une organisation qui est très cool,
qui s'appelle MEDARC,
qui fait énormément de boulot en open source.
Même, ils recrutent leur jour en open source.
Il y a un discord où il y a tout leur travail.
Et du coup, en fait, tous leurs algos,
donc les algos qui permettent de faire la partie,
t'as les données,
et ensuite,
l'algorithme regarde les images et les données,
essaye de faire les correspondances entre les deux,
pour qu'ensuite, tu lui donnes des nouvelles données
dont il n'a pas vu l'image et fait l'image.
Donc, on est reparti de cette emplémentation-là.
Il y a quelques modifications à faire,
parce que, bon, voilà,
c'est un truc plus ou moins technique.
Tu dois changer de trois trucs sur ton modèle,
parce que ce n'est pas la même forme de cerveau,
ce n'est pas le même masque.
Et après, tu entraînes ton algoritme.
C'est souvent des algourt un peu lourds,
c'est à peu près un milliard de paramètres.
Et donc, du coup, tu dois l'entraîner
sur un très gros GPU,
souvent des A100,
donc des trucs qui ont 80 gigatres de VRAM.
Et là, en l'occurrence...
Voilà, c'est ça.
Et donc, en l'occurrence,
on travaille, par exemple, sur Genz,
qui est le supercalculateur français
que beaucoup de chercheurs utilisent en France.
Comment on accède à ça ?
Et on accède à ça quand on fait de la recherche
Open Source, par exemple.
Ou, en l'occurrence, on se travaille avec la Sorbonne.
Et donc, en part le laboratoire de recherche,
on a un accès à Genz.
Et c'est un accès open à Genz,
c'est une parenthèse, mais c'est très, très cool.
Et...
Big up à Genz.
Gros big up à Genz.
On peut pas travailler sans euro, ouais.
Ouais, c'est clair.
Et du coup, une fois que tu as entraîné ton algorithme,
tu as ton modèle qui est entraîné,
qui s'est dans le moment décodé le cerveau
et voir les images que tu as vues.
Théoriquement, c'est un modèle un peu de...
des mêmes ordres de grandeur que des modèles de langage actuellement.
Un petit, quoi on va dire.
Mais sauf que là, en entrée,
il prend pas du texte,
il prend ce qui sort d'un NIRM.
C'est ça ?
C'est un nom, ça ?
Le signal-bold.
C'est le signal-bold pour Blood Level, Oxygen, Dependency,
ou quelque chose comme ça.
Et donc toi, tu veux que ça prenne ça en input ?
Ouais, et qu'en sortie, ça te crée une image en gros.
Exactement.
Donc du coup, il y a un générateur d'images dans le modèle,
par exemple, parce que voilà,
pour passer de ces données qui sont...
Quand elles sont brutes, c'est des données vectorielles.
Donc c'est quand en gros, c'est une liste de nombres, tu vois.
Et donc tu as ta liste de nombres,
il y a plein d'opérations qui sont faites,
c'est mappé dans certains espaces, etc.
Et ensuite, c'est redéployé en une image
via un générateur type stable diffusion, par exemple.
Moi, ce qui me fume, c'est que...
Sur le papier, tu vois, la théorie, elle n'est pas si complexe.
Ça peut penser que tu es en mode,
ok, il y a ce truc au milieu, comme tu dis,
il y a des...
Tu vois conceptuellement,
des marques qui mettent comme baches.
Des marques qui mettent vectorielles
ou des trucs comme ça, je ne sais pas trop
exactement dans la implementation comment ça marche.
Mais c'est fou que ça marche, en fait.
C'est juste un très gros modèle,
avec beaucoup de paramètres, et ça marche.
Et en fait, ce qui est fou, c'est que ça marche,
mais j'ai l'impression que quand même,
pour les personnes qui travaillent en euro-sciences,
c'est pas une grande surprise.
Parce que finalement, ils ont quand même une...
Il y a une compréhension sur ce qui est possible de...
Enfin, de ce qui se passe dans le cerveau,
qui paraît vraiment logique qu'on puisse faire ce genre de tâches, tu vois.
Le fait de comprendre que le cerveau s'active d'une manière unique,
quand tu regardes une image unique,
c'est un truc un peu accepté en euro-sciences.
Théoriquement, c'est accepté.
Oui, j'imagine que le fait de réussir,
pratiquement, c'est...
Est-ce que vous, dans l'écosystème universitaire scientifique,
vous avez eu des retours un peu ?
Est-ce que les gens sont quand même hallucinés ?
Ils ont quand même ressenti une certain excitation
vis-à-vis de ce travail-là.
Il y a beaucoup plus du côté des euro-sciences
que du machine learning, d'ailleurs.
Ce que je veux dire, c'est les gens qui...
On voulait se joindre au projet, qui sont vraiment détères,
c'est les gens du...
des euro-sciences.
Là où dans machine learning, c'est juste une...
Une des nouvelles nombreuses applications.
Pour eux, dans les euro-sciences, tu boules vers un...
Je pense que ce qui est surtout très différent,
et je pense que c'est intéressant pour les gens qui suivent ce podcast,
c'est que, en fait, nous, on ressent la même type de hype
qu'il y avait en 2018 autour des hiagénératives d'image.
C'est-à-dire une petite hype, mais dans une communauté fermée
qui se dit qu'il y a énormément de choses à faire,
mais qui n'a pas touché un cercle plus large.
Alors que tu vois, 5 ans après,
une fois que le truc s'est développé,
tout le monde est dessus, parce que c'est vraiment incroyable et tout.
On en ressent le même truc pour ce genre de technologie,
parce qu'au moment où ça marchera un peu mieux,
que tu n'iras pas dans l'Irm, mais que tu mettrais un casque EG,
et que ce sera beaucoup plus accessible,
c'est ultra impressionnant.
Apple, là récemment, ils ont développé un brevet
pour essayer de commencer à capter des ondes du cerveau
par l'Airpod.
Donc en fait, t'es l'ailleurs, c'est l'Irm, c'est très haut.
En dessous, c'est les casques EG,
donc c'est les casques du futur avec plein d'électrodes sur la tête.
Mais le jour où, en fait, tu peux penser,
pause, play sur tes AirPods,
bah en fait, t'as gagné, parce que le signal,
il est beaucoup plus facile que le signal imaginer une image.
Donc c'est imaginable que dans un futur moyen proche,
de six petites actions,
pause, play, next, volume plus haut,
t'es juste à les penser.
Parce que là, comme tu le dis,
l'action génère l'image qui est correspond à ce cerveau,
elle est super difficile.
C'est le plus dur.
À partir du moment où tu réduis complètement le choix...
À être discret, une action discrète, oui ou non.
En fait, peut-être que l'Airpod, il aura des capteurs assez sensibles
pour pouvoir détecter ça, mais il n'arrivera jamais à détecter
la zone occipitale qui s'allume, en tant que l'autre, tu vois.
On espère que pour l'instant, un peu,
on ne peut pas encore lire les pensées pour te classer
des publicités dans ton environnement.
Ouais, voilà, par exemple.
En fait, oui, nous, après, la volonté derrière ce projet,
c'est important de le dire aussi rapidement,
c'est qu'on n'est pas forcément pro ou anti,
simplement de notre travail, on essaie de montrer
ce qui arrive dans le monde de la recherche de manière artistique
pour pouvoir ouvrir le débat sur cette technologie
et que les gens puissent être au courant de ça
et que notamment, il y a beaucoup de dérives qui peuvent arriver
et que c'est aussi une manière de les prévenir.
De mieux les comprendre, ça, c'est une évidence.
Là, est-ce que...
On a toujours la première étape.
On a toujours la première étape.
Est-ce qu'on a des résultats ? On peut voir des choses ?
Ou c'est encore...
Là, je... C'est ça.
Ça, ça, par exemple, ça fait partie des résultats qu'on a vus
sur la première partie.
Moi, justement, j'ai fait exprès, je me suis pas spoilé,
je n'ai rien vu.
Donc ça, c'est vraiment la partie, les images sont vues
et ensuite, les images qui sont en bas, c'est les images qui sont reconstruites.
Donc du coup, là, les premiers tests qu'on a fait,
c'était plutôt sur des portraits classiques,
des paysages classiques, donc c'est pour ça qu'il y a pas de show réaliste.
On n'avait pas choisi le choix de la série.
On était dans la réplication des résultats.
C'est sur la partie d'après qu'on a fait le show réaliste.
Et ça marche bien, quand même.
De fait, c'est pas faux, t'es au réaliste, évidemment,
mais quand tu commences à...
Tu t'arrêtes un peu sur la détail et tout.
Ce qui est intéressant de voir, c'est les âges,
c'est mentiquement parlant, voilà, tu vois.
C'est mentiquement parlant, sur l'image de droite,
il y a un bateau et l'image reconstruite, il y a aussi un bateau.
Donc du coup, ça a l'air de bien fonctionner.
C'est vraiment superbe.
Il y a des éléments, quoi.
C'est que le début, c'est-à-dire que vous ne vous doutez même pas
dans ce qui suit après.
Mais juste encore là-dessus,
est-ce que vous savez ce qui...
Est-ce que vous savez ce qui bloque, entre guillemets,
pour passer les tapes encore d'après, pour relire l'image ?
Est-ce que c'est...
Parce qu'il y a...
J'imagine qu'il y a un encodeur,
en gros, il y a ce qui récupère l'input de l'IRM.
Et après, il y a la partie stable diffusion.
Est-ce que vous pensez qu'actuellement,
c'est plutôt ce modèle de côté IRM
qui peut limiter la compréhension
ou c'est stable diffusion ?
Non, en vrai, ce qui merde, c'est les données.
C'est qu'en vrai, les IRM,
même si il y a eu énormément de progrès là-dessus,
la donnée, elle pourra.
C'est-à-dire que...
Je ne sais pas si t'avais vu récemment,
mais il y a le projet Ise,
qui a été annoncé,
où en gros, il y a une IRM de 11,7 d'Esla,
qui est une très, très grosse IRM.
En gros, une première mondiale
qui a montré des images de cerveau extrêmement précises.
Et il y a une course, en fait,
dans le milieu des IRM pour essayer de faire des plus grosses IRM
pour avoir plus de précision
sur qu'est-ce qu'on voit dans le cerveau.
Et le gros problème aujourd'hui,
c'est que si on pouvait voir réellement
ce qu'il y avait dans le cerveau,
normalement avec les outils d'aujourd'hui,
on pourrait faire des trucs extrêmement précis.
Et le problème, c'est que c'est une méthode non-invasive,
donc on ne rentre pas dans le cerveau,
c'est pas neuralink, par exemple.
Et donc du coup, la donnée qu'on a est très brûlée.
Et c'est ici que tu as l'information.
Après, la pipeline d'après,
elle est relativement...
Il n'y a pas vraiment de problèmes dedans, tu vois.
Oui, mais c'est intéressant.
Le problème, c'est...
il faut passer 10 heures dans une IRM, tu vois.
Donc en termes éthiques
et en termes de rapidité de la recherche,
nous, on a de la chance, on s'en fout.
Donc c'est nous, les sujets.
Tu vois, donc...
Mais par exemple, si c'est toi,
je ne peux pas te faire passer 7 heures
dans une IRM à te torturer, tu vois.
Donc en fait, tu as tous les processus.
Ça limite la quantité de données
et on sait que c'est l'hélinière de la hier, à chaque fois.
Oui, ça aussi.
On avait des modèles avec 60 heures.
Je faudrais que ce soit précis et beaucoup de données.
Tu vois, si on avait des modèles avec 60 heures de IRM,
en fait, on pourrait réussir à mieux fonctionner.
Mais c'est pour ça que c'est un peu les next steps, quand même.
Non, et puis ce qui serait aussi cool,
c'est d'avoir des jeux de données
avec des méthodes invasives aussi,
pour voir ce qui se passe, donc notamment,
des trucs comme Neuralink,
où qu'ils ont accès directement au signal électrique
dans le cerveau, serait extrêmement plus précis.
Là, ce qu'il faut comprendre, les IRM fonctionnels,
c'est qu'elles regardent...
Dans le cerveau, elles ne regardent pas
l'activité du cerveau, elles regardent un proxy
de l'activité du cerveau, c'est-à-dire qu'en gros,
elles regardent...
En fait, quand certaines zones du cerveau s'activent,
il y a beaucoup d'oxygène qui se remplit
à ces 30 droits-là, tu vois.
Et du coup, c'est ça que ça regarde.
Et c'est juste une sorte d'auxiliaire
de ce qui se passe vraiment dans le cerveau.
Donc, c'est bruité, c'est pas top.
Ok, donc en fait, tu regardes
une variable corrélée,
Exact.
Qui n'est pas vraiment ce qui t'intéresse.
Et donc, il y a plein de problèmes avec ça.
Ok.
Vous, vous vous arrivez à...
Là, on peut dire que l'expérience est reproduite quand même.
Tout à fait, on est contents.
À partir de là, qu'est-ce que vous vous dites ?
Donc là, ce qu'on se dit, c'est que
ok, c'est sympa de faire ça,
mais nous, en fait, on est aussi des artistes.
Et donc, recréer des images qu'on voit,
bah ça n'a pas d'intérêt artistiquement.
On est tous d'accord là-dessus.
En tout cas, l'intérêt est très limité.
Et donc, ce qu'on se dit, c'est que le rêve,
ce serait de pouvoir faire le même procédé,
mais pas avec des images qu'on regarde,
mais des images qu'on imagine, donc des nouvelles images.
Et donc, on a un peu l'idée folle de se dire
est-ce qu'on ne pourrait pas faire ça,
ou est-ce qu'on ne pourrait pas pousser cette recherche
et essayer de amener notre contribution là-dessus
et d'essayer d'avoir des résultats
significativement mieux que la chance,
donc des résultats intéressants
sur ce problème de l'imagination.
Tu vois, et là, ce qui est vraiment dur,
c'est qu'il faut inventer un protocole.
C'est-à-dire que dans l'état précédent,
en fait, tu répliques de la science.
Donc tu te dis, bon bah vas-y,
on va essayer de répliquer.
Donc, en fait, c'est qu'une histoire de trouver les moyens,
d'avoir la compétence technique
et d'avoir les gens qui t'entourent.
Même si c'est déjà galère, quand même.
Oui, tu vois ce que je veux dire ?
T'as pas d'invention de protocole scientifique.
Et là, dans la deuxième étape,
tu dois travailler avec les chercheurs
en neurosciences et en machine learning
pour réussir à inventer un nouveau protocole.
Mais t'as 90% de chance pour que ce soit d'importe quoi, tu vois.
Oui, tu testes quoi.
Et donc là, on a la chance quand même
d'avoir travaillé avec des neuroradiologues
qui, eux, savent aussi ce qui se passe dans les cerveaux
et donc ils peuvent nous aider.
On est très bons sur la partie IA, moins sur la partie neurosciences.
Et donc, du coup, ça a été une recherche complémentaire avec eux,
notamment avec Charles Melériot,
qui est un neuroradiologue assez connu, etc.
Et donc, on a eu l'idée.
L'idée principale, c'est de découper un peu le problème
en deux parties.
Comme vous l'a dit, les algorithmes, ils partent
d'activités de cerveau et d'images
et font des correspondances entre les deux.
Sauf que quand tu t'imagines une image totalement nouvelle,
cette image, elle existe que dans ton cerveau.
Tu ne l'as pas sur ton entier.
Donc, tu ne peux pas entraîner ton modèle là-dessus.
Donc, il faut trouver un trix pour sortir de ce problème-là.
Et donc, le trix, ça a été de se dire,
ok, on va faire deux parties.
On va faire une partie qu'on a appelée imagination faible,
qui va, elle, être basée plutôt sur la mémoire.
Donc, imagine-toi une photo que tu as déjà vu.
Par exemple, imagine le visage de ta mère,
qui arrive plus ou moins bien,
et on a la photo de ta mère.
Donc, du coup, c'est pas mal.
Et ensuite...
Comment...
Donc, ça, c'est la première partie, imagination faible.
Et après, il y a une partie imagination forte
dans laquelle on s'imagine une image totalement nouvelle.
Et là, on essaie d'entraîner l'algorithme sur la première partie
pour essayer d'espérer qu'il généralise sur la deuxième partie.
Parce que sur la deuxième partie,
t'as les activités cérébrales, mais t'as pas l'image associée,
mais t'as les activités cérébrales,
donc tu peux le donner à ton modèle.
En fait, tu fais en Paris.
Tu fais en Paris, exactement.
Tu fais en Paris que ça va généraliser.
Dans ton cerveau, le concept de te souvenir
d'une image que t'as déjà vue est très proche.
Voilà.
D'imaginer une nouvelle image.
Et c'est pas tant en Paris que ça.
Parce que justement, le trick,
c'est que ce que nous ont dit tous les chercheurs en neurosciences,
c'est qu'en fait, quand tu imagines,
tu utilises les canaux de la vision.
Et donc c'est ça, l'input, c'est de se dire,
en fait, on va pouvoir utiliser les canaux de la vision
pour décoder l'imagination.
Et donc tu utilises les canaux de la vision
et aussi deux, trois autres parties.
Et on a fait une étude dans notre papier
qui montre que quand tu regardes des images,
et ce qu'il ne signifie pas une étude nouvelle,
mais qu'une étude où on montre que quand tu regardes des images,
il y a certaines zones qui s'activent.
Quand tu t'imagines une image, à partir de la mémoire,
c'est à peu près les mêmes zones et d'autres zones.
Et ensuite, quand tu t'imagines à partir purement
une nouvelle image, c'est les mêmes zones
et encore un peu d'autres zones, mais il y a de l'overlap
et c'est pas clair, etc.
Donc tu peux faire ce pari, ça paraît assez raisonnable.
Donc il y a probablement une activité commune
et en même temps des spécificités aux deux activités.
C'est hyper intéressant.
Et donc là, à partir de là, vous êtes en mode OK GO.
Let's go. On prend la donnée.
On commence par l'imagination faible, du coup.
Et donc là, le processus...
C'est là où il s'est tapé les 10h d'IRM de S'Oréalisme.
Donc là, le processus, c'était dans l'IRM,
au lieu d'avoir que des images qui défile.
Là, tu as une image qui t'est blipée.
Moi, j'ai regardé les images,
mais là, elle m'a montré un quart de secondes.
En fait, paf.
0 ou 1 seconde.
Et après, on le laisse longtemps imaginer.
Donc là, pendant 5-10 secondes, je suis dans ma tête
et j'essaye de réconstituer le plus possible
l'image que j'ai vu.
Et donc là, c'est les résultats que vous voyez là.
C'est-à-dire que l'image qui m'a été blipée, elle est en haut.
Et l'image que l'algorithme, il a réconstruit
par rapport au moment où j'étais en train de me rappeler
de cette image et de la reconstruire mentalement, c'est en bas.
Déjà, ça, c'est cool.
Déjà, c'est cool.
Ça veut dire que t'es passé de...
Je ne sais pas combien de secondes c'était avant.
Avant, on prenait les activations de cerveau.
Quand il regardait l'image tout le temps, on continue.
Et là, l'idée, c'est de...
Il la regardait 0 une seconde.
En fait, dans une seconde, t'as à peine le temps de la voir.
Juste, tu t'en rappelles, tu fais, ah oui, je sais que c'est le type,
parce que dans nos protocoles, on la monte 3 secondes avant.
Ensuite, on attend un peu.
Ensuite, on la monte 0 une seconde.
Et là, il s'en rappelle parce qu'il l'a vu 3 secondes avant.
Ok, ok. Et donc le but, c'est de simuler au max,
ce côté le plus proche possible.
Et on ne peut pas simplement...
Et on ne peut pas simplement ne pas la montrer aussi 0 une seconde,
parce que comme tu dois le faire sur des milliers d'images,
il ne peut pas se rappeler de milliers d'images,
juste avec un Q de...
Tu te rappelles cette image ? Ah non.
Non, mais c'est hyper marrant de voir la réponse protocolaire.
Ouais, c'est...
Ah, ce problème !
C'est assez random entre milliers.
Mais bon, ça a été l'idée qu'on a...
C'est nos idées, c'est les inventions qu'on a en discutant.
Et tu peux certainement faire mieux et tout, mais c'est un premier pas, quoi.
Et de fait, il semble que ça donne des résultats.
Et ça fonctionne quand même, ça donne des résultats,
meilleurs que la chance.
Et voilà, il y a des moments où ça foit,
il y a des moments où ça marche très bien.
Mais globalement, ensuite, il y a plein de différentes métriques
qui sont utilisées dans ce domaine de recherche.
On a appliqué les mêmes métriques,
on a vu qu'on avait des résultats mieux que la chance,
c'est intéressant, là, tout.
Donc, publiable, entre guillemets,
enfin, tout ce qu'on va essayer de faire.
C'est ça qu'il faut préciser, c'est que tu vois,
dans notre optique, c'est qu'il y a une volonté
de faire une série artistique qui sortira bientôt,
mais il y a aussi une volonté de sortir un papier scientifique.
Tu vois, et donc...
De même temps, oui.
Tout ce qu'on fait, il est...
Enfin, c'est de la science aussi.
Tu vois, ce que je veux dire,
c'est pas que de l'expérimentation fumeuse.
L'idée, c'est que dans les faits,
vous reproduisez une nouveauté par rapport au papier d'origine.
Et donc, on a fait un peu de recherche.
Il les dispose sur archive,
comme n'importe quel chercheur en machine learning,
on a fait notre papier,
et là, on le soumet à différentes conférences.
Moi, on n'a pas vu le résultat, quand même.
Donc, la 3e étape.
Ah oui, voilà.
La 3e étape, c'est...
On a plus besoin d'Ublip,
c'est là qu'est-ce qu'on me donne, tu vois.
Et là, on s'est dit, bah...
En fait, ce qu'on va faire,
c'est qu'on va diviser en deux parties,
on va faire une partie où juste on me dit,
pensez à une image qui te fait penser à cet...
à cet...
comment dirais-je, sentiment.
Donc, pensez à une image qui te fait penser à l'amour.
Donc là, je pense à ma femme.
Pensez à une image qui te fait penser à la colère.
Donc là, je pense à un volcan, tu vois.
Et donc là, après, on regarde,
et en fait, dans l'IRM,
pour pouvoir avoir ce témoin,
je dis, là, je pense à ma femme, tu vois.
Pour qu'on ait au moins un espèce de témoin
qui puisse nous valider ou pas,
ce genre de choses, tu vois.
Et donc là, ce qui a fonctionné,
c'est le fait que, en gros,
ça s'est détecté.
Quand je pense à un paysage, c'est un paysage.
Quand je pense à un portrait, c'est un portrait.
Salut !
Si vous appréciez Endorscore,
vous pouvez nous aider de ouf !
En mettant 5 étoiles sur Apple Podcast,
en mettant une idée d'invité
que vous aimeriez qu'on reçoive,
ça permet de faire remonter Endorscore.
Voilà.
Telle une fusée.
Mais est-ce que, du coup,
il y a une étape d'entraînement
où l'opérateur en question
doit d'abord filtrer,
en gros, les données, dire,
ah bah là, non, ça n'était pas ta femme,
tu vois, c'était autre chose.
Non, non, d'accord.
Donc, en fait, d'entraînement de jeu,
la généralisation a marché.
C'est ça.
Il y a eu, en gros,
on a créé une sorte de métrique
pour essayer de voir si ça a marché.
Notamment, on a un peu résumé
notre problème à portrait et paysage.
Et après, on lui a dit, en gros,
vraiment simplifier,
imaginer un portrait ou imaginer un paysage.
Et à partir de ça, on le donne à l'algorithme.
Et on voit si,
quand il a pensé à un portrait,
ça fait un portrait,
quand il a pensé à un paysage,
ça fait un paysage.
Et 9 fois sur 10, c'est le cas, tu vois.
Donc, du coup, rien que pour ça, on se sait,
bon, mais il y a une information
qui s'est généralisée et qui a fonctionné, tu vois.
Et le petit schéma récapitulatif
pour que vous ayez bien suivi.
Voilà.
Voilà, donc ça, ça, par exemple, c'est...
Donc, quand on voit sur l'image de gauche,
on l'a dit, imagine un portrait
qui te représente l'optimisme.
Et ce qui est sorti,
c'est une femme qui sourit, par exemple.
Ensuite, c'est le qui est juste à droite,
c'est imaginer un paysage
qui te représente aussi l'optimisme.
Et là, il a pensé à un arbre et ça a sorti un arbre, tu vois.
Donc, pour te dire, moi, ce que je pense au moment
où j'ai ce truc-là dans l'IRM,
je pense à une petite fille qui sourit, tu vois.
Je la pense pas aussi sur réaliste,
aussi maquillée, etc.
Mais en tout cas, l'élément sémantique de base
qui est je veux une fille qui sourit,
est là, tu vois.
Donc, c'est déjà une dingue y.
Et pareil sur l'arbre.
C'est incroyable, franchement, c'est incroyable.
C'est de la...
C'est de la vagin noire.
C'est vraiment une vagin noire, ouais.
Étreur de cette sensation.
Parce que quelqu'un qui arrive là, peut avoir même l'impression
que c'est un prompt.
C'est que...
Ouais, c'est ça.
Mais en fait, ouais, c'est difficile d'expliquer même de dire...
Ouais, non, en fait, c'est vraiment juste, il l'a imaginé.
Et ça paraît tellement aberrant, en fait.
Il l'a imaginé et c'est apparu.
Ouais, après, c'est...
C'est d'abord, oui.
Après, un processus bien painful de...
Aller dans l'IRM, prendre la go.
Une fois, elle n'était pas comme ça, exactement, dans ma tête,
tu vois ce que je veux dire.
Mais, l'occurrence, les éléments sémantiques sont là.
Et en fait, c'est ce que tu cherches à prouver.
Et après, pour l'art, on fera notre cherry picking
et on fera ce qu'on a fait après.
C'est-à-dire, ce qu'on a fait après, c'est-à-dire,
à partir de cette...
Le papier scientifique, il s'arrête là, tu vois.
Et après, on se dit, bon, vas-y, comment est-ce qu'on va pouvoir apporter ça
aux gens.
Et donc là, on repasse dans la partie artistique
de comment est-ce qu'on va pouvoir utiliser, finalement,
les out-puts de notre science pour faire de l'art.
Et donc là, on a poussé le truc en se disant, bon,
on va faire ce qu'on appelle de l'écriture automatique,
qui est en fait un des principaux exercices
des surréalistes.
Donc c'est, je me mets devant une feuille, je laisse
couler ma plume jusqu'à ce que
des phrases intéressantes en sortent, tu vois.
Donc là, on me donne...
J'écris un truc sur la colère et un volcan,
je sais plus trop ce que j'écris,
c'est assez fumeux.
Et en fait, là, je re-rends dans l'IRM,
on me donne ce que j'ai écrit
et on me dit maintenant, imagine une image
associée à ça, tu vois.
Et en fait, il y avait clairement, à ce moment-là,
donc un prompt avec plus ou moins
pense à la colère,
pense à un truc autour de la haine
et etc. Et j'ai pensé à un volcan,
tu vois. Et ça nous donne l'image
qui est finalement celle-ci, tu vois.
Qui est...
Qui est la première oeuvre issue
de tout ce processus-là qui a pris un an, etc.
Donc on est très content d'avoir
créé cette petite image de manière
totalement bizarre, mais c'est un peu le résultat,
tu vois. C'est clair que si...
Il faut le contexte, en gros.
Dans le contexte, en vrai,
tout est dans le contexte et c'est ça qui est un peu...
C'est pour ça qu'on dit qu'on fait de l'art
conceptuel aussi. C'est que, bah voilà,
ce qui est intéressant, c'est d'avoir toute l'histoire derrière,
de comprendre quelle est la démarche
et peut-être que ça devient intéressant.
On ne fait pas seulement de l'art pour le visuel, quoi.
C'est ça. Et justement, pour qu'on
capte un peu à quel point...
Tu vois, ça regarde.
Bah, non. Ok, oui. Ça, c'est ce que je crée, tu vois.
Ça, c'est la phrase...
qui lance l'imagination.
Exactement.
Pour qu'on voit aussi, c'est quoi les limites du truc.
Il y a peut-être un point,
ce genre de...
Déjà, si on rêve un petit peu un truc,
on a commencé à le faire, mais c'est quoi les perspectives,
les évolutions. Et en même temps,
c'est quoi, actuellement, les limites entre-as-secs.
Déjà, qu'est-ce qui limite l'expérience ?
Là, vous l'avez dit. Ça peut pas être fait
sur quelqu'un qui consompe pas
l'expérience, par exemple.
La principale limite, c'est un mec, un modèle.
Ça n'a pas de modèle généralisé.
C'est-à-dire que demain, tu veux le faire,
il faut que toi aussi, tu passes 12 heures dans l'IRM.
Tu vois ce que je veux dire ?
Ça, ça a des limites fondamentales.
Ça veut dire qu'en fait, tu peux pas généraliser l'approche.
Donc, en fait, la première chose pour moi,
c'est vraiment généraliser l'approche.
Il y a beaucoup de chercheurs qui travaillent, notamment, sur ce sujet-là.
Essayez de mettre une dizaine de personnes,
40 heures dans l'IRM.
Donc, on les fait souffrir eux.
Ensuite, on a une grosse base de données.
Et après, toi, tu peux faire que 1 heure dans l'IRM,
et on peut avoir les mêmes types de résultats.
Ça travaille beaucoup là-dessus, en ce moment.
Ça, c'est une limite fondamentale qui, pour l'instant, est assez difficile,
même si il y a un nouveau papier, la suite du papier de l'année dernière,
qui est sorti récemment et qui essaie de faire ça.
Ensuite, la grosse limite, c'est que l'IRM, c'est ultra cher.
Et surtout, ça sert à autre chose, les IRM.
Ça sert à résoudre des gens.
Un réseau de 20 problèmes extrêmement importants en médecine.
Et donc, c'est vraiment pas dispo.
Et les casques G, pour l'instant, ça ne marche pas très bien.
Donc, c'est des trucs dont vous parliez.
C'est des électrodes sur la tête, en gros.
Et donc, ça donne un signal beaucoup plus en temps réel.
Par contre, c'est encore plus bruité,
parce que c'est pas terrible, c'est cette technologie à ce défaut-là.
Et du coup, les méthodes invasives, pour l'instant,
éthiquement, c'est quand même pas terrible.
Il n'y a pas que des acteurs comme Neuralink qui sont dessus.
Et c'est quand même un sujet super sensible.
Donc, c'est un gros, gros frein.
Et après, à part ça, il n'y a pas forcément trop de limites,
je dirais, une fois que tu as fait lever ça, ça va.
Il faut avoir des gros ordi quand même, tu vois.
Mais bon, quand tu vois que les GPD sont capables de faire aujourd'hui,
à la fois facile, noeuf, frustrant, c'est qu'en gros,
on sait que la techno fonctionne,
mais tous les freins sont bien plus sur l'acquisition de données
que sur la techno en elle-même, ou la puissance de calcul.
Typiquement, le texte aux vidéos, si ce n'est pas méga-développé en ce moment,
c'est que le problème, c'est qu'il y a beaucoup moins de vidéos,
et de vidéos captionnées que d'images.
Et donc, ça, c'est un très gros problème.
Pour la raison pour laquelle on a des superbes images,
mais pas encore des superbes vidéos.
Ça, c'est la première limite, c'est la généralisation.
Deuxièmement, donc, la fiabilité des capteurs dont on a parlé,
la durée, il faut rester des dix heures.
On peut s'imaginer quand même que si on arrive à généraliser,
ou qu'il y a des capteurs qui s'améliorent, etc.,
ça pourrait, si on se projette en faisant perspective,
ce serait quoi, des applications possibles de la version d'en disant, etc.
Alors déjà, il y a énormément d'applications en médecine.
Donc, à la base, pourquoi ce domaine de recherche est très actif,
c'est qu'il y a plein de personnes par exemple qui sont dans le coma,
mais qui sont dans des états de conscience,
qui pourraient communiquer via cette méthode-là.
Ça, c'est vraiment fondamental.
Et en fait, il y a vraiment beaucoup de gens dans le coma,
plus qu'on croit, c'est un très gros problème.
Donc, ça, c'est une application évidente.
Et en médecine, on n'est pas médecin,
mais d'après ce qu'on a compris, il y a énormément d'applications.
Donc, ça, c'est vraiment celle qui est évidente.
Après, il y a des trucs un peu marrants, je sais pas,
c'est des trucs comme vérifier ce qu'il y a dans ton cerveau,
pour voir si tu l'as vraiment vu.
On a un truc au sein de la tête que ça peut servir.
Je veux dire la phrase, c'est un épisode de Black Mirror littéralement.
Ouais, et c'est où ils arrivent à remonter le temps
sur des images vues dans le passé.
C'est un témoin, ça fait valeur de preuve,
mais au fond, c'est sa parole qui fait valeur de preuve.
Tu vois, tu pourras avoir un truc de...
Est-ce que tu l'as vraiment vu ?
D'inglée.
Après, ce que vous avez dit, c'est que c'est la même chose
que l'imagination, si ça se trouve en termes de...
Ouais, ça se trouve, tu te le dirais.
Et tu vas duiller le détecteur de...
C'est sûr qu'on est full Black Mirror, mais tu as tout le côté aussi.
En fait, si tu restes vraiment dans l'artistique,
il y a plein d'artistes déjà qui n'ont pas forcément
les compétences de leur vision.
Entre qui met, moi, je peux avoir des idées de sculpture
sans être sculpteur et avoir les compétences, tu vois.
Donc, ça peut être aussi réussir à projeter les gens
dans mes images mentales.
Donc, ça, pour les artistes, c'est fou, tu vois.
Et après, tu as toutes les parties,
ou les gens qui ont juste, par exemple, des handicap
et qui peuvent pas peindre, qui peuvent pas s'exprimer,
qui peuvent pas chanter, etc.
En fait, ils peuvent passer par ce genre d'interface
cerveau-machine pour vraiment s'exprimer.
Et puis après, je pense que, mais quand même,
si on prend un peu de recul,
le plus important, ça reste le fait que,
en gros, globalement, ça dit que tu peux faire
l'opération lire dans ton cerveau via un outil,
et que ensuite, tu peux utiliser cette donnée,
il a donné à d'autres gens, donc c'est un outil de communication.
Et donc, en fait, voilà...
C'est une interface, c'est une interface à une machine
où on utilise...
On peut lire.
Oui, c'est ça, on y crie, on peut lire.
Ou on utilise une bande passante différente aussi,
parce qu'aujourd'hui, en fait, quand on a réfléchi
en... si on prend le cerveau comme un système
ferbé, en input, on a une...
une des capacités complètement dingues
en termes de ce qu'on peut ferbé.
Et en fait, en sortie, on peut taper
sur un clavier, on va sans mot,
faire...
On peut parler pas très vite.
Et là, on parle que d'image, tu vois, sur notre travail,
mais il y a des gens qui font ça dans l'audio.
Donc, en fait, tu vois,
et dans l'écrit, c'est évident, tu vas pouvoir écrire
sur ton portable en y pensant.
Ça paraît une application directe, tu vois.
C'est plus ça quand même la plus grosse application,
je veux dire.
Tu vas pouvoir contrôler la souris de ton...
de ton téléphone, de ton ordi
avec juste...
Tac, tac, tac, tac, tac.
En fait, tu rédites le...
C'est la démo de Nora Link, qui a fait pas mal de bruit
récemment, ouais.
Et après, tu as...
Et comme c'est invasive, ça fonctionne très, très bien pour eux.
Et le gars, il a l'air de...
Ouais, c'est... ouais.
De vivre une nouvelle vie, quoi.
C'est complètement fou.
Et après, il faut toujours faire attention,
parce que, donc tu vois, nous, notre travail d'artiste,
c'est de montrer ça, mais aussi de faire...
de montrer ce qui est...
Les enjeux en cours, c'est le classique du transhumanisme.
Ouais, le transhumanisme, c'est...
On d'abord, on aide les handicapés,
puis un jour, on commence à se mettre des prothèses nous-mêmes,
parce qu'en fait, on a des meilleurs résultats
au lancer de javelot, tu vois.
Et donc, en fait, c'est toujours le même mécanisme
qu'on fait en être conscient.
Et c'est pour ça que je pense que notre travail
il est important, c'est que...
par ce type de travaux,
tu amènes ce genre de réflexion aux gens,
et faut qu'on se pose collectivement ces questions-là, tu vois.
Typiquement, je pense que...
Sur le sujet de l'intelligence artificielle,
on se pose les questions trop tard.
On aurait dû se poser toutes les questions
de qu'est-ce qu'on veut ou est-ce qu'on va
il y a 5 ans,
et là, on est en train de ramer techniquement et éthiquement.
Oui, il est intéressant.
T'as aussi cette idée que...
tu peux théoriser tout autant que tu veux,
en fait, tant que tu...
ne comprends pas l'objet en question,
tant que tu n'es pas capable,
toi-même, de faire ces modèles à de les comprendre, etc.
tu peux réguler autant que tu veux, mais en fait,
c'est trop tôt aussi.
Je me connais le camp dans lequel on est.
Non, c'est vrai.
Franchement, c'est vraiment passionnant
tout ce sur quoi vous bossez.
Et je trouve ça quand même fascinant
que ça vienne d'une poussée purement
entre l'immertité qui est derrière,
ça a des implications aussi loin dans la fiche.
Ce qui est super intéressant aussi,
enfin, un truc qui nous a rassurés aussi,
c'est qu'on était un peu dans le flou
quand on faisait cette recherche-là,
et en fait, au fur et à mesure,
quand on a sorti notre proe de la première version
de notre papier, et justement,
par exemple, les chercheurs du même domaine
et ceux qui avaient fait l'article dernier,
nous nous ont contactés en disant,
nous, on travaillait sur ça aussi,
trop cool, vous avez des résultats,
et en fait, on a des résultats assez similaires.
Donc, on a été vraiment contents de voir
que, en plus, c'est pas comme si on avait,
par exemple, on avait de la chance,
on s'était trompé, mais on avait de la chance.
Non, ça a l'air d'être,
nos résultats vont être consolidés par d'autres recherches,
donc c'est vraiment top.
Et nous, on est super fiers en tant que approach artistique
d'avoir réussi à faire ça quand même.
C'est vraiment la preuve de notre concept de labo
à recherche, on arrive à le faire,
et ça, ça fait vraiment plaisir.
C'est un peu la classe quand même.
Attention, j'ai une question,
vous allez pas l'avoir venir.
Mais récemment, on a parlé
de comment on pourrait appliquer des modèles
diagénératives
pour les animaux,
pour potentiellement
essayer de mapper
la langue que nous, on a,
la langue des baleines,
sur des langues d'espèces qui ont des...
Là, dans le studio, qui font ça.
Voilà, qui ont des langues complexes,
notamment les baleines à boss, etc.
Et donc, on a fait justement un sujet là-dessus
pour expliquer notamment qu'il y a des sortes de constantes
dans les représentations
de la langue entre tous les groupes humains,
et donc, on se demande
s'il n'y aurait pas des portions
de cet espace qui pourrait
fonctionner pour comprendre
ce que racontent les baleines.
Donc ça, je trouve ça fou.
Du coup, la question que j'ai,
c'est, est-ce que, si on se projette un peu,
est-ce que ce serait pas possible
d'appliquer le même genre de raisonnement
à l'image et de dire, ok, on fait
des scanner de baleines, tu vois.
Oui, oui.
Il y a quoi dans le cerveau d'une baleine ?
Je pense que déjà, le premier problème, t'imagines,
si on arrive à le résoudre, tu parles aux baleines, tu fasses que je veux dire
déjà des scanner, mais parler aux baleines, c'est incroyable.
Mais je suis déjà sûr qu'on veut entendre
ce qu'elles vont nous dire.
Déjà, faut là,
si on voulait appliquer votre méthodologie,
faudrait la faire tenir dans un IRM pour voir
sans qu'elle bouge, elle est compliquée.
Mais justement, avec les évolutions de ces technologères,
et en fait, ouais, avec...
Là, l'approche, c'est différent,
parce que, enfin, c'est sûr que, ouais, si tu veux voir
ce qu'elle a dans la tête, là, il faudrait pouvoir scanner
son activité cérébrale, mais par contre,
sur le travail de la parole et des signaux
qui nous émettent, en vrai, on pense vraiment
qu'il y a un énorme rôle à jouer là-dessus,
et ça a été pouvé maintes et maintes reprises,
et au bout d'un moment, quand même, il y a des chances
qu'on puisse communiquer sur le terrain.
Mais l'intéressant, c'est que c'est le même problème
que vous avez décrit, à savoir, la techno,
on la maîtrise plutôt bien, mais c'est un énorme manque
de données, on a très, très peu en réalité
d'enregistrement clean, multi-individus
de discussions de différentes espèces.
C'est ça, avec des protocoles vraiment
cadrés, dans lesquels il y a
énormément de données qui ont
exactement le même protocole. Souvent, il y a, il faut vraiment ça.
Et ça, c'est très difficile à faire.
Et tu vois, nous, c'est vraiment, typiquement,
le genre de projet, où ça nous amuseraient grave,
pas le prochain projet, mais tu vois,
de un jour travailler avec des chercheurs spécialisés
dans les trucs, réussir à parler un peu
au Balaine, et expliquer ça
aux gens par une série, tu vois. Parce que, dans une certaine mesure,
l'art, ça permet aussi d'aller parler à des gens
qui, là, on est cool, on est entre nous
dans l'univers IT, tu vois. Mais au fond,
il y a plein de gens auxquels ça passe au-dessus.
Et en fait, l'art, ça a quand même un bon
moyen pour aller parler
aux gens, au plus grand public.
Et ça, on pense que c'est important.
Ça peut être un bon entrée pour vulgariser, en fait.
Exactement. Très cool.
Et bien, vous reviendrez, si vous parlez au Balaine.
Allez, je suis au pair.
On va en reparler ici.
Mais merci en tout cas vraiment d'être venu
de nous raconter tout ça. C'est vraiment très intéressant.
Où est-ce qu'on peut suivre vos travaux,
cette future publication ?
Alors, le truc cool,
c'est que, donc, cette oeuvre-là,
on va la montrer pour la première fois à Vivatec
la semaine prochaine. Donc, c'est déjà, si vous passez,
vous pourrez voir l'oeuvre physique, etc.
Parce que c'est une grosse oeuvre assez grande, etc.
Donc, ça, c'est la première actue.
Après, en gros, donc, il y a un show qui se monte.
En gros, il y a de la, c'est une oeuvre.
Une exposition, oui.
Il y a plusieurs oeuvres qui ont été faites, etc.
Et donc, là, ce sera en octobre à Paris.
Et puis après, on va faire New York et la Corée, probablement.
Donc, ça, c'est des différents shows.
Et donc, si vous voulez nous suivre,
notre travail, c'est sur les réseaux, c'est Insta-Obvious-Under-Score.
Obvious-Under-Score-Art.
Et bien, allez suivre tout ça sur Instagram.
Et merci encore d'être venu.
Et sans plus d'attendre, je vous propose d'aller manger.
Ouais, avec grand plaisir.
Et je vous souhaite une excellente soirée.
Est-ce qu'il y a un guide avec le code pour les papiers originaux peut-être ?
Oui.
Tout à fait. Donc, il y a un guide-tub MindEye.
Enfin, tu cherches MindEye, guide-tub, paper.
Tu trouves ça rapidement.
Et il y a tout le code. Tu peux reproduire leurs résultats, et tout.
C'est trop bien.
Et bien, pour ceux qui ont un IRM à disposition, n'hésitez pas.
N'hésitez pas.
A vous-en-d'ici.
On va nous passer un coup de fil.
Et sur toi, je vous souhaite une excellente soirée.
Merci.
Et à la prochaine.
Bye.
Tchüss.