S3E14 - Donner la vue aux aveugles, possible ? (Avec Micode, Matthieu Lambda, Arthur DF & Rémi de Artha France)

Durée: 121m58s

Date de sortie: 04/04/2023

Au programme de cette émission :


  • Peut-on créer un bon film, entièrement généré par une intelligence artificielle ? Ça paraît fou, et pourtant Michaël nous explique que ça pourrait être pour très bientôt…


  • Pourquoi TikTok, 1er réseau social en terme de temps passé sur l’application, a-t-il besoin de faire de la pub ? Et pourquoi cette question est éminemment géopolitique ?


  • Redonner la vue aux aveugles, c’est le défi que se donne Rémi de Artha France, et son dispositif est tout bonnement incroyable !


  • Pour la première fois en France, nous avons pu recevoir des cyber-agents en activité des services secrets français. Plongée dans le métier de ces ingénieurs si particuliers, en partenariat avec la DGSE.


Avec Micode, Matthieu Lambda, Arthur DF & Rémi de Artha France !


Pensez à mettre 5 étoiles pour soutenir l’émission !



Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

A au fait maman merci pour le conseil.
Ah oui lequel ?
Ouvrir l'assurance vie carac et par une patrimoine ?
Ah oui.
En 2024, le fonds euro de la carac m'a rapporté 3,50%.
Mais oui la carac s'occupe bien de nous et depuis longtemps.
Et nous avons un conseiller en patrimoine dédié qui change tout.
Et jusqu'au 31 mars, la carac me donne 50 euros si je verse 2000 euros.
Et ça peut aller jusqu'à 1000 euros offert.
A la carac, on se bat pour vous.
Les taux passés ne préjuchent pas des taux à venir.
Taux net de frais avant prélèvement sociaux.
Offre soumise à conditions, plus d'informations sur carac.fr.
Mutuelle soumise au livre 2 du code de la mutualité.
Bonsoir et bienvenue dans Underscore.
Votre émission préférée, un mercredi sur deux.
Il est 19 heures pétante comme d'habitude.
Et je suis avec de beaux guest.
Mathieu et Arthur, pas du tout.
C'est vraiment l'équipe.
C'est vraiment l'open space sur la table de l'or.
Exactement.
C'est juste décalé de 50 mètres.
Je ne vais pas vous mentir.
On était un peu chœur.
On était un peu chœur sur la préparation.
Ce qui fait que moi-même, je ne suis pas prêt.
Et tu profites de l'intro pour...
Exactement.
C'est une intro...
Et ça c'est le...
Intro 7.
Tu lui cadrais très très...
Non.
C'est vrai que je suis cadré bizarre.
Non non, c'était...
Mickaël cadrait très bas.
Oui mais...
C'est-à-dire que...
Non.
Ah oui.

Alors j'ai beaucoup à te draper ici.
Éclairement.
Voilà.
Mais on va faire les réglages en live.
Et alors ça veut dire...
Ou Mickaël a peut-être ?
Parce que normalement nous on...
Alors sauf s'il a montré à...
Bonsoir, bonsoir.
Je fais ça à la main en direct.
Oh my god.
Moi je crois que c'est hyper fort.
Parce que...
D'habitude c'est Micka.
Il faut savoir que nous avons les deux personnes...
Si gère le mieux la régie.
Pour ta absence.
Qui sont hachées ce soir.
C'est ça.
Ouais.
Et donc j'aimerais que dans le chat,
déjà est-ce que vous allez bien.
Et j'aimerais que vous envoyez un maximum de love...
A...
Pardon.
Ah ouais ?
Bon, le chat, le chat n'en peut plus.
Je voudrais que vous envoyez un maximum d'amour à Micka.

Qui sort de l'hôpital.
Voilà. Qui sort de l'hôpital.
Micka que vous connaissez pour faire tout le décor.
Tout l'organisation de l'hélico.
Donc envoyez lui du love.
C'est ça. Malgré le fait qu'il sort de l'hôpital,
il nous a quand même configuré le live de ce soir.
C'est ça.
Il a sauvé.
Honnêtement, on s'est posé à la question.
N'est-ce pas Mathieu ?
C'est vrai.
On s'est posé à la question de si ce live pouvait avoir lieu.
Et...
Et la réponse, c'est oui.
Grâce à Mathieu.
Et je vois beaucoup de gabin love.
Et donc ça fait...
Ça lui fera très plaisir.
Je sais que ça lui fera très plaisir.
Non mais je pense qu'il est...
Il vous lit, hein.
Moi, je pense qu'il est là.
Dans le chat, je veux dire.
Ah oui.
Normalement, il a l'interlection de venir.
Non, non, mais il peut regarder un live-suit tranquillement.
C'est du travail, il ne fait pas.
C'est mort.
Ça va, Arthur ?
Oui, bah écoute.
Ça va super.
Quoi de neuf à la bicoffe ?
Quoi de neuf à la bicoffe ?
Ecoute, ça va, j'ai passé une journée pas très intéressante,
mais on travaille sur One Click Studio.
C'est vrai.
Qui est notre...
Bah tu vois, je parle alors.
Je suis plus...
Vas-y, je t'en prie.
...que tu as occupé.
Qui est notre offre où on installe des studios
pour surtout des entreprises.
Parce que...
Arthur, il perd pas de Nord, clairement.
Mais on a acquis...
Enfin, on...
La boîte a acquis plein de savoir en créant des setups comme ça.
Et puis il y a d'autres gens qui veulent en profiter,
donc on s'est dit, bon bah il y a un...
Un truc à faire.
Un câble à connecter.
Exactement.
Et voilà.
Et du coup, je passe ma journée à la suite.
C'est bon, maintenant on est officiellement dans la start-up nation.
Exactement.
Et ça c'est beau.
Et ça c'est beau.
On n'a pas encore fait de levée de fond.
Donc je sais pas.
Je sais pas si on peut frétendre.
On est pas une vraie start-up.
Non, pas sûr, pas sûr.
J'ai pas fait de post-links in.
Donc...
Pour l'instant, nous nous sommes qu'à Vue Guerre Studio de Youtuber.
Est-ce que Tii, tu peux me dire si...
Oh, oh, oh...
Donc on est dans setup.
Si je nais mon PC là,
est-ce que c'est chiant pour les plans ?
Donc c'est vraiment...
On est plus là, c'est après en fait.
Mais les gens sont habitués.
Oui, oui, oui.
T'as toujours été comme ça.
Oh, l'un de l'intro.
L'intro, c'est parfait.
Oh là là, bah écoute.
C'est du miel dans mes oreilles.
J'espère que en tout cas,
vous allez tous très bien depuis la dernière fois.
Nous franchement, on s'amuse bien.
On boise sur vraiment plein de trucs très, très cool.
On a des bonnes vidéos en préparation.
Moi, je passe ma vie dans des IA.
Ce que je disais,
c'est que j'ai l'impression que je passe plus de temps actuellement
à parler avec des intelligences artificielles
plutôt que des humains.
Et je sais pas si c'est bon signer.
Bah, ça dépend à quel point
c'est vraiment toi qui découpe ce truc.
À quel point tu fais des choses utiles ?
À quel point ça peut te servir dans...
Non, c'est le cas.
Évidemment, tout l'enjeu actuellement,
c'est d'essayer de comprendre le mieux possible
comment on peut nous utiliser ces outils.
Et ce qui est cool, c'est que je le fais même pas pour ça.
Je le fais juste parce que ça m'intéresse de fou.
Et en fait, à chaque fois,
on se retrouve avant une heure scolaire en disant,
« J'ai trop envie de parler de ça, ça, ça, ça va être ».
Et vous êtes au rendez-vous à chaque fois qu'on fait des sujets
en ce moment sur les intelligences artificielles, génératives.
Ça a l'air de plait en ce moment.
Ça vous plaît, donc ça fait très plaisir.
Et honnêtement, on se force pas à un cercle.
Avant, moi je vous dis, à chaque fois,
c'est que si on n'en parle pas trop.
Mais toi, il y a ça qui s'est passé,
il y a ça qui est sorti, toi.
Parce qu'on raconte qu'il y a 2-3 heures,
tu nous as dit « Non, ce soir, je parle pas de chat j'ai pété ».
Et finalement,
je ne parle pas de chat j'ai pété.
Je parle d'autres trucs.
C'est un concern.
Ça concerne vite, fail, ce jamais.
Oui, non, Tiffani n'est pas là aujourd'hui, c'est vrai que...
Je n'aurais pas relevé ça.
J'ai volé sa place.
Non mais...
Bah écoute...
Mais en fait, je pense qu'il y a plein de gens
qui ont découvert l'émission cette année.
Et du coup, c'est évident qu'il y a Tiffani.
Et en fait, parfois oui, parfois non.
C'est qu'il y a même des messages qui nous demandent parfois...
Enfin, il pense que Tiffani, il fait partie de l'équipe,
c'est-à-dire de la boîte et qu'il travaille pour nous.
Bah quasiment.
Alors, oui.
Quasiment, actuellement, dans nos coeurs, oui.
Oui, mais elle a un autre métier à côté.
Elle a deux métiers finalement.
Malheureusement, elle a un autre métier.
Et apparemment, tu as appris le musique.
Quoi ?
Ah non, ça doit être un raid ou je sais pas.
C'est toujours comme ça.
C'est un disc, ça.
Je rède d'un disc.
Ah mais en fait, c'est que des remarques du monde physique.
Ah mais non, c'est Bastille.
Tu as appris du...
Non, c'est un disc.
C'est un disc.
C'est un disc.
D'accord.
Évidemment.
Ce qui est bien, c'est que ça tombe pendant l'intro.
Moi, j'ai qu'en tant que...
Ce qui est sinon...
Très bizarre, en vrai.
En ce moment, il est très très...
Il n'y a que des remarques sur...
Ce qui est drôle, c'est que c'est aussi la manière préférée de te tourner au bureau.
Donc je pense qu'il y a eu un...
Les mots...
Ils se sont passés le mot, en mon avis.
Et alors, on mette Mathieu mal à l'aise.
C'est bon.
Il aura tout le monde possible.
Heureusement que c'est maintenant parce que...
Après, quand c'est...
Belle perte de l'orage, je m'en retiens.
C'est quoi ce compliment ?
C'est un compliment.
C'est un compliment.
C'est très gênant.
Allez, on arrête.
Moi, je préfère ça maintenant que dans un...
En plein milieu, c'est une chronique sérieuse.
C'est vrai.
Pas si mal.
Bastique dit que tu es...
Bon, moi...
Merde, je veux savoir maintenant.
Je ne sais pas le chat de sous les yeux.
Je lui ai dit Mathieu a fini la fin de la fin.
Raterien.
Tu ne rateriens.
J'espère que vous êtes bien installés.
Ce soir, nous avons un beau programme.
Je vous propose d'abord qu'on va faire un petit tour des news, évidemment.
Alors, sachant que moi, je n'aurais pas de news,
parce que ma news est transformée en chronique.
Comme d'habitude.
Juste après, on recevra...
Enfin, on aura une chronique de Mathieu, d'abord.
Oui.
Parce que moi, je suis perdu.
C'est...
C'est ma chronique.
On enchaînera avec la ta chronique.
On va parler de TikTok et de géopolitique.
Oui.
Ça va être très intéressant.
Je me suis dit, je vais prendre les domaines.
On va voir ce qui existe.
Comme ça, fusion.
Et ensuite, on recevra Rémi,
qui développe un dispositif qui permet de voir
grâce au sens du toucher.
C'est pas très étonnant.
Mais vous allez voir, c'est une tigre.
D'un point de vue de l'ingénierie, c'est hyper intéressant.
Et des perspectives que ça pourrait offrir,
à la fois pour les aveugles et pour toute la société.
Et en fin des émissions,
moi aussi, je ne me suis pas spoilé.
Je sais, à chaque fois, des émissions de...
Je sais quand même ce qui va être dit.
Normalement, je sais les sujets,
mais j'ai ce grand privilège de parfois pour découvrir.
Et ça, c'est quand même vachement cool.
Grâce à Mathieu, évidemment.
Et en fin d'émission,
on a la chance de recevoir des espions en activité.
Donc c'est un partenariat avec la DGSE.
Je sais pas si vous...
Incroyablement ce que vous réalisez.
Et on a eu la chance de recevoir des agents ici,
dans nos bureaux,
et de pouvoir réaliser une interview.
On a même fait des démonstrations,
parce qu'on s'est dit que ça vous ferait marrer de voir
des agents...
Exactement, on en ferait un peu du travail, vraiment.
Donc voilà, mettre les mains dans le cambouille un peu.
Bon, rassurez-vous, ce ne sera pas non plus...
Il n'y aura rien de...
Oui, ils n'ont pas pris un dossier en cours,
en mode parvoment.
Évidemment.
Peut pas possible.
Mais c'est quand même vachement intéressant.
Et ça, ce sera un troisième parti d'émission.
Et ce ne sera pas en direct.
Et ce sera un magnétor.
Exactement.
Le problème de l'anonymat.
Exactement.
Évidemment, il y a un cadre très spécifique,
pour que ce soit possible.
Ça a été un...
Pas un casse-tête, mais un défi.
Un défi.
Exactement.
Merci.
Ça a été un défi de pouvoir faire ce format-là.
Et donc ça nécessitait que ça ne soit pas en live,
histoire de pouvoir garantir tout ce qui est anonymat, évidemment.
Mais c'est incroyable de les avoir.
En fait, je ne sais même pas si vous avez déjà fait.
Non, non.
Il me semble que c'est la première fois...
J'avais un doute, mais...
C'est la première fois qu'on aurait eu une interview d'agents
actuellement en activité.
Donc c'est un grand privilège.
C'est en honneur.
Franchement...
Et voilà.
Et vous le découvrirez en exclusivité
dans cette émission.
Et ensuite, évidemment, ça sortira sur la chaîne YouTube.
Je vous propose qu'on rentre dans le vif du sujet,
dès maintenant avec ma chronique.
C'est parti.
Je ne fais pas des signes tout seuls.
Je pars la réellerie, évidemment.
Je communique.
Parce que...
Il faut savoir que pendant les nignoles,
moi, j'entends la réellerie.
Mais eux ne m'entendent pas.
Parce que là, vraiment, tu as fait des gestes devant ton PC en mode...
La vision ne marche pas.
Non, évidemment.
C'est de la langue des signes.
C'est le thème de la soirée.
Pas du tout.
Rappez.
Rappez.
Il n'y a aucun moment où on va parler de langue des signes.
Ok, ok.
Ok, c'est bon.
Je vous le disais, à l'origine,
c'était censé être une petite news
que...
Voilà, un très tweeter que j'avais vu passer.
Mais en fait, j'ai trouvé ça tellement intéressant.
Je me suis dit, ça vaut le coup,
que je vous en parle plus en détail.
Donc...
Vous savez, en ce moment, c'est le bordel.
C'est-à-dire que...
Alors c'est à dire...
Alors, à plein de points de vue.
Il y a des différents niveaux de bordel dans le monde en ce moment.
C'est vrai, c'est vrai.
Si je précise,
en ce moment, d'un point de vue des nouveautés de l'intelligence artificielle,
c'est de n'importe quoi.
On a l'impression que de partout,
tout est en train de progresser à vitesse exponentielle.
C'est ça le truc le plus fou.
Et justement,
il y a un gars, un chercheur dans le milieu,
qui a posé cette question,
et qui je trouve extrêmement intéressante.
À votre avis,
donc combien de temps est-ce que ça va être possible
de pouvoir générer des films entiers
à partir de seulement un prompt ?
Et éventuellement,
quelques instructions d'un point de vue de la réalisation,
de quel genre d'image,
ou de cent dizaines,
qu'on aimerait,
mais avec très peu d'instruction,
dans combien de temps ce sera possible de dire
« j'aimerais voir Batman versus un cochon géant »
et que, sous tes yeux,
soit généré,
peut-être pas en temps réel,
mais voilà,
avec quelques jours de calculs,
ou quelques heures de calculs,
un film entier en haute définition,
une heure trente,
avec un script cohérent,
et voilà, un bon film à regarder.
Vous vous diriez que c'est...
Donc en sorti,
tu aurais vraiment le film complet,
tu as juste appuyé.
Ce serait Netflix AI, tu vois.
Vous diriez combien de temps ?
Il y a déjà la chaîne Twitch,
qui diffuse en continu, qui crée une histoire.
Non, mais ça n'a rien à voir.
Mais on va dire que,
si on devait prendre une première étape,
ça serait un peu la chaîne Twitch,
Watch Me Forever,
un truc comme ça.
Voilà, qui a un truc de...
Et qui est moche,
voilà, mais en vrai,
au niveau de la narration,
ils arrivent à faire des blagues.
Moi, je vois que ce qui m'intrigue le plus,
c'est la vidéo générée par ya,
parce qu'autant la photo,
je suis très impressionné,
je me suis blasé de me dire,
je suis très impressionné.
Mais alors de la vidéo,
on a vu quelques tentatives
avec des gens avec Stable Diffusion,
qui essaient de faire un vu sur des canapés,
ou je ne sais pas quoi.
En effet.
Moi, je dirais...
Il faut donner un guess ?
Voilà, un guess.
Moi, je dirais...
1 an et demi.
Ah oui, ok.
C'est cool, c'est court.
C'est tellement vite,
c'est tellement expérience.
Allez, je vais te jouer 8 mois.
8 mois, mais alors...
Wow.
Ok.
La plupart des gens
dirait que ce serait des années et des années.
Parce que, honnêtement,
quand tu prends chaque brique,
tu te dis, ok, génère un script long,
d'une heure et demi,
avec des vidéos,
ou des définitions,
avec des FPS,
qui ressemblent à quelque chose.
On se dit,
c'est un truc qui...
Non mais,
quand on y réfléchit,
genre, génére...
Oui, non, mais ça n'a aucun sens.
Tu dis une phrase,
Anne-Flic,
c'est, tu génères ton film, tu vois.
Tu te dis, c'est dans des dizaines d'années.
Et bien, ce que j'aimerais vous montrer là,
c'est qu'en fait, pas du tout.
C'est très probable que ce soit
vachement plus proche que ça.
Et je vais vous le démontrer,
en prenant chaque brique
qui serait nécessaire pour faire ça.
Et en les assemblant,
on devrait pouvoir arriver
à ce résultat.
Donc, d'abord,
le premier sujet,
c'est la transcription automatique.
Donc, j'imagine que si je vous dis
speech to text,
vous avez déjà entendu ce terme-là,
c'est le fait de prendre
une vidéo, un audio, un entré,
et de récupérer la transcription
sans avoir un humain
qui passe par là,
simplement avec de l'intelligence artificielle.
Ça, c'est un problème très vieux.
Ça fait longtemps qu'on travaille dessus.
Et pendant longtemps,
c'était pas ouf.
Si vous regardez ce que fait YouTube, par exemple,
avec les sous titres automatiques,
c'est de la merde.
C'est vraiment de la merde.
Mais moi, je pensais que,
encore il y a quelques mois,
ça n'avait pas tant avancé que ça.
On voit YouTube,
c'est toujours autant de la merde.
Pour jusqu'à quelques mois,
la meilleure solution,
c'était de payer un indou sur Fiverr.
Oui, c'est vrai.
Mais objectivement,
pour 2 dollars la mince.
Beaucoup d'entreprises font ça.
Et en réalité,
ce n'est pas le cas.
Ça a énormément progressé
relativement récemment.
Notamment,
un modèle qui s'appelle Whisper.
Oui.
Fait par une certaine entreprise
qui s'appelle OpenAI.
Encore eux.
Il paraît qu'il est incroyable.
Et qui est Open Source.
C'est ça le plus important.
C'est-à-dire qu'actuellement,
vous pouvez télécharger Whisper.
Et notamment, Whisper.CPP,
qui est la version
que tu peux faire tourner sur ton Mac.

Et qui vraiment prend peu de ressources.
C'est marge.
Incroyable.
Et ensuite,
tu télécharges les poids officiels
de OpenAI.
T'as le choix entre des modèles un peu larges
qui font quelques gigas
ou des modèles très petits
qui marchent avec de l'anglais.
Ou toutes les langues.
Et j'ai fait des tests.
Même avec des vidéos françaises
avec énormément de vocabulaire
technique complexe,
ils s'en sort à merveille.
C'est impressionnant à quel point
ce truc marche hyper bien
pour avoir des transcriptions
qui sont valides dans n'importe quel langue
avec du vocabulaire technique.
Et tu la tournes sur ton ordinateur.
Ça tourne sur ma question.
Non mais c'était ma question.
Putain mais c'est trop bien.
Ça je savais pas du tout
qu'on pouvait lui faire tourner.
Alors, petite info.
Je suis en train de faire un truc
pour mettre des sous-titres
sur toutes nos vidéos YouTube.
Mais non mais c'était ma prochaine question.

Et c'est un cours.
J'ai aussi découvert la dinguerie
de Whisper.M7 semaine.
Et j'ai découvert que en fonction des langues,
il était plus ou moins performant.
Et je crois qu'une des langues les plus simples,
c'est l'espagnol ensemble.
Oui c'est ça.
Exactement.
En gros, ça a aussi l'entre eux
96% et 99% de véracité
sur les plus grosses langues.
Et après évidemment,
quand tu commences
à aller sur des dialectes
ou des choses comme ça,
ça devient plus compliqué.
Et tu sais que quand ils ont diffusé
le truc en open source,
parce qu'en vrai c'est pas
tout à fait neuf
Whisper,
ça a...
Je sais pas combien de trucs.
En gros, il y a eu des itérations.
Donc notamment,
il y a une deuxième version
de leur modèle large qui est sorti.
C'est elle qui vraiment casse tout.
C'est elle où tout le monde
hallucine devant,
surtout que tu peux le faire
tourner sur ta machine.
Ok.
Donc ça,
c'est la première chose.
Qu'est-ce que ça permettrait de faire?
Ça permettrait de donner un film
en entrée
et de récupérer l'entierté
de la transcription
des discussions entre les acteurs.
De manière hyper fidèle.
C'est une première brique.
Ah donc analyser tous les scénarios
du...
Récupérer tout ce qui est
du cinéma mondial.
Exactement.
Le petit bémol,
c'est que la détection de speakers
est pas encore au point
mais je doute pas que ça va arriver
bien.
Ah genre qui est qui?
Exactement.
Ok.
Deuxième étape.
La description d'image.
Donc,
vous prenez une image.
La question c'est
est-ce que une IA
est capable de la décrire
de façon fidèle?
Ça paraît,
c'est un vieux problème.
Vous vous souvenez peut-être
de Facebook
qui déjà a été
bossé sur des algos
pour analyser
les images Facebook
et générer des petites
descriptions
de ce qu'il y avait dedans.
Moi je me souviens
qu'il y avait soit dans le code
source, soit parfois
les jours de bug de Facebook
au lieu de t'afficher la photo.
Il y avait marqué
un homme sur une colline
avec des lunettes noires
et il faisait toute
une description
comme ça.
Exactement.
Donc c'est un vieux problème
et pareil,
dans les 5-10%
des cas les plus complexes
des images
où il se passe
beaucoup de choses
ce qui correspond à la plupart
des images
que tu vois dans des films
en réalité.
Eh bien,
c'était pas encore
très convaincant,
pas encore hyper au point.
Pareil,
depuis quelques mois
t'as des modèles
qui sont sortis
en open source
notamment sur Huggingface.
Donc la plateforme
qui réunit
tous les modèles
les plus connus.
Notamment Blipp2
qui est un modèle disponible
où on a quelques exemples ici.
Vous lui donnez
une image en entrée,
même des images complexes
avec du texte,
un meme, etc.
Et ensuite,
vous êtes en mesure
de lui poser
des questions
comme avec un chat.
On pourrait aussi
lui demander
une description complète
mais là c'est encore plus
intéressant,
ce qui est capable de dire
que c'est Albert Einstein,
quelle est l'équation
et à quoi correspond
cette équation.
Et si on passe
sur d'autres exemples ensuite,
c'est toujours le même principe.
Peu importe
la complexité
de la composition de l'image,
il est en mesure
d'avoir
une compréhension
vraiment très très fine.
Par exemple,
il y a un moment
où on montre
une maison
qui est à l'envers
et lui il est capable
de dire
c'est une maison.
Elle est à l'envers.
Ah c'est fort par contre.
Et après tu lui demandes
mais ouais,
par où est-ce qu'on peut
sortir du coup,
il est capable
de voir que sur le bord
de l'image,
t'as 10 pixels
où on voit
un toboggan géant.
Et du coup,
il te répond,
c'est par là.
On a envie d'habiter
dans cette maison.
Donc tout ça
pour dire que
la compréhension
d'une image
détaillée
a énormément progressé
récemment aussi.
Et ça va
vraiment loin.
Ça va aussi loin
que le cadre,
quel genre
de valeur de plan c'est,
est-ce que c'est un plan
rapproché, un plan large,
etc.
La colorimétrie,
on peut aller vraiment
dans beaucoup de détails.
Vous me voyez venir.
De ça,
on peut tirer une analyse
scène par scène
du film
de comment
c'est filmé
et de quoi
est composé
chaque image,
chaque scène,
quelle est
la composition.
Donc,
pardon, vas-y.
Non, c'est une question,
c'est,
là tu nous as parlé
de l'analyse.
Mais derrière,
il faut que j'énérez
un film.
Et bien,
il va y arriver.
Il va y arriver une chose
d'analyser un truc.
Non, non, justement.
Donc là,
tu prends ces deux briques-là
déjà.
Tu as
les transcriptions
des acteurs.
Tu as
la description des images.
Idealement,
il faudrait les mettre ensemble
pour faire
ce qu'on appelle
un script détaillé
de films.
Tu donnes ces deux trucs
à GPT4
et ils s'en sort
à merveille.
Il est capable
de te générer
un script complet
avec les acteurs
qui parlent
et les descriptions
de chaque scène,
de chaque plan.
En plus de ça,
en réalité,
on a accès
à des scripts détaillés
de films
qui se dallaient
sur Internet assez facilement.
Et donc,
tu combines tout ça
et t'es en mesure
de créer ce qu'on appelle
un dataset
très large
avec en entrée
des images de films
et en sortie
des scripts
complets et détaillés.
Avec des descriptions
de chaque scène,
des exemples.
Exactement.
Et donc,
ça,
c'est exactement
le pré-requis
pour pouvoir
entraîner un modèle
de diffusion
qui se réfère
l'inverse.
À savoir,
avoir en entrée
une description
d'un film
avec des acteurs
qui parlent
et des descriptions de plans
et en sortie,
de générer des images.
Tu combines ça
avec évidemment tout ce qu'on a appris
sur la diffusion,
stable diffusion etc.
Et t'es en mesure
de pouvoir,
à partir d'un scénario,
générer
le début d'un film.
Mais c'est pas encore tout.
Parce qu'il faut générer
les vidéos quand même.
Exactement.
C'est compliqué ça.
Exactement.
Mais non,
mais justement, j'arrive.
À partir de ça,
tu arrives à avoir des séquences d'image.
Alors comment est-ce qu'on gère
de...
Alors comment est-ce qu'on génère
de la vidéo
avec des séquences d'image ?
C'est aussi simple que
générer
12 ou 25 images par seconde.
Jusqu'ici, voilà,
en faisant en sorte que
les diffusions
soient suffisamment proches
pour que c'est une cohérence
et que ça crée des mouvements etc.
Vous vous dites peut-être que
ça c'est dans le futur,
qu'actuellement,
on n'y arrive pas,
que c'est impossible.
Eh ben, c'est faux,
puisque je peux vous montrer
une démonstration
qui a été faite par CorelDoordigital,
qui utilise justement
cette technologie-là
en utilisant stable diffusion
et qui a entièrement été généré
avec intelligence artificielle.
What the fuck ?
Quoi ?
Ça, c'est une succession
d'images générées.
C'est une succession d'images générées.
Alors...
Par stable diffusion.
Exactement.
Et il y a du mouvement,
c'est fluide.
En vrai, c'est...
C'est propre.
Il y avait l'effet de flou
là qui se déplacait.
Ah mais attends,
mais même le...
Le l'ombre sur son visage.
What the fuck ?
Ça fait ça ?
C'est incroyable.
C'est...
L'effet des vitrailles, là.
C'est vraiment très très très fort.
Qui pensait pour toutes les motion...
Les motion designers
qui regardent ce moment.
Ben ça pose
énormément de questions.
Je rajoute certaines précisions
qui sont nécessaires.
Peut-être un...
Actuellement,
il y a eu énormément
de travail en post-produits.
D'accord.
Ce n'est pas sorti tel quel.
D'accord.
Il y a plusieurs layers.
Il y a les personnages.
Ensuite, il y a le fond.
Les deux sont générés différemment.
D'accord.
Ils voulaient aussi imiter
le style d'un studio
d'animé.
Et donc,
c'est du douze images par seconde,
par exemple.
Et il y a certaines manières
de réaliser.
Là, tu vois, par exemple,
le fait de se déplacer,
de faire des pannes
avec le fond.
Et ben tout ça
est géré
en post-production,
en combinant des images
de stable diffusion
et des séquences d'image.
Le deuxième énorme bémol,
c'est qu'ils ont triché.
En fait,
en entrée,
ils ont filmé des acteurs.
Après, ils ont récupéré
chaque frame
qu'ils ont utilisé
comme base de diffusion.
C'est-à-dire que
ça ne sort pas directement comme ça.

Il y a eu un tournage avant
avec les expressions,
les gestes, etc.
qui ensuite étaient...
Encorement une séquence d'image.
Un peu déceptif.
Voilà.
J'ai pas le tchâter.
Ah ben voilà,
c'était sûr.
Évidemment.
Mais en réalité,
quand vous y réfléchissez,
on n'est pas loin du full générique.
Honnêtement, on n'est pas loin du full générique.
Ce qui finit,
la dernière brique manquante,
c'est le visage des acteurs.
Parce qu'il y a un gros problème
avec la génération de vidéos
de ce genre-là.
C'est que
tu stabilises la diffusion,
il est capable de te générer
des images
où le visage va énormément changer.
En gros,
tu vas avoir un gros effet de flickering,
ce qui va être moche.
Alors tu peux essayer d'un peu
le mitiger avec ton logiciel
de montage, etc.
Mais tout ce qui est
forme du visage,
ça, c'est pas rattrapable.
Et c'est ça qu'ils ont atténué
en filmant des gens avant?
Eh ben même pas.
C'est-à-dire que même ça,
ça permet pas d'avoir
un résultat suffisamment convaincant.
Du coup, la solution,
c'est de
ce qu'on appelle du fine tuning.
Donc tu récupères
un modèle de stable division.
Déjà, tu prends
un modèle qui correspond
à un style spécifique.
Il y a déjà des gens
qui ont beaucoup travaillé
pour créer la version animée
de stable division, tu vois,
qui va faire des images
beaucoup plus cohérentes
pour faire des séquences
de ce type-là.
Plus, tu vas ensuite
encore l'entraîner
pendant des heures
sur le visage d'un acteur.
Et donc toi, ton modèle
qui sera capable de générer
un acteur super bien,
de manière hyper fidèle.
Parce que moi, je me suis toujours demandé
même pour les images,
pour garder la cohérence
d'une même personne,
mis à part si c'est
une personne connue.
Mais si tu crées
une personne
sur une journée
ou je sais pas quoi,
et tu veux garder cette personne,
c'est dur, non ?
C'est complexe.
Moi, j'ai eu un...
C'est un des gros challenges
de ce genre d'outil.
Et il y a des technologies
dont on a parlé la dernière fois,
qui permettent d'essayer
de garder des formes
de ce type-là.
Ok.
Tout ça pour dire que c'est
la dernière vrique manquante.
C'est-à-dire la génération
fiable de séquences d'image
avec stable division
combinée avec une couche
de post-prod
qui viendrait remplacer
les acteurs
générés par
un vrai acteur cohérent.
On est pas si loin.
On se rapproche dangereusement.
On est vraiment pas si loin.
Et même
sinon tu prends
que des acteurs génériques
qui font de la préprod
un premier tournage
à la rache,
beaucoup moins cher
qu'un vrai tournage.
Et derrière,
tu les remplaçes par Brad Pitt.
Tu les remplaçes par Brad Pitt.
Et Brad Pitt,
il peut passer
365 jours par an
sur les illicats-naris, tu vois.
Tu le mets dans les classes.
Exactement ça.
Du coup,
bientôt,
en assemblant toutes ces briques
parce qu'on a vu
qu'indépendamment, elles sont vraiment
chacune pas si loin
d'être
au niveau suffisant
pour générer ce genre de trucs,
on pourra bientôt décrire
une scène,
obtenir un scénario de films
à éditer,
assigner des acteurs virtuels
à tel ou tel personnage
et avoir
un film conçu
entièrement
avec son propre scénario
et ses propres acteurs
et tout ça
avec des technologies open source
que tu pourrais faire tourner
sur ta grosse machine à la maison
ou sur
une bête serveur
si tu es une grosse boîte
d'oliveau, tu vois.
Eh ben...
Du coup, voilà.
Je sais pas si je suis content ou pas.
C'est ça, ça ouvre tellement de questions.
Mais typiquement,
est-ce que chat GPT
est capable de générer,
ou GPT4 est capable de générer
un scénario
que tu aimes,
une histoire
qui va vraiment t'intéresser
avec du suspense qu'il faut.
Persuadé que oui.
Je persuadé que oui.
Parce que c'est dur
d'écrire un scénario.
Oui.
Mais en gros,
ce qui me fait penser que c'est le cas,
c'est notamment
le fait que les fenêtres
de contexte
des antigences artificielles
s'élargissent de plus en plus.
Donc en gros,
avant,
chat GPT,
il était capable d'avoir
des histoires structurellement simples
parce que son contexte,
donc le nombre
d'informations
qui peut ingérer
en entrée
était pas énorme.
Aujourd'hui, pour vous dire,
c'est passé de 4 000 tokens
à 8 000
et là,
et là, prochainement,
à 32 000.
Et donc ça,
ça permet de faire entrer
des histoires très complexes
et subtiles
avec beaucoup de personnages
qui ont des interactions,
tout en gardant la cohérence
et en évitant tous les défauts
qu'il y avait
chat GPT historiquement,
le fait de vouloir tout le temps
conclure à chaque scène,
ou le fait de se répéter,
ou d'oublier des détails
qui sont trop anciens
dans la conversation.
Donc moi,
je suis assez pessimiste,
entre guillemets,
ou optimiste,
suivant le point de vue,
qu'on aurait des scénarios
bien ficellés
qui peuvent lire
tous les bouquins de scénarios
avec tous les conseils dedans
et te prendre à être au carrière.
Il y en a pas mal,
il y en a pas mal,
il y a très bon des bouquins de scénarios.
Ça a beaucoup été théorisé.
C'est un domaine
qui avait beaucoup été théorisé.
C'est clair.
Eh ben...
C'est terrifiant et fascinant.
Mais alors du coup,
je vous avoue,
je suis en vacances,
j'ai pas vu les dernières vidéos
sur la GT.
Mais du coup,
est-ce qu'on entrait,
tu peux fightunez
ta propre IA
avec tes vidéos ?
Alors,
c'est tout le...
Ou avec les scripts de tes vidéos ?
Sans entrer au détail
parce que c'est un gros sujet.
En gros,
tu as deux manières
de spécifier
des IA de générations.
Soit tu les
entraînes sur tes données,
donc c'est le fine tuning.
Soit tu utilises
justement la fenêtre de contexte,
comme on dit.
Donc tout ce qui peut rentrer
dans son contexte initial,
et du coup,
si tu en as 32 000,
même 8 000,
c'est déjà énorme
comme nombre de tokens.
Tu peux déjà le spécifier
sur ta manière d'écrire, etc.
Donc,
j'ai pas vraiment répondu.
Mais en gros,
le fine tuning,
c'est en train de se faire dépasser
en ce moment plutôt par
le contexte.
Si je le fais un gros résumé.
D'accord.
Parce que c'est très coutu
et très complexe.
Du coup, est-ce que tu as essayé
avec des scripts,
même en décrivant
exactement ce que tu voulais ?
Moi ?
Ouais.
Et alors ?
Ça marche bien.
Ça marche bien.
Tu peux arriver
à vraiment de l'écriture
plutôt qu'elle est.
Ok.
Voilà,
je ne voulais pas...
Je ne vous étais pas censé parler
de...
de la génération.
Je ne devais pas parler
d'intelligence artificielle.
Je n'ai pas...
Je n'ai pas résisté.
Parce que vraiment,
je trouvais ça trop intéressant.
Est-ce que on peut...
On peut enchaîner,
je pense,

Ah bah oui,
bah non, mais tu peux même
lancer un jingle.
Excellent.
Et bien,
jingle
et chronique.
Et bien,
oui, effectivement, je...
Non, non,
je ne sais pas
que je vais te dire
parce que je découvre...
Je découvre l'intro.
Mais le fait est que je...
je me suis fait la même réflexion
parce que j'étais aussi déma
il y a peu longtemps,
donc j'ai vu cette pub.
Ah, non, mais non,
mais on en avait parlé aussi.
Oui, oui, oui,
c'est...

Effectivement,










elle m'avait...
Elle m'avait plutôt marqué.
Quelle pub je parle.
Vous êtes sans doute tombé
sur la dernière campagne de publicité
de TikTok,
que ce soit en affichage dans le métro
ou en publicité au cinéma,
TikTok,
une fenêtre sur le monde
avec le hashtag
BookTok
pour recommander des livres
à découvrir.
Évidemment, évidemment.
Alors c'est
extrêmement
fort.

et fort.
Voie cynique,
mais on a voulu
se poser une question
pourquoi TikTok,
finalement, a besoin
de faire des campagnes de pub.
Parce que c'est quand même
l'outil le plus utilisé
de la planète chez les jeunes.
Ça sert à quoi de faire
de la pub dans le métro, va-tu ?
C'est la question qu'on s'est posée
et ça m'a emmené très, très loin.
Alors que tu le disais,
TikTok est désormais
le premier réseau social
en temps passé
sur l'application.
À votre avis,
combien de temps par...
jour ou par mois, comme vous voulez.
On passe en moyenne
dans le monde,
mais c'est à peu près équivalent
à ce qu'on passe en France.
Deux heures.
Parce qu'il y en a qui poncent
mais il y en a qui vont très peu aussi.
Oui mais justement, je pense
qu'il y a les gens qui poncent
et alors...
Moi j'ai deux heures, oui,
en moyenne.
Alors deux heures,
tu es un peu plus proche de Netflix.
Ok.
Et Netflix est au-dessus.
Et genre c'est en moyenne
60 heures par mois de Netflix.
De Netflix, hein.
Ça m'a...
TikTok,
c'est 22 heures par mois
en moyenne.
Ok.
Et ton donné,
c'est que des...
25 minutes par jour,
on est vraiment sur des vidéos
de moins d'une minute.
C'est quand même énorme.
Mais surtout, comme tu le disais,
il y a beaucoup de gens
qui y passent très peu temps.
Et donc ça veut dire que...
Il y a vraiment des heures
et des heures
pour les plus concernés.
Ouais, ouais.
Donc c'est vraiment...
Il y en a qui disent même
que l'écart entre Netflix
et TikTok va se réduire.
On verra.
Mais voilà.
22 heures par mois en moyenne
de la situation de TikTok,
c'est le premier réseau social.
Parce que du coup,
Netflix est considéré
comme une plateforme de vidéos.
Et du coup,
derrière cette campagne de publicité,
toute millionne,
au-delà sans doute
de rassurer un peu les parents
sur ce qu'on font les enfants,
se cache en fait
une campagne de soft power.
C'est-à-dire que le soft power
c'est vouloir peser
sur la scène internationale
d'influencer un petit peu
les relations internationales,
mais de façon insidieuse.
Donc, oui,
TikTok,
une application
de partage de vidéos,
de danse
et de défis
plus ou moins débiles,
est au coeur, en fait,
d'une guerre entre
la Chine d'un côté
et les États-Unis de l'autre.
Je vous refais un petit peu
l'historique de la naissance
de TikTok.
Ça commence en 2012
avec la création d'une société
qui s'appelle Bite Dance.
Et ils lancent leur première
application phare
qui s'appelle Toutiao,
qu'on peut traduire aujourd'hui
par à la une aujourd'hui.
C'est pas celle-là,
ça c'est une autre,
mais du coup c'est l'application
Toutiao.
En fait, Toutiao,
c'est juste un agrégateur
de contenu
et d'information.
Donc c'est une app de news
ou un genre de févaux.
Oui, tu peux dire
plus, un peu en aggregateur
RSS,
mais en version
plus moderne
et surtout,
qui sait ce que tu aimes,
on y reviendra.
Et c'est un succès
immédiat,
justement,
pour cette raison.
Parce que la PIE fournit
au vraiment le lecteur
du contenu
qui correspond
à ses intérêts,
à ses habitudes.
Bref,
connaît très bien
son utilisateur
et en fait,
c'est déjà la naissance
des algorithmes
de recommandation,
mais c'est en 2012.
Dès le début, c'était déjà...
Dans l'ADN de Biden's.
En fait,
c'est le coeur de Biden's.
C'est la société
qui est derrière TikTok.
On le voit juste après.
Du coup, en fait,
Biden's,
c'est une entreprise technologique
chinoise,
mais en fait,
c'est surtout une entreprise
d'intelligence artificielle.
Je rappelle qu'elle a été
créée en 2012.
Donc à l'époque,
on en parlait beaucoup moins bien,
beaucoup moins,
beaucoup moins.
En 2016,
ils vont même
mettre sur pied
le Biden's IA Lab
avec les meilleurs experts
en apprentissage automatique,
traitement du langage,
vision par ordinateur,
reconnaissance de la voix.
Tout ça nous parle beaucoup
et surtout,
traitement des données.
À tel point que,
à ce moment-là,

qui est assez précurseur,
en matière d'IA,
meta aujourd'hui,
on en a beaucoup parlé
récemment,
va s'inspirer
de ce lab.
Et d'ailleurs,
il va y avoir un peu
des batailles d'embauche,
des meilleurs experts.
En 2016 toujours,
en même temps que la
création du lab,
Biden's lance
une nouvelle application
en Chine,
après son aggregateur de news,
Douyin.
Douyin.
Je sais pas trop comment
dire.
C'est que des noms
chinois et je n'ai jamais
fait de chinois dans ma vie.
Je pense que c'est Douyin
et donc,
une plateforme
de partage de vidéos
très courtes.
Sauf qu'à la différence,
des grosses entreprises
de la tech
en Chine
qu'on connaît un peu,
donc c'est,
enfin qu'on connaît,
mais plus ou moins,
il y a Alibaba
qui parle souvent aux gens,
Tencent un peu moins
et Baidu,
qui est un peu
plus grand,
qui sont derrière
WeChat notamment,
eux,
ils se cantonnent
au marché chinois.
Alors c'est une façon
de dire,
parce que le marché chinois,
c'est un milliard d'habitants.
C'est même un milliard
quatre d'habitants.
Donc c'est un bon marché.
Mais à la différence
de ces autres boîtes-là,
Biden's va tout de suite
avoir une ambition
internationale.
Et c'est pourquoi,
en 2017,
il lance
une version internationale
de Douyin,
c'est TikTok.
Et il y a
une chose
qui va faire que TikTok
va vachement bien marcher
en Occident,
en Europe
et aux États-Unis,
c'est qu'ils vont acheter
Musicali.
Mais non.
Est-ce que ça vous parle ?

J'ai oublié,
peut-être que je l'ai su,
mais j'ai oublié.
TikTok a acheté Musicali.
Ah oui,
TikTok, je te comprends.
Mais c'est pour ça qu'ils ont
fait un kickstart,
ils se sont achetés
juste un
fast pass, quoi.
Exactement.
Et en fait,
Musicali,
à l'époque,
ça marchait bien.
J'ai été donné des chiffres.
C'était,
combien ?
C'était 28 millions d'utilisateurs
en France.
Mais je vous le rappelais tout le monde.
C'était un moment qui utilisait ça.
Et même que je vous souviens,
quand ils ont acheté,
il y a eu un petit élan de
« Ah non, non, non,
c'est de la merde ! »

finalement tout le monde
utilise TikTok.
Mais en fait,
c'est exactement ce que t'as dit.
Ils ont acheté
des bases d'utilisateurs
et même ils ont mis
énormément d'argent
pour acquérir
des grosses bases d'utilisateurs.
Le PDG de Snapchat,
donc,
Evan Spiegel,
a dit que c'était du jamais-vi
pour un réseau social,
la quantité
de pub.
Et l'investissement
pour un nouveau réseau social
pour acquérir de nouveaux utilisateurs,
genre, on peut pas lutter.
Et quand c'est Snapchat qui dit ça,
donc vraiment,
ils y sont allés très très fort
et ça a fonctionné
parce que aujourd'hui,
c'est plus de 1,4 milliards
d'utilisateurs actifs
dans le monde
sans compter les utilisateurs chinois.
Parce que la Chine,
il n'y a pas TikTok en Chine.
Il y a Dayou.
Et c'est deux applications distinctes.


Mais alors c'est vraiment
la même appli.
C'est la même appli.
Sauf qu'elles répondent
au standard du gouvernement chinois.
Ah oui, c'est ça.
Beaucoup moins de danse de jante au nu.
Beaucoup moins.
Beaucoup moins.
J'ai reviendu,
il y a une petite anecdote,
il se faut remonter les bretelles
pour des problèmes de modération, justement.
Alors, moi, je trouve ça
hyper intéressant d'avoir la backstory.
La première chose qui me vient en tête,
c'est, après ce succès fulgurant,
à quoi ça sert de venir nous faire
de la pub dans le métro ?
Ben...
C'est des problèmes de support.
Pourquoi ça sert de faire
des pubs dans le métro ?
Parce que peut-être qu'il y a un petit problème
autre avec TikTok.
En fait,
le problème,
c'est que c'est avant tout
une guerre commerciale
et technologique
entre les États-Unis et la Chine,
je l'ai dit,
alors que les relations
ne sont pas vachement
obofixes.
En gros,
les Américains,
ça les embête un peu
de perdre leur hégémonie technologique.
Alors que justement,
les Chinois, eux,
vont s'en servir
pour asseoir leur conquête
dans le domaine technologique.
Je sais pas si vous vous souvenez,
en 2020,
Trump a voulu interdire
TikTok.
Oui.
Et ils ont même essayé
de le faire racheter
par Microsoft.
Sérieux ?
Oui, j'ai pas pu le dire.
À ce moment-là, c'est en mode
soit en interdit TikTok,
soit Microsoft rachète TikTok,
et dans ce cas-là, c'est OK.
C'est ouf.
On y est passé
ni l'un ni l'autre,
mais un petit peu rigolo.
Et cette menace de bannissement,
revient aujourd'hui
aux États-Unis.
D'ailleurs, très récemment,
je sais pas si vous avez vu,
plusieurs pays ont interdit
à leur fonctionnaire
d'installer TikTok
sur leur téléphone pro.
Et donc il y a les États-Unis,
le Canada,
la Commission
et le Parlement européen,
la Nouvelle-Zélande,
la Belgique
et la France,
très récemment,
qui a dit au fonctionnaire,
je sais pas si c'est
des directives,
mais en vrai,
c'est plutôt bien.
Et ça se compte,
on ne parle pas que pays,
il y a des entreprises
qui font ça.
Il y a une banque aux USA
que je connaissais pas,
il s'appelle Wells Fargo.
Qui demande,
tu connais,
qui demande
à ces salariés
de ne pas installer TikTok,
en tout cas,
sur leur compte pro,
sur leur téléphone pro,
ou alors,
si vous voulez avoir vos mails
sur votre téléphone perso,
ben, installez pas TikTok.
Il y a des un peu
des règles comme ça.
Je pense qu'il y a des gens
qui se disent,
pourquoi ?
Parce que c'est pas juste,
c'est un réseau social
comme un autre,
c'est parce qu'ils sont chinois,
tu n'aimes pas le chinois,
en fait.
Non mais,
je pense que plein de gens
se posent la question.
Et d'ailleurs,
les chinois répondent,
souvent,
par des provocations,
un petit peu,
comme ça, ils sont très virulents
sur leur communication.
Pourquoi ?
Parce qu'en fait,
il y a plusieurs craintes.
Alors,
quels sont ces craintes ?
J'en ai relevé deux,
il y en aurait plusieurs,
mais j'ai mis ça sous deux gros blocs.
Premièrement,
la surveillance de masse
des citoyens,
grâce aux données
qu'ils récoltent,
comme tout réseau social,
et l'influence
qu'il pourrait avoir
sur l'opinion.
En fait,
on a tous en tête
le scandale
Cambridge Analytica
avec Facebook.
Ils avaient récupéré
énormément
de données de Facebook.
Ils avaient réussi,
ou en tout cas, ils avaient tenté,
leur but était d'influencer
les élections américaines
de Trump,
mais aussi,
les élections
pour le Brexit.
J'ai appris,
j'avais oublié cet élément.
La deuxième crainte,
et là,
c'est plus une crainte
étatique des États,
pourquoi ils ont demandé
aux fonctionnaires
de ne pas installer TikTok,
c'est celle
de l'espionnage
par le Parti communiste chinois,
qui serait,
en étroit lien,
avec Biden,
d'après ces gouvernements.
Mais non.
Mais non, mais attends,
parce que justement,
est-ce que c'est vrai,
si ça, on va utiliser ça ?
Je vous avérais tout ça ?
Mais j'y viens.
J'y viens, mais juste avant,
je cite le gouvernement,
le gouverneur de l'État de Virginie,
qui a qualifié TikTok
de cheval de droits
du Parti communiste.
Donc,
Parti communiste chinois.
En ce moment,
ça s'envoie des pics
de tous les côtés.
Certains craignent même
que TikTok
soit un pégasus chinois
qui peut accéder
à tout sur notre téléphone.
Alors moi,
ça me paraît un peu gros,
bêtement à ce point-là,
peut-être,
mais en tout cas,
ça fait peur à tout le monde.
Et d'ailleurs,
dernière info
avant de répondre à ta question,
Arthur,
l'Inde est allée plus loin
que tous les autres pays,
parce qu'en 2020,
ils ont interdit TikTok.
Mais complétement.
OK.
Les Indiens n'ont pas accès
à TikTok ?
Ouais, exactement.
Les Indiens n'ont pas accès...
Les Indiens n'ont pas accès...
...à une de l'une de l'une de l'une
utilisateur de TikTok.
Ah oui.
Oui.
Et en fait,
ils l'ont fait
sous...
il y avait un conflit armé
entre l'armée chinoise
et l'armée indienne
à une frontière.
Ils se sont dit...
Est-ce que c'est bien
qu'il y ait une appli
très proche du gouvernement
qui soit sur le téléphone
de 1 milliard de nos cons-citoyens ?
C'est ça.
Peut-être pas.
Et en fait,
c'était limite en représailles.
Et c'est fou,
parce que tu peux dire,
c'est une application de divertissement.
Ouais, c'est privé.
Qui est au coeur
d'un conflit armé.
Donc moi,
ça m'a vraiment
mindfuck le cerveau.
Est-ce que,
comme tu le demandais,
toutes ces craintes
sont avérées ?
Est-ce que...
Est-ce qu'on a raison
de se méfier ?
Il n'y a aucune preuve
que TikTok
communique avec le pouvoir chino.
Personne n'en a
jamais trouvé.
Et Biden,
c'est force
de le rappeler
dans toutes ses prises de paroles.
Encore une fois,
je dis dernier,
je dis 23 mars,
où son directeur
a dû répondre
aux questions
du Congrès américain.
Je sais pas si vous avez vu
des images,
mais c'est vraiment
un assaut
des parlementaires américains.
Il n'arrive pas
à en placer une.
Tellement, ils sont vénères.
C'est fou,
c'est qu'il a fallu TikTok
pour que les républicains,
les démocrates,
se mettent d'accord.
Puis, on va défoncer TikTok.
C'est fou.
Pendant 5 heures,
il essaie de se débattre
en disant que,
non,
on récolte pas les données,
etc.
Enfin, c'est...
Bref,
vous allez voir des petites
vidéos où il se débattent.
C'est le job.
Le pire job du bon tic.
Un peu de compassion.
Ouais, je me suis sauliant.
Il faut se lever tout.
Mais, en vrai,
ils arrivent à...
à plutôt...
Enfin, ils arrivent,
je sais pas,
ils essaient de communiquer
dans ce sens-là.
Mais,
pour donner du grain un peu
à Moudre,
au crainte des pays occidentaux
de la France,
des États-Unis et tout,
j'ai relevé plein de faits
et de lois, etc.
qui...
Enfin,
qui montre rien du tout,
mais qui...
Il y a quand même des petits soucis.

Premièrement,
commence doucement,
Pékin a pris une participation
en Biden's.
Quand je dis Pékin,
le gouvernement chinois.
De 1%,
mais quand même.
Deuxièmement,
Biden's a déjà subi
un rappel à l'ordre
du gouvernement chinois,
justement,
pour des...
des conçus vulgaires
sur leur application chinoise.
Et là,
le PDG s'est dit
« rongé par la culpabilité
et les remords ».
La base,
je comprends,
honnêtement, je comprends.
La base,
c'est de la survie,
si tu fais pas ça.
Il a présenté
ses excuses publiques,
il a rembauché
4 000 employés
pour mieux contrôler les comptes.
Il est passé de 6 000 à 10 000.
Enfin, vraiment, là-bas,
tu remontres
le trans du gouvernement chinois.
Non mais je te rassure, Artur,
tout cet effort
qui est mis à faire
sorte que le contenu soit
moins...
Ah c'est que pour la Chine, hein ?
... moins horrible.
C'est que pour la Chine.
Ah !
Ça ne s'applique pas du tout
à notre édicteur qu'à nous.
D'après mes informations,
il n'y a 0 personne en France.
Mais quoi ?
Je n'ai pas vérifié,
mais quelqu'un m'a dit ça.
Voilà.
C'était une invité, d'ailleurs.
Une invité d'un certain ?
D'accord.

Elle était allée voir TikTok.
Ah oui.
Il y avait le personnellement.
Bref.
Troisième fée.
Benzons fait partie
de la Fédération Chinoise
des sociétés de l'Internet.
Créant 2018.
C'est un joli nom.
Sauf que c'est une fédération
chargée de contrôler
et diffuser les valeurs
du socialisme
aux caractéristiques chinoises.
Et que d'après les statues
de la Fédération,
quand tu en fais partie,
tu acceptes
une supervision
de l'administration
du cyberespace de Chine.
Ça s'appelle la CAC,
la CAC,
et c'est un organisme gouvernemental chinois.
Vos conclairs,
vous nous appartenez à désormais.
Alors,
il y a 400,
quand même pas,
il y a 400 entreprises,
ou 300 qui font partie
de cette fédération.
Mais tu acceptes
une supervision
du gouvernement chinois.
Donc...
Une supervision.
Une supervision.
Les saints, ça fait très peur
au pays occidentaux.
Ah bah, tu m'étonnes.
Il ne faut pas décoller.
Autre souci,
Bidens a beau dire
qu'ils n'ont jamais transmis
une seule donnée au gouvernement chinois,
et que si on leur fait leur
la demande,
à chaque fois ils disent ça,
si on en fait la demande,
nous refusons.
Évidemment.
Les grands-prins.
Sauf que
le problème,
c'est qu'une loi chinoise
dit exactement l'inverse.
C'est une loi de 2017
sur le renseignement,
qui impose aux entreprises locales
de remettre sur demande
des autorités
des données personnelles
qui réélèveraient
de la sécurité nationale.
Donc c'est proélevatique.
Je cite,
pour tous citoyens sudois,
la participation
au renseignement
est devenue une obligation
au-delà de toute frontière géographique.
Donc ça,
il n'y a pas de...
Non, mais c'est aux États-Unis,
au-delà de toute frontière géographique.
Et c'est une loi
qui a été l'obligation
de donner les infos
de tes utilisateurs
au gouvernement chinois.

Donc ça serait étonnant
que ça ne serait jamais arrivé
depuis le 2017.
Après,
je ne veux pas avoir de problème.
Ça c'est dans les textes
et aussi dans les faits.
Il y a eu des dérives.
Il est TikTok à censurer.
En tout cas,
moi j'ai relevé que
TikTok a censuré le compte
d'une adolescente américaine
qui dénonçait la répression
des Whigours.
Évidemment,
à chaque fois qu'il y a des scandales
comme ça, derrière,
il s'excuse.
La boulette.
C'est une erreur interne.
C'est quelqu'un qui...
Erreur 500.
Erreur 500.
Il y a eu des fuites
de documents internes
demandant moderateur de TikTok
de censurer les contenus critiques
de la politique de Pékin.
Et Lina Fox,
j'enchaîne...
Pardon.
J'enchaîne parce qu'il y en a plein.
Mais Ellen Fox,
qui est responsable
de la vie privée
en Europe de TikTok,
a déclaré
que les utilisateurs de TikTok
en Europe
peuvent être consultés
par des employés de l'entreprise
situés au Brésil, au Canada,
en Chine, en Israël,
au Japon, en Malisi,
aux Philippines,
à Sagapo,
en Corée du Sud et aux États-Unis.
Sur la base,
d'un besoin avéré
de faire leur travail.
Évidemment.
Dans le but
de s'assurer de l'expérience
de la plateforme,
que la plateforme
est cohérente, agréable et sûre.
Mais, en fait,
elle a avoué
que les salariés chinois,
ça, ce que ça veut dire,
les salariés chinois
et tous les salariés de TikTok,
ont le droit
de consulter
les données
des utilisateurs européens
de TikTok.
N'importe qui.
N'importe qui.
Ah oui.
Alors, il y a des...
il y a des contrôles,
il faut justifier que...
Mais dans les cas,
elle a avoué.
Oui, ils ont l'accès
à la base de données, quoi.
Ils ont l'accès à la base de données.
Alors, dans ce sens-là,
j'ai appris quelque chose
qui m'a fait halluciner,
c'est que, donc,
dans l'application TikTok,
il y a moyen d'aller
sur un petit navigateur
qui s'ouvre
quand tu cliques sur un lien
et récupérer
toutes les frappes de clavier
dans ce navigateur
quant à tes sur l'application TikTok.
J'ai vu ça sur
Uneurkite, je sais pas quoi.
Et du coup, ça veut dire,
enfin, tout ce que tu saisis,
potentiellement à t'enregistrer,
donc, des identifiants,
des trucs de carte bancaire et tout.
Ah ouais, non mais...
Oui, oui, c'est vrai.
Mais non mais, ils ne sont pas envoyés.
Crois-nous, Arthur.
Ça reste en local dans ton téléphone, hein.
Ça vous aurez sa va, hein.
Tout va bien, alors.
Et j'ai un dernier fait,
TikTok a reconnu
avoir espionné des journalistes américains
qui ont enquêté sur TikTok.
Ils s'en sont servi
pour identifier une fuite
de données dans les médias.
Mais ils sont masons.
Pourquoi ils ont fait ça ?
Comment ?
Pourquoi ? A quelle occasion ils ont dit ça ?
Bah parce qu'en gros,
il y a des...
Ouais, à quelle occasion ils ont dit ça, t'as dit ?
Ah bah ils ont dit...
Non mais...
Moi, j'ai été le...
Je te dis, quand j'ai fait cette chronique,
j'étais sur le cul.
Mais, genre, ils ont dit,
ouais, on a obtenu leur adresse IP.
Mais en fait, encore une fois,
Behidans a condamné
cette initiative
malencontrose de leur employé.
Oui, ouais.
Evidemment.
Mais à chaque fois,
ça fait quand même beaucoup d'immigrantes
malencontroises de leur employé.
Après, je peux...
Je veux pas prendre parti,
je m'en fous pas de TikTok.
Mais c'est pour montrer
qu'il y a plein plein de choses
qui se passent
et notamment des choses
qui deviennent publiques.
Parce qu'en fait,
quand t'es TikTok,
il y a des moments
où t'es obligé de communiquer.
Et donc tout ça, ça fait beaucoup.
Et vraiment TikTok
eut au coeur
d'un conflit entre les États-Unis
et la Chine
et qui est un conflit assez déséquilibré.
Parce que j'ai appris qu'en Chine,
il n'y a ni Facebook,
ni Twitter,
ni Instagram,
ni Youtube,
tous ces services sont interdits.
TikTok non plus n'y est pas,
mais ils ont leur délune.
Alors que TikTok
est absolument dans tous les pays,
les autres pays du monde.
Oui, il n'y a pas de soft power américain
sur la population chinoise.
Ça n'existe pas clairement.
Ouais, mais ça fait qu'en fait,
si par exemple les États-Unis
décident d'interdire
TikTok aux États-Unis,
eh bien en fait,
ça donne du grain à moudre
pour les Chinois
pour dire,
ah ben finalement,
votre liberté commerciale,
elle est passée où ?
Finalement, peut-être qu'on a raison
de le faire comme...
Vous vous faites la même chose
que nous, on fait visiblement
tout va bien.
Et vraiment,
je n'ai pas cité
tous les dirigeants chinois et américains
qui se répondent par voix de presse interposée,
mais sans voix du moins.
C'est vraiment...
C'est en terme diplomatique,
ça y va quoi.
Parce qu'il y avait toutes ces discussions,
il y a aussi pas mal de chercheurs
qui sont un peu penchés
sur concrètement l'application,
à savoir quels étaient les données
qui étaient remontées,
à quoi ils avaient accès, etc.
Et c'est quand même
objectivement assez inquiétant aussi.
Juste d'un point de vue de...
Parce que là tu parles des journalistes,
des gens qui sont peu décibles,
mais juste d'un point de vue
de la collecte générale d'information.
Et en fait,
il faut vraiment réaliser
que notre perception
de ce qui savent sur nous
est probablement complètement faussée,
et complètement ridicule
par rapport à ce qu'ils ont réellement.
C'est-à-dire que leurs algos,
donc c'est parmi les boîtes
qui ont les algos les plus avancés
en intelligence artificielle
et en analyse du comportement.
Oui.
C'est-à-dire que...
Là-dessus on l'a dit un tout petit peu,
mais l'algorithme de recommandation,
c'est vraiment ce qui fait
le succès de TikTok.
Et pour qu'un algorithme de recommandation
marche, fonctionne,
il faut énormément bien te connaître.
Exactement.
Et donc,
juste l'ensemble des swaps
que vous avez fait
pendant quelques heures sur TikTok,
même pas quelques heures,
je crois qu'il leur suffit
de quelques minutes.
Vraiment c'est les meilleurs.
Et rien que ça,
ça leur permet d'avoir
une compréhension
de qui vous êtes,
ce que vous aimez,
votre religion,
votre...
l'ensemble des moindres détails
de votre personnalité,
bien mieux que vous-même,
vous ne vous connaissez en réalité.
Et donc,
on sait pas à quoi ils ont accès,
les employés,
sur leur panel web, etc.
Mais c'est pas du tout,
c'est pas du tout une vision complotiste
de se dire qu'ils auraient
une fiche sur ta personne
avec ce niveau-là de détail
et d'informations.
Donc, honnêtement,
c'est quand même un putain de cochodrie
à avoir sur son téléphone.
Si vous l'avez encore,
honnêtement.
Non mais, premier degré,
faites gaffe, faites gaffe.
Et...
et posez-vous la question
si vous en avez vraiment,
vraiment besoin.
Et ce qui est fort,
c'est que la justification
a tout trouvé.
C'est-à-dire que c'est pour faire
fonctionner la vie
pour vous proposer le meilleur contenu.
Et vu que c'est du divertissement,
ça passe, crème.
Et ce qui est très fort,
c'est que j'ai aussi appris
que les Chinois n'ont pas du tout
le même contenu que nous
sur TikTok, la population chinoise.
Nous, on a des petits chatoumignons
et des danses Fortnite,
et je sais pas quoi.
Et en fait,
les Chinois reçoivent massivement
chaque jour des vidéos
pour le sens de la nation,
le collectif,
l'ambition personnelle,
mis au service de la Chine.
Et en fait,
c'est un monde parallèle,
leur TikTok,
du coup,
deïeïeïdayoune.
C'est-à-dire que si moi,
j'étais un parti,
un parti comme des Chinois
et que je voulais
trouver un moyen
de miner
l'ensemble des populations occidentales
d'un point de vue de...
des valeurs,
ou de la...
ou de la...
de la productivité,
et tout en faisant
l'inverse sur ma population,
je pense qu'il n'y aurait pas mieux
que TikTok.
Tu te branches
sur leur cerveau directement.
Mais non, mais...
C'est une décrinte,
c'est Galespinain,
mais la deuxième crainte,
c'est vraiment l'influence.
L'influence qu'il peut avoir.
Ce qui est drôle aussi,
c'est qu'en Chine,
leur application,
ils ont demandé à limiter
la consommation de l'application
à 40 minutes par jour
pour les mineurs.
Chose qu'ils n'ont pas demandé pour qu'ils.
Non, non, non.
Pas nécessaire.
Pas nécessaire.
Bon.
Bizarre.
Ah, c'est hyper intéressant.
Mais je ne connais pas tout ce qu'il y a.
C'est hyper intéressant
et c'est un quart du sué.
Père.
Donc, non, non, mais c'est...
Ouais, donc,
il est vraiment ça.
C'est fou parce que ça,
ça mélange de la tech pure,
ça mélange de la...
Enfin, moi, je ne pensais pas
à ce point-là
qu'il y avait des gens
à la Maison Blanche
qui étaient là en mode Tiktok.
Le problème Tiktok.
On a un souci.
Non, mais du coup,
pour conclure,
l'explication maintenant,
elle est évidente.
Si jamais,
dès que vous voyez une pub
de Tiktok
qui essaie de vous expliquer
par un plus B
qu'en fait,
ils ne veulent pas
le cerveau de vos enfants,
mais qu'ils les font grandir
en leur recommandant des livres.
Exactement.
Et bien, en réalité,
derrière, c'est
un énorme démarche
de soft power
pour changer les mots,
les...
pour influer
sur les perceptions,
je pense,
aux...
Démontalités.
Exactement.
Et entre autres,
des parents
qui ne sont pas
sur la plateforme
et donc qui, eux,
doivent être influencés
et pour faire
un sort de Soviet Tiktok
parce qu'actuellement,
il y a énormément de débats
comme tu disais,
pour savoir si
on doit l'interdire,
on doit le limiter fortement.
Et donc,
et donc,
ils ont...
La preuve qui dépense autant,
c'est qu'ils vont un peu chauds
au face, en vrai.
Bah ouais.
Et c'est pour
de l'acceptation
faire accepter la plateforme
dans le quotidien des gens.
Et en fait,
ce qui est très fort,
c'est que
il y a...
Moi, j'ai lu un papier
où disais que
est-ce que c'est pas trop tard
pour les pays occidentaux
quand t'as 1,5 milliard d'utilisateurs
D'essayer
d'interdire une plateforme
qui a 1,4 milliard d'utilisateurs
en l'enlans le monde,
c'est compliqué.
Et donc,
du gouvernement,
qui se disent,
est-ce que c'est pas trop tard,
via des campagnes de pub
et de soft power
pour faire accepter
sa plateforme ?
En effet.
Nous verrons,
nous verrons comment ça se passera.
Merci,
Monsieur, pour cette chronique.

C'était hyper cool.
Et on va pouvoir tranquillement
passer à la partie suivante
avec notre invité
où nous allons parler
de technologie
pour rendre...
pour rendre la vue aux aveugles.
Salut !
Si vous appréciez UnorScore,
vous pouvez nous aider
de ouf en mettant
5 étoiles sur Apple Podcast,
en mettant une idée
d'inviter que vous aimeriez
et qu'on reçoive.
Ça permet de faire remonter
UnorScore.
T'es d'une fusée.
Il y a eu des petits changements
sur ce plateau
puisque Mathieu nous a quittés.
On lui a même pas dit
au revoir.
Non, c'est vrai.
La politesse a été abou...
Ah voilà.
Au revoir.
Au revoir Mathieu.
Et nous avons,
sur notre plateau,
Rémi,
comment tu vas, Rémi ?
Très bien.
Est-ce que c'est la première fois
que tu viens dans une émission ?
Oui, c'est la première fois.
Trop bien.
Et bien,
bienvenue à toi.
Mets-toi, Laisse,
comme tu le vois.
Il y a des petits brettes zels.
On t'a servi en eau,
au Sica.
Merci beaucoup.
J'espère que tu t'es bien installé.
Comme je vous le disais,
on va avoir plein de sujets
passionnants avec Rémi.
Notamment,
est-ce que tu veux un tout petit peu
avant expliquer
de manière générale
quel est ton métier ?
On va revenir, évidemment,
dans tout le détail,
dans ce qu'on a prévu,
mais de manière générale,
toi au quotidien,
qu'est-ce que tu fais
pour que tout le monde sache ?
Moi, je suis le directeur
de l'entreprise.
J'ai développé une technologie
qui permet, du coup,
au savag de revoir.
Je suis vraiment un ingénieur de base.
Moi, je fais l'électronique,
beaucoup de programmation.
C'est vraiment mon background.
Ça paraît assez loin
du domaine d'aider
les personnes
éficientes visuales,
les aveugles.
En fait, c'est vraiment très lié.
Comme on s'en doute,
il doit y avoir des histoires
de technologies futuristes,
etc.
Mais moi, je trouve que de l'extérieur,
en tout cas,
nous, quand Mathieu nous a parlé
de ce sujet-là,
c'est Mathieu qui a découvert
ce que tu faisais,
j'ai vraiment pas su
projeter quel type de technologie
ça allait être.
En gros, souvent,
quand on discute
tout le temps de sujet
en rapport avec la IT,
la tech, etc.
et parfois, c'est un sujet
qui a pu te dire,
ok, il doit utiliser
cette technologie-là,
cette technologie-là,
ça doit marcher à peu près comme ça.
Là, on pratique
comment ça fonctionne.
Là, j'étais en mode,
je ne sais pas.
J'ai aucune idée
de comment ça peut marcher,
de rendre la vue des aveugles.
Je te lance pas tout de suite
dessus parce qu'on va
rentrer tranquillement
dans le vif du sujet.
J'ai récupéré, excusez-moi.
Il a perdu le fil.
J'ai perdu le fil.
L'a perdu.
Ah, parfait.
Donc c'est Art à France,
c'est ça ?
C'est bien ça, oui.
La boîte.
Alors, et en fait,
c'est une start-up
ou un...
Ouais, c'est une start-up,
en fait, on en tient
indépendant.
Avant, on faisait des jeux
vidéo,
on faisait des jeux
pour smartphone,
et puis après, on s'est
lancé dans une règle
de la salle.
Mais ça, comment ça s'est fait ?
En fait, on développait
des jeux de stratégie
des Toeure Defense
pour Android et iOS.
Donc on a sorti un premier
qui marchait assez bien.
On n'était que des jeunes
étudiants, enfin,
des étudiants,
il y en avait qui n'avaient pas
passé le bac,
mais du coup, on était
une grosse équipe,
on travaillait énormément
dessus.
Et après, du coup,
il a bien marché,
on a pu se payer
une équipe de graphiste en 1.
Ça a permis de refaire
le jeu, une nouvelle histoire,
être bien mieux structurée,
aller beaucoup plus loin.
Donc au début, c'était
vraiment une croissance
exponentielle.
Il y avait même Céro-1Net
qui avait fait un article
sur notre jeu et tout.
Et le 7, 8e jour,
on est passé 18 000
de téléchargements par jour
à 1 puis 0.
Et c'est jamais remonté.
Pour aucun hasard.
C'est le store qui vous a...
Ouais, on ne sait pas trop.
Tu t'es fait chadobane.
Ouais, il y a...
Il y a plusieurs...
Enfin, on a plusieurs théories
derrière.
On s'était fait attaquer
par une entreprise
concurrente par Justi.
Nous, on avait fait
traîner sur notre jeu.
Il nous avait bloqué
dans pas mal de pays.
En fait, le nom,
c'était...
Enfin, il était similaire,
mais c'était un nom commun
à des jeux de PC.
Et puis en fait aussi,
il y a le fait qu'en fait,
peut-être que Google Play,
peut-être, il détecte
si le code source
peut être assez similaire
d'un autre jeu.
Et donc, ils vont dire,
bah, c'est deux fois le même
jeu qui est republié.
Parce qu'en fait,
il y a les images sources.
Bah, elles n'étaient pas
du tout le pareil.
Mais il y avait même
un nom de fichier, etc.
Il y a plein d'agences
qui font ça,
qui font des clones de jeux
encore et encore et encore
qui viennent de l'argent.
Donc ça ne va pas poser
problème dans l'an.
Après, nous,
pour optimiser,
pour optimiser,
débugger.
En fait, ce que j'avais fait,
c'est qu'on ne publiait pas
le jeu avec le code
complètement compilé.
En fait, c'était du coup
de l'interpréter.
Et en fait,
quand il y avait des retours
de bugs,
en fait, j'avais vraiment...
Chaque personne qui testait,
j'avais les retours de bugs,
les lignes de code,
le nom du fichier,
les noms des variables.
Donc ça, pour débugger,
après, je recevais,
bah, par exemple,
une certaine de milliers d'erreurs.
Et comme ça,
je pouvais être trié par la fréquence.
Donc pour débugger,
c'était un plaisir.
En quelques secondes,
je corrigais des trucs
qu'on aurait fallu des jours
et des jours pour débugger.
Et donc le...
Donc la code...
Le jour au lendemain,
c'est...
C'est jamais vraiment relancé.
Du coup, la courbe,
c'est vraiment un trait,
du coup, quand on regarde.
Et l'autre,
il a continué de fonctionner
pendant quelques années.
Puis après, on a arrêté,
maintenant,
c'est...
De certains temps,
il te veut dire quoi.
Ok.
Bon, dans tous les cas,
c'est pour le meilleur,
puisque ça vous a amené
à faire ce que vous faites aujourd'hui.
On va rentrer dans...
On va rentrer, justement,
dans le vif du sujet.
La question qu'on vous propose
de traiter aujourd'hui,
c'est, peut-on envoyer
des images à votre cerveau
grâce au sens du toucher ?
On peut paraître complètement absurde.
On ne va pas parler de...
de réalité virtuelle,
mais vous allez voir qu'en réalité,
cette technologie,
si elle est possible,
on va voir ça avec notre invité,
pourrait permettre énormément
de choses en réalité,
à commencer par rendre la vue
potentiellement aux aveugles.
Évidemment,
on pense aussi
à plein d'autres possibilités,
dont on parlera,
des possibilités futuristes alternatives
aux...
On pense au Google Glass, par exemple,
avec les...
les systèmes intrusifs de notification,
peut-être ça pourrait être remplacé
par des systèmes de toucher.
On va pouvoir discuter avec ça,
justement,
et débattre avec tout ça.
Toi qui connaît justement bien
cette technologie.
Première question
que j'ai envie de te poser,
du coup, c'est,
est-ce que scientifiquement,
c'est quelque chose de vraiment possible
de envoyer des images
en utilisant du toucher.
On se dit, c'est des sens différents,
et pourtant, peut-être que c'est possible.
En fait, dans les années 80,
il y a un neurologue,
c'est Paul Bach-Kereta,
il a fait une sorte d'énorme machine
pour tester et savoir
si on pouvait remplacer
le sens du toucher...
de la vue par le sens du toucher,
qui a fait une machine,
c'est pour la taille d'un petit contenaire,
donc il y a une énorme chaise,
et donc,
avec plein d'un...
de systèmes,
enfin, pour envoyer des impulsions
dans le dos,
donc il a réussi à prouver
que c'était possible.
Mais après, quand tu dis
des impulsions dans le dos,
c'est quoi ?
C'est pas un signal électrique,
c'est pas...
En fait,
enfin, lui,
il n'avait pas utilisé
des impulsions électriques,
c'était purement mécanique,
c'est des petits picots
qui rentraient et qui sortent,
donc il avait fait,
ça tenait, du coup,
dans une grosse chaise,
il faut un peu,
une sorte de chaise,
un peu de dentiste,
un truc énorme,
donc les personnes devaient se mettre
dessus,
donc, ils faisaient des exercices,
donc, c'est dans le but
de prouver que c'est possible,
parce qu'après, les technologés,
c'était pas suffisamment mature
pour en faire quelque chose.
Mais comment, comment, comment c'est possible ?
Notre cerveau,
se peut se reprogrammer
pour échanger des sens,
comme ça ?
En fait, les sens sont très pour eux,
entre eux, en fait,
enfin, on se dit,
c'est facile de faire la différence,
la vue est le toucher,
mais parfois, en fait,
entre les sens,
on ne fait pas du tout la différence.
Par exemple,
un téléphone qui vibre dans leur poche,
parfois, on ne sait pas
si on la sentit vibrer,
on l'a entendu vibrer.
C'est vrai,
et tous les sens, c'est pareil.
Enfin, c'est juste connecter au cerveau,
comme plein de câbles USB,
et après, les périphériques,
ils envoient les informations
et puis,
c'est traité par le cerveau,
et le cerveau,
il va associer
en fait les différents sens.
En fait,
il associe les différents sens
pour les affiner.
Et les sens,
ils peuvent être
un peu reprogrammés
pour en faire autre chose.
Par emploui,
le système auditif
permet d'avoir
une perception du relief
en 3D,
si on a de l'entraînement.
En gros,
les aveugles qui
sont de naissance,
ils arrivent à développer
la perception des masses.
C'est avec la variation
de la pression atmosphérique,
ils peuvent te donner
des informations sur environnement.
Donc, ils peuvent te dire,
non,
en fait, on peut s'en rendre compte.
Si vous êtes dans un couloir,
vous sentez peut-être un peu de pression
sur vos oreilles,
vous vous concentrez,
et si vous passez
à côté d'une porte ouverte,
vous sentez un peu moins de pression.
Et donc, eux,
ils ont ce sens
qu'ils ont développé à fond,
nous, ils ne nous servent à rien,
parce qu'on voit.
Mais eux, du coup,
ils ont développé à fond,
ils peuvent vous donner
plein d'informations
sur ce qui les entoure.
Et donc ça,
c'est énormément, énormément.
Et donc, bah...
On dirait un truc de chauve-souris.
Oui, c'est comme je le sais,
ils ont des ultrasons.
Oui, c'est...
Du coup, ils ont moi pas
de ultrasons.
Je sais qu'il y en a qui peuvent faire
des bruits de basket.
Des bruits de langues.
Oui, exactement.
Avec la langue,
ils font des claquements de langues,
et du coup,
avec des coubres,
ils arrivent à se localiser.
Il y a pomme dans les sports,
il y a le C6 foot.
C'est du foot,
mais avec les yeux bandés.
Sérieux ?
C'est impressionnant.

En fait, les sports à l'aveuque,
ça n'a rien à voir avec les sports,
bah en voyant.
Par exemple, la Cour-Sapier,
on a fait des tests
avec Tim Houtté Adolf.
Là, il fait un peu le buzz,
parce qu'il s'était fait virer
d'un avion à cause de son chiens-guide.
Et lui,
du coup,
il me raconte son histoire
de Cour-Sapier,
quand il y a eu des problèmes
d'ordre d'un championnat,
par exemple,
il avait mordu sur une ligne,
parce qu'il avait couru,
mais pas suffisamment droit.
On se dit,
il n'est jamais quelqu'un
qui a un champion sportif,
il va pas courir droit.
Et là, il te dit,
c'est une des problématiques,
tous les sports,
en fait,
ils sont différents,
c'est une autre approche.
Donc ça ressemble
au sport,
du coup,
la Cour-Sapier.
Et finalement,
c'est...
Un peu plus intéressant.
Et du coup,
ça crée des choses différentes.
Et du coup,
vous vous profitez
de cette porosité
entre les sens
pour en tirer profit,
justement,
et tenter
de redonner des images
à quelqu'un
qui n'est censé
plus pouvoir en voir.
C'est ça.
En fait,
la plupart des personnes
qui ont un déficient de visuel,
par exemple,
ceux qui...
Le mot aveugle,
en fait,
c'est un peu englobé
pour simplifier
les gens qui disent
ce qui sont aveugles,
mais peuvent être
juste malvoyants.
Peuvent savoir
s'ils fait jour au nuit,
s'ils peuvent voir,
comme dans le trou d'une serrure,
un petit truc comme ça,
ou juste sur les bords,
très légèrement.
Et en fait,
nous,
le truc,
ça a complété
ce qu'ils ont
dans les résidus de vision.
Ça va pas obstruer
ou couper
ce qu'ils perçoivent.
Et donc ça va s'additionner,
donc ça donnait
beaucoup plus de finesse
de la perception.
Et en fait,
il y a un truc
qui est...
En fait,
non,
on fait pas avoir,
on fait percevoir.
En fait,
si vous vous imaginez,
par exemple,
une voiture en face de vous,
en fait,
ce sera pas la même chose
que si vous la voyez.
Il n'y a pas le même ressenti.
C'est un beau paysage,
ce sera magnifique en vrai,
et si vous l'imaginez
dans votre tête,
ce sera pas du tout la même chose.
Ça va pas se plaisir.
Peut-être pas la même résolution,
ou je ne sais pas comment dire,
mais...
Bah,
ce n'est pas du tout
le même ressenti.
Et avec le dispo-liti,
c'est vraiment comme si
on l'imagineait.
C'est...
C'est plus un ressenti.
Je ressens ce qu'il y a
autour de moi.
Donc si on veut,
là,
imaginer ce que pourrait
permettre la technologie,
j'imagine une voiture,
et bien,
c'est comme ça
que ça se ressentirait.
C'est ça?
Oui,
c'est vraiment comme ça.
Moi,
la première question
qui me vient,
c'est...
OK,
il y a le constat,
il y a la preuve scientifique
que c'est possible.
Maintenant,
comment on fait
de se brancher
à un endroit
et regarder
les octets passés
et reproduire le signal?
Comment tu fais,
tu fais du reverse engineering,
et engineering de cerveau?
En fait,
le cerveau,
nous,
on le voit un peu
comme une boîte noire.
On essaie de comprendre
parce qu'il y a pas
une de trois voies qui sont
dessus.
L'œil,
on comprend très bien
comment ça marche,
mais il servait beaucoup moins.
Et donc,
nous,
on fait énormément de tests.
Donc c'est comme
quand on t'entraîne
un modèle
pour savoir comment
fonctionne une boîte noire.
Et du coup,
tu fais plein de tests
et tu regardes les résultats,
tu dis,
il faudrait plutôt
utiliser cette variable,
plutôt envoyer
ce signal, etc.
Et donc pour arriver
à envoyer au mieux
les informations au cerveau,
nous, on a fait des tests
avec plus de 130 personnes.
Du coup,
à chaque fois,
on collecte énormément de données.

le meilleur moyen
de collecter des données
c'est en environnement virtuel
parce que là,
tu récupères vraiment
tout ce que tu veux
très facilement.
Parce qu'en réel,
quand on marche dans Paris
avec des personnes
d'efficiel en visuel,
collecter des données,
il y a les ressentis,
mais les ressentis,
ce n'est pas scientifique.
On ne peut pas vraiment
améliorer les choses
à-dessus.
Alors qu'en environnement virtuel,
par exemple,
quand on faisait des tests
en Minecraft,
on pouvait récupérer
la vitesse des déplacements,
le temps de trajet,
on pouvait récupérer
vraiment tout.
Il y a eu Minecraft,
il n'y a pas roulé dans l'histoire.
Désolé.
En gros,
plutôt que de faire tes tests
en te déplaçant
avec un aveugle
dans une ville,
tu le fais jouer à Minecraft.
En fait,
on améliore la technologie
dans le manque virtuel
et après,
on va tester dans le monde réel
voir si c'est mieux
dans le monde réel.
C'est ouf.
Et donc toi,
ton programme se plug sur Minecraft
pour récupérer les images
et vérifier si c'est effectivement
bien perçu,
comme ça doit être perçu.
En fait,
quand on joue à Minecraft,
ou n'importe quel jeu,
on se connecte
en wifi à l'ordinateur
et on va récupérer
les images directement
de la fenêtre.
Donc au lieu de capter,
par exemple,
les images qui viennent
d'une caméra comme ici,
on duplique
l'écran de l'ordinateur
dans le dos du utilisateur.
Et comme ça,
pour lui,
c'est la même chose.
Pour le ordinateur,
pour le système d'affichage,
c'est exactement pareil.
Que la personne joue à Minecraft
qui se prenne dans la rue,
c'est exactement la même chose.
Donc en joutique,
tu dupliques l'écran
dans Minecraft.
Ça veut dire que
si il y a un cube devant lui,
l'utilisateur tout à coup
va sentir un petit relief
par rapport au reste.
Exactement, ça.
Et est-ce que c'est aussi bête
qu'eux ?
Ben vraiment,
il y a une matrice
avec des petites piques
et un cube
en relief
qui apparaît sur les petits piques.
C'est vraiment ça, vous ?
C'est...
Ben, c'est aussi simplifié dans le main.
Oui, c'est ça.
Mais en fait, il faut arriver
à exploiter au mieux
le sens du toucher
pour envoyer le plus d'informations
au cerveau.
En fait, le sens du toucher,
comme la plupart de nos sens,
en fait, on peut envoyer
pas une rende d'informations
à la fois.
Nos yeux, on est capable
de percevoir 100 millions de pixels
de fois en même temps,
mais sur les autres temps,
c'est beaucoup plus compliqué.
Donc nous, ce qu'on fait,
ça, on utilise une faculté
du cerveau,
c'est capacité de recevoir
plein de petits piquets
d'informations,
mais à très haute fréquence.
Donc un peu comme un...
Et on avait les portes sériales
pour transmettre des données,
donc on ajoutait de plus en plus
de PIN
pour envoyer plus en plus de données.
Maintenant, avec USB-C,
on a envoyé 40 gigabytes de secondes
sur le problème.
C'est juste, on travaille
sur la fréquence, et nous,
c'est rend là-dessus.
C'est comme ça qu'on obtient
les meilleures performances.
On envoie des tout petits
petits paquets d'informations
et à très haute fréquence.
Mais vraiment, la fréquence,
c'est la plus élevée.
Donc, le plus on...
Enfin, là, on va chercher
à atteindre encore
des fréquences plus élevées,
parce qu'à chaque fois,
on se dit, bon, là,
on est capable d'atteindre ça.
On va aller augmenter
par 2 la fréquence,
et on va voir si le cerveau
supporte, et à chaque fois,
ça supporte, mais très rapidement.
La personne, la coutumeur,
il faut prendre en main
le dispositif.
Au bout du 10 minutes
d'utilisation, une demi-heure,
la personne dit, comment on va
encore plus vite ?
La personne, elle, on en dit,
on est déjà au maximum.
Mais quand tu dis
très haute fréquence,
c'est combien ?
Nous, là, on affiche,
du coup, c'est...
c'est de 20 minutes
compte par image.
Donc ça fait 40...
40 fps après.
OK.
Mais on aimerait
monter à beaucoup plus.
En gros, sur la prochaine,
c'est...
C'est déjà énorme, 40 fps.
Pas de seconde, il y a 40
petites pressions dans le dos,
comme ça.
40 petites images,
si ça ne mange pas le dos.
Mais en fait, c'est...
nous, on trouve...
enfin, aucun utilisateur
trouve ça beaucoup.
Tout le monde trouve ça pas assez.
Et en fait,
sur la prochaine génération,
au début, on avait conçu
pour que ce soit un câble USB-C
qui transmet les données
en HDMI, enfin, pour protocole
HDMI, ce qui est tout à fait
standard, et quand on a
regardé les protocoles,
on s'est dit, en fait,
ça va être compliqué de transmettre,
parce que l'HGMI, c'est fait
pour transmettre des grosses images
relativement au tout...
enfin, du football de fréquence
ou de fréquence,
mais on peut pas monter
au-dessus de 300 fps,
et nous, on aimerait pouvoir
envoyer des images
de 2 minutes et secondes,
donc du 5 ans en fps.
Donc c'est l'opposé,
tu vois, tu as les croix du VK,
etc. Et nous,
basse résolution,
mais vraiment bombardée
niveau fréquence.
Du coup, en fait,
tu es limité techniquement
par la norme HDMI,
parce qu'il y a pas assez d'FPS.
C'est incroyable.
Mais pas...
Pourquoi tu as été dans cette configuration, effectivement,
parce que tu fais de la très basse résolution,
et du coup,
tu veux maximiser le nombre d'FPS
vis-à-vis de la résolution, en fait.
En fait, augmenter la résolution,
c'est techniquement plus dur
qu'augmenter la fréquence,
et aussi pour l'utilisation
du dispositif,
parce que nous,
il faut que l'apprentissage soit éclat,
il faut que la personne
l'utilise une première fois,
et directement,
il arrive à faire pas mal de choses.
Et donc le meilleur moyen
pour améliorer les performances,
du coup, à l'utilisation,
c'est d'augmenter la fréquence.
Et du coup,
les gens, ils peuvent jouer à Minecraft, là.
Oui.
Ça marche.
Ça marche bien.
Le premier test qu'on a fait
dans Minecraft, c'était en 2019,
et après qu'on ait passé au monde réel,
en fait, on avait la problématique,
c'est que dans Minecraft,
on n'avait pas vraiment vu ça,
c'était la vitesse de marche.
Dans Unreal, les gens,
ils n'avaient pas vraiment confiance
en eux, en eux.
Ils marchaient à 2, 3 km heure.
Oui.
Donc ce qui n'est pas tellement acceptable,
et là, on est passé,
on s'est dit, il faut vraiment travailler ça.
On a vu le joueur virtuel
qui va réussir à gagner Trackmania Nation Forever
à l'aveugle, les yeux bandés.
On s'est dit,
ça, ça nous fait un bon challenge.
On va jouer à Trackmania à l'aveugle,
les yeux bandés.

Et donc, on a adapté le truc,
et puis on a demandé à des testeurs,
et puis après, on a commencé
focalisé sur un testeur
pour essayer de la meilleure à fond.
Donc, comme ça,
on lui donnait rendez-vous 2 fois par semaine,
donc il jouait peut-être 3 heures par...
6 heures au total, 3 heures par soir.
Et du coup, là, on a pu améliorer
les références.
Et il arrive à jouer à Trackmania,
parce que Trackmania, c'est vraiment subtil
comme jeu.
Enfin, c'est-à-dire que
tu peux pas t'arrêter au milieu
et après,
et continuer ta course.
Enfin, c'est pas comme un Minecraft
où c'est plus contemplatif et compagnie.
Et en fait...
Il arrive à jouer à ça.
Oui.
Donc là, c'est...
En fait, quand j'ai fait des vidéos
pour présenter le truc,
j'ai essayé de mettre vraiment de manière scientifique.
Je l'ai là, je mettais...
Donc, t'as le graphe
avec tous les temps
pour toutes les tentatives.
Et du coup, tu vois,
au fur et à mesure des...
des séances,
en fait, on voit qu'il est limité,
et c'est limité par le nombre de FPS.
Là, on voit qu'il est limité
par le nombre de FPS
et qu'il est très constante
niveau performance.
Et donc, en gros,
il se limite dans la vitesse parce que...
parce que si va plus vite,
la fréquence,
ça ne lui permet pas de...
Ah oui, il n'a pas de ressources.
Il n'a pas de ressources.
Ah oui, de fait, en gros,
c'est comme s'il avait l'info du mur
trop tard, c'est ça ?
Euh...
C'est...
Trop tard,
ou pas suffisamment précis.
Parce qu'en fait,
quand on augmente des FPS,
on peut aussi augmenter
la précision des images,
pas forcément que la vitesse.
C'est pas aussi simple
qu'un FPS
égale une image, en fait.
Oui.
C'est aussi la précision
de l'image que tu as de moins.
C'est ça.
En fait, c'est un peu comme...
le DLSS, c'est ça.
Ou on crée des images intermédiaires
pour augmenter la fluidité, etc.
Et donc là,
c'est un peu là-dessus
qu'on se focalise.
Et quand on a fait les tests,
du coup, avec la personne
qui vous l'a vu,
donc Fabien,
il est non voyant de naissance,
donc on a travaillé
dans un clip,
parce que non voyant de naissance,
il voit le monde
complètement autrement.
Et surtout, il a jamais mis les mains
sur...
Il a jamais joué
un jeu de voiture
parce qu'un jeu de voiture,
c'est pas accessible.
Et donc, nous,
pour nous, c'était très, très intéressant
parce qu'on prend le cas extrême.
Parce que si en fait,
si on travaille avec quelqu'un
qui a perdu la vue
depuis, par exemple, 3 ans,
ça ne veut pas dire
que ça marchera
pour quelqu'un qui a jamais vu.
Oui.
Donc là, ça paraît de pousser
à fond la technologie.
C'est incroyable.
Alors, j'ai une question
peut-être trop précise, mais...
Est-ce que celui
qui a voque de naissance,
il n'a pas, au contraire,
une meilleure disposition
à ce genre de système,
parce que c'est comme s'il avait
une bande passante
plus faible, entre guillemets.
Donc, il ne va pas être pollué
par un sens de la vue
qui se serait développé.
Est-ce que...
Tu vois ce que je veux dire,
ou pas ?
En fait,
on n'a pas fait de tests
suffisants de personnes
pour pouvoir les laisser.
Parce qu'en fait,
il y a la différence.
Et par exemple,
il n'a jamais vu une voiture
par exemple dans GTA.
On avait fait des tests.
C'est comme ça qu'il y a découvert
ce qui était des bretelles
d'autoroute.
Parce qu'en fait,
on lui a expliqué à l'oral,
mais il n'avait jamais vu ça.
Et donc là,
il a pris une bretelle de tourbours.
Ah, c'est comme ça !
C'est incroyable !
Pour lui,
c'était un peu la révélation.
Et en fait,
contrôle de véhicule,
mais en fait,
il y a plein de choses
qui ne sont pas du tout intuitives.
On n'a jamais expliqué.
Et par exemple,
c'est le fait
de contrôler une voiture
quand il se prenait un mur au début.
On disait,
tu recules
pour te remettre dans l'axe,
sauf qu'il reculait
plusieurs centaines de mètres.
Et parce qu'en fait,
en vrai,
quand on conduit une voiture,
quand on se garde,
quand on recule,
on recule vraiment.
Et lui,
il appuie à fond son accélérateur.
Donc il reculait de la même durée
que quelqu'un de réel,
que quelqu'un qui s'est conduit.
Mais du coup,
pas du tout sur la même distance.
Et en fait,
il y a tout ce côté-là
où des choses
qui nous paraissent évidentes,
qui ne le sont pas pour eux.
Et il y a un truc
qui est très étrange,
c'est la perception d'ensemble.
En fait,
la plupart des non-voyants,
surtout ceux qui sont non-voyants
depuis,
qui sont très jeunes,
ils n'ont pas de vue d'ensemble.
C'est par exemple,
qu'on a fait, du coup,
avec lui du dessin,
on lui a dessiné, du coup,
un petit stickman,
donc avec le dispositif.
Donc on a affiché
l'image en enray blanc.
Et il arrivait à me le décrire précisément.

il y a un rond,
il y a une croix,
après,
il y a une sorte de vé à l'envers, etc.
Je lui dis,
mais qu'est-ce que c'est ?
Je ne sais pas,
j'en aurais aucune idée.
Et du coup,
je lui faisais répéter
jusqu'à qui disais,
ah,
c'est un petit bonhomme.
Il était incroyable.
Et en fait,
c'est, par exemple,
les jeux en casse vraiment,
les petits jeux pour bébé, là.
Où c'est juste des petites formes,
une forme de Géraphe,
on le met dans le trou d'une Géraphe.
Il y a 5 petits...
Il y a 5 petits animaux,
les 5 trous, donc c'est très facile.
Sauf que si on le fait,
j'ai oublié de le venir avec,
et si on le fait à l'aveugle,
en fait,
il nous faut plusieurs minutes,
alors qu'on a vu le jeu
pour y arriver,
qu'on ne connaît pas,
parce qu'en fait, on touche les formes,
on n'a pas de vue d'ensemble,
et donc on n'arrive pas à savoir,
on dit, moi, ça, c'est la Géraphe,
alors qu'on a le chien entre les mains.
En gros, c'est le passage du détail
à l'abstraction,
qui nous, nous arrive tout le temps,
dès qu'on est petits, en fait,
qui pour eux est compliqué.
Un enfant de 4 ans,
il fait un dessin,
il a déjà,
nécessairement,
c'est le fonctionnement dans le cerveau,
de faire des traits
pour arriver à
une notion plus générale,
et eux, non.
En fait, c'est que, par le tout,
en fait, la vue,
c'est pas juste,
je peux toucher de loin,
partout au jeu,
parce qu'en fait,
enfin, c'est,
avec la vue,
on a la capacité
d'avoir une perception d'ensemble,
alors qu'un objet,
si on touche les yeux fermés,
alors beaucoup de mal,
alors qu'on a toutes les informations
pour s'en faire une représentation.
Donc c'est pour ça,
enfin, du coup,
ils n'ont pas tout l'entraînement
que nous, on a eu
pour avoir une vision d'ensemble.
Donc ça, c'est vraiment une nuance,
et nous, on n'a pas ce problème-là
avec le dispositif,
par exemple, quand on faisait des exercices,
par exemple, une fontaine,
quand il était face à une fontaine,
on lui demandait de décrire
ce qui était face à lui,
bon, avec le bruit, il devinait
que c'était une fontaine,
mais il pouvait décrire précisément,
alors qu'il a que le toucher,
même si on lui donnait
une version en primo en 3D,
il aurait eu du mal
d'estimer que c'était une fontaine.
Donc c'est,
non seulement,
c'est une nouvelle manière
pour avoir de la formation,
mais c'est même comme
s'il y avait des compétences
débloquées, quoi.
C'est-à-dire que tu,
tu lui donnes accès à une,
une version du monde
complètement nouvelle
qui, qui devait vachement chambouler.
C'est, on a vu quand même quelqu'un
jouer à GTA à laveur,
dire cette phrase,
c'est complètement fou.
Là-dessus, j'ai deux questions.
La première, c'est
comment ils réagissent en fait.
Genre, c'est les,
les gens qui, peut-être,
ils se sont un peu habitués
maintenant, etc., au fait que
c'est possible de jouer
à des jeux vidéo
aussi complexes que ça.
Mais, mais c'est quoi
leur réaction, toi,
tu as c'est à quoi, comme réaction ?
Lui, j'ai dit que c'était
un de ses rêves d'enfance,
parce qu'en fait,
c'est ses cousins qui jouaient
à GTA, à Sanderias.
Donc, puis, c'est dit,
c'est fantastique, on peut
faire vraiment tout ce qu'on veut
et tout.
Et c'est dit, mais jamais,
je pourrais faire ça dans ma vie.
Et là, je sais plus quel jour,
il m'en avait parlé,
du coup, on s'était,
à l'après-midi, je me suis
amusé à, à,
à programmer pour que ça marche,
pour se connecter à la fenêtre,
etc.,
changer de la caméra,
parce que, en fait,
la caméra de base,
on a le véhicule,
donc j'ai juste déplacé
la caméra un peu vers le haut,
comme ça, on ne voyait pas le véhicule,
parce que sinon,
permanent, si il voyait le véhicule
et du coup, ça demande plus
de concentration.
Et lui, il a dit, mais c'est fantastique
d'avoir ce plaisir de,
du coup, là, on a mis
les lance-roquettes,
là, sur le véhicule.
Et du coup, c'est le plaisir
de pouvoir exploser,
d'être poursuites
avec des flics, etc.,
des choses, en fait,
nous, on aime bien ce que,
dans les jeux vidéo,
parce qu'on a pas le droit
de faire dans le monde réel
ou qui est trop dangereux.
Mais lui, c'est des choses
qui ne sont pas du tout possibles
dans le monde réel.
Conduire une voiture,
bon, du coup, après ça,
on lui a fait conduire
une vraie voiture.
Ah bah attends, je suis pas sûr.
J'allais y arriver, je te dis.
Pour l'instant,
on est dans le monde réel,
donc, dans le monde virtuel.
Donc, tu fais des jeux vidéo,
tu l'étais, etc.,
la question,
évidemment, que tout le monde
se pose, c'est,
est-ce que ça se transpose
dans la vraie vie?
Genre, est-ce que c'est possible
de conduire une voiture
comme ça dans la vraie vie?
Oui.
Et je veux dire.
Ça, c'était le premier test
qu'on a fait en voiture.
Là, c'est un Clio C1.
Et donc là, on a mis
une blanche au sol.
Donc là, après, on a fiché
une sorte de mur virtuel.
À gauche et à droite,
pour me...
Parce que,
virtuellement,
c'est facile à faire.
Comme ça, il y a des sortes
de murs, et donc, il y a
plus qu'à suivre.
Bon là, vu que c'est filmé
avec un téléphone,
ça stabilise pas.
Mais c'est pas une pelouse,
c'est une prairie
où il y a des chevaux.
Donc, ça se couvre
énormément.
Et là, il roulait,
enfin, il pouvait pas rouler
plus, plus vite,
parce que sinon,
il bat de casque
qui touchait le sol.
Mais, enfin, c'était...
c'est facile.
Il va assez vite là,
quand même, hein.
Franchement, ça...
Il y a en fait,
la grosse différence
dans les performances,
et pas en moi,
quand j'ai conduit après lui,
j'ai moins bon
performance que lui,
parce que lui,
ça, c'est sa voiture.
Donc là, c'était...
C'était un carré,
il travaillait avec nous,
il avait les yeux bandés.
Mais c'est sa voiture,
et en fait,
les angles de braquage
d'une voiture à l'autre,
ce n'est pas du tout les mêmes.
Et comme tu as beaucoup
moins d'informations,
bah tu braques pas
de la même manière,
et tu dis non,
c'est pas possible,
simplement,
on envoie des mauvaises
informations,
donc je braque plutôt comme ça.
Et du coup,
la françaisage, oui.
Et attends, parce que,
toi, quand tu l'as testé,
c'était avec ton dispositif,
c'est ça ?
Oui.
Est-ce que tu peux nous montrer
à quoi ça ressemble, en fait ?
Parce qu'il est là depuis tout à l'heure.
Il fait de l'oeil de la voiture.
Donc là,
pour la captation d'informations...
Donc ça par exemple,
c'était à l'avant de la voiture.
Oui, en fait,
on l'a scotché
sur le pare-brise,
comme ça,
on a une bonne vue d'ensemble
de haut.
Donc là,
c'est juste un bordana
pour pouvoir le mettre
sur la tête
quand on fait des testons
en marche.
Et là,
ça,
c'est la ceinture
qui va ficher, en fait,
dans le dos les images.
Donc là, c'est plein de petits
picots.
Donc ils prennent 2 secondes,
2 minutes pour se déployer.
Et donc comme ça,
on peut afficher
à ces hautes fricons.
Comme chaque picot,
c'est un pixel.
C'est un pixel, oui.
C'est trop stylé.
Et en fait,
ça, c'est...
C'est beaucoup plus petit
que ce que je m'imaginais.
C'est-à-dire que moi,
je me suis dit,
à ce stade,
ça doit être
une lourde technologie
que tu déplaces
dans un gros sac à dos, etc.
T'as besoin de...
C'est que c'est quel poids
actuellement le dispositif ?
Ça, c'est à peu près un kilo,
mais en fait,
on le porte comme une ceinture.
C'est pas du tout gênant.
On peut faire...
Quand on joue
6, 5 heures
à Trackmania d'affilée,
en fait,
ça ne nous gêne pas du tout.
Mais en soi,
là, sur la prochaine version,
ils seront 8 fois plus petits.
Donc 2 fois plus petits
dans chaque dimension.
Donc 8 fois plus petits.
Et en fait,
il y a des moyens,
donc dans quelques années,
en fait, de pouvoir faire ça
pour que ça fasse
quelques micromètres d'épaisseur.
Classeinture,
tout ce que vous voyez là.
Ah, vis-à-vis.
Faire quelques micromètres
d'épaisseur.
En fait,
par la lithographie,
il y a les moyens de fabriquer
les processeurs.
Il y a moyen de faire
des composants mécaniques.
Donc,
c'est-à-dire les memes.
Et par exemple,
les micros des iPhones,
c'est fait avec de la lithographie.
Et donc,
on fait ces composants
qui sont mécaniques.
Donc, par exemple,
les acceleromètres
qui sont dans les téléphones,
c'est aussi le même processus.
Et du coup,
on peut fabriquer ce genre de choses.
Donc, ça peut être limite
intégré dans un vêtement,
quoi,
ou un truc comme ça,
qui ne pèse quasiment rien.
Et en termes,
là, on a parlé du capteur,
enfin, de les metteurs,
entre guillemets.
Au niveau de la puissance de calcul,
ça doit bien être calculé quelque part.
Ça marche comment ?

Alors.
Ça, c'est une grosse boîte,
parce que,
ici, il y a les batteries.
Donc, ça, c'est des batteries,
c'est batterie portable
pour recharger les autres tes fans.
Donc, c'est des petites batteries
de 10 000 ou 20 000,
ou de 1,5 000 en perte.
Ok.
Il y a une jet-sons de nano.
Donc, c'est une carte NVIDIA
qui permet de faire un peu de calcul.
Donc, ça tourne sur le Linux.
Ok.
Donc, c'est pratique.
Et après, il y a le circuit imprimé
qu'on a designé,
qui permet de...
À la connexion.
...controller des picots indépendamment.
Et en fait,
le niveau capacité de calcul,
en fait,
bah,
comme on est obligé de faire
des traitements d'image,
du coup, assez rapides,
on consomme pas mal de ressources.
Mais en fait,
il y a pas mal de moyens
pour qu'on puisse optimiser
dans le rensein.
Donc, là,
on travaille avec du NVIDIA.
Le problème du NVIDIA,
c'est que c'est difficile
de faire quelque chose de portable.
On va passer
à des processeurs Qualcomm
de la 2-téléphones portables.
Ouais.
On va faire une sorte de téléphones
portables sans écran.
Enfin, avec un écran mécanique.
Ok.
Mais avec...
Et là, en fait,
on pourra faire vraiment
tout ce qu'on veut,
parce que,
niveau traitement d'image,
ça devient vraiment
performant.
Trop fort.
Et est-ce qu'on peut imaginer
qu'on parle de capter les réels?
Bon, c'est évidemment
l'application évidente,
la plus intéressante.
Mais moi,
je me demande tout de suite,
est-ce que tu pourrais diffuser
d'autres choses là-dedans?
Genre,
l'interface d'Android,
par exemple,
ou pour leur faire utiliser
des applis,
ou des notifications,
des choses comme ça,
du texte,
enfin,
est-ce que c'est quoi les limites,
en gros,
d'un dispositif comme ça?
En fait,
déjà,
ce qu'on va faire,
c'est que le dispositif
va tourner son Android.
On va ouvrir un store,
et donc tout le monde
pourra développer des applications.
Donc,
au lieu d'afficher,
du coup,
les images,
ça les enverra,
du coup,
sur le dispositif.
Donc, c'est pour adapter
les interfaces.
Mais ce qui peut les aider
énormément,
c'est qu'il y a toujours les problématiques
par exemple,
les sites web,
ou il y a la pop-up
pour les cookies,
parfois,
elle n'est pas adaptée
aux personnes déficientes visuales,
et donc,
avec leur lecteur d'écran,
on peut pas se prolir dans la page,
il peut pas récupérer
plein d'informations,
et du coup,
si on bougeait d'appeler quelqu'un,
j'ai un problème sur cette page,
est-ce que tu peux me dire
où est le bouton,
faut que je clique dessus?
Oui,
il y a des applis qui permettent
de faire ce genre de trucs,
de se faire aider, etc.
Mais là,
ça veut dire que,
en gros,
tu règles un problème
massive d'accessibilité,
parce que,
en fait,
tu leur donnes la même interface
que tout le monde
à savoir une grille de pixel.
Ouais, c'est ça.
En fait,
leurs problématiques,
c'est plein de petits problèmes
au quotidien,
et du coup,
nous,
on va les aider là-dessus,
parce que c'est plein de petits
problématiques,
pour emporter l'application,
ils ont mis à jour qu'ils ont
déplacé un bouton,
enfin,
ça ne fiche pas dans les mordes.

Enfin,
comme un développeur
développe pour des personnes
qui voient,
ben,
avec le Disploitist,
ce sera très facile,
parce qu'on aura
accès à ces informations-là.
Par exemple,
sur Android,
si vous allez dans les paramètres
développeurs,
vous pouvez afficher,
du coup,
le bord des boutons.
Et du coup,
par exemple,
c'est un bouton
un peu discret
pour qu'il soit ergonomique,
ben,
nous,
on peut afficher,
du coup,
les bords des boutons,
comme en mot développeur,
quand on déblugue
une appli qu'on développe.
Et du coup,
ça va ressortir
sur son image,
bien plus,
qu'il a projetté dans le dos.
Mais du coup,
est-ce que,
je ne sais pas si vous pouvez aller,

est-ce que,
moi,
un voyant,
il pourrait utiliser une machine
comme ça,
est-ce que,

j'arriverai à lire
et à comprendre
ce qui se passe dans mon dos,
et...
Qu'est-ce que ça pourrait nous servir?
Est-ce que je pourrais essayer de jouer
à Minecraft,
que je vende,
ce serait possible?
Oui,
les premiers testeurs,
c'est nous,
donc,
quand on fait une mise à jour logicielle,
on teste d'abord avec nous
pour éviter de déplacer quelqu'un.
Donc,
ça,
il n'y a aucun problème.
On le teste,
et non,
sur nous,
mais en fait,
pour nous,
c'est le côté percevoir
avec cette résolution-là,
ça ne nous intéresse pas,
mais après,
il y a plein d'applications.
Mais c'est...
J'aurais pas dit,
en fait,
moi,
je m'attendais à ce que tu dis,
que ce soit pas possible,
parce que...
On est trop pollué par ce qu'on voit.


La bande passante,
justement, du cerveau,
elle...
J'aurais cru qu'elle était polluée
par,
entre guillemets,
nos yeux, etc.
Mais en fait,
si,
là,
je pourrais mettre ça,
et dans le métro,
si je veux jouer à
un main-card, par exemple,
je vais juste à fermer les yeux,
et je vais jouer à main-card.
C'est ça,
fermer les yeux,
ça aide à se concentrer
quand on utilise le dispositif.
Un peu comme tout,
quand on ferme les yeux,
si on doit se concentrer
sur une musique,
ou je sais pas quoi,
on peut fermer les yeux,
test-test-t'est-rère.
Mais oui,
il n'y a pas de problème.
Et puis, en plus,
c'est beaucoup plus facile
en tant que voyant,
parce que vu qu'on connaît,
on a déjà vu le jeu,
on comprend beaucoup plus facilement
ce qu'il s'y passe.
Et quelles applications,
t'as imaginé,
c'était sûr,
t'y as pensé.
Là, évidemment,
c'est fantastique,
tout ce qui est permis
d'un point de vue de accessible.
Imagine ce truc-là,
dans sa version 2,
sa version 3,
sa version 4,
dans 5, 10 ans,
qu'est-ce que tu verrais
comme possibilité avec?
En fait,
il faut prendre en compte
que la plupart des technologies
développées pour les personnes
handicapées,
c'est des technologies
qu'on utilise au cote 1.
En plein machine à écrire,
c'était inventé
pour les personnes aveugles
pour écrire en braille.
Sauf que, maintenant,
on se dit,
c'est beaucoup plus efficace
que d'écrire avec un stylo.
Donc, on a les ordinateurs
qui utilisent ça.
Les manettes pour les télévisions,
c'est aussi pour les personnes
en fauteuil roulant.
Les lunettes de soleil,
il y a plein plein de technologies.
Les télécommandes?
Ouais, les télécommandes,
c'est ça.
Mais en fait,
c'est juste que,
comme c'est un marché
qui est moins exigeant
parce qu'ils ont des problématiques
plus élevées que nous.
Mais du coup, c'est par là
que développent les technologies.
Et nous,
du coup,
notre autre objectif,
c'est que la technologie
puisse aider tout le monde.
Parce que comme ça,
en fait,
ça aidera encore mieux
les personnes déficientes visuelles.
Parce qu'un dispositif
que tu vois à 100 millions d'humilité
ou qui peut être bien plus
à grande échelle,
du coup,
il ne coûtera rien pour eux
et ce sera beaucoup plus utile.
Donc, pour les voyants,
par exemple,
on parait des jeux vidéo,
il y a toujours la problématique
dans une interface de jeux vidéo.
C'est que tu vas ficher
des informations maximales
ou des indices.
Donc, l'avantage,
c'est qu'on pourra déporter
des informations,
du coup, dans le dos.
Par exemple,
le plus classique,
ça peut être le GPS,
la carte qui a fiché,
on la fiche dans le dos
au lieu qu'il soit en permanence
sur l'écran.
Ça peut être purifié.
Ou si,
si on était en train
de faire ton vélo,
au lieu d'avoir le vieux téléphone,
ce qui se dit
off-flèche à droite.
Exactement.
Tourner dans 50 mètres.
En fait,
comme on pourra faire
le dispositif
de manière vraiment très fine,
on pourra l'intégrer
au dos d'une montre
connectée.
Donc, on aura une interface,
du coup, très basse résolution,
mais pour suivre un GPS,
on n'a pas besoin de grand-chose.
On a besoin juste
de savoir une flèche,
dans combien de temps je tourne.
Et en fait,
vu que ça s'utilise
le sens du toucher,
c'est un sens
où on perçoit l'information
que si on veut la percevoir.
Par exemple, nos vêtements,
on les sent pas en permanence,
on les sent que si on veut
les percevoir.
Donc ça, c'est génial,
parce qu'on peut afficher
en permanence des informations.
C'est pas intrusif.
C'est pas comme
les notifications du téléphone,
ça fait bip et t'as pas le choix
d'avoir l'intention
que ça fait bip.
Alors que là,
t'affiches en permanence le GPS
et du coup, tu te dis
ah, ben là,
où est-ce que je vais?
Focalise ton attention.
Donc ça prend vraiment
quelques minutes et secondes.
Hop, t'as l'information,
tu sais qu'il faut tourner
là-à-gauche.
À la différence
de tous les trucs
qu'on nous a montrés
avec ta glace, etc.
ou tu as ce truc dissopique
ou tu vas avoir
des notifications
ou des pubs par temps
qui fait peur.
Là,
cette version-là,
moi en boucache,
je sais pas trop,
elle me parle
vachement mieux.
Mais pour le business
des pubs,
ça c'est pas terrible
parce que moi,
j'ignore les pubs.
C'est pareil.
Tu t'as bloqué,
ouais.
Et alors,
tu as passé
le sujet parce qu'on est
partis
de...
On est partis
de faire un autre truc,
mais est-ce que c'est vrai
que t'as aussi
fait des activités physiques?
Donc là,
on a parlé de conduire
une voiture.
Est-ce que ça leur
permettrait aussi d'accéder
à des sports
ou des choses
qu'ils pouvaient pas
faire avant?
Alors,
le dernier sport
qu'on a fait,
c'était le painball.
Il y a deux semaines.
C'est en fait,
enfin,
c'est à chaque fois
qu'on avait une problématique,
c'était la perception de loin.
On avait une perception
à 10 m,
mais on manquait de précision.

tout ce qui était petit,
ça devenait,
avec la perspective,
ça devenait beaucoup trop petit.
Donc,
on a trahi le logiciel
et puis on a donné rendez-vous
à des avocats
de venir à un endroit
pour faire un painball.
Bon, avec les graves,
il y en a quelqu'un
qui n'a pu venir.
Et du coup,
on a pu faire un painball.
Et ça,
c'était assez magique
le premier tir qu'il a fait,
mais il m'a touché.
Ah, vous partez.
Oui,
pourtant, j'étais, je sais pas,
à 3 m.
Et,
même à longues distances,
ça fonctionne.
Parce que,
c'est comme un FPS,
ça devient vraiment très petit.

Enfin,
là,
ça marche jusqu'à 15,
voire 20 m,
mais à 15, 20 m,
au-dessus de 10,
ça devient un peu compliqué.
Parce que c'est dans de
pas mal de précisions.
Et il y a la problématique
de la brune,
parce que,
il y a quelques begouttes
sur les...
sur les caméras.
En fait,
du coup,
ça fout un peu les images,
et donc,
ça n'arrivait plus à percevoir bien loin.

soit,
en fait, on arrive
à corriger la perspective.
Parce qu'en fait,
le problème de la...
Enfin,
en fait,
nous,
on voit pas du tout ce que voient nos yeux.
On voit,
il y a le cerveau qui a interprété
énormément les images.
Nous,
on voit une image simplifiée
qui est transformée.
C'est pas vraiment
des pertes d'information,
mais c'est plus que c'est optimisé.
C'est un peu comme quand on prend
des photos avec nos téléphones.
C'est pas l'image
captée par l'appareil photo,
mais pas de traitement.
Oui.
Par exemple,
j'imagine que la vision périphérique,
si on se concentre un peu,
en fait,
elle est un peu floutée,
et on voit surtout très bien
un rond au centre.
Oui, c'est exactement ça.
Et du coup,
nous,
on essaie de reproduire
tous les fonctionnements de cerveau
qui sont hyper bien conçus,
parce que c'est milliard d'années de...
Oui, dévoile l'évolution, oui.
Et du coup,
on essaie de reproduire tout ça
pour que le dispositif,
on puisse reçoit des informations
qui soient déjà le plus exploitable possible,
que la distance...
par exemple,
un objet à 2 mètres,
si la personne passe à 8 mètres,
qui soit 8 fois plus petit,
il reste plus grand chose.
Oui.
Du coup,
nous,
on essaie de tout déformer
pour que ça soit exactement
comme le cerveau interprète.
Donc maximiser
l'information importante.
C'est ça.
Dans la bonne passante
que tu as à disposition en haut.
Et en fait,
le plus impressionnant,
c'est que...
on explique,
du coup,
tout ce qui est traitement d'image,
on n'explique pas du tout
aux personnes qui testent.
On peut l'expliquer après, etc.
Mais pas avant,
parce que,
si on ne l'explique pas,
la personne ne se pose pas de questions
et comprend tout de suite.
Par exemple,
du coup,
Arthur avec qui on a fait le penball,
j'ai juste expliqué,
on a amélioré le logiciel,
on pourrait tester ça,
tu pourras tirer plus loin.
Mais du coup,
sans problème,
il savait exactement
dans quelle direction j'étais.
Et après,
j'ai pu lui expliquer
comment déformer, etc.
Mais...
Il faut pas expliquer,
parce que sinon,
tu te poses des questions,
du coup,
je sens le truc qui est là,
mais tu vas dire que c'est plutôt là,
etc.
Et en fait,
vu que c'est des mécanismes
qui sont normaux pour le cerveau,
pas de...
Par nous,
c'est ça.
C'est ça.
C'est comme nous,
on n'a jamais appris
qu'est-ce qu'on voit.
Oui, c'est hyper.
Donc,
il n'y a pas de formation,
il n'y a rien,
tu le mets.
Et c'est bon,
ça met combien de temps
avant d'être à l'aise avec ?
En fait,
au début,
tu es capable de percevoir
les grosses masses.
Par exemple,
si tu es dans un couloir,
tu perçois les deux murs,
tu perçois
si tu es plus ou moins au centre,
retourne en orientation.
Et après,
tu perçoites
le plus en plus de précision.
Et en fait,
la plus grande difficulté,
c'est qu'en fait,
le cerveau,
il regroupe
les objets par le plus gros objet.
Par exemple,
une voiture,
tu perçois la voiture,
et pas,
je perçois deux roues,
un rétrovisaire, etc.
Ça regroupe par le plus gros ensemble.
Donc quand il y a plusieurs objets,
mais en fait,
le cerveau,
il faut pousser la personne
à reconnaître qu'il y a plusieurs objets.
Par exemple,
s'il y a deux personnes,
une qui est juste derrière l'ordre,
du coup,
on est obligé de lui dire
tu ne sens pas qu'il y a plusieurs objets,
donc,
qu'il est obligé de se concentrer
au début,
on perçoit qu'il y a plusieurs objets.
Par exemple,
quelqu'un qui a dosé
une voiture,
tu lui dis
mais pas la voiture,
il n'y a pas un peu bizarre,
qu'est-ce qu'il y a, etc.
Tu le pousses
à se poser des questions,
et là,
il commence à voir les détails.
C'est ça,
il commence à comprendre
qu'à poussait son cerveau,
à repérer ces choses-là,
parce que le cerveau,
pour optimiser le traitement,
il récupère les objets les plus gros.
Il fait des moyennes,
c'est ça.
Trop intéressant.
Franchement,
moi,
je ne sais pas ce que c'est,
mais déjà,
j'ai trop envie de le tester.
On va rentrer un testeur.
Après, il est vicieux,
si on peut.
Ça serait incroyable.
Moi,
j'ai quand même une question
pour revenir un peu
sur le fonctionnement
de ça,
des pixels que nous avons montrés.
Tu viens un peu l'expliquer,
mais je n'arrive pas à saisir
comment il gère
la perspective
et la profondeur,
par exemple,
dans Minecraft.
Comment
tu lui dis
que,
je ne sais rien,
c'est-à-dire,
trois blocs les uns derrière les autres,
comment il comprend qu'il y en a
trois les uns derrière les autres
si ton interface
est en 2D de base ?
Un écran d'ordinateur,
en général,
c'est 2D,
tu percevras la perspective.
Mais en vrai,
oui, c'est une très bonne question.
Le problème,
je ne peux pas rentrer
dans le détail,
parce qu'il y a des brevets
qui sont publics,
donc on peut parler.
En fait,
cette partie-là,
de comment on arrive
à vraiment bien transmettre le relief,
je ne peux pas le communiquer,
je pourrais le vous le communiquer,
ça va expéduire.
Mais en fait,
je n'ai pas le droit.
Mais oui,
c'est une très bonne question,
c'est une grosse problématique.
Mais du coup,
il y a un truc
qu'on pourra peut-être faire plus tard.
Et ce qu'il y a derrière,
tel objet,
par exemple, derrière un camion,
comment je peux savoir
si je peux traverser là,
parce que je vois
comment je sais ce qu'il y a derrière le camion.
Et on dit,
mais nous,
on ne voit pas ce qu'il y a derrière les objets.
Mais nous,
avec notre technologie,
on peut afficher les objets
qui sont en travers la matière.
Dans les jeux vidéo,
si on récupère les images,
enfin,
du coup,
avant qu'elles soient générées,
du coup,
on peut avoir les objets
qui sont derrière les autres.

qui sont derrière les autres.


un acte clair.
Mais dans le monde réel,
on n'aura pas trop de moyens,
mais du coup, c'est...
Tu fais de l'infrarouge sinon,
intégrer.
Autre question,
est-ce que,
grâce à ça,
ça pourrait permettre de voir derrière nous ?
Ouais,
en fait,
pour les voitures,
on peut pouvoir intégrer ça
soit au volant,
soit au fauteuil,
pour afficher tout ce qui est dans les rétroviseurs
et angle-mord.
Et en fait,
ça améliorera la sécurité,
parce que parfois,
les gens,
ils peuvent avoir la flemme.
C'est comme,
maintenant, il y a des petites clés de...
Attention,
il y a un truc dans votre angle mort,
faites pas les cons.
Et donc là,
il y a des gens pour afficher les informations,
donc en parant sur le fauteuil,
et comme ça,
il est assez vite à se traîner
que les personnes,
moi, je les regardais,
mais trop vite,
là, ils se sentaient entièrement.
Là, ils se sentiraient en cycliste qui passe à droite.
Ouais, ça,
donc il n'aura pas besoin de se croiser trop bien.
C'est génial.
Donc dans le Paris,
ce serait ouf,
parce que là,
je suis venu à vélo,
et il y a une personne qui a eu la flemme de regarder
avant de tourner,
parce qu'il était sur la voie de droite,
du coup,
il y a eu la flemme de tourner,
donc moi,
j'ai dû tourner avec,
parce que je devais aller tout droit.
Mais du coup,
avec le dispositif,
j'aurais senti, du coup,
bah...
Il aurait senti que t'étais là,
quoi ?
Ouais, c'est ça.
Physiquement.
Ouais.
C'est incroyable.
Ah merde, j'avais une question.
Non, c'est si.
Une question extrêmement simple.
T'es en train de nous faire, évidemment,
une masterclass
sur des sujets
qui ont l'air ultra-ponsus.
Comment tu as arrivé
à faire tout ça ?
Ah, ça choquait à la base.
Tu as commencé
en faisant du développement
de jeux vidéo
sur Android, tu vois.
Comment t'as fait ça ?
En fait, je pense que c'est
ce domaine qui m'a pas aidé,
parce que, du coup,
on est toujours optimisés,
du coup,
quand on développe des applis,
d'optimiser les interfaces,
comment on rend les choses les plus
compréhensibles.
Donc là, ça m'a pris une grande chose.
Après, j'ai regardé une énorme conférence,
du coup, par exemple,
la dernière conférence
d'une Rilangine,
la semaine dernière.
Le dur est 7 heures,
mais si on enlève les parties inutiles,
on arrive.
Et du coup,
les conférences de vie,
ça aide
à se pouvoir se dire,
mais en fait,
c'est les mêmes problématiques
qu'on a de comment faire le raytracing, etc.
Comment arriver à faire optimiser ça,
de rendre des images
le plus réalistes possible.
Du coup, c'est toujours des astuces,
des petits trucs qui font
pousser toujours la barre un peu plus loin.
Donc c'est là leur plus grosse source d'inspiration.
Et après, on travaille
avec des orthoptistes,
sauf Talmo.
On ne parle pas du tout la même langue,
mais on se comprend.
Du coup, ça, c'est hyper important,
parce qu'il va râgner des choses.
Je suis obligé de me concentrer
pour rendre ce qu'elle dit,
et elle, le objectif, c'est quand on
s'entraîne pour comprendre ce que je dis.
En fait, on parle de la même chose.
Et donc ça, c'est vraiment misant.
Le chat, là, évidemment, demandé,
est-ce que c'est possible de l'acheter ?
Et c'est oui, quand ?
Il sera possible d'acheter, normalement,
fin 2023, il sera sur le marché
ou en début de 2024.
Donc là, on a un négociation
avec des industriels et surtout
des investisseurs pour financer la production.
Mais...
On espère, en tout cas.
Et si tu devais, du coup,
imaginer cette technologie
que vous développez là
dans 5 ans ou dans 10 ans,
à quoi ça ressemble,
où est-ce que tu le vois intégré ?
C'est quoi, tu en as en Paris
ou tu en sois...
On va dire, parmi tout ce qui est possible,
le truc qui toite fait...
Parce qu'on a donné quelques exemples
déjà sur la monde,
le...
la voiture, etc.
Toi, si tu devais...
un truc pour toi, tu vois,
ce serait quoi ?
Je pense que le plus probable,
c'est les mondes connectés.
Parce que le problème des mondes,
c'est qu'il faut regarder
pour avoir l'information.
Donc c'est plus un objet de...
pour l'image,
alors que là, ça rendrait vraiment
le dispositif vraiment utile.
Donc là, je pense que c'est l'endroit
où ça sera le plus pertinent.
Après, pour les avocs, du coup,
ils prendront un patch plus grand
pour avoir des grandes images.
Mais je pense que c'est vraiment
ce domaine-là.
Du coup, c'est un domaine
où il y a vraiment de la demande,
où il y a déjà les interfaces
qui sont faites, parce que,
bah, les...
En fait, sur une monde,
on affiche des choses
toujours très simples.
Donc en fait, il y a déjà
le software qui est déjà prêt, quoi.
Et même même le texte,
ça marcherait ?
Le texte...
On a fait de la lecture,
mais le problème,
c'est que c'est lent,
parce qu'on affiche du coup...
Lettre par lettre, oui.
C'est ça. On affichait
Et embray, du coup ?
Non, parce que...
Non, on n'a pas fait embray.
On pourrait faire embray,
c'est encore plus simple,
mais si on s'est dit comme ça,
on décide.
Enfin, on a les caractères.
Mais en fait,
enfin,
vu que le vocale,
c'est beaucoup plus efficace
pour transmettre du texte.
En fait, nous, on a la...
Enfin, le texte,
le langage verbal,
c'est un langage codé.
C'est...
Donc, si on double le nom
d'information,
ça demande 2 fois plus de temps
au cerveau pour comprendre.
Donc, s'il y a 2 fois plus de mots,
ça prend 2 fois plus de temps
pour comprendre le message.
Alors que les images,
c'est pas codé.
S'il y a 2 fois plus de pixels,
c'est plus clair.
Ça demande moins de temps
au cerveau pour analyser l'image.
Donc, codé, ça veut dire,
plus c'est gros, plus c'est complexe.
Ouais, c'est ça.
Alors que, bah, dans l'image,
je répare une photo,
personne ne se plaint
ou le nom d'image par seconde,
personne ne se plaint.
Oh, il y a beaucoup trop de pixels.
Oui, c'est clair.
C'est clair. On n'y pense pas, mais...
OK.
Et ben, hâte de voir ça.
Je sais peut-être qu'un jour,
quand tu auras une...
une gigantesque entreprise,
tu reviendras sur ce plateau.
Avec les clients.
On aura tous une montre
avec café.
Et ça coûterait combien ?
Il sera sur le marché à 3 000 euros.
Donc, ça peut être...
En fait, c'est correctif.
Moi, je décide pour rassurer
que si...
En fait, on essaie de viser
le prix du marché
pour les cannes électroniques,
les lunettes qui lisent du texte.
Mais après, par exemple,
un chain guide,
c'est entre 20 000 et 40 000 euros,
la formation.
Et après, il y a tout ce qui est
thérapie générique pour la rétine,
les implants rétiniens.
Là, pas du tout,
dans la même gamme.
Tout le monde a cherché.
Enfin, c'était vraiment
la conception de base.
On a travaillé avec des composants
standards, parce qu'on s'est dit
si le prototype,
ça nous coûte un bras pour le fabriquer,
c'est pas dérangeant pour le prototype.
Mais en production,
ce sera la guerre qu'on aura eu à faire
un produit avec cette table.
Donc là, tu es vraiment sur une gamme
qui est ultra accessible
et qui va probablement,
honnêtement, changer le quotidien
de beaucoup, beaucoup de gens.
On espère, oui.
On espère.
Trop, trop, en fait.
J'ai dit, merci beaucoup
d'avoir pris le temps de passer chez nous
et de nous raconter tout ça
en détail, on vous souhaite, évidemment,
le meilleur.
Et en tout cas,
je crois que le chat a vraiment bien, bien
apprécié.
Je vous propose qu'on
clôt l'émission en direct.
Mais vous ne bougez pas,
vous ne bougez pas,
puisque maintenant,
tout de suite, vous allez
assister à l'interview exclusive
qu'on a fait
avec des agents de la DGSU.
Pour l'instant,
vous pouvez vous abonner à la chaîne
de Harta France
pour suivre les évolutions
de votre projet.
Et vous ne bougez pas.
Nous, on se dit à dans deux semaines,
puisqu'on sera dans le chat,
on sera avec vous dans le chat.
Mais vous ne bougez pas,
puisque dès maintenant,
c'est l'interview
des agents de la DGSU.
C'est parti.
Pour la première fois
de l'histoire de la DGSU
et en partenariat avec elle,
Nous avons l'immense honneur de recevoir deux agents en fonction Julien et Marie.
Marie nous parlera de son travail d'enquêtrice et Julien de forensic.
Vous allez voir, c'est passionnant.
Pour des raisons évidentes de sécurité, vous ne les verrez pas.
Mais on a quand même réussi à mettre en place une démonstration.
À base de cassage de mot de passe de clé USB ou encore d'analyse de machine virtuelle,
c'est parti pour une interview exclusive d'agents de la DGSE.
Bonjour à vous deux.
Est-ce que vous pouvez commencer par m'expliquer c'est quoi votre job respectif ?
Alors mon travail, ça va être de recevoir des supports.
Donc on a pu capturer, trouver sur le terrain, un port d'Olylène,
prendre ses supports, en extraire le maximum d'informations.
Ces informations vont sûrement être chiffrées, protégées,
parce que de nous aujourd'hui, il y a plus en plus d'informations qui sont chiffrées.
Et donc on va être de déchiffrer ces informations pour pouvoir les capitaliser,
à extraire du renseignement, de la donnée utile pour le service.
C'est pour votre référence.
À la DGSE, je fais ce qu'on appelle de la city-high.
Pour que les gens voient un peu de quel type de menace on parle.
Ça peut être un pays, ça peut être quoi ?
Alors dans les menaces cyber, tu as en gros deux grosses menaces pour moi.
Tu as les menaces étatiques qui viennent de pays,
ça va être vraiment tout ce qui est cyber espionage.
Tu as les menaces qui sont plus, d'autant on entend beaucoup parler,
dans les médias et notamment au moment de la crise du Covid.
Donc les rentres se moir.
Et ça c'est plus le secteur privé, c'est tout aussi crucial pour la France,
puisque ça peut représenter des entreprises qui sont déterminantes pour la sécurité des femmes.
C'est quoi la différence entre une attribution ?
Qu'est-ce que c'est ? Et une imputation.
Est-ce que tu peux nous expliquer parce que c'est du jargon de ton métier justement ?
Et c'est très important en fait.
Alors une attribution, ça va être quelque chose d'officiel en fait.
C'est un pays, d'un gouvernement d'un pays qui va vraiment dire
cette campagne d'attaque nous l'attribuons à ce pays, cette organisation,
ce groupe de cyberactivistes.
Alors qu'une imputation, c'est quelque chose qui va rester en interne,
entre guillemets, officieux, attribution officielle, imputation,
quelque chose d'officieux qui ne sort pas dans les journaux.
Et en fait c'est rare.
C'est très très rare.
Il y en a eu une dans le journal du monde pendant l'été 2021, je crois.
C'était quoi l'histoire déjà ?
C'est une campagne d'attaque qui a été attribuée à la Chine.
D'accord.
Et sur des services viteaux français ?
Donc sur une campagne d'attaque, ils faisaient des services viteaux français.
On précise bien, vous-même, vous n'êtes pas sur le terrain,
vous travaillez du coup normalement dans le terrain d'accueillir.
Exactement.
Mais en fait, toi, des renseignements que tu peux trouver sur ces supports informatiques,
ils peuvent ensuite être utiles à d'autres agents.
C'est pas moi qui vais ensuite faire le traitement du renseignement,
c'est pas moi qui vais prendre des notes sur dire qui fait quoi.
Mais moi je vais vraiment extraire toutes ces informations
pour qu'ensuite d'autres bureaux puissent travailler dessus.
Et une question que beaucoup de gens se posent, je pense, dans la sécurité,
c'est est-ce que tous les processus de chiffrement sont cassables ou pas ?
Non, tous les processus ne sont pas cassables évidemment.
Sur le papier, on a des algorithmes qui sont cassables,
qui ont été prouvés mathématiquement comme étant cassables.
Après là, nous on va chercher les files où on peut les exploiter.
C'est sur la partie humaine, donc le choix des mots de passe par exemple.
Ou alors ça va être sur la partie implementation,
sur la manière dont l'algorithme a été implementé.
Parfois il y a des files, il n'a pas été effrayé correctement dans le logiciel
pour qu'on peut exploiter ces files logiciels ou matériels pour obtenir un déchiffret.
C'est-à-dire que le processus de chiffrement lui-même
est 100% prouvé sur le papier,
mais au moins l'implémentation, il y a du code.
Soit par l'implantation, soit pour l'utilisation,
il y a des files qui s'ouvrent à ce moment-là et c'est ça la com-exploit.
Ok, en sachant l'arsenal dont t'as disposition pour casser ce genre de choses,
si demain tu devais avoir un document très important
et faire en sorte que personne ne puisse jamais mettre la main dessus, tu ferais quoi ?
Alors j'utiliserais des algorithmes connus et reconnus.
Donc voilà, c'est les standards actuels, c'est AES,
typiquement pour le chiffrement,
donc j'utiliserais un logiciel open source qui a été audité,
et vite tout ce qui est source fermée parce qu'on peut pas savoir ce qu'il y a dedans.
Et ensuite je chasserais surtout un bon mot de passe,
ça s'apparaît évident, mais voilà.
Il faut faire un calcul d'entropie, mais bon en gros,
pour avoir un mot de passe solide, il faut compter entre 15 minimum,
avoir un caractère et complètement liatoire,
donc générer par ingestionnaire de mot de passe.
Quelqu'un d'entropie qui te permet d'avoir le nombre de milliards d'années qu'il faudra pour le casser.
Voilà, en gros, l'existence du mot de passe.
Est-ce que Marie, tu pourrais essayer de nous raconter
comment se passe une journée dans ton travail ?
Mon travail au quotidien, ça va être de pivoter à partir de ces,
ce qu'on appelle les indices de compromissions, les AY aussi.
On va essayer de remonter la chaîne d'attaque jusqu'à cette fameuse imputation,
et ça va s'épluer sur différentes capacités qu'on a,
donc évidemment qui sont un peu plus énergées que juste de l'open source,
et aussi sur notre base de connaissance interne.
En fait, c'est de la trac ?
Ouais, en gros.
Mais la trac virtuelle ?
Oui.
C'est fou.
Effectivement, je pense qu'il y a beaucoup de gens qui réouvraient, qui sont dans l'osine,
et qui arrivent très souvent à ce moment,
en termes de, je sais qu'il y a quelque chose qui se cache par ici, là,
mais je n'ai pas les sources, parce que je ne suis pas en haut de la pyramide,
sur cette question de l'arsenal qu'on a quand on rentre à la DGSE.
Il y a quoi dedans ?
Est-ce que c'est que des choses que vous vous développez ?
Est-ce que vous participez aussi dans le monde de l'open source ?
Comment ça marche ?
Tout ce qui est capacité, c'est qu'on ne peut pas dire grand chose.
Comme ce que je disais, l'open source, il y a quand même des petites pépites,
et après, on a évidemment nos propres outils et d'autres capteurs.
C'est pareil pour toi sur le forensic, où je sais qu'il y a plein d'outils qui sont disponibles,
même si les gens veulent s'initier à vos deux métiers,
ils peuvent déjà commencer, il n'y a pas besoin d'être déjà sûr.
Oui, complètement, il y a plein d'outils open source qui sont disponibles pour faire du forensic.
Donc après, le forensic est en vraiment une niche,
les open sources ne sont pas toujours à jour ou maintenues, malheureusement,
mais on peut quand même se faire ces armes sur du volatibit,
des outils comme ça, du test-disque.
Est-ce que tu voudrais te prêter au jeu aussi,
essayer de me raconter dans une mission un peu fictive,
comment se passerait une journée chez toi ?
Dans une opération à l'extérieur de la France,
on aurait trouvé un support, donc par exemple un téléphone ou un ordinateur,
ou n'importe quoi, en fait, tu peux compter en de l'information.
Donc on va recevoir le téléphone, on va faire une extraction sur le téléphone,
donc comme Paul fait la police, comme Paul fait plein d'authentités.
Donc le but, ça va être extraire le max d'informations.
Ensuite, une fois qu'on a cette extraction de téléphone,
là moi je vais devoir chercher qu'est-ce qu'il y a d'intéressant dedans niveau enseignement,
puisqu'ici, je vais me concentrer du coup sur tout ce qui est chiffré.
Donc par exemple, je prends d'une application, je vois qu'elle chiffre ses données,
là je vais comprendre comment chiffre ses données, donc je prends l'application,
je vais probablement faire de la rétro-génériture,
je comprends comment les chiffre,
je vais développer une capacité de déchefering cette application,
si j'identifie une faille ou si on t'en parle d'ailleurs un problème dans l'implémentation
ou l'utilisation, je développe une capacité, je déchiffre cette application sur le téléphone,
et après je rend aux autres bureaux l'information déchiffrée et accessible
pour que d'autres services soient capitalisés dessus.
Toi de ton point de vue, j'imagine que tu ne peux pas nous dire exactement sur quoi tu travailles,
tu vois, mais est-ce que ton avis a changé depuis que tu es à l'intérieur de la maison,
et est-ce que tu es devenu un peu plus parano qu'avant ?
Oui, je répondrais oui, totalement, j'ai augmenté mon threadmodel.
T'accarapace numérique, on va dire ?
C'est ça, voilà.
C'est un passe numérique assez renforcéreur.
Très techniquement, j'avais fait, peut-être que tu l'as vu,
une vidéo où je commandais du matériel sur le mancom et compagnie,
j'essayais de faire ça exactement, de me mettre dans la peau d'un argent, de la DGSE,
et typiquement, je remarquais que les disques durs, c'était souvent du pain béni,
puisque juste, il y a rarement d'vivement,
et c'est très facile de récupérer des partitions, par exemple, à être comme ça.
Si tu as un téniphone, c'était vachement plus compliqué.
Typiquement, ring pour récupérer le contenu de la mémoire, donc dumper la mémoire,
et bien, sans l'alterrer, c'était hyper dur.
Comment tu fais du soude ?
C'est compliqué, donc c'est un domaine très technique.
Il y a des gens spécialisés dans l'extraction, c'est un domaine de pointes,
qui demandent des technologies de pointe, évidemment.
Les trucs sont publics,
c'est pour dire que tu as des extractions logiques qui se font par le logiciel,
et après, tu as les extractions physiques qui se font en prenant directement l'apus du téléphone,
tu as des soudes, tu as des invités dans un lecteur, et tu es incroyable.
Et après, tous les téléphones sont chiffrés maintenant, donc il y a encore d'autres étapes,
et on a enfin avancé l'information.
Le graal.
Tu dirais que le lock, par exemple, sur un téléphone, c'est un truc qui est déconseillé ou pas ?
Ça, c'est suffis de regarder la littérature scientifique,
c'est expliqué, si vous voulez avoir une bonne surpétité,
c'est la mode passe de 15 à 20 caractères,
le fait du direct, ce que je voulais dire.
Sur un téléphone ?
Ah oui, sur un téléphone, super.
Ah oui, mais bon, il faut ce qu'il faut.
Ça, c'est sur ton téléphone ?
Oui.
Sérieux ?
Oui, bien sûr.
Après, ça dépend de son thread model,
là, c'est le point de quand on se protège,
ça dépend de son thread.
Oui, c'est intéressant.
Il faut évoluer son thread.
Tu dirais que c'est quoi les principales difficultés
que tu rencontres qui te font que tu te grattes la tête dans ton travail
et que tu dormes à la nuit ?
C'est quoi le principal challenge de ton job ?
Il y a plusieurs choses.
Parfois, c'est des limites techniques,
où on a des attaques de plus en plus sophistiquées,
où on n'arrive plus à remonter,
parce que c'est trop...
Camouflé.
Camouflé, anonymisé.
Ça, c'est un aspect aussi de ménage général dans le renseignement.
Quand il y a une menace, tu peux continuer à la traquer.
Il faut y remédier.
Et le moment où tu vas publier des indices de compréhension,
tu vas tout perdre.
C'est aussi ça.
C'est clairement pas une décision qui nous appartient.
C'est une décision qui apprend.
C'est un plus...
C'est-à-dire quand le fait de commencer à essayer de remédier à la menace,
fait que toi, ton job se termine puisque tu es gléé.
Oui, voilà.
Exactement.
Et du coup, la menace s'arrête, en effet.
Enfin, il n'y a plus d'attaque, il n'y a plus de compagnie,
mais voilà à quel prix.
Toi, c'est quoi tes principaux challenges du coup ?
Du matériel incassable ?
Ça arrive parfois quand même ?
Oui, il en sent ça.
Évidemment, tout finit par se casser, bien sûr.
C'est une question de temps et de ressources, tout est faible.
Effectivement, là, parfois, il y a une mise à jour,
matériel ou le logiciel qui casse nos capacités.
Donc, c'est en bétro.
On recommence à 0.
On recommence, mais bon, c'est le métier.
Et puis, on finit toujours à retrouver au final.
Ce qui pose le plus de barrière aujourd'hui,
c'est la démocratisation du chiffrement.
La cartographie qui est partout et qui est plus en plus avancée,
sophistiquée.
Il y a dix ans, rien n'était chiffré.
C'était vraiment open bar.
Et maintenant, c'est devenu la banalité d'avoir quelque chose de chiffre.
Qu'est-ce qui vous a amené à d'abord bosser à la DGSE dans le service ?
Comment est-ce que vous en avez entendu parler déjà, Marie ?
J'en ai entendu parler parce que,
il faut savoir que la DGSE recrute énormément de profils techniques
ingénieurs.
Chaque année, il y a beaucoup d'offres de stage.
Après, ça reste le stage.
Mais il y a beaucoup de stage.
C'est comme ça que j'ai entendu parler à la DGSE.
À peu près pareil, j'ai entendu parler des stages.
Moi, j'ai fait un stage pour le coup.
J'ai commencé par ça.
Donc, direct, stage de fin d'études.
Et oui, comme tu disais, il n'y a pas forcément besoin
d'en refaire une grande école d'ingénieurs ou quoi pour accéder à la DGSE.
Il y a vraiment de tous les profils,
que ce soit technicien ou ingénieur ou autre encore.
Et aussi, il y a un truc qui n'est pas souvent connu,
c'est que tu te dis, je vais devenir agent à la DGSE,
égal, je vais avoir une vie très compliquée.
Mais en fait, pas forcément.
C'est à dire que vous vous y travaillez.
En fait, il commence en sortant d'à peu près n'importe quelle entreprise qui serait à Paris.
C'était pareil.
Voilà, on est dans un bureau.
On est jusqu'au terrain de jeu, pas le même.
Voilà, c'est ça.
Exactement.
Mais est-ce que même en étant technicien,
il y a quand même une petite formation sur le tout simplement
le fait que vous allez avoir accès à des informations classifiées
ou des choses comme ça.
Et donc, potentiellement, vous pourriez subir des pressions, des trucs comme ça.
Est-ce que vous êtes formé un peu à vivre ça ?
On est en effet sensibilisés au fait qu'on travaille pas n'importe où.
On travaille quand même à la DGSE,
une entité du ministère des Armées dans la fonction publique.
C'est quand même pas n'importe quelle entreprise.
On se doit d'avoir dans notre vie perso, une sécurité particulière.
Typiquement, on ne peut pas dire n'importe qui qu'on travaille.
Mais ça, c'est une question hyper intéressante.
À qui est-ce que vous êtes autorisé de raconter un petit peu votre vie ?
Parce que si on peut parler à personne jamais de ce qu'on fait,
il y a de quoi est tout fait ?
Que c'est quoi la règle là-dessus ?
En théorie, on ne peut pas développer,
dévoiler déjà son appartenance au service à qui que ce soit.
En public, ça, c'est autorisé.
Ça paraît un peu logique, c'est pour notre sécurité.
Après, ce qu'on fait au travail,
on ne peut pas en parler non plus, évidemment,
parce qu'on travaille sur des choses classifiées.
Il y a des gens qui pensent que c'est horrible de ne pas pouvoir parler
de ce qu'on fait tous les jours.
Et on peut parler avec ses collègues au travail,
en fin de compte que ce soit du même bureau,
que ce soit d'autres bureaux de très loin ou de plus près.
On peut échanger avec des gens qui sont eux habilités.
Dans la sphère, qu'est-ce qui fait que vous restez à la DGSE ?
C'est quoi ce qui vous fait vibrer le plus dans votre job actuellement ?
Moi, j'ai rejoint la DGSE parce que je voulais servir mon pays.
Et je savais que dans le milieu de la cybersecurity,
c'était quand même la DGSE qui avait le « lits » entre guillemets.
Là où il y avait le plus d'enjeux.
Et aussi là où il y avait le plus de capacités.
Et c'est ce qui m'intéressait.
Et ce qui me fait rester, c'est que, comme j'ai expliqué,
mon métier est passionnant.
On a préparé, en fin de compte, la passion pour la cybersecurity,
la passion pour tout ce domaine-là,
et de voir que je pouvais accéder à des capacités assez incroyables,
de travailler sur des sujets uniques.
C'est vraiment ce truc qui m'a motivé à venir.
Et en fin de compte, ce qui me fait rester, c'est que tous les jours,
je vais recevoir un téléphone,
un truc qui vient de n'importe où,
et je vais devoir le casser tous les jours sans nouveau challenge.
Je ne sais pas sur quoi je vais tomber,
mais je fais que la fin de la journée,
je vais peut-être casser et j'aurai aider mon pays aussi.
On se sent utiles.
Je pense qu'on pourrait tranquillement passer à la démonstration.
C'est la fameuse pièce ?
Tout à fait.
La pièce à conviction ?
Voilà, on va prendre cette clé.
Donc du coup, on va voir la...
Ça s'appelle une microde.
C'est qui a pas réexactif.
Donc d'abord, on peut aller évidemment aller chanter un œil,
ce qu'il y a sur la clé.
Deuxièmement vide.
Mais là, voilà, pas grand chose.
Duc.
C'est un peu embêtant.
Mais bon, évidemment, on va pas s'arrêter à ça.
Il y a peut-être des informations qui vont être utiles.
Si on était sur la clé, pour ça, on a choisi de utiliser un outil open source,
qui s'appelle TestDisc.
Et donc là, en fait, on va lui demander de chercher des fichiers
qui auraient pu être supprimés.
Oui.
Donc là, il a trouvé une partition cachée, c'est ça ?
Elle était pas cachée à la partition
parce qu'on arrêtait de s'ouvrir dans le navigateur de fichiers.
Oui, d'accord.
Donc, elle était là, mais elle était vide, apparemment, cette version.

On va quand même vérifier.
Donc on va aller sur un dillite pour vérifier si elle a pas eu des fichiers.
Et là, par exemple, on va qu'il y a un fichier.
Donc on va le sélectionner
et on va aller copier ce fichier dans notre dossier de travail.
Là, on va copier, donne ou un file.

Donc on peut quitter tout ça.
Donc là, on voit que là, il y a de la donnée dedans.

On dirait qu'il y a mon mot de passe, apparemment.
Voilà.
Donc ça, typiquement, ça ressemblait à un combo login mot de passe.
Et là, on voit que le mot de passe, il n'est pas en clair.
Ça ressemble pas à un mot de passe.
C'est assez bizarre.
Et donc là, à vue d'oeil, ça ressemble à un hash.
Ça ressemble à une version modifiée du mot de passe,
une version sécuisée pour qu'on puisse pas lire directement le mot de passe.
Donc ce hash, maintenant, on va essayer de l'attaquer.
On va essayer de retrouver le mot de passe originale.
Donc pour faire ça, on peut encore utiliser un autre type d'open source
qui s'appelle hash4.
Et donc, ce tool va permettre
de ficher différentes attaques sur les hash
qu'on a choisi une attaque par dictionnaire.
Donc c'est-à-dire qu'on va prendre un dictionnaire de mot de passe très courant
et on va le lancer sur ce hash
pour essayer de retrouver le mot de passe originale.
Alors malheureusement, les gens ont tendance à choisir des mot de passe
très simple encore en 2022.
En deux, trois, quatre, cinq, six,
en la Hazardie, etc.
Mais un autre problème, c'est que les gens réutilisent les mêmes mot de passe
sur des sites différents.
Donc sur le Facebook, on va utiliser le même mot de passe sur le Twitter, etc.
Parfois, elle est base de données fuite
et donc c'est mot de passe surtout dans la nature.
Donc c'est mot de passe à utiliser à un endroit.
On va pouvoir l'utiliser à un autre endroit.
En termes de volume, là tu ne vas pas tester 200 ou 300 mot de passe, j'imagine.
Donc là, c'est des millions et encore des millions,
du tout des despiscences X, des milliards, des millions de milliards de mot de passe.
C'est énorme en fait.
Tu vas être réveillé.
Voilà, tu vas être réveillé.
Et donc aujourd'hui, il y a des fuites publiques de base de données de mot de passe
compilées énormes de plusieurs milliards de mot de passe
qu'on peut trouver en libre accession internet.
Il y a probablement votre mot de passe dedans.
Là, il y a des sites qui permettent de vérifier si votre mot de passe a été fuité
et bien souvent, ça marche.
Donc la prochaine étape, ça va être d'utiliser un hashlet.
Donc j'ai encore préparé la commande, encore que hashlet va commencer.
Le mot de passe a été trouvé.
Ça dit 4 secondes.
Et donc, voilà.
Donc en fait, on trouve le mot de passe
microbe de 222 pour ce hashlet.
Voilà, ensuite on proie été des éleulogues,
mais le mot de passe pour se connecter à mes comptes par exemple,
ou faire de l'investigation supplémentaire.
Mais ça, ça sort de ton job.
Voilà, tout à fait.
D'ailleurs, c'est ton vrai mot de passe.
Je sais que tu m'as mis à coup de pression.
Ah ouais ? Vraiment ?
Évidemment, voilà.
Tout a été préparé en amont.
Tout s'est bien aligné.
Évidemment, dans la pratique, c'est beaucoup plus dur.
Et là, t'as fini tes journées.
Tu peux en le faire.
Voilà, c'est ça.
Voilà.
Donc parfois, là, on teste un mot de passe,
mais parfois, c'est des milliers,
voir des centaines de milliers de mot de passe qui va trouver.
T'as demandé de la décapacité de calcul beaucoup plus importante.
Est-ce qu'on passerait à la prochaine démonstration ?
Tout à fait.
Alors là, on va passer un petit cap en complexité.
Voilà, la machine de...
Une cible qui prétend intéresser le service.
On voit qu'on a un logiciel qui s'appelle TrueCrypt.
Donc TrueCrypt, c'est un logiciel assez connu
qui est arrivé de faire du chiffre au monde.
Là, sur le bureau, on a un fichier conteneursecret.mb4.
Là, on est sur la machine de l'attaquant,
enfin de la cible.
T'as un fichier vidéo sur ton ordinateur,
qui n'est pas un vrai fichier vidéo ?
C'est pas un fichier vidéo, voilà.
Donc une des spécificités de TrueCrypt et d'autres logiciels,
c'est qu'on peut utiliser n'importe quel fichier
pour faire un conteneur qui va compter deux fichiers.
Ah, en gros, c'est un genre de disque dur, maquillé, un fichier.
C'est ça. Donc en fait, il peut s'appeler n'importe comment,
mais si on essaie de l'encer avec un lecteur vidéo,
ça va pas marcher, ça va pas...
Ça va pas lire.
Donc il faut se méfier des extensions fichiers,
c'est parfois conteneur.
Mais voilà, c'est pas ça qui nous arrête, heureusement.
Et donc là, on a...
J'ai monté un conteneur qui a été monté sur un disque.
Donc là, on peut imaginer que je fais mes petites choses dans mon conteneur.
Et puis, j'éteins l'ordinateur.
Je vais faire autre chose.
Je vais rouler l'ordinateur, j'ai fait autre chose.
Donc là, je vais en mettre dans le rôle de mon métier.
Et je vais procéder à faire un dump de la mémoire vive de l'ordinateur.
Donc on va copier la RAM de l'ordinateur.
Donc la RAM, c'est la mémoire vive qui, quand elle est débranchée,
perd toute l'information qui a su.
Tout à fait.
Et ça représente toutes les processus, les activités,
qui sont actuellement en cours dans ce système d'exploitation allumée.
Ça a toute l'intelligence de l'ordinateur et d'endroit.
Et donc pour toi, trouver la RAM, c'est ça, ça a énormément de valeur.
Ça fait, parce que dès que quelque chose est affché sur l'écran,
par exemple, dès que quelque chose est écrit,
en fait, tout ce que c'est l'ordinateur, c'est dans la RAM.
Donc évidemment, ça peut inclure des mots de passe ou des clés ou des choses comme ça
qui peuvent nous intéresser.
Dans la pratique, ça peut être plusieurs sources.
Donc soit physiquement, on va se brancher sur la RAM pour la lire,
mais ça, c'est un attaque assez rare.
Comme même, soit sur Windows par défaut, on a la veille prolongée qui est activée.
Donc, par exemple, si votre ordinateur n'a plus de batterie,
il va se mettre en veille prolongée automatiquement pour sauvegarder ce qu'il a tué.
Et il va s'éteindre et copier la RAM.
Voilà. Mais non.
Et en fait, il copie la RAM sur le disque dur dans des fichiers d'hypermation.
Donc, ces fichiers sont que sur le disque dur.
Ils ne sont pas chiffrés.
Qu'est-ce qu'on en fait maintenant ?
Maintenant, on va utiliser un autre outil d'open source qui s'appelle Volatility.
Donc, pareil, un petit bien connu de la communauté.
Donc, c'est un outil.
Il est créé en piton et il permet d'analyser ses fichiers de dump,
d'analyser la RAM et d'en extraire des données intéressantes.
Là, on va lui spécifier le profit de la machine qui nous intéresse.
Donc, si c'est une version, on va lui donner notre fichier de dump.
On a généré juste alors.
Et on va lui passer le module qu'on ne veut plus n'utiliser.
Donc là, le module s'appelle Cookrip.space.
Donc, évidemment, ça peut être intéressant d'avoir ça.
Donc, on va lancer.
On va voir ce qu'il va nous donner.
Donc, il y a 2 giga d'ra.
Donc voilà.
Là, on voit qu'il a trouvé quelque chose.
C'est trop dur.
Donc, à l'opset qui nous a donné.
Là, on voit un mot de passe de taille 10,
mi-code, un 2, 3, 4.
Ce qu'on va faire, c'est qu'on va prendre ce container.
Donc, pareil, on prend notre disk de notre cible.
On copie le fichier container secret pour l'MP4.
Parce que c'est celui-là qui nous intéresse.
Vu qu'on a un dump, on a une copie du disk.
On va pouvoir lancer Veracrip.
Veracrip qui permet notamment d'ouvrir des fichiers trop cryptes.
On va lui spécifier notre petit fichier qu'on a copié.
Donc, containersecret.mp4.
Et on va essayer d'ouvrir avec le mot A.
C'est bon, là, on va essayer de cliquer.
T'es 3, 4.
Donc, là, on va essayer de voir si c'est l'arrivée ou pas.
Voilà, on va accélérer si ça a monté.
Et donc, si on gouvre...
Trop stylé.
On va prendre un fichier.
Attendez une seconde, je pense que ça vaut le coup
que j'explique pourquoi cette demonstration est ouf.
On a une cible qui a visiblement des choses à cacher.
Pour cacher, ces fichiers, elle va utiliser True Crypt,
qui a un logiciel très connu.
Son ordinateur passe en mode veille,
ce qui nous permet à nous enquêteurs
de récupérer le contenu de la mémoire vive de l'ordinateur.
On ne connaît pas son mode passe True Crypt.
On ne peut pas accéder à ces documents ultra chiffrés.
Et pourtant, grâce à cet outil Volatility,
notre Espion National a réussi à scanner
l'entièreté des 2 giga d'arames
pour retrouver pile-poil exactement l'endroit dans la mémoire
ou est-ce toquer la clé de chiffrement secrète ?
Ah, mon calomètre !
Voilà, il est bon à réussir à trouver les images
sur les tentes dans les discurs durs.
Terrible, trop stylé, franchement, c'est hyper intéressant.
C'était hyper cool.
Vous avez passé un bon moment ?
Oui, carrément.
Merci à la DGSE d'avoir accepté ce format exceptionnel.

Les infos glanées

Je suis une fonctionnalité encore en dévelopement

Signaler une erreur

Underscore_

IA, Hacking, Robotique — Des conversations de terrain avec ceux qui construisent. 🥨


Partenariats: underscore@micorp.fr


---


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Tags
Card title

Lien du podcast

[{'term': 'IA', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Investissement', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Nouvelles Technologies', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Tech', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Actu tech', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Cybersécurité', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Développement', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Dev', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Entreprenariat tech', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'IT', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Robotique', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Technology', 'label': None, 'scheme': 'http://www.itunes.com/'}]

Go somewhere