Ça, c'est Nico qui pensait il y a encore 6 mois qu'il ne serait jamais proprio.
Ça, c'est Nico dans son appartement qui a découvert que grâce à Nexity,
on peut être proprio à partir de 534,17 par mois pendant les 3 premières années.
Loup mon lapin, c'est maman, tu m'ouvres !
Et ça, c'est Odile, la maman de Nico qui l'a aidé à devenir proprio.
Mais bon, qui a quand même un peu de mal à couper le cordon.
Le montant de 534,17 par mois est une estimation de l'effort d'épargne nécessaire
pendant la durée de l'offre de remboursement de 3 ans.
Voir conditions complètes sur Nexity.fr.
Il y a un an, Meta préparait les orions.
Des lunettes de réalité augmentées absolument dingues.
70° de champ de vision, affichage stéréo, un petit bijou de technologie.
Le problème, c'est que chaque paire coûtait 10 000 dollars à fabriquer.
Et Mark Zuckerberg lui-même disait qu'il faudrait 5 à 10 ans avant de pouvoir les commercialiser.
Sauf que là, seulement un an plus tard,
Meta vient de sortir des rebanes avec un écran intégré à 800 dollars.
Alors, par quelle sorcellerie est-ce qu'ils ont réussi à diviser le prix par 10 ?
Est-ce qu'il y a eu une percée technologique majeure dont personne n'a parlé ?
Qu'est-ce qu'on ne nous dit pas ?
Stan Laroc, qui est expert en réalité augmentée et fondateur de Linux,
va nous expliquer ce qui s'est vraiment passé.
Et spoiler, la vraie révolution, c'est même pas les lunettes,
mais ce mystérieux bracelet qui va avec.
Là, on a l'impression qu'en un an, le progrès a été soit monstrueux,
soit qu'il y a un guillisouroche.
Qu'est-ce qui s'est passé ?
Il y a un peu un guillisouroche quand même.
L'année dernière, les Meta Orion, c'est toujours, encore aujourd'hui,
un bijoux technologique qui coûte encore plus de 10 000 balles à fabriquer.
C'est des lunettes avec des waveguides, avec des guides d'ondes, stéréo.
Déjà, tu as un écran dans chaque œil.
Couleur à 70 degrés de chandu.
Dans un matériau qui est de carbure de silicium, silicone carbide, qui coûte très très cher.
Pour expliquer, juste pour rappeler un peu, c'est ça qui permet,
alors que même tu vas avoir un peu de luminosité extérieure, etc.,
de quand même arriver à distinguer des rayons qui se refractent sur ton verre
et qui arrivent dans ton œil et qui vont se superposer au réel.
C'est ça ?
C'est un guide d'ondes.
Donc, tu as un écran qui est là.
Il y a un chemin optique qui est créé entre cet écran qui projette dans cette direction-là
et un retour sur ton œil.
Donc, ça passe par des techno de manufacturing complètement folle.
Ils utilisent du carbure de silicium parce que c'est un indice de 2.6 extrêmement élevé.
Donc, plutôt un indice élevé, mieux c'est, mais ça coûte très très cher.
C'est l'indice de réfraction, du coup, c'est ça ?
C'est ça.
Là, ce qu'ils ont sorti cette année, ils ont fait quelque chose d'extraordinaire.
C'est-à-dire qu'ils ont sorti avec une marque Ritale Grand public, Reban,
un produit qui a de l'incrustation de réalité augmentée.
Mais, ce n'est pas stéréo, c'est monoculaire.
Donc, c'est-à-dire que c'est juste dans un œil.
Donc déjà, tu divises ton coup par deux.
Ok.
Et après, ce n'est pas 70 degrés de chandvue, c'est 20 degrés.
En gros, le chandvue humain, c'est entre 200 et 220 degrés,
en fonction de où est-ce que tu es dans la chine alimentaire,
ton équin, ta pupillard, les trucs.
Google Glass, c'était 15 degrés.
On a fait plus 5 degrés dans un produit éthiqueté Reban, Métain.
Ce n'est pas la même techno de guide d'onde, ça coûte moins cher.
On sait où c'est fabriqué, on sait combien ça coûte.
Ça coûte quand même relativement cher,
dans le sens où je pense que, comme ce que j'ai dit les autres années,
ils continuent devant la perte.
Elles sont vendues à combien ?
800 dollars.
800 dollars.
En fait, la techno qui est finie comme étant le guide d'onde des métas-display,
c'est une techno qui a 5 ans,
et que j'ai pu essayer il y a très longtemps.
Donc il y a cette photo où je prends un selfie avec ce prototype,
le prototype s'appelle Loomus Maximus.
C'est la société Loomus, qui est une société israélienne,
qui fait le guide d'onde.
Ils avaient fait cette démo en utilisant un L-Cos de Campaign Photonix,
Campaign Photonix, une société qui faisait l'écran,
qui s'est fait acheter par Snapchat.
Le monde est tout petit.
Loomus Maximus, vous voyez,
j'ai une image qui est projetée dans mes yeux sur les deux yeux,
et on reconnaît un peu le pattern sur les métas-display.
Vous pouvez regarder, il y a des stris sur une partie de l'écran,
et ces mêmes stris, on les trouve au-dessus de mes sourcils.
Ça, c'est une vidéo que j'avais prise avec mon téléphone
de ce qu'on voit à travers ce Loomus Maximus.
Vous voyez, on voit l'image un peu qui est projetée.
Il y a une espèce d'abération, une aberration chromatique,
où on pense que l'uniformité de la couleur dans l'image,
typiquement, n'est pas très bonne.
En fait, c'est un problème plutôt de l'appareil photo que de l'image.
Vous avez pu tester les lunettes.
L'image est très correcte, les couleurs sont très bonnes.
C'est la question que j'avais posée.
Mathieu, tu l'as essayé.
Toi aussi, tu l'as essayé.
Qu'est-ce que t'en as pensé ?
En termes d'expérience utilisateur et tout ça,
c'était quoi, votre débrief ?
C'est un peu ce que j'essaie d'amener dans la comparaison
avec ce qu'ils ont montré l'année dernière,
qui est un peu le nec plus ultra.
Regardez là-bas, on va y arriver.
Et ce qui est aujourd'hui sur le marché,
c'est-à-dire qu'en cas d'usage,
par rapport à une montre connectée ou même ton téléphone,
je ne vois pas encore trop ce que ça apporte.
Très honnêtement.
Et je suis le premier défendeur de cette techno.
Je pense que ce n'est pas tant lié au produit,
mais c'est lié au fait que Meta n'ait pas accès à Android ou iOS
autant qu'il le voudrait et donc aux API
qui permettraient de voir tes appels ou tes SMS en temps réel.
Ils n'ont pas encore tout ça.
C'est le gros problème.
La grosse frustration de Marc-Luc Herbert,
c'est qu'il n'a pas de plateforme, tu vois, de OS.
C'est ce qu'il essaie de faire avec les lunettes et les casques.
Et donc ils ont cette limitation
où tu as un super hardware,
tu as des super Reband Meta Display.
Tu as un super bandeau, on va parler du bandeau aussi.
Je dirais que le bracelet est plus impressionnant que les lunettes.
Ben justement, on va revenir dessus
parce qu'il y a plein de trucs très intéressants
d'un point de vue de l'interface utilisateur,
et surtout de l'expérience dans la VR et la R,
c'est le challenge principal au-delà de la technologie.
Toi, ça m'intéresse aussi de ton point de vue
plus d'utilisateur final.
Franchement, j'étais plutôt agréablement sur lui.
Je ne suis pas quelqu'un qui va acheter
tous les petits objets connectés, devices,
dès qu'ils sont nouveaux.
Bon, il y a un gros problème, selon moi,
c'est l'écosystème beaucoup trop fermé pour moi.
Mais sinon, par exemple, moi,
typiquement, le FOV, comme tu dis, de 20 degrés,
n'ayant pas d'autres testés, autre chose,
ça m'a pas gêné.
Je trouve ça quand même assez cool.
Là, du coup, je les ai testés
grâce à Soraya et Tina du Studio Mej.
C'est marrant parce que, on s'y fait vachement vite.
Genre, au bout de 15 minutes,
toi, en tout cas, tu les sens plus.
Alors peut-être que sur une journée, c'est un peu lourd.
Ça, je ne sais pas.
Mais moi, j'ai trouvé que c'était très cool.
On peut faire un peu la liste des démos
que tu as fait qui sont disponibles.
Tu vas avoir de l'aide au déplacement.
En France, donc, il y avait juste la carte.
Il n'y avait pas de navigation, tu pouvais suivre un point.
Après, tu as tes notifications.
Ce qui, moi, je trouve,
si un jour j'ai des lunettes comme ça,
je ne veux absolument aucune notification de les lunettes.
Horrible.
Ça me terrifie.
Et en fait, moi, ça m'a fait penser à un truc.
Ça m'a fait penser à un affichage tête haute
qui a dans les voitures.
En gros, c'est un peu ça.
Et je te rejoins sur le côté.
En fait, c'est un peu une Apple Watch.
Il va y avoir un peu les applications qu'on a sur nos téléphones
qui vont être portées.
Donc, typiquement, si tu m'appeurs,
tu pourras avoir ton trajet, des trucs comme ça.
En termes d'usages, ça va être proche de ton petit écran
d'Apple Watch.
J'ai un peu l'impression.
Et donc ?
Et donc, si l'écosystème était un peu plus ouvert
et que je pouvais un peu plus bisouiller,
là, honnêtement, je les achèterai pas parce que
juste Instagram et mes Messenger, j'en peux pas.
Mais t'es très, très fermé dans le monde de Marc Ducerberg.
Mais il y en a qui disent qu'il va potentiellement,
s'il veut que ça soit un succès,
il va être un peu obligé d'ouvrir cet écosystème.
Et bien, ça nous fait exactement les deux points
dont j'ai envie de parler,
à savoir cette histoire de l'interface,
donc du X qui est la grosse nouveauté de toi de l'utiliser,
c'est presque le plus intéressant.
Et après, peut-être parler de l'OS,
de l'écosystème et de la concurrence et tout ça.
Sur cette histoire de bracelet,
est-ce que tu saurais nous expliquer
qu'est-ce qui inovente dans cette nouvelle méthode
d'un point de vue technique, mais aussi d'un point de vue de l'UX ?
C'est un bracelet qui utilise en fait
tes impulsions musculaires
pour comprendre ce que fait ta main.
Donc, que ce soit en rotation ou en mouvement de tes doigts.
Si tu sers ta main à ce niveau-là,
au niveau de ton poignet et que tu bouges ta main,
tu sens...
Ouais, on sent des trucs.
Tu sens des trucs.
Donc, on va te mettre un ensemble de capteurs autour,
donc sous ce bracelet,
qui vont écouter très attentivement
les moindres déplacements sous ta peau.
Et ensuite, inférer, en fait, déduire le déplacement de ta main,
donc, rotation de ton poignet.
Et donc, par exemple, si tu pinces ton index et ton pouce ensemble
et que tu tournes en même temps,
ça peut dire, bah, bouge un slider.
Ou quelque chose comme ça.
Quel problème ça résout, en fait ?
Ça résout le problème de pas lever tes mains
et tu n'as pas besoin d'être dans le champ de vue
des caméras du casque ou des lunettes.
Ce qui, effectivement, pour ceux qui ont un peu utilisé des casques,
genre les quests, par exemple,
qui se contrôlent uniquement avec les mains,
peut amener une certaine fatigue au bout d'un moment
où tu es là, où tu veux contrôler tes fenêtres et tout ça.
L'arrêter, c'est que quand tu bosses sur ton ordi,
tu as tes mains posées sur un bureau.
C'est un peu moins en prise de tête.
Et le Vision Pro, par exemple,
ils ont mis beaucoup de caméras vers le bas,
notamment pour que dans les interactions
avec le tracking des mains,
tu n'es pas à level à main
et tu puisses pincher avec tes mains
qui sont sur tes cuisses quand tu es à c'est bon exemple.
Donc ça, c'est très nice.
La proposition alternative de Meta,
toi, elle te convainc ou ?
Ouais, je trouve que c'est pas mal.
Alors après, tu vois, tu as des avances,
je vais des inconvénients.
Donc quand tu as du tracking optique qui est fait sur un casque,
si ton volume de tracking, il est correct.
Par exemple, l'exemple que je donnais sur le Vision Pro,
le volume couvert par les caméras,
c'est à peu près là où on va trouver les mains.
C'est bien parce que tout est dans le même diva.
Et je n'ai pas un bracelet à me rajouter,
que je vais devoir charger,
que je vais devoir update, etc.
Donc c'est une charge en moins.
Par contre, le bracelet,
tu as le poids d'avoir une charge mentale en plus,
d'avoir ce diva et de le charger, etc.
Mais quand tu l'utilises,
il est peut-être beaucoup plus fiable
que le tracking optique qu'on utilise actuellement.
Donc je ne sais pas,
on verra ce que les utilisateurs en diront
et comment le marché se dirigera.
En tout cas, nous, on fait toujours énormément de tracking optique
et ça marche très bien.
Là, il y a une démo assez ouf.
Apparemment, c'est surtout ce qui est écriture de texte.
Ce qui est aussi en vrai un des problèmes
importants en VR,
c'est le fait de pouvoir écrire.
Alors sur le Vision Pro,
la manière dont on le résouge et la impression souvent,
c'est en se basant sur des outils de transcription.
Donc tu parles et ça transcrit.
Ça résout une bonne partie des problématiques.
Mais parfois, je pense,
tu as quand même vraiment besoin d'un texte.
Je ne sais pas, tu veux rentrer un adresse email, bon, bas.
Sur le Vision Pro, il faut que tu vises avec tes yeux,
bam, bam, bam, et que tu tapes avec ton index et ton pouce.
Et ça fait un peu chelou d'à la fin, tu es un peu fatigué.
Et donc je trouve ça intéressant.
Je ne sais pas ce que ça donnera,
mais en tout cas, dans l'idée, tu peux
tracer avec ton doigt, comme ça, discrétos.
Imagine là, tu es là en cours, tu veux parler avec des gens.
Là, tu es lunette comme ça.
Tu vas me dire ce que tu en penses,
mais tu as tes lunettes en scred
et là, bam, tu discutes avec quelqu'un.
Je te regarde.
C'est très intéressant ce que tu dis,
parce que potentiellement,
alors je ne vais pas inquiéter les gens en disant,
c'est très dangereux,
mais si tu veux, ça va dessiner
le tissu social de demain.
Tu vois, en disant, mais est-ce que quand quelqu'un me regarde,
j'ai son attention,
ça va arriver dans notre espace réel,
en disant, mais la personne qui me parle
et qui me regarde dans les yeux,
est-ce qu'elle ne fait pas aussi autre chose ?
Et c'est marrant, donc il y a 12 ans,
si on revient en arrière,
il s'est passé deux choses.
Il y a eu la sortie des Google Glass
et la sortie de la Apple Watch.
Et en fait, on peut dire que
la Apple Watch a eu beaucoup plus de succès
que les Google Glass,
parce que à l'époque,
avoir une caméra là,
c'était un signal extrêmement envahissant
chez l'autre.
Si je te regarde avec une caméra,
tu ne vas pas te comporter pareil.
Et d'ailleurs, tu es des études qui le prouvent,
c'est-à-dire que si il y a une caméra dans une pièce,
les personnes n'ont pas ce qu'on portait pareil.
Et à la même époque,
la Apple Watch va bien fonctionner,
parce que la montre,
c'est quelque chose que tu tournes vers toi,
qui reste dans ton espace.
Alors qu'une lunette,
c'est que tu vas dans l'espace de l'autre,
avec la caméra,
et en plus,
tu as les yeux qui se baladent,
parce que potentiellement,
maintenant, tu as un display
qui est un peu plus riche que Google Glass.
Je ne sais pas comment on va,
nous, humains,
chimponser un peu améliorer,
comment on va réagir à tout ça.
Je suis un peu sceptique,
je ne pense pas du fait aussi
que ce soit mené par quelqu'un comme Maxique Haba,
je ne pense pas que ce soit une très bonne chose.
Moi, je trouve ça intéressant ce que tu dis,
parce que, en effet,
j'ai eu un peu l'impression, en fait,
d'avoir des Google Glass nouvelles générations.
Et en vrai, j'étais un peu content,
parce que ça m'avait fait arriver à l'époque,
sauf que je pense que l'acceptation, quand même,
il y a eu dix ans de...
On est un peu plus près à ce genre de technologie.
Mais là où je te rejoins,
c'est que moi, je me suis dit que limite,
je préférais que ces lunettes n'aient pas de caméras.
Parce que, en fait, ce que j'aime bien,
je ne sais pas si c'est possible,
mais j'imagine que oui.
Ce que j'aime bien dans cette technologie,
c'est d'avoir le petit guide d'onde,
le mini-écran qui m'affiche quelques infos.
Et en vrai, ça ne sera pas toute la journée,
ça sera de temps en temps,
de toute façon, il n'y a pas une batterie pour.
Je pense que limite,
il se tire un peu une balle dans le pied
à vouloir mettre une caméra.
Je vois complètement l'usage,
et d'ailleurs, ça fait un carton.
Il y a mille futures où tu en auras besoin
pour ton placement affiché,
tu as ton trajet entoriel devant ton vélo.
Exactement.
Mais...
Je vois ce que tu viens.
Mais je me suis fait sa réflexion.
Déjà, les lunettes,
je voulais juste rajouter un truc,
c'est qu'elles ne font que 20 degrés de champs de vue
et 20 degrés en monoculaire,
c'est très bien pour afficher du texte ou de la symbologie.
Ce n'est pas très bien pour afficher des images
ou des vidéos ou du contenu riche.
C'est pour ça que ce que je disais au début,
c'est que c'est très bien comme étant un HUD,
enfin tu as un afficheur tête haute.
C'est très très bien,
mais même si l'écosystème s'ouvre à 20 degrés,
tu ne verras jamais un truc qui va remplacer ton desktop
et avoir des écrans qui flottent dans l'air,
parce que ton cerveau,
si je te mets une image dans un œil
et la réalité ou une autre image dans un autre œil,
ça va te faire très mal à la tête.
Si je te mets juste des lignes de la symbologie,
des icônes, du texte que dans un œil,
l'humain, c'est très bien l'interprété.
Donc tu as des limites.
Et de la transparence et tout ça,
il va faire une sorte de mélange où en fait...
Tu vas très bien mélanger,
tu vas faire une composition des deux très très bien.
Et donc, pour aller à Orion,
il va falloir aller vers du stéréo,
il va falloir aller vers du champ du plus grand.
Et on reste toujours sur les 5-10 ans que tu avais dit.
Et là, je...
Tu m'entiendras.
Je ne ferai pas là-dessus, c'est toujours du 5-10 ans,
sauf pour les gens qui sont prêts à payer très très cher.
Je trouve ça vraiment intéressant,
ce que tu dis sur le fait que la symbologie,
c'est l'usage numéro 20.
Et je trouve qu'il y a une certaine cohérence,
puisque quand on regarde,
comment on explique ce carton des méta-rébanes ?
Classique.
Les normales.
Celles qui avaient donc juste la petite caméra.
Il y a le l'IA intégrée,
qui se m'utilisait évidemment,
et il y a le fait d'avoir des écouteurs...
Mais je me dis,
il y a une certaine cohérence avec le fait que,
aujourd'hui, l'IA est un peu conne,
donc c'est pour ça que tu ne l'utilises pas.
Mais demain, tu t'imagines que tu as un assistant
qui a des réelles capacités très avancées,
avec qui tu peux dialoguer à la voix et avec le retour audio.
Ce qui manque,
le truc qui manque, c'est le feedback visuel.
C'est le truc non intrusif,
qui fait que tu peux aller te dire...
Au milieu du...
Je veux dire des trucs hyper dystopiques, je vous préviens,
au milieu d'une discussion,
là, moi, j'aurais, de mon petit écran à droite,
des informations complémentaires,
tu vois du fact-checking, si on s'en est en train de se dire.
C'est qu'avec ce n'est rien, on est en train de se dire.
Parfois, on oublie le prénom des gens.
On s'est très bien pissés,
et on n'a pas le prénom.
Non mais c'est horrible.
Alors là, je pense que...
Mais...
C'est ce genre de problème,
ou même avec des lunettes,
faut peut-être régler le problème avant.
Tu sais ça ?
Non !
C'est pas sûr que ce soit l'heure.
Parce que...
C'est dur d'arrêter les prénom.
Non mais c'est en vrai,
c'est complètement con d'avoir une technologie
pour résoudre ce problème,
mais genre, c'est nous...
Enfin, ça est passé par la tête de ce problème.
Moi, je crois très fort à ces devices,
dans le B2B par exemple.
Le problème, c'est que des lunettes,
c'est un device médical.
C'est-à-dire qu'à la base,
c'est pour aider un handicap.
C'est comme si...
Tu vois, les lunettes connectées,
tu pourrais dire, on a fait des...
On a fait des béquilles connectées.
En fait, tu as le...
D'un point de vue...
Système, c'est...
Pourquoi tu fais ça ?
Tu vois, il faut revenir de...
Pourquoi, en fait, tu fais ça ?
Donc, tu as les cas d'usage de...
Je prends mes enfants en photo
parce que sans sortir mon smartphone
et du coup couper le lien,
ça, c'est très bien.
Mais les lunettes de base,
c'est un device médical.
Et après, on me dit,
oh non, c'est du fashion.
Mais bref,
il y a encore des marches énormes à passer
qui sont en train d'être passées,
puisque Métag continue de mettre
1,5 milliard par mois sur ses activités.
Mais pour le moment,
si tu veux, il y a un seul vrai client,
c'est Mark Zuckerberg.
Je ne suis pas du tout en train de...
de cracher sur les smart glasses.
C'est juste, je dis,
bah, il faut faire attention.
Et en fait, ces produits vont faire aussi partie du futur.
C'est clair.
C'est quelle place on leur donne dans notre société.
Tu vois, c'est une interface, enfin,
entre toi et moi, il y a tes lunettes.
Qu'est-ce que ça va arrêter ?
Qu'est-ce que ça va permettre ?
Et est-ce qu'on veut que ce soit uniquement Mark Zuckerberg
qui fasse la loi ?
Voilà.
On a l'air d'y poser.
Bah justement, ça fait une transition
de trouver sur la question de l'écosystème, justement.
Ça, c'est Nico qui pensait il y a encore 6 mois
qu'il ne serait jamais proprio.
Ça, c'est Nico dans son appartement
qui a découvert que grâce à Nexity,
on peut être proprio à partir de 534,17 euros par mois
pendant les 3 premières années.
Oh mon lapin, c'est maman, tu m'ouvres !
Et ça, c'est Odile, la maman de Nico,
qui l'a aidé à devenir proprio.
Mais bon, qui a quand même un peu de mal à couper le cordon.
Le montant de 534,17 euros par mois
est une estimation de l'effort d'épargne nécessaire
pendant la durée de l'offre de remboursement de 3 ans.
Voir condition complète sur Nexity.fr.
Oui.
Ce que Marc-Eucl-Rbert, comme tu le disais,
on se doute qu'une des motivations principales,
c'est de se créer une plateforme où il les s'ouvre.
Là où quand il met son appli Facebook chez Apple,
il peut d'un jour à l'autre perdre 30% ses revenus
parce que quelqu'un d'autre l'a décidé, ça, il n'aime pas.
Et donc, ça le pousse, justement, à développer son propre OS
où il aura son appstore, etc.
Le CTO de Meta,
donc le numéro 2 de Marc-Eucl-Rbert,
qui s'occupe de l'overview de toutes les activités d'IRVR,
c'est Andro Bosworth, son rôle quand il est arrivé chez Meta,
c'était la pub dans le fil d'actualité.
L'algorithme, le truc qui a givré le cerveau de pas mal de monde,
leur business model n'a pas changé.
C'est capter l'attention des gens.
Et effectivement, comme tu dis,
s'il y a une plateforme qui leur empêche par Derek de Cookie-Youtre
de capter l'attention des gens
et d'en collecter des données et ensuite de faire du ciblage publicitaire,
ils vont investir les milliards qu'il faut pour y arriver.
Meta, c'était une boîte de pub, ça reste une boîte de pub.
Et ce qui fait avec les casques et les lunettes
pour essayer de détourner l'attention,
notamment aux yeux du législateur, sur le cœur de ses activités,
et ce qui fait son oseil aujourd'hui, c'est ça, c'est les pubs.
Et c'est ça qui est conduit donc à se faire son propre OS.
C'est quand même basé sur une couche Android, si les celles ne sont bons,
parce que personne ne fait un OS de zéro aujourd'hui.
Pourtant, il y a un truc qui est vraiment étonnant,
c'est que habituellement, quand on sort un produit hardware,
c'est pas très important ce qu'il tourne comme logiciel dessus,
parce qu'il y aura toujours des hackers qui vont s'amuser à trouver la vulnérabilité dedans
et à rendre le hardware à son acheteur, qui paraît un peu normal, tu vois, tu dépenses 800 balles,
tu te dis, et si je pouvais faire un peu ce que je voulais de ce hardware,
ce serait quand même plutôt normal finalement.
Et donc on a vu ça avec l'iPhone, l'iPhone est sorti très rapidement,
on avait Sidia qui permettait d'installer des trucs alternative.
Autre exemple, avec la Kinect, le hardware était magnifique,
hyper innovant, très vite le truc est détourné.
Là pour moi, on a un peu la même chose, c'est-à-dire que ces lunettes là,
d'un point de vue hardware, c'est quand même un petit bijou qui coûte pas si cher pour ce que ça fait un truc.
Mais aujourd'hui, si moi je voulais des lunettes quasiment invisibles avec une caméra intégrée et des opalors,
là depuis plusieurs années, j'ai personne d'autre à aller voir que Marc du Faire Paris.
Et moi, typiquement, j'ai plein d'usages, c'est lunettes.
Alors si on voulait faire de la caméra cachée par exemple,
ce serait trop bien qu'on puisse faire exactement ce qu'on veut, qu'on puisse récupérer le fil de temps réel et tout,
il y a des trucs de fou à faire.
Et pourtant, personne n'a encore jailbreaké, et c'est device.
Et pourtant, il y a beaucoup, beaucoup de gens qui ont essayé.
Il y a même des gens qui offraient des rewards, donc typiquement,
Paul Merleky, le fondateur d'Oculus, offraient, je ne sais pas combien de dizaines de milles litres de dollars
à celui qui allait jailbreaké, le Quest 2 ou le Quest 3 à un moment.
La culture du jailbreak, je pense que c'est une très bonne culture d'un point de vue philosophique.
T'achètes quelque chose, tu veux aller jusqu'au bout du compteur, tu rencontres un compteur,
tu peux aller de 0 à 100, mais non, en fait, l'Ouest bride à 60.
Non, non, t'as payé, tu vas à 100.
Et donc, tu devrais être capable de le faire en fait avec ce qu'on achète autour de nous.
A commencer par nos téléphones, par exemple.
Mais t'as, dans leur dépense, dépense énormément,
mais énormément d'argent dans leur sécurité, autour de leur OS, autour de leur système.
Pour les mêmes raisons que j'ai expliquées avant, c'est-à-dire qu'ils veulent une plateforme,
ils veulent surtout pas que tu sortes de cette plateforme.
Surtout pas, surtout quand ils ont subventionné le device.
C'est-à-dire que si tu mettons que tu achètes un Quest,
si tu flashes un autre Ouest dessus, Linux, par exemple,
si c'était possible, pour eux, c'est une perte sèche.
Ils ont vendu un perte.
Ils t'ont payé pour que t'achètes leur device, globalement.
Et toi, tu vas faire autre chose dessus,
tu vas ni consommer leur contenu, ni remplir leurs algos.
Donc, ce n'est pas du tout dans l'internet.
C'est pour ça qu'il y a un mur énorme de sécurité face au jailbreak.
Et ce n'est pas par hasard.
C'est vraiment pour ça.
Oui, vous n'avez pas fait ça, dire.
Par contre, pour répondre à ta question de caméra sur les smart glasses,
alors on est bombardé de pubs et de marketing de Meta,
mais il y a 200 autres sociétés qui font des smart glasses aujourd'hui,
plus de 200.
Donc, il y en a qui sont très, très ouverts.
Les casques ou les lunettes, c'est une plateforme bourrée de sensors.
C'est génial, en fait, comme plateforme hardware
sur lequel tu pourrais prototype plein de choses.
Mais côté smart glasses, je connais des sociétés
qui font des choses aussi très ouverts, très sympas,
mais qui sont très du tout connues du grand public,
ou même de la plupart des geeks.
Mais ça va venir.
C'est parfait. Ça nous amène sur la question de la concurrence.
Et moi, le truc qui m'intrigue,
c'est comment ça se fait que Apple,
tu en as fait bien 10 ans quand on nous bassine
avec ces rumeurs de lunettes connectées par Apple.
Pourquoi c'est pas eux qui ont sorti ce produit avant quoi ?
Alors, ils ont tout, tu regardes Apple,
ils ont tous les ingrédients pour le faire.
On pourrait faire la même histoire avec le Vision Pro.
Pourquoi la VR en 2016 avec Oculus a déboulé
et pourquoi ils sortent en 2023, 2024 d'ailleurs ?
Parce que, en fait, c'est un peu les vieux financiers des gars femmes.
Et comme un fond d'invélissement, ces gars-là, ils prennent leur temps.
Et Apple fait pas un move sur une nouvelle catégorie de devices
si ils y restent pas.
Tu vois, ils ont sorti le Vision Pro là,
mais en fait, ils en ont trois.
Enfin, tu vois, il y a une roadmap complète,
ils sont là pour très longtemps.
Et donc, quand ils prennent ce genre de décision,
ils aiment bien prendre leur temps parce que derrière,
c'est des dépenses énormes de Capex.
Et d'ailleurs, on peut le voir avec le Vision Pro.
Ils ont fait le refresh la semaine dernière.
Ils ont juste, entre guillemets, changé l'apus.
Ils ont pas changé le reste du device.
Alors que d'un point de vue ergonomique,
c'est le deuxième truc.
Après le prix, c'était clairement l'ergonomie qui allait mal.
Ils ont pas changé les moules
et le procès de fabrication derrière
parce que ça a coûté extrêmement cher
et qu'ils ont probablement un autre produit.
Tu préfères les rentabiliser ces intérations-là
et faire un cycle de mise à jour plus tard.
Mais donc, qu'est-ce qui est en train de se passer ?
Parce que toi, qui est justement à des sondes dans cette industrie,
on a l'impression qu'il y a eu une sorte de divers de la vers
à un moment où il n'y avait absolument rien qui se passait.
Là, maintenant, il y a un produit par boîte qui sera...
Par moi ?
Qu'est-ce qui se passe ?
Est-ce que c'est juste un lien avec Métat,
justement, comme on l'a parlé,
qui, comme tu le disais, mettaient un pognon monstre,
faisait bouger l'industrie ?
Pas du tout, il y a un truc qui se passe côté utilisateur.
Je pense qu'il s'est passé plusieurs choses en même temps
qui se sont télescopées.
Je m'explique.
Premièrement, les investissements dans l'AR et la VR,
malgré ce qu'on peut lire dans la presse
et les réponses du marché, n'ont pas freiné.
C'est-à-dire qu'il y a toujours une conviction extrêmement forte
d'égafam et des autres pure players dans le secteur
en disant, un des avenirs de la technologie,
c'est ces interfaces machines, il faut continuer d'y aller.
Et le jour où il y a une énorme pénétration de marché
sur le consumer, il faut qu'on soit prêt.
C'est ce que fait Apple en patientant, mais en travaillant très fort.
C'est ce que fait Google en travaillant avec Samsung et Qualcomm.
C'est ce que font les autres.
Il y a aussi une compréhension beaucoup plus fine
de l'utilisation des casques, notamment dans certains secteurs.
Par exemple, on parle des GAFAM, mais il y a aussi Enduril,
donc la boîte de Palmer qui a montré les premières vidéos
du casque utilisé pour l'Amérique,
où ça a mis tout le monde par terre et tout le monde d'accord en disant,
ok, là, il y a un vrai usage parce que ça sert à te garder en vie.
Donc, en fait, là, le R.O.I. est prouvé et il est pas mal.
En fait, il y a une maturité gagnée sur certains usages
qui nous a bénéficié énormément,
où avant, c'était juste une console de jeu.
C'est vendu et marketé comme une console de jeu à la Fnac,
tu sais, Batman dans le Quest.
Il y a une transition vers le business.
D'ailleurs, Meta et Enduril, pour l'Amérique, collaborent.
Mais effectivement, il y a une maturité des usages
où l'innovation a trouvé sa place.
Ça a été très bon, mais ça fait très plaisir.
Et il y a autre chose qui se passe,
et là, désolé de revenir là-dessus,
mais LIA a été un catalyseur énorme pour notre industrie,
dans le sens où LIA, texte et image, ça marche très bien.
Et en termes d'interface à ce machine,
le clavier de tournardie, c'est parfait pour interagir avec
et ça génère énormément de valeur aujourd'hui.
On s'est rendu compte que l'ARVR,
donc les smart glasses et les casques,
c'est l'interface parfaite pour à la fois capter de la donnée,
pour LIA, pour de la robotique derrière.
Donc tu vois ce que tu fais aujourd'hui en étant humain.
Je te filme sur une chaîne d'assemblage,
je te filme en train de plier ton linge.
Et en fait, ça, ça va être de la donnée,
captée par 4, 6, 8 caméras, un IMU, etc.
qu'on va donner à un robot qui n'a pas forcément une main humaine,
mais grâce à LIA et des données...
De transposer, oui.
Pas transposer de manière transparente.
Donc la captation de données, c'est le...
Donc la captation de données par les lunettes et par les casques.
Et donc là, une fois de plus,
est-ce qu'on veut donner ça à Mark Zuckerberg ?
Je pose la question, je pose ça là.
Et après aussi, l'utilisation,
donc tout ce qui est télérobotique,
donc piloter un robot à distance,
donc tout ce qui est assistance à distance.
Et après, pour LIA,
donc c'est les cas d'usage que vous disiez,
je prends une photo là,
j'ai un signe en chinois devant moi,
j'ai un mal traduire,
ça c'est de LIA en fait quelque part,
c'est déjà de LIA Google Translate,
ça fait 15 ans que c'est de LIA,
on l'a plus comme ça,
mais ça a trouvé son usage.
Et donc au-delà de la traduction,
il y a plein de choses
où le fait d'avoir un ordinateur
avec qui on partage sa vision,
c'est comme dans un principe de science-fiction,
on a un ordinateur qui partage notre vision,
on voit même qu'il voit les choses avant nous,
parce que c'est le cas,
et ça arrive sur la caméra
avant que ça arrive à ton oeil,
dans notre cas, en fait, dans notre casque.
Et ça pour moi,
c'est une énorme interface de commodité
entre LIA, l'humain
et les robots qui vont aider les humains demain.
Et tu me dis pas,
si je me trompe,
j'ai l'impression qu'il y a
un des problèmes
problématiques
de ces casques et de ces interfaces.
Ça a aussi été en termes de la bande passante
pour interagir avec.
Parce qu'il y a malgré tout,
près de longues années,
on s'est stabilisé sur une interface
avec l'ordinateur
où on a souri Clavier.
Au mine de rien,
on a quand même une bande passante
qui n'est pas dégueulasse,
on peut faire des choses assez précises.
Et en même temps,
t'as pas du texte assez vite,
enfin voilà,
c'est pas mauvais.
Et j'ai l'impression qu'un des gros freins
quand tu passes du temps
dans un peu le Vision Pro,
c'est aussi ça,
c'est que tu te dis,
mais tout va moins vite.
J'aurais l'impression,
justement,
que tu me dis ce que tu en penses,
mais que l'IA,
ce qu'elle permet aussi de faire,
c'est de deviner beaucoup plus
avec le contexte.
Ce que tu veux faire,
en fait, l'intention de l'utilisateur.
Et donc, ce que ça veut dire,
c'est que tu peux aller dire
quelques mots,
faire un signe.
Et grâce à ces modèles généralistes
qui comprennent beaucoup mieux les concepts,
les textes, les images,
tu peux arriver à limite
deviner,
enfin faire deviner ce que tu veux.
C'est la différence
entre les lunettes et les casques aujourd'hui.
Des lunettes,
tu as eu une ou voire deux caméras
et très peu de capteurs,
un casque qui est plus gros,
donc peut-être plus contraignant
et surtout socialement,
ce n'est pas du tout un objet
qu'on voit dans la rue,
mais pour certains cas de usage,
tu as beaucoup plus de capteurs,
tu as beaucoup plus de puissance.
Et donc, l'IA ou le programme
qui est embarqué avec toi,
va te comprendre beaucoup plus.
Et t'aider dans certaines tâches,
et c'est ce qu'on fait,
nous avec des clients,
par exemple pour la formation
de chirurgiens ou d'astronaute,
tu vois des choses
à très haute valeur ajoutée,
et ils préfèrent se tourner
vers des casques aujourd'hui
Mais clairement, l'IA,
c'est un catalyseur énorme,
et je pense qu'on va continuer
de voir beaucoup de choses
entre ces grosses boîtes d'IA
et des fournisseurs
et des fabricants de casques
et de lunettes,
parce que clairement,
c'est une modalité extrêmement
intéressante.
Et je pense que,
vous voyez, on a les LLM,
vous connaissez les VLM ?
Ouais, bah voilà.
Typiquement,
t'es un VLM,
tu vis dans un casque,
tu vis ta meilleure vie,
parce que t'as accès
à des flux de caméra
dans tous les sens,
et c'est vraiment génial.
On a des démos
que je montrerai tout bientôt
sur notre prochain produit.
C'est fou.
Enfin, moi, je le vois
de ma petite fenêtre,
mais clairement...
Il y a un peu un feeling
que, à la fois,
sur la technologie de l'AVR
et sur la technologie de l'IA,
c'est comme si on est un peu avant un seuil
où les deux ont une maturité suffisante
que pour avant qu'ils se rencontrent
et qu'ils vraiment créent un...
En fait, c'est...
...un des usages vraiment nouveaux.
Tu vois, il y a des vagues technologiques
avant, par exemple, les TD3D.
On a oublié,
mais ça n'a pas marché.
Et en fait, ce qui est intéressant,
c'est qu'il y a la vague IA.
Alors la vague IA,
elle renverse tout le monde
et elle est très, très énorme,
mais parce que, je pense,
à juste ce titre,
mais elle ne fasse pas la vague ARVR.
Et même, il y a une complémentarité d'interface,
comme je dis, entre les deux.
Et du coup, je suis très positif, en fait.
Et d'ailleurs, une société qui l'incarne bien,
ça reste meta.
Meta investit énormément en IA,
mais pour autant,
n'a pas arrêté d'investir dans l'ARVR.
Et ils ont bien compris
que les deux cohabitent extrêmement bien ensemble.
Si vous avez apprécié cette vidéo
et que vous n'avez toujours pas vu
notre interview de Arthur Metch,
le CEO de Mistral,
je peux que vous conseiller très vivement
d'aller la voir.
Elle est loin d'être obsolète,
puisque on revient sur l'origine de la boîte
et comment ils s'y sont pris
pour choquer le monde entier
avec leur premier modèle.
C'était dans cette vidéo.
Historia, c'est le magazine
que vous aimez depuis plus d'un siècle.
C'est aussi maintenant un podcast.
Chaque semaine,
on se retrouve pour explorer une nouvelle thématique
avec un grand récit immersif en deux épisodes,
suivi d'un entretien avec un historien
spécialiste du sujet traité
en deux épisodes également.
Avec le podcast Historia,
vivons l'histoire.
Historia, vivez l'histoire.
Un podcast écrit et raconté
par Virginie Giraud.