Pourquoi Banque Populaire est la première banque des entreprises ?
Je me posais des questions sur le partage de la valeur pour mes salariés.
Elodie, ma conseillère Banque Populaire, m'a proposé une solution d'épargne salariale sur mesure,
rapide à mettre en place et que je peux piloter en ligne.
C'était simple et surtout ça a fait des heureux.
Accompagner nos clients sur tous les territoires avec des solutions adaptées à leurs besoins,
c'est ça, être la première banque des entreprises, Banque Populaire, la réussite est en voulue.
Étude Quantar PMEP et Mid-2023, 14 Banques Populaires, 1ère Banque des PM.
Bonsoir, bonsoir et bienvenue et on commence avec toi Tiffé.
J'espère que vous allez bien, que vous êtes bien installé.
Pour Underscore, il est 19h, nous sommes à l'heure et ça, ça fait plaisir.
Et nous sommes présents et prêts, n'est-ce pas Mathieu ?
Complètement, je...
Je me suis dit que je vais faire une story avant ce gonde de l'émission.
Du coup, je t'en referai la poste et mais...
C'est une drôle d'idée.
Mais à part cette signe d'éla con.
Aujourd'hui, c'est une émission un peu particulière parce qu'il nous manque du staff.
Puisque ce sont les vacances.
Personne là.
Voilà, il y a plus de gens en plateau que hors-plataux.
C'est clair, ça n'est jamais arrivé.
C'est vrai.
Du coup, on est à l'heure mais rien n'est prêt, c'est ça.
Non mais c'est clair, c'est assez clair.
Je trouve que de dire qu'il y a plus de gens dans ce plateau qu'à l'extérieur.
C'était le cas au tout début de l'émission.
Oui.
Il y avait vraiment une ou deux personnes.
Et voilà, il y a un petit feeling de où on est entre nous.
Des films de Noël fin d'année.
Exactement.
Prévacance.
Je vous moudais.
T'enjante.
Fin de cycle.
Et comme nous sommes sous staff, j'en profite pour faire mes cadres en live dans le bon jour à Tommissier.
Il n'y a pas de problème, tu es totalement pardonné.
Je peux me redresser, peut-être aussi parce que je ne suis peut-être pas la personne la plus...
Paul, il n'est-ce pas.
J'espère que vous êtes bien installés le chat.
Et que vous êtes prêts pour cette émission.
Émission qui va être dans.
On ne reçoit pas d'un vidéo aujourd'hui en tant que tel.
Mais on vous a préparé les sujets.
Voilà, on a bien alterné.
Émission avec invité.
Émission entre nous.
Et voilà, moi j'avoue que je n'ai pas de mieux pour cet intro.
Ok.
Mais si tu en as, n'hésite pas.
Ben oui, je peux commencer.
Moi c'est juste un article qui parle d'Envillia.
Je vais parler un peu d'Envillia, puisqu'on en parlera dans une prochaine émission.
Le titre m'a fait rire.
C'est un gros problème.
L'action de Envillia en 5 ans, je crois qu'elle a pris 1200%.
Et du coup, évidemment, il y a plein d'employés qui ont des stocks, des actions, etc.
Je ne sais pas s'il va pouvoir mettre le titre de l'article parce qu'il est en train de faire ses cadres.
Je vais juste lui ressortir mes notes.
Mais globalement...
Ça c'est Man News.
Lolle.
En tout cas.
Tu l'en PLS dans la régie.
En gros, ça dit qu'il y a des...
Ils ont un problème d'employés qui sont en semi-retraite, parce qu'ils ont tellement eu d'argent.
C'est quelques dernières années parce que l'action a fait plus 1200% en 5%.
Il y en a qui...
Ils sont tranquilles.
Qui jouent un peu d'illetantes apparemment.
Et du coup, il y a le PDG qui est un tout petit peu inquiétant dans une réunion interne,
et puis ça a fui-té dans la presse.
Mais je trouvais ça un peu rigolo.
C'est un faux problème.
Exactement.
C'est assez marrant.
En fait, Nvidia, ce qui est très...
Tu vas te faire virer parce que tu possèdes trop d'actions.
T'as pas mal de choses à faire avec ce qui est pas paradoxal.
Dans la Silicon Valley, il y a quelque chose qui s'appelle le West Invest.
C'est le fait de...
Quand ça fait quelques années que tu es là,
t'attends que tes années c'est cool pour avoir toutes les actions qui te sont promises.
Débloquer tes actions.
Mais du coup, tu es un peu moins impliqué dans ta boîte.
Qui a cartonné.
Et du coup, c'est un truc apparemment un peu...
Ah oui, je suis flou.
Oui, c'est vraiment du...
C'est vraiment du direct.
Ah oui, on a perdu Yabin.
Ah, d'accord. Oui, bonjour.
Merci, merci.
C'est normal, vous inquiétez pas.
Tout va bien.
C'est un long score.
C'est bien l'émission.
Vous êtes bien au point d'endroit.
Mais du coup, c'est incroyable.
Et malgré ça,
Nvidia a parié il y a quelques années
un peu sur...
On va avoir besoin de nous dans quelques années.
Et genre là, sur Intrimest,
sur l'évolution de...
On compare Intrimest à l'année dernière,
ils sont passés de 5 milliards à 18 milliards de chiffres d'affaires
avec un taux de...
de marketing et de R&D quasiment constants.
C'est juste...
Tout le monde les supplie.
Ils n'ont quasiment pas de concurrence.
Même si tout le monde essaye de se passer de Nvidia.
En effet, c'est compliqué.
Peut-être qu'ils vont réussir.
Mais en tout cas, actuellement,
tout le monde veut des pluss,
il y a de Nvidia.
Et voilà quoi.
Et apparemment, le PDG est très apprécié.
Et en fait, personne veut quitter la boîte.
Parce qu'il s'y sent bien, quoi.
C'est une boîte qui roule.
Enfin, tout va bien.
C'est un peu rigolo.
C'était ma petite news.
Avec le petit spoil de tout à l'heure.
Mais du coup...
Mais moi, j'aime beaucoup l'espace.
Et du coup,
il y a une news qui m'a un petit peu attristée dernièrement.
C'est que la sonde Voyager 1
a arrêté de communiquer avec la Terre.
C'est la même qu'on avait, update à distance.
Euh... Si, je crois.
Elles sont régulièrement update à distance.
Ce qu'il y avait...
C'est tellement épique.
Il y avait une histoire de...
de mise à jour en Fortran,
ou je sais pas quoi...
C'est fort probable que ce soit...
Je crois que c'était les deux.
C'était Voyager 1 et 2 et vu qu'il y en a que deux.
Alors pour le petit contexte,
pour ceux qui ne savent pas,
Voyager, c'est des sondes
qui ont été lancées en 1977.
Et qui devaient...
Et du coup, le but de la mission,
c'était de passer à côté de toutes les planètes du système solaire
et de prendre des photos un peu...
qui allient proches pour pouvoir avoir des profs scientifiques et tout ça.
Et...
Et du coup, elles devaient marcher pendant 5 ans.
Elles ont été designées
pour marcher pendant 5 ans.
Et ça fait 46 ans qu'elles marchent.
Et c'est assez hallucinant parce que
une fois qu'elles ont fini...
qu'elles ont dépassé plus tôt si tu veux
et qu'elles sont allées au-delà
de...
de notre système solaire.
Elles ont continué à envoyer des informations
qui étaient ultra pertinentes sur notre système solaire.
Alors que c'était pas prévu du tout.
C'était carrément pas prévu.
Aujourd'hui, c'est les objets fabriqués par l'homme
qui sont le plus loin dans l'espace.
Elles sont à... Alors,
que je vous dis de pas de bêtises, 24 milliards de km de la Terre.
Elles ont dépassé
les lieux sphères,
qui est le...
le champ de...
d'influence, la zone d'influence du champ magnétique du soleil.
C'est très très cool.
Enfin moi, j'ai...
Ouais, c'est impressionnant.
Et en fait, tout le monde...
C'est la fin du nerf parce que...
Ben, alors, on... C'est pas encore...
Je pense qu'ils sont encore plein de ressources.
Ils peuvent potentiellement réparer le truc.
En fait, le problème, c'est que pour envoyer un message
à Voyage 1, ça prend 22 heures et demi.
Et du coup, pour la LRT,
c'est 45 heures.
Et donc, en fait, si tu veux débuguer un truc,
c'est compliqué.
Parce que, il faut être sûr de ton code,
au revoir, tu le revois.
Et en fait, entre chaque moment de communication,
c'est le blackout complet.
Je vais faire, par exemple, si tu fais une mise à jour
et que la mise à jour est effective,
donc il se passe quelque chose sur Voyage 1.
Mais tu sais si ça a marché que 22 heures et demi après.
Potentiellement, t'as tout cassé.
Ok.
Mais donc voilà.
Le problème, c'est qu'en fait,
on peut communiquer avec elle encore,
mais elle, elle renvoie
des binaire en boucle,
comme si elle était bloquée dans une espèce de loupe infinie.
Et donc, en fait, ils essaient de corriger ça
en envoyant des trucs et...
Donc, c'est le débug de l'enfer.
Mais surtout, ça ressemble juste à un des problèmes
que n'importe quel développeur aurait.
C'est ça qui est drôle.
C'est juste que les échelles n'auraient pas à voir.
Et juste que je veux dire, c'est que
quand tu produis recul,
ça reste des devs qui débugnt un système
qui tourne en boucle.
Sauf qu'il est très loin, qu'il a été codé il y a très, très, très longtemps.
Il est quasiment un du système solaire.
Mais ce que je...
Une passée de c'est qu'à la fin,
c'est effectivement du code sur un écran.
C'est trop drôle.
Et le plus important, c'est que, du coup,
pratiquement toute l'équipe qui a lancé Voyager,
soit ils sont à l'artrette, soit ils sont plus là.
Et du coup, en fait, il y a plus que 15 personnes
qui sont issues de la team originale.
Ah oui.
Enfin des ingénieurs
qui peuvent encore bosser dessus.
Et du coup, plus le temps passe,
moins il y a de sachant, en fait, sur ça.
Et du coup, pour retrouver un peu
comment les plans initiaux,
ils doivent chercher dans des classeurs
à noter à la main et tout.
Enfin, c'est assez hallucinant
quand tu regardes comment ça marche,
comment ça fonctionne.
J'aimerais bien qu'ils arrivent
à réparer Voyager 1 quand même.
Oui, ça serait cool.
Visiblement, ils avaient eu un...
Ça nous ferait une troisième news.
Visiblement, ils ont eu un problème,
peut-être que Voyager 2
fonctionne toujours.
Mais c'est fou, la longévité de ces sondres.
Quelqu'un qui dit qu'il faut envoyer un tech
pour faire un kill
du process.
Je ne veux pas être le tech qui va, moi.
Parce que...
Ouais.
Débugger, mais après...
Mais après, tu reviens pas quoi.
Tu savais pour quelle langage
cela a été écrit, réponse du tchat,
sûrement en CSS.
Ah non.
Je crois qu'on avait dit que c'était du Fortran.
Je crois que c'était du Fortran.
Mais c'était dans ta news, c'était ça, je crois, à l'époque.
Oui. Tu te souviens de mes mains, Mali?
Oui, je me souviens vraiment.
Ce soir, nous avons un programme, je vous l'ai dit,
de Chronique.
On va parler de Mistral.
Pour ceux qui le savent, ce n'est pas
une émission de géologie, ne vous inquiétez pas.
Pas de changer.
C'est une boîte française capable de concurrencer
OpenAI et ChatGPT.
Ils ont sorti deux modèles. On va parler
de ça en deuxième partie.
Je vais vous expliquer toute cette histoire.
Vous allez voir, c'est très, très hype.
Là, je fais mon blasé, mais vous allez tout...
C'est pas la première fois qu'on évoque
Mistral dans l'émission.
On s'est restreint.
On n'a jamais fait de vrais sujets.
On n'a jamais vraiment fait de vrais sujets.
On attendait le jackpot, on attendait
de vous en mettre plein la vue.
Ils sont trop forts.
Et c'est pour aujourd'hui.
Enfin, on plongera avec Mathieu
dans la phase cachée des speed tests.
Et à qui il profite vraiment?
À qui il profite vraiment?
Mistral, n'est-ce pas?
Ouais, je suis hype
et de haut.
Et bah tu auras la réponse en fin de mission.
Mais pour l'instant, pour commencer,
on va vous raconter
l'histoire d'un gamin de 16 ans
contre Apple
et sa messagerie.
C'est parti.
C'était pour savoir si tu commences?
Alors, c'est pour toi?
Ouais, y'a pas de problème.
C'est une news que...
Effectivement, j'avais vu il y a quelques semaines.
On en a parlé.
Et voilà, on ne peut pas
passer à côté parce que
ça nous donne l'occasion de parler
de plein de sujets hyper intéressants
autour de la phase.
Et puis, on a aussi
une nouvelle émission
qui est très importante.
qui est très importante.
une nouvelle émission
qui est pour les serveurs
d'Apple, Time Message,
pour utiliser la messagerie
sur des appareils qui ne proviennent pas d'Apple
sur Android, notamment.
Ce qui est interdit, évidemment.
C'est un rêve, depuis des années,
de unifier toutes nos conversations
sur des services, des appels
unifiés.
Peut-être que vous avez déjà essayé
différents services, des appels,
qui vous permettraient de regrouper
les WhatsApp, Facebook, tous ces trucs.
Dans ton amare, on ne s'est plus, on ne s'y retrouve plus.
On rêve, on a un peu ce fantasme
de l'appli qu'il est, qui réunirait
tout au sein d'une même interface épurée clean.
Pour atteindre ce rêve, il faut comprendre
comment chaque messagerie
Instagram Messenger WhatsApp
fonctionne. Comment leurs serveurs
fonctionnent. Et parmi elles,
Apple pose toujours problème
depuis des années. Ils sont
absolument intraitables
et ils préfèrent mourir que
de laisser accès au serveur
de iMessage.
Et là, en quelques jours,
Apple furieux a dû
prendre des mesures pour contrer
la découverte du jeune homme
et ça foutu un énorme bordel
dans la sphéritéque.
Et on va revenir
dessus. Et pour ça, on va refaire un peu
l'historique, l'histoire de toutes
ces applications de messagerie. Alors, pas
de chaque application, mais de
comment ça s'est construit. Parce que, en fait, depuis
5-10 ans, on accumulait énormément
d'applications de messagerie. Encore plus
si on prend toutes les applications et les
réseaux sociaux qui incluent
une messagerie dedans. Donc, on a dû
Instagram, du Snapchat, du LinkedIn,
du Slack pour l'entreprise, du
Discord, du signal,
ou évidemment du WhatsApp
et du iMessage, évidemment.
Et ça fait des années
que des services essaient de trouver
un moyen, un peu l'application parfaite
de l'exercice, le rêve de toute personne qui s'intéresse
à la productivité, de l'unifier
toutes ces conversations
en un seul et même endroit.
Et alors, il y a une seconde solution
c'est de mettre en photo de profil
une photo
allée sur signal.
T'as même pas fait cette technique ?
J'ai déjà fait ça, oui.
Mais bon, c'est un peu un hack.
Alors peut-être qu'il y en a qui se souviennent,
il y a, je dirais, 5-7 ans
à peu près, à moins de 10 ans
que des premiers services ont essayé
de trouver un moyen.
Est-ce que vous vous souvenez de Rambox ?
Je sais pas si ça te parle, non ? Rambox ou France ?
Non, c'est du genre.
Dans le chat ça parle à des gens.
Rambox qui est devenu propriétaire
et du coup, qu'a eu un
un successeur open source qui s'appelle
Amsket aujourd'hui. Il y avait une station aussi.
Bref, c'était des applications
qui en fait, regroupaient
dans des onglets chaque
messagerie. C'est-à-dire que, ben,
on prend le Instagram, hop, on le met dans un onglet,
on prend WhatsApp, on le met dans un onglet
et en fait c'est possible parce que
la plupart de ces messageries
ont un service qui fonctionne sur le web.
C'est pas que des applications téléphones.
Souvent, on peut y accéder sur le web.
Et en fait, grâce à Electron, qui permet
d'embarquer, qui permet
de regrouper tous les sites en un seul endroit,
ça permet, en fait,
à partir d'un site web,
en GIS, l'intégrer à une application de bureau
et plus que ce soit
sur un navigateur internet.
C'est quand même joli, je trouve.
Ah, c'est très joli.
Ils ont essayé de faire tout leur maximum
sans vraiment interférer
avec le service, sans créer une nouvelle interface.
Ils ont quand même réussi
quelque chose à savoir regrouper
vraiment toutes tes applications
comme ça avec un seul petit clic
pour côté au moins plus
dix milles onglets mais une appli
desktop qui vient réunir.
J'ai maillé le télégramme, Discord.
J'ai pas dit, j'ai pas dit.
Et donc effectivement
moi je sais que j'ai déjà essayé
ce genre d'appli mais
bon, c'est pas non plus
dingue et ça ressemble quand même
à une sorte de navigateur au final.
Donc ça reste un peu décevant.
C'est ça, moi aussi j'ai pas mal utilisé ça
parce que j'adorais. C'est vrai que c'est super bien fait.
En un clic t'installe une nouvelle messagerie
tu mets tes logins
et en fait c'est comme si tu utilises
leur service mais dans un autre endroit.
Et ça marche bien mais c'est lourd.
C'est évidemment si ceux qui connaissent
les electrons en fait ça embarque
un chromium donc en fait c'est comme si
on avait un deuxième navigateur
d'ouvert ça a multiplié
par toutes les applications parce que
évidemment plein d'applications
utilisent d'électrons, on peut citer
Discord, Spotify, Slack,
même l'app native. Bref, ça fait
qu'au final on se retrouve avec 10 chromium
sur notre ordinateur et tout ça
c'est une usine à gaz.
Ça devient une usine à gaz alors même si maintenant
on a plein de rames, bon c'est joli
mais c'est pas ultra pratique et puis faut quand même
aller d'onglet en anglais. C'est à dire que
t'as pas une box unifiée
avec tous tes messages dedans.
J'allais dire en fait le fait de voir quand même
cliquer de façon volontaire sur chaque
message.
Tu vois une petite bulle où tu sais
quelle appli...
quelle partie a un message.
C'est comme sur le téléphone en fait.
Ça fait partie du fait
que j'ai arrêté
d'utiliser ce genre d'application parce que
ça devient tout l'application
et tu fais tous tes onglets un par un.
Parce que tu as forcément des messages
à droite à gauche et en fait, ce que tu pensais
gagner en temps, tu le perds.
Ça c'était la première possibilité
qui a fortement bien marché,
c'est toujours disponible, si il y en a qui veulent tester.
La deuxième possibilité
un peu plus maline, c'est
de décoréler le front end
du back end. Alors qu'est-ce que ça veut dire ?
Ça veut dire que au lieu de prendre tout le service
avec son interface graphique
et de le mettre dans un onglet en particulier,
c'est de s'affronchir
de l'interface graphique et d'utiliser
ces messageries via leur API.
Et donc pour dialoguer
directement avec les serveurs d'une application,
d'une messagerie, que ce soit Instagram,
que ce soit Messenger, etc.
Et dessus, le service
qui décide de faire ça et de s'entraîner
tout va créer sa propre interface
et du coup va faire en sorte
que ce soit la même interface pour toutes les applications
pour que ce soit plus joli et plus pratique.
C'est honnêtement
moins lourd, plus malin,
assez cohérent en termes
d'expérience utilisateur.
Et il y a une application bien connue
que tu as utilisé qui a fait ça, qui s'appelle texte.
Alors c'est payant, mais je sais que
tu l'as utilisé gratuitement pendant pas mal de temps.
Oui, je l'ai pas mal utilisé.
Et je pense qu'il y a un truc qui est intéressant à préciser, c'est que
c'est pas si évident ce concept,
je pense qu'il a expliqué pour les gens,
c'est pas si évident que l'interface
et le serveur soient de choses totalement décorallées.
Je pense que toi, quand tu utilises
Messenger ou WhatsApp
ou les trims-à, tu utilises Messenger
ou WhatsApp, tu réalises pas que en fait
l'interface que tu as sous tes yeux, c'est quelque chose
qui est en local sur ton téléphone
et qu'il y a des requêtes qui discutent avec un serveur
qui lui-même vit sa vie, entre guillemets.
Et du coup c'est un truc qu'on peut
dire aux gens, c'est qu'il est possible
de créer des interfaces alternatives
en reproduisant exactement
toutes ces requêtes, alors faut pas se tromper
parce qu'on se flague entre guillemets par le serveur.
Mais du point de vue du serveur,
c'est possible de entièrement répliquer
le comportement de l'application Instagram
ou Messenger, mais en changeant
l'interface. C'est exactement ça que
utilise des applis comme texte,
qui passe un temps fou
à observer
et comprendre comment marche le serveur.
Donc quel type
de protocoles les utilise pour dire
un, il y a un nouveau message,
ou tiens, comment ils encodent
le fait qu'il y a une pièce jointe.
Bref, il faut comprendre tout ça
dans toute sa complexité, l'authentification etc.
Pour après, les interconnecter
et faire une sorte de standard
universel, et enfin
créer une interface intuitive jolie par-dessus.
Donc tout ça c'est un travail titanesque
qui n'a pas été fait pendant très très longtemps
jusqu'à une des premières applis
qui fait ça vraiment très très bien, c'est effectivement
texte qui est sorti
en alpha il y a genre un an, six mois,
un peu plus non ?
Mais en fait ils ont, et pendant très longtemps
il y avait très peu de services, c'était archi-beugué
donc ça a mis beaucoup de temps
à se stabiliser tellement le travail.
Et Gargantuesque, tellement personne
veut faire ça en fait, c'est en femme
comme job. Et jusqu'à arriver
à la version actuelle, qui honnêtement est
assez incroyable. Le seul problème
c'est que du coup c'est beaucoup de travail
et du coup c'est payant
et payer 30 balles par mois
pour optimiser ta productivité de saagerie
ben voilà c'est quand même pas donné faut vraiment
prendre un dollar, ça dépend
mais on vérifiera
mais globalement
à part, enfin si tu es vraiment
un ouf de la productivité
tu seras content de les payer
mais pour le commun des mortels ça fait un peu chier
tout ça pour dire que
ça reste le meilleur de ce qui est possible actuellement
où t'as accès à toutes tes grandes messageries
dans une interface type macOS
native
ce qui est le mieux
que tu puisses rêver honnêtement en termes d'expérience
et pour rentrer un tout petit peu
dans le détail de ce que tu viens de raconter et n'hésite pas
à ajouter
ton expérience ou à dire si je dis des pétises
globalement il y a des API
qui sont publics et donc ça
pour le coup c'est documenté par exemple Instagram
à une API publique et tu peux faire
quelques actions donc on pourrait dire que
ces applications utilisent ces API publics
elles font ça pour toutes les API
de chaque messagerie, c'est un peu
fastidieux mais ça se fait. Le problème
c'est que c'est souvent ces API publics en fait sont souvent
bridés. Tiffiquement sur Instagram
j'ai regardé, il faut un compte professionnel
tu peux pas faire toutes les actions
quand tu réponds un message
c'est forcément un message de la messagerie
générale et pas principal
en fait c'est bridé, pourquoi c'est bridé
parce que sinon ça serait utilisé
massivement par des bottes alors paradoxalement
ça n'évite pas les bottes sur Instagram
mais en tout cas
elles peuvent pas fournir des API publics
super
puissante, l'inverse de restrictif
permissive
parce qu'en fait
il y a un problème de bottes derrière qui pourrait être
compliqué et donc
en fait si on veut utiliser les API publics
ça devient trop complexe de l'utiliser
dans une application stable où on veut
pas mal de features
pouvoir envoyer des messages, y répondre etc
et donc la solution c'est
de passer par ce qu'on appelle des API privés
encore une fois tu me dis
si je me trompe mais le problème
quand elles sont privées c'est qu'elles ne sont pas publiées
par les éditeurs
des bessageries
et en fait c'est des API que
des petits gens chez eux
rétro-engineer donc ils essayent
de comprendre comment fonctionne une requête
ils analysent les requêtes
et parfois pour le bien de la communauté
il les publie sur github et tout le monde peut s'en impérer
parfois c'est des gens comme texte qui vont le faire
de leur côté, ils vont rétro-engineérer
les API privés qui sont utilisés normalement
que en interne, pas Instagram, par Facebook
par Google etc
et donc c'est de la rétro-engineerie
qu'on fait via des processus
comme Manizomidol
je sais que toi t'en as fait en plus
c'est un truc dont on a parlé régulièrement
parce qu'effectivement il y en a très souvent besoin
dès que tu veux commencer
à faire des bidouilles pas autorisées
en gros
effectivement pour faire très simple
l'API public
c'est une entreprise qui décide d'exposer
à la communauté
des parties de son serveur
parce que c'est un intérêt en général
le business pour elle
par exemple c'est possible d'accéder à des infos
qui sont dans Google Maps sans passer par la pli de Google Maps
parce qu'il y a des partenaires et tout qui pourraient
en profiter
de la même manière Instagram tu parles des entreprises
qui peuvent nécessiter
d'interagir, de commenter
des postes ou de répondre à certains messages très précis
mais comme tu dis le gros-gros risque
de ces API publics qui sont du coup
documentés ou vraiment tout expliqué
de A à Z en général sur le site de Instagram
Facebook etc
c'est qu'elles peuvent déclencher les nuées de botte infernale
et sauf que
si on pourrait
ça a tel un entre guillemets
c'est impossible
discorde ils interdisent
complètement d'envoyer des messages privés
c'est interdit dans les conditions d'utilisation
la paix de discorde des bottes etc
qui est géniale n'intègre pas du tout
la notion de messages privés
avec entre plusieurs comptes
humains
donc on pourrait dire c'est mort du coup
mais non
parce que comme je vous l'expliquais
il y a bien un moment
où l'application
discorde officielle doit nécessairement
discuter un moment avec le serveur
sous la forme de requêtes
ils ont pas le choix du coup quand on dit API privé
c'est de ça qu'on parle
c'est cette discussion intégrée
nature entre l'appli officiel
discorde et le serveur discorde
qui en général comme tu le disais n'est pas
documenté du tout et qu'il faut découvrir
par soi-même
alors comment on fait pour découvrir ça
il y a plusieurs possibilités si c'est une page web
on peut simplement ouvrir l'inspecteur d'éléments
et là il y a un onglet network
alors c'est hyper simple c'est un des meilleurs outils du monde
vraiment et on peut voir chaque requête
le temps qu'elle prend qu'est-ce qui est envoyé
qu'est-ce qui est répondu bon bah là concrètement
il faut juste capter un peu comment ça marche
cliquer sur des boutons au hasard sur l'application
et voir quel requête corresponde
bon ça c'est simple comme bonjour
mais le problème c'est que souvent
les applications de messagerie elles sont pas disponibles
en web ou alors en réalité
elles communiquent avec une application
mobile chiffrée
ou c'est en fait là que tout se passe
et là comme tu le disais c'est une autre paire de morges
parce qu'il n'y a pas de manière simple
d'inspecter des requêtes
souvent il va y avoir des protections supplémentaires
en fait sur mobile on va passer dans les détails
mais en gros ça par exemple du SSL pinning
donc c'est le fait de hardcoder
un certificat dans l'application
elle même pour éviter qu'on crée un autre certificat
qui nous permettrait de
faire ce proxy pour observer
le trafic, bref on passe les détails
mais retenez une chose
faire de l'inspection
de trafic réseau sur mobile
c'est méga turbo
chiant
mais ça se fait en vrai en général
en force d'un peu de travail
ça se fait et c'est exactement en général
ce que font les gens
qui font des bottes c'est qu'ils observent
qu'on marche Instagram pour faire des bottes Instagram
et c'est exactement ce qu'on fait
quand on veut reverse engineering
des services comme celui de iMessage
par exemple
et c'est ce que tu as fait je crois
sur UberEats, sur fruits
ça avait été fait par l'équipe
ça se fait et en fait ce qui est un peu chiant
et c'est un peu comparable
tu me le disais l'autre jour au Scraping
c'est qu'en fait dès qu'il y a un changement
dans le fonctionnement interne de l'application
tout pète et il faut tout refaire
et moi je sais que j'avais un ami
qui avait un... je suis une digression mais j'avais un ami
qui avait lancé un business
autour du fin, qui était un business
Scraping en gros il offrait
il référençait toutes les
annonces locatives
de tous les sites
et donc du coup il faut Scraper sur tous les sites
mais dès qu'il y en a un qui plante
et bah t'as tous tes digitisateurs qui viennent t'engueuler
et tu passes la nuit à débugger
bref, globalement arriver à mettre au point
une API privée qui fonctionne c'est compliqué
mais, ce qui est incroyable
c'est que y a beau avoir toutes ces difficultés
dans la plupart des cas
ça existe, genre on y arrive
on y arrive, on peut très bien utiliser
la API privée de Youtube par exemple
c'est super pratique bref
ce qui est fou c'est que c'est super dur
mais il y a toujours quelqu'un sur cette planète pour y arriver
et ça c'est incroyable tout le monde
sauf
appeler les messages
et je trouve ça incroyable
pourquoi c'est si compliqué
pour le cas
de Apple
pourquoi Apple réussit
là où Instagram échoue à mettre
des barrières à l'entrée de
son application et de ses API
moi je trouve ça dingue
est-ce que vous avez des petites idées
vous êtes pas obligés
franchement là, est-ce que vous vous... pourquoi Apple
serait meilleur que les autres sur ce point
moi de ce que j'ai quand même compris
mais je connais pas très bien ce sujet
honnêtement mais de ce que j'ai quand même compris
c'est qu'une des spécificités
une des spécificités d'Apple
c'est que comme ils maîtrisent toute la chaîne
du hardware jusqu'à
la moindre application qui
est déployée sur leur machine
eh bien ils peuvent mettre en place
certaines sécurité je sais que
par exemple ils ont pour le déploiement
de système d'exploitation
de firmware sur leur
sur leur device, sur iPhone
ils arrivent à faire des choses
que beaucoup d'autres constructeurs n'arrivent pas
c'est à dire empêcher totalement
le fait de revenir à une version intérieure
de iOS par exemple
de faire des jailbreak
donc globalement
j'ai l'intuition que la maîtrise du hardware
leur permet souvent d'avoir des chaînes
de certificats donc on va dire
des chaînes de confiance qui sont très très dures
à
impersonifier comme on dirait ou à casser
quoi je dirais que c'est un truc qui est peut-être
comme ça moi franchement
j'aurais pas su
tu te crois ou pas ?
bien joué tu as pété mon story tellement
non mais c'est pas loin et en fait
ce qui est intéressant c'est qu'on pourrait se dire
que c'est Apple qui a un écosystème très fermé
mais c'est vrai Apple a vraiment un écosystème très fermé
mais en fait j'ai réfléchi
à ça et je me suis dit c'est pas les seuls
dans les GAFAM c'est pas les seuls à être fermé
pas que dans les GAFAM
mais en effet
en fait là où ce que tu dis
est complètement vrai c'est que c'est l'un des rares
à contrôler et le software
et le hardware et donc par exemple
peut pour authentifier
un appareil il veut que c'est sûr que c'est Apple
et bien si tu lui donnes pas un numéro de série
qui est sorti de ses propres vies
de ses sous-traitants et bien ça marchera pas
et donc en fait c'est trop fort et c'est l'un des seuls
en tout cas une des grosses sociétés
à pouvoir faire ça si on réfléchit à Facebook
il ne me détruise pas le hardware et le software
si on réfléchit à Google quasiment pas il y a les pixel phones
mais si tu veux que ça marche surtout Android
en fait ça marche pas donc en fait c'est les seuls
à grâce à leur système verrouillé
et surtout en fait c'est grâce au contrôle du hardware et software
à ce que comme tu l'as dit contrôler toute la chaîne
d'authentification entre hardware et un software
et ce qui est marrant c'est qu'en fait ça existe
quand même ailleurs mais c'est des tellement plus petites sociétés
moi j'ai pensé par exemple à toutes ces petites sociétés
qui font des objets connectés et souvent
en tout cas il y a quelques années là il y a un nouveau protocole
qui est sorti mateur ça va rebattre un peu les cartes
mais ils avaient tous leur protocole
et bien il y avait les mêmes soucis
tous les petits bidouilleurs qui achetaient une lampe
de je sais pas quel marque et qui voulait connecter
sur une plateforme IKEA parce que eux c'est géré par IKEA
et bien il galérait il y avait des forums sur internet
qui disaient comment on rétro-engineerait
on rétro-engineerait cet API
j'y arrive pas et en fait c'est juste parce que
souvent c'est des gens qui contrôlent et le hardware et le software
sauf que souvent c'est trois bidouilleurs sur internet
qui cherchent à faire ça, ça a pas beaucoup d'impact
le problème avec Apple c'est qu'il y a des millions de devices
c'est pas trois lampes connectées ou un peu plus
qui sont dans le jeu, c'est des millions d'appareils
de devices Mac et iPhone qui sont concernés
du coup ça paraît un peu, de ce que tu dis là
ça paraît impossible
impossible puisque tu vas pas inventer des numéros de série
tu vas pas transformer un des plus hardware
de ton Android en iPhone donc ça paraît impossible
ça paraît vraiment impossible
je pense que tu peux essayer de creuser
les numéros de série tu peux les trouver
dans ce cas après
on va parler d'une solution alternative
qui existait déjà il y a quelques temps
parce qu'il y a une possibilité de bypass
mais qui est moyennement satisfaite
et il y a une possibilité incroyable
c'est là qu'intervient la société Bipr
dont on a entendu parler ces derniers jours
c'est une société qui a été créée un peu moins de trois ans
par Eric Mijikowski
je sais pas si vous vous souvenez de ce mec
moi c'est un mec que j'ai connu par son projet
des Pebble Watch
c'était avant l'Apple Watch
malheureusement son business n'a pas réussi
à survivre après la sortie de l'Apple Watch
mais c'était des mondes connectés avec un écran ink
moi je trouvais ça incroyable
j'étais tout jeune et c'était mon rêve d'en avoir une
et surtout que tu pouvais bidouiller
le système était censé être hyper ouvert
tu étais open source et même les plans hardware etc
et tu pouvais faire des Smart Face
et il y avait une communauté qui s'était créée
en fait c'était pas un Kickstarter mais...
un site de Grand Phonic
je crois que c'était un Kickstarter
qui avait dépassé ses objectifs
de don à l'époque
de précommande
c'était absolument fou
c'est un projet dont on a entendu parler
je dirais dans les années 2015
et donc là
depuis il est passé par Huawei combinator
donc le plus gros incubateur au monde
et depuis de 3 ans
il a créé Bipr qui a un petit peu la même mission que Texte
sauf qu'eux
ils ont décidé d'utiliser pour ça
un nouveau protocole de communication toriel
qui s'appelle Matrix
on a un peu entendu parler peut-être
les gens qui s'intéressent à ça
c'est un protocole ouvert qui est très cool honnêtement
et qui permet de faire de la communication toriel
assez décentralisée
et en fait il s'attache eux
à créer un pont entre chaque messagerie
déjà connue
WhatsApp, Instagram etc. et Matrix
et ils le postent en open source sur github
donc en fait ça a créé des ponts que d'autres gens
pourront réutiliser
tout ça pour en faire une application Bipr
qui rassemble toutes les communications
on revient à ce désir d'unifier
toutes les communications
si j'ai bien compris c'est à dire que
Bipr c'est un peu le lifting
donc l'interface jolie
par dessus Matrix
ainsi que l'ensemble de leur bridge
je verra toutes les applis
Matrix n'en leur appartient pas
il y a d'autres interfaces
notamment où tu peux installer
un new Matrix je crois qu'on dit
je suis pas sûr de ça
mais en tout cas ils ont vachement utilisé ce protocole
et ils font une interface graphique
et les ponts qui vont bien avec les bonnes messageries
pour pouvoir l'utiliser
c'est en beta
vous pouvez le tester, ça bug un peu honnêtement
c'est un peu comme un texte
mais genre open source
et pour l'instant gratuit
alors je pense qu'ils vont quand même avoir un modèle économique
mais c'est open source
en tout cas je sais pas si toute l'application est open source
mais les ponts de communication sont open source
pour l'instant c'est gratuit
c'est en beta donc ça bug un peu et c'est sous invitation
mais peut-être que j'en ai d'ailleurs
je pourrais peut-être vous en filer
on arrive à notre problème
tout ça c'est très cool
ils font un taf incroyable Bipr
franchement c'est une société très chouette
toujours impossible de s'interconnecter
avec iMessage
à cause de cette contrainte
il faut un matériel Apple
pour l'utiliser
et en fait qui est lié dans la chaîne d'authentification
dans le matériel Apple
il y a son numéro de série, son modèle
et l'UID du disque qui s'y sont utilisés
les trois en même temps
ça commence à être un peu chaud
alors il y avait une solution que l'utiliser Bipr jusqu'à là
ces derniers mois et années
et d'autres services également
c'est de passer par un Mac
et Texte utiliser ça
c'est qu'en fait un Mac
il peut utiliser iMessage
et donc du coup si on a un Mac
il suffit de...
par exemple Texte ça s'utilise notamment sur un Mac
il suffit d'entrer nos identifiants
et ça fonctionne
si on n'a pas de Mac Bipr
avait une solution à vous proposer
acheter un Mac
ils ont acheté des centaines de Mac Mini
très exactement 700
pour en fait servir de relais
au iMessage
et donc ça fonctionnait
ça n'a aucun sens
quand tu réfléchis on voit le problème
c'est complètement...
c'est un peu con
même en termes de... enfin c'est con
dans le principe
même en termes de sécualité
ton message il est plus chiffré de bout en bout
parce que quand il arrive sur le Mac il est déchiffré
donc pour le renvoyer sur un autre appareil
tu peux le rechiffrer
mais c'est un peu crado
c'est un problème dans la confiance de ton message
voilà exactement
mais c'est fou que des gens comme Bipr
se sont dit la seule solution
c'est qu'on va acheter 700 Mac Mini
pour servir de relets au iMessage
du coup un Mac pouvait
authentifier plusieurs...
plusieurs comptes à iMessage quand même
parce que sinon ça aurait fait problème
et c'est d'ailleurs la solution que le NoSync Phone 2
un téléphone sur Android qui est sorti il y a quelques mois
ils avaient promis une application
marcher sur iMessage
et en fait ça marchait comme ça
via des Mac Roller
je crois que l'application a tenu 24h ou 48h
parce qu'il y a des problèmes de sécurité
bref c'est de la bidouille c'est très cher
et ça a semi-marché en fonction
de si ton impréventation allait bonne
ça gère pas les piques aussi
de consommation
tout le monde se connait quand même
c'est pas escalable du coup
oui Bipr est encore assez confidentiel
mais si ça devient l'application que tout le monde utilise
il va y avoir un problème
jusqu'à
cet été, un beau jour d'été
où Eric Midzikowski
le CEO de Bipr
reçoit au début du mois d'août un message discord
du compte Jigitech0130
et ce message dit
j'ai réimplé augmenté
iMessage
avec un lien
vers un projet GitHub
ce projet GitHub c'est un poc écrit en piton
pour utiliser iMessage
depuis n'importe quel appareil
donc là Eric il se dit
bon
ça fait 3 ans que je bosse sur le sujet
petit rigolo il essaye le projet
ptdr ça marche
genre il est là
en mode il en revient pas
derrière ce pseudo
se cache en fait James Gill
il a 16 ans
et il a codé ça à côté du lycée
d'un temps partiel au macdo
et de cours de robotique parce qu'il est passionné
par la robotique
c'est la définition même du craquito
selon moi
personne n'a réussi
à faire ce qu'il a fait en des années
que iMessage existe
et lui il fait un poc piton
qui fonctionne
cette histoire me rend drôle
c'est à dire que son système
contourne complètement les protections d'appels
il a besoin de Mac
et tu peux vraiment interagir
avec iMessage et les serveurs d'appels
qui gèrent iMessage
j'y viens juste après
mais juste avant quand même
il y a une histoire rigolote
Eric lui a proposé de remplacer son temps partiel
au macdo
par un temps partiel chez Biper
et du coup Biper a implémenté
cette technologie
comment il a fait ?
il a commencé comme tout le monde
à essayer de rétroïner iMessage
il a appris des choses
que potentiellement d'autres gens savaient
mais qui sont intéressantes
c'est qu'iMessage fonctionne grâce au
notification push de l'iPhone
de... ça s'appelle APN
Apple Push Notification
et en fait c'est un système qui est bidirectionnel
honnêtement, je m'y attendais pas
je pensais que ça allait que dans un sens
faire ton iPhone et en fait non, c'est un modèle qui va dans les deux sens
et iMessage repose entièrement
sur cette brique Apple Push Notification
il n'y a pas de serveurs iMessage
c'est les serveurs de notification d'Apple
parce qu'ils sont derrière iMessage aussi
de ce que j'ai compris
ça ne change pas du tout au problème
ça va être plus simple à régler comme
grosse soucis mais en tout cas c'est ce qu'il a constaté
et c'est là que le mouf de Ginny intervient
en fait, enfin selon moi
il s'est demandé, est-ce qu'il y a un autre service
Apple
qui fonctionne sur un autre appareil
qui n'est pas d'Apple
et il a trouvé
il y a Apple Music sur Windows
et du coup le mec
en détente, il s'est dit
je vais rétro-engénérer Apple Music sur Windows
et peut-être que ça me donnera des briques
pour pouvoir faire la même chose
sur iMessage
le mec a fait ça, je sais déjà pour avoir l'idée
ça me trompe
et donc il analyse tout le trafic qui passe
dans l'application Apple Music
sur Windows
donc déjà, enfin je sais pas si tu veux en dire un mot
mais rétro-engénéré, un site web
ça se fait rétro-engénérer une application
c'est déjà beaucoup plus complexe
surtout une application de desktop
probablement que ce qu'il fait c'est qu'il observe
les requêtes réseaux, à mon avis
oui, bien sûr
et donc du coup
en fait il va avoir comment Apple Music
se connecte au serveur
d'Apple
sans du coup un UID
sans un Apple ID
parce que ça reste un ordinateur
sur Windows
et en fait il va se dire je vais appliquer ce raisonnement
à iMessage
et je vous la fais très simple
ça va marcher
globalement ça va marcher
il va réussir à obtenir les clés de chiffrement
iMessage pour pouvoir communiquer avec
les serveurs d'Apple
donc voilà il a découvert que le serveur d'activation
il s'appelait Albert chez Apple
et que le serveur de notification pour les iMessage
il s'appelait Madrid
donc ça c'est des requêtes qu'il a analysé
des get et des postes
et voilà
et je rends pas plus dans le détail technique
parce que, honnêtement
j'ai pas tout compris
et c'est quand même assez complexe
mais il a fait ce poc
et du coup Beeper
a pris ce projet et il a dit ok on va
l'implementer donc ils ont pris le poc
ils ont bien réimplementé
ils ont mis des features aussi
pour s'échanger des photos, des vidéos
pour pouvoir voir les trois petits points
quand quelqu'un écrit
tout ça c'est du taf qu'a fait Beeper
on y pense pas ?
il y a eu 2-3 mois de travail
une fois qu'ils avaient le poc en piton
et puis pour le mettre en production
mais tout ça
oui en fait il faut refaire un iMessage
quand même avec les fonctionnalités
d'un iMessage
et là c'est le moment où on se dit
c'est nickel, ça fait des années
qu'on a pas iMessage dans les applis de ce genre là
personne n'y arrive
un gamin craque le game
Apple en PLS
mais attends, au moment où ça flûte
genre Apple ils peuvent changer quelque chose
alors au moment où il a posté
ça s'appelle pipuche
le poc en piton
il s'est rien passé parce que c'était en août
il me semble
en août dernier là ?
par contre il y a quelques jours
Beeper lance son nouveau service
Beeper Midi
c'est une application sous Android
qui est donc un iMessage pour Android
chose que Apple essaye de combattre
depuis des années
il le sort avec
un magnifique billet de blog
qui explique tout comment ils ont fait
qui explique l'histoire avec
ce fameux James
qui a 16 ans
ça s'appelle vraiment les termes
comment Beeper Midi
il y a un lien vers le poc en piton
le pipuche
en trois jours, Apple va changer son système
et Shot Done Beeper Midi
c'était sûr
c'était sûr
et en même temps oui et non
parce qu'ils ont affirmé
il y a quelques jours ou quelques semaines
qu'ils allaient implémenter RCS
qui est un peu le successeur des SMS
que Google a développé pour Android
et qu'il y a un peu un iMessage like
sauf que c'est pas iMessage
et je crois qu'ils ont été obligés par la commission européenne de l'implementer
donc dans quelques mois ils vont devoir être obligés
d'en plus iMessage
implémenter RCS
qui est un protocole de communication
bien plus sécurisé que le SMS
donc on pourrait se dire bon ok
ils ont fait iMessage mais de toute façon
tout le monde va en profiter de ces features dans quelques mois
non non non c'est beaucoup trop
marcher sur ces plate-bandes
d'utiliser iMessage
toute petite pause
on remercie le vrai de GraphiCart
merci beaucoup
et toute petite correction également
le coût de l'abonnement pour texte
pardon
le coût de l'abonnement pour texte
c'est de 12,5$ par mois
quand tu prends l'abonnement
à un an
ok
et on lui avait demandé
on lui avait posé la question à Eric
le CEO de Beeper
est-ce que
il était confiant en postant tout ça
son application qu'il n'avait pas se faire shut down par Apple
et avant que ça soit shut down
Beeper mini et en fait il disait que normalement
l'ingénierie inverse a défunt d'interre-operabilité
et protégé par le digital millenium copyright act
le fameux DMC
dont on entend t'en parler sur Twitch
normalement
d'un point de vue légal
si c'est à défunt d'interre-operabilité
tu as le droit
de rétroïne générer ça
mais en fait là ils ont juste changé leur système en interne
ils ont très bien su comment ils faisaient Beeper mini
et se sont dit bah on va faire différemment
allez
et du coup a priori
c'est juste qu'ils vont pas se faire attaquer en justice
Beeper mini
mais le service on peut faire une croix dessus
mais c'est fou que Apple
réagisse en 3 jours
et alors aujourd'hui
Beeper mini
réfonctionne
mais nécessite un Mac
et un Mac a soit
parce que du coup la flotte
des 16 en Mac mini
elle s'est fait flag de ouf
Apple il veut dire toutes les identifications
qui viennent de ces Mac
c'est BAN
et donc du coup
Beeper mini existe toujours
mais il faut le connecter
un Mac en tout cas alors on enregistre cette émission
parce que ça bouge tous les 2-3 jours
il y a un R6 sur Beeper mini en ce moment
ce qui est trop marrant c'est que
en réalité j'avais déjà entendu parler de ce genre d'histoire
à une époque où le jailbreak
était extrêmement populaire
et je savais qu'il y avait un développeur
de tweak donc
d'application modifiée
qui pour faire fonctionner son service
avait en fait de besoin
d'un nightpot touch
jailbreakier
qui était branché au secteur
et qui tournait chez lui non stop
et c'était en fait ça le back end
d'un de ses services
alors je sais plus ce que faisait son service exactement
mais c'était un SaaS qui faisait
je sais plus quoi vis-à-vis d'Apple
qui automatisait probablement des trucs
avec les services d'Apple
et tout son service
tu t'en rendais pas compte quand tu l'utilisais
mais tout son service en réalité reposait
sur un nightpot touch jailbiking
si le truc avec plus de batteries était terminé
rien que d'entendre
nightpot touch jailbreakier
c'est un air de 2010 là
ou 2008, poing qu'est-ce qu'il dit
j'ai dit le mot
je trouve ça génial
mais voilà
j'ai une toute petite anecdote
en plus
texte a été réjeté par
automatique
une boîte que vous ne connaissez pas comme ça
mais qui gère WordPress
et automatique a investi dans
biper
c'est fou la vie
donc en fait
automatique a débit, possède texte
et en fait a débit dans biper
et moi je suis assez curieux de voir comment va évoluer biper
alors maintenant biper ils l'ont renommé biper claude
parce que du coup avec biper mini
ils savent de projets différents
mais automatique
si tu n'étais pas à essayer tout ça
et puis nous faire des debriefing
et puis vous pouvez aller voir
l'article de blog du gamin qui est un peu rigolo
c'est marrant il explique un peu ce qu'il fait
mais c'est un jeune de 16 ans
du coup oui est-ce que
finalement il travaille
chez biper ? oui il a un temps partiel chez biper
au dernier nouvel
il a un temps partiel
en fait je ne sais pas à quel point il travaille sur
l'implémentation depuis biper mini
ou si c'est plus une façon de récompenser son travail
moi ce qui me fume quand même c'est que
d'avoir acheté la technologie
si tu vas sur son kit up à la fin il y a marqué
le projet a été acheté
je crois qu'il le dit texto par biper
c'était dans le deal quoi
mais ce qui me fume c'est
ta 16 ans
t'as des compétences
pour faire ça, pour reverse
le truc d'apples que personne n'avait jamais réussi avant
mais
tu te bosses chez mcdo
oui
à quel moment j'ai rassé
j'ai une anecdote là dessus
ces parents étaient quand même un peu inquiets
parce que je crois que son père
lui trahait dans la formatique mais pas du tout sa mère
tu te dis que quelqu'un te propose un tas
ça a un peu bizarre et tout
un argument pour le fait qu'il s'est accepté
parce qu'il se disait ça va lui prendre du temps
il est arrivé à faire son temps partiel chez mcdo
il peut bien arriver à le faire chez biper
c'est à peu près la même chose
alors le fait qu'il y a un temps partiel chez mcdo a potentiellement joué dans le fait
que ses parents acceptent
travail pour biper
à 16 ans
je suis incroyable
très stylé
trop cool
franchement c'était hyper intéressant ce sujet
ça m'a donné envie d'aller voir plus précisément
à quel moment
à quel moment un peu la merde
c'est une histoire de tentation
si certains veulent regarder aussi ils nous partagent
oui il y a une vidéo de leo2f aussi si ça vous intéresse
oui complètement
il parle plutôt de la stratégie d'interrobation
il est dur à dire celui-là
d'interopérabilité
il parle pas mal
c'est ça l'aspect social
bulle-bleu
bulle-verte
et du fait qu'en fait aux Etats-Unis c'est bien bien plus important
que nous on utilise beaucoup WhatsApp, Messenger, Signal etc
à une message on l'utilise mais on s'en fout un peu
aux Etats-Unis c'est vraiment très
très important
c'est pour ça que tout le monde cherche des hacks
pour avoir des bulle-bleu
voilà
et sur ce je vous propose de passer à la chronique
suivante, jingle
et il y a eu un swap
en plus c'est malade
oui non c'est le temps de focus
mais en fait non mais la régie
est extrêmement maligne et monte Tiffany
pendant que nous on bouge
finalement quand on est qui préduite
j'y abrime
par contre je pense qu'il faut que je m'affale un peu parce que
parce que tu es plus grand
quoi ?
d'accord super
je vous ai dit aujourd'hui
on va parler d'un sujet que j'ai sous le coude depuis longtemps
on veut les recevoir
on le dit à chaque émission
on veut les recevoir et ça va arriver
ne vous inquiétez pas
ça va arriver
on va finir par les recevoir
c'est une histoire de timing
mais c'est pas grave
parce que au contraire
c'est plutôt pas si mal
parce qu'on va faire une rétrospective
et on n'aurait pas eu le temps de tout faire
donc là on va commencer par faire une rétrospective
de toutes les dingrées qui se sont produites
sur les quelques derniers mois
parce qu'on a parlé un peu d'IA generative vis-à-vis de la vidéo
mais on a un peu failli une pause
en réalité sur tout ce qui concerne
les concurrents de chat gpt
open source
et c'est le ça qu'on va parler aujourd'hui et de rien d'autre
aujourd'hui je vais vous présenter
une entreprise très particulière
créée par 3 français
un ancien chercheur de deepmind
et deux qui étaient chez Meta
cette entreprise qui n'existait pas il y a
à peine 8 mois
a eu le temps dans cette intervalle
de faire trembler toute l'industrie
de l'IA en publiant des modèles alternatifs
à chat gpt qui explose
toute la concurrence
être valorisé à presque
2 milliards de dollars
le tout
sans aucune communication
ni
vidéo promotionnelle déceptive
rien
uniquement
ce qui est la meilleure communication
ce que fait cette boîte
me hype tellement que je vais quasiment
tous les jours sur twitter
exclusivement pour vérifier
qu'ils n'ont pas fait des nouvelles annonces
et c'est véridique
laissez moi vous expliquer
à quel point nos petits français ont explosé
le game et comment
vous pourriez aussi en profiter
pour commencer ce que je vous propose
c'est de regarder un classement
et pas n'importe quel classement
c'est un tableau
des meilleures intelligences artificielles
qui sont concurrentes
à chat gpt
vous allez voir il y a plein de trucs
très intéressants dans ce tableau
par exemple on dirait que chat gpt
régresse
entre plusieurs versions
c'est non on peut voir qu'il y a aussi
des scores incohérents qui sont pas dans le bon ordre
c'est bizarre et surtout
il y a ces petites lignes jaunes
open Hermès mistral machin
mix mistral instruct
que des noms
qui évoquent le vent finalement
elles payent pas de mine
on dirait même comme ça qu'elles sont pas si bien classées
mais ce serait passé à côté
de la révolution
et je pèse mes mots qui se cachent derrière
et qui explique que toute
la sphère il y a de twitter
ne parle que de
depuis novembre
pour bien comprendre ça
il va falloir d'abord que j'explique quelques trucs
déjà
il faut réaliser que comparer
des lm comme chat gpt
et donc les classées
c'est assez galère en fait
il y a pas mal de manière
de mesurer la performance
d'un lm mais pour faire court
c'est pas simple
vraiment pas simple
il y a des benchmarks qui sont en gros
des listes de questions
qu'on peut poser à un lm pour vérifier ses capacités
c'est un peu comme une interrogation
écrite automatisée
donc on teste différentes matières
en fait
de la logique, des maths, de la culture générale
je vous ai montré quelques exemples
c'est vraiment ce que vous pourriez faire
à l'école en fait comme un qcm
je sais pas si tu as des exemples
t-il
donc là par exemple
petite question de philosophie
ah ouais ça
c'est vraiment précis
on demande des questions sur la philosophie de Kant
et il faut remplacer avec le bon terme
ouais c'est vraiment précis
autre question
attends tu sais répondre à ça toi ?
non
autre question là pour le coup c'est des maths
et là c'est un peu plus simple
c'est de faire une racine carrée
et globalement c'est un peu toujours
ce même genre de pattern à savoir
arriver à mesurer en filo, en socio
en logique
en billet de raisonnement aussi
enfin bref il y a toute une full op
de data set qui ont été conçus
pour mesurer si
un llm
performe mieux qu'un autre
on peut appeler ça des benchmarks ?
c'est exactement ce sont des benchmarks
le problème c'est que c'est déjà arrivé
que des modèles cartonnent en théorie
avec des scores de fou
mais en fait
soit pas dingue
ça arrive assez régulièrement
par exemple c'est potentiellement
le cas des modèles de google
genre jiminie
qui sont sortis il y a à peine 2 semaines
on dirait que
en fait ils ont tout fait pour maximiser
leur score de mmlu
donc qui est un benchmark très prisé
et très regardé
sauf que apparemment quand tu l'utilises
c'est dur d'expliquer pourquoi
mais tu sens que c'est quand même moins bon
que chadjpt4
alors que pourtant sur certains benchmarks
ça devrait pas
le score théorique
dirait que non mais c'est bizarre
il y a un truc au fin et goût
tu sens que c'est quand même pas exactement pareil
et ça peut parfois s'expliquer
parce que l'intero
a fuité
dans le dataset d'entraînement
en gros
c'est comme si les réponses apparaissaient
dans les centaines de gigas de texte
que le modèle a appris
et du coup c'est littéralement l'équivalent
d'avoir les réponses d'une intero
qui fuite avant l'épreuve c'est pareil
on est incapable de dire si le modèle
il répond juste parce que
il a une bonne culture générale
ou si
il a vu le test en fait
oui il overfit quoi
exactement c'est assez ouf
mais
même si les benchmarks peuvent être intéressants
on apprend des choses quand même
sur différentes capacités dans différents domaines
par exemple en code
il y a Huomaneval qui est très apprisé pour
savoir à quel point t'es fort à créer du code piton
qui marche
ça reste intéressant
mais
ce qui est quand même fou c'est qu'on n'a pas trouvé mieux
actuellement que le feeling
des humains pour savoir
si un modèle est vraiment bon
et un des meilleurs benchmarks du coup c'est
la vie des gens
et surtout est-ce que tel ou tel modèle
est utilisé vraiment en entreprise ou pas
c'est à dire qu'il y a des modèles qui avaient
des scores de malades qui ont IP tout twitter etc
mais qu'actuellement personne n'utilise vraiment
dans des boîtes parce que face à la réalité
en gros ils sont pas oufs
et inversement t'as des modèles
qui n'ont pas forcément les meilleures notes
mais qui sont utilisés partout parce que
dans des cas précis réels
les entreprises jugent que ça marche
donc en fait c'est un peu de seule manière
de savoir si les modèles sont vraiment cool c'est
est-ce qu'ils sont utilisés dans des boîtes
à terme sur le sur du long cours
ou est-ce que leurs réponses
satisfont des humains
du coup
pour faire des classements, comment on fait
et bah en fait on peut faire un système
de vote c'est comme
aux échecs on peut faire un élo
donc un système de points
pour comparer des réponses différentes
de modèles et en fait on y revient
à ce tableau c'est l'un des classements
de ce type les plus connus
ce qu'on voit arena élo
en réalité ça décrit
toutes les batailles
qui ont été effectuées
sur une audience cible entre
différentes réponses
donc en gros on fait des battle
on montre une question, deux réponses
ou trois réponses et il faut voter
et petit à petit c'est
vraiment comme des matchs d'échecs
c'est comme d'un élo et ça joue sur ton ranking
actuellement
c'est un des meilleurs moyens
de savoir si un modèle est particulièrement capable
ou pas et là il faut vous dire
qu'on voit vraiment le top du top
ok ça c'est le très très haut
du panier c'est à dire que cette liste
continue en dessous
à l'infini
donc c'est pour ça que même les petites lignes jaunes
on a l'impression qu'elles sont en bas
non non c'est vraiment le podium
du podium des tout meilleurs modèles
dispos là au moment où on tourne cette émission
qui ont été testés sur
le site en question qui est très populaire
on peut voir que
pour l'instant les tout meilleurs modèles
en haut ils sont tous propriétaires
donc on reconnaît
les gp t4 que tout le monde connaît
évidemment toujours un détrôné
tout en haut
ce sont les différentes variations
enfin on voit qu'il y a plusieurs lignes
parce que c'est des variations différentes
de mise à jour d'open ai
donc 0 3 14 par exemple
ça veut dire que c'est la version de gp t4
de mars 2023
ok
dans l'interface web on nous laisse pas
la possibilité de l'échanger
mais via la paix on peut
et donc
c'est un modèle propriétaire
comme on le voit sur la dernière colonne
c'est à dire que à part open ai et microsoft
personne n'a vraiment la main dessus
physiquement quoi
à part à distance via la paix
ensuite on peut voir claude d'entropique
on en a pas beaucoup parlé
mais c'est été monté par d'anciens salariés
de open ai qui est pas méga loin derrière
peut-être qu'on en parlera
peut-être qu'on en parlera
c'est clair il y a une belle histoire autour de ça
globalement c'est ceux qui sont le moins long
à leur actuel de gp t4
puis
quelques versions de gp t3.5
qui après des mises à jour
successive restent en fait toujours
très compatitif actuellement
surtout pour le prix
et plus bas on aperçoit
google avec le gmini pro
leur donc nouveau modèle
annoncé il y a deux semaines à peine
dont on va reparler un peu
tout ça donc
c'est ce qui est propriétaire
après pour ce qui
nous intéresse le plus nous
il y a les modèles ouverts
ils sont en général plus petits
on va expliquer ce que ça veut dire juste après
ils demandent donc
moins de puissance de calcul
on peut les télécharger gratuitement
les faire tourner en local
et les réentraîner
ce qui est un des trucs les plus intéressants
sur nos propres données pour les rendre vraiment
très très très très très fort
et alors jusqu'à il y a
quelques semaines il y avait en gros
qu'une seule alternative sérieuse
à chadjpt et ses variations
dont on avait déjà parlé
c'est liama 2
plus précisément des versions améliorées
donc fine tune de liama 2
le modèle de facebook
qui finissent d'optimiser au max
du max le travail qui a fait faire
dans son modèle dix de fondation
et qui sont assez précurseurs sur le fait de rendre
open source un llm
qui est promis à avoir fait ça
en tout cas
qui soit visible
il y en a d'autres mais c'est le premier
c'est effectivement eux qui ont lancé la grosse vague
dont d'une certaine manière nos héros du jour
sont les héritiers
sauf que
vous avez vu que
je vous ai dit il y a quelques semaines
il y avait quasiment que facebook avec liama
mais il y a quelques semaines
il y a quelques... allez
il y a deux mois exactement
il y a des petites lignes jaunes
qui se sont ajoutées au tableau
ça s'est passé comment
mistral le compte mistral
qui n'était suivi alors par quasiment personne
a publié un tweet
le tweet vous allez le voir
s'habiller sur vos yeux
j'adore
c'est pas celui-là
nan nan c'est celui d'avant
toujours
tout va bien
le tweet qu'ils ont affiché
attention le suspense monte
et t'as son congle
un tweet de la société
mistral
il publie ça
pour ceux qui ne savent pas
ce que c'est
c'est un lien magnète
c'est tout simplement un torrent
qu'on peut télécharger
avec... ben voilà
un vide torrent comme on téléchargerait un film
piraté ou alors plein d'autres trucs
Open Source c'est aussi un bon moyen de partager
des OS par exemple
ou des trucs comme ça
publie ça pas d'explication
rien pas de contexte
pas de vidéo promo pas de billet de bloc
rien juste ce lien
et quand on clique dessus
on découvre un modèle à 7 milliards de paramètres
et là il faut qu'on explique un truc très important
parce que je voulais dire on peut avoir l'impression que ces lignes jaunes
elles sont en bas du classement
mais en fait
ça c'est si tu prends part en compte
la taille des modèles
en gros on peut se figurer que
c'est comme en box il y a différentes catégories
c'est à dire qu'il y a les poids lourds
il y a les moyens et il y a les poids légers
et en fait c'est pas du tout la même chose
de se battre avec des modèles
qui font 200 milliards de paramètres
ou avec des modèles qui font 70 milliards
ou 7 milliards
la différence c'est
enfin ce nombre de milliards d'écris en fait
la taille des poids donc concrètement
c'est l'énorme fichier qui contient
le réseau neuronal qui permet de faire
les inférences donc de créer
les messages d'écrire sous vos yeux les tokens
et donc plus un modèle est gros
plus il demande de la puissance
de calcul d'avoir des serveurs
gigantesques avec des cartes graphiques
de Nvidia qui coûte 25 000 euros
pièces
qu'il faut cumuler même en sous-voi
elle ne suffise pas à elle même
qu'on cumule pour à la fin arriver à héberger
des modèles qui vont faire du coup
100 Giga par exemple ou 200 Giga
ce qui en termes de mémoire
vives de cartes graphiques
c'est beaucoup
il faut vraiment beaucoup d'argent pour financer
ce genre de serveurs et c'est en partie
ce qui explique qu'ils sont uniquement
sur des data centers ce genre de très très gros
poids lourds on peut
souvent on ne sait pas exactement en plus
quelle sont la taille des modèles propriétaires
on pense que par exemple
à une époque on pensait que les GPT3 et compagnie
faisaient à peu près 130 milliards de paramètres
si je dis pas de bêtises
on imagine qu'OpenAI a amélioré tout ça
et réduit cette taille et peut-être que GPT3.5
turbo est plus petit
mais globalement c'est pas trop
GPT4 c'est sûr que c'est énorme
et c'est même une architecture
où c'est tellement gros qu'ils doivent le séparer
en plusieurs poids lourds
en fait c'est plus du poids lourds
en réalité il y a probablement 8 poids lourds
qui font peut-être chacun
plus de 100 milliards de paramètres
et qui travaillent ensemble
autant dire que
héberger sur ça vous-même
je ne sais pas si vous avez pas trouvé un local
c'est mort
dites-vous que c'est juste mort
c'est pour ça que sont apparus
des modèles plus petits
par exemple
Lyama quand ils ont sorti leur modèle
ils les ont sorti souvent en 3 versions
voire 4
il y a le plus gros il fait 70 milliards de paramètres
ça pour vous donner un ordre d'idée
c'est le plus proche de ce qu'on a
qui ressemble à une taille
de modèle d'open ai ou d'entropique
et ça pour le faire tourner
il faut en gros minimum
2 cad graphique
des 4000 80ti
si tu as 2 4080ti
donc qui ont chacune 24 gb
de mémoire vive
tu peux espérer faire tourner
une version de ces gros modèles
de Lyama donc de facebook
les 70 milliards
et encore tu dois passer par un processus de quantisation
comme on dit donc tu les restreins
mais voilà pour vous donner un peu
un ordre d'idée par contre
actuellement c'était un des moyens d'avoir
des modèles quasiment équivalents
à gpt 3.5 donc c'était
déjà cool
ils ont sorti également
des modèles de 30 milliards de paramètres
de 13 milliards de paramètres
et de 7 milliards de paramètres
vous pouvez voir qu'il y a quand même un pattern
à chaque fois on divise par 2
et vous pouvez vous dire à quoi ça sert
pourquoi ils ne mettent pas plutôt toutes leurs énergies
tous leurs argent à entraîner
des uniques modèles qui soient plus forts
que tous les autres et ben en gros
c'est un intérêt parce que différents modèles
donc différents tailles de modèles sont utiles
pour différents trucs
tu peux avoir besoin d'un très très gros modèle
et donc d'une très bonne compréhension
d'une très grande culture générale
pour effectuer certaines actions
en faisant des compromis
du coup sur le coup par mot
le coup par token et le fait d'avoir
des très grosses infrastructures
mais parfois tu peux avoir
moins de... tu peux avoir des besoins
plus restreints que tu es prêt à échanger
contre des performances
donc par exemple si tu veux faire tourner un modèle
sur ton Mac mini qui a 16 giga de RAM
et ben tu es très content en fait
qu'il y ait des modèles 13 milliards ou 7 milliards
qui tiennent en gros en 4, 5,
6, 10 gigas
et que tu peux faire tourner
en local sur ta machine donc ça a un vrai intérêt
d'avoir des modèles qui font des tailles différentes
et qui donc vont avoir des usages
et des trade-off différents
ça c'est pour vous dépendre le tableau
actuellement, pendant très très longtemps
avec un modèle de 7 milliards de paramètres
tu faisais quasiment rien
en gros, e... enfin
c'est intéressant pour faire...
c'est pas exact, tu fais pas rien
prototypez pour essayer
et de... tu peux jouer avec
pour faire des résumés ça peut marcher un petit peu
ou pour essayer de
je sais pas moi de trouver des synonymes à un mot
enfin voilà, des choses qui jouent avec le langage
mais
à un bas niveau on va dire
c'est un élève de... de CM2
tu peux dire ça et pour ça c'était
intéressant mais globalement très limité
13 milliards c'est quand même un peu plus intelligent
peut-être qu'on pourrait dire
quelqu'un un élève de 6ème tu vas ou de 5ème
et il fallait vraiment
aller au 30, 70 milliards
pour avoir à peu près une conversation cohérente
et des messages relativement longs
raconter des histoires qui sont pas sans connithètes
etc et on pourrait
on pourrait dire que c'est un élève de 3ème par exemple
Mistral
leur modèle là
qui ont annoncé dans un tweet
sans décorum
c'est un modèle de 7 milliards de paramètres
donc
c'est le plus petit qu'on voit
être publié
il est dans le top 10
sauf qu'en fait il est complètement
dingue
quand il l'ont sorti les gens
ils croyaient à moitié
on pensait qu'il y avait des bugs
on s'est dit non mais c'est pas possible
ce que je vous expliquais ils l'ont entraîné
sur des benchmarks ça n'a pas de sens
on devrait pas pouvoir obtenir ce genre de résultats
avec
un modèle qui tient dans un fichier de 5 gigas
ça n'a pas de sens
mais en fait si
leur modèle de 7 milliards
surtout quand il a été fancyonné c'est un peu
les noms, l'évération, les open-rms tout ça
que vous voyez dans le tableau
sont des versions améliorées par la communauté
qui ont poussé
ce modèle à un niveau où
il explose évidemment tous les 13 milliards
donc ça c'est
ils ne sont même pas dans la course
mais également
il y a l'IMA de 70 milliards
tout en bas
qui se fait absolument
rétamer par un modèle
10 fois plus petit que lui
donc c'est à dire que actuellement la meilleure déclinaison de Mistral
en 7 milliards de paramètres
c'est Starling LM7B Alpha
elle explose
des GPT 3.5 turbo
des PPLX 70 milliards
70 B ça veut dire 70 milliards
c'est la ligne Starling qui faut regarder
exactement
l'IMA2 70 milliards
c'est que des modèles
qui sont les meilleures modèles
en 70 milliards de paramètres
je sais pas si vous vous rendez compte
la Pro est ce que c'est
et c'est ça qui a expliqué
qu'il y a deux mois il y a eu une sorte de rade marée
où tout le monde s'est mis à jouer avec ce
lien magnète
à le télécharger, à le fin de tuner et essayer de l'améliorer
et à voir où est-ce qu'on pouvait le pousser
au maximum du maximum
et d'ailleurs tous les gens qui s'amusent
à justement finituner un peu des modèles comme ça
ils n'ont plus fait sur l'IMA2 à ce partage
ils l'ont pris Mistral
je sais qu'on a vu des effets apparaissent sur des gens de Huggingface
qui font un travail incroyable
et même je pense qu'ils contribuent
aussi à améliorer le modèle Mistral
j'imagine qu'ils discutent
c'est aussi un travail d'équipe
on va dire que tous ces gens qui s'amusent
sont sur les épaules de géants
donc de Mistral en gros
mais derrière font les dix derniers mètres
pour tirer tout le jus
que contient leur nouveau modèle de fondation
donc comme on l'appelle
merci Tiffany je m'en rappelais je trouvais plus le nom
si on regarde le classement
on peut du coup voir
que ce modèle là
surtout dans ces versions finitunées
est quasiment équivalent
à certaines versions de GPT 3.5
qui lui fait pas
7,70 milliards mais
encore le double
il y a quand même un petit subtilité
à capter c'est que ça reste
un modèle petit et donc
tu peux avoir des réponses ultra qualitatives
mais on pense
c'est possible que
typiquement au niveau de la quantité d'informations
que le modèle connaît
dans sa culture
la quantité d'infos d'internet
qui l'a plus stocké dans sa mémoire
on pense que
il va être peut-être un peu plus limité dans certains cas
et plutôt
il peut avoir un risque
d'halluciner un peu plus souvent
d'inventer des trucs qui ne sont pas dans son data set
c'est peut-être
une toute petite nuance qu'on peut donner
au fait d'avoir un modèle de 7 milliards
mais à part ça, ça veut dire que
ce truc là, vous pouvez le faire tourner
sur certains iPhone
ou de manière plus réaliste
sur votre Mac sans aucun problème
ça va tourner à la vitesse de l'éclair
parce que c'est vraiment tout petit donc
c'est bien plus rapide que vous ne pourriez le lire
ça veut dire que des développeurs même
d'applications peuvent maintenant l'intégrer
en backend pour
en local complètement sans avoir
le moindre connexion internet
avoir un quasi JPPT 3.5
et je sais que aussi il y a l'aspect
où il le livre
sans sur entre guillemets
il n'y a pas un préprôme de 15 km
pour dire qu'il faut être bienveillant et gentil
c'est à toi de le faire si tu as envie de le faire
d'ailleurs ils le mettent
quand ils expliquent un peu
quelques jours après avoir posté un lien
il faut un article de blog sur le fait qu'on a posté ça
et ils disent attention
vous pouvez en faire ce que vous voulez
mais si vous voulez qu'ils disent d'un gilet, ils peuvent répondre des d'un gilet
et ça c'est hyper important de l'on parler
parce que non non, c'est parfait
c'est hyper important d'en parler
le bénéfice d'un modèle open source
outre tous les avantages qu'on lui a donné
c'est effectivement qu'en général
ils n'ont pas encore l'eau beautomisée
parce que comme vous l'avez vu
sur les benchmarks
régulièrement des modèles propriétaires
baissent en performance
ça peut pas être paradoxal
normalement une boîte elle améliore ses produits
mais sauf que dans le cas
de modèle propriétaire
ce qui se produit souvent c'est que
pour rendre l'IA safe
pour éviter qu'elle
qu'elle vienne titiller la sensibilité
de qui conque
exactement on a besoin
de les contraindre
pour qu'elle réponde je suis unia je ne peux pas faire de mal
surtout quand ils sont
grand public
surtout quand ils sont grand public
ils ont lancé la plateforme
et du coup
il faut bien comprendre
que c'est pas anodin
tout le monde ne réalise pas forcément ça
mais à chaque fois qu'on contraint
un modèle à être safe
on le rend moins performant
c'est une constante
on l'observe absolument partout
l'un et l'autre sont un trade-off
c'est toujours une balance
donc c'est pour ça qu'il y a beaucoup de gens qui disent
nous les développeurs, à la limite pour ton interface web
tu fais ce que tu veux mais nous les développeurs
donnez-nous les meilleurs modèles
des modèles absolument par contraint
et après on se débrouille nous-mêmes
pour savoir si oui ou non on veut bloquer
tel ou tel type de
message, de question, de discours etc
et donc
c'est ce que ministral a compris, leur modèle n'est pas
lobotomisé et donc il y a énormément de gens
qui, sans sa partie
filtrage safe obtiennent les modèles
les plus performants du monde et parvenent comme ça
à rivaliser avec OpenAI
vous avez vu que pour l'instant
j'ai pas parlé d'une petite ligne
il en manque une là
il y a une ligne très haute
très haute, et encore on pourrait dire
ouais mais elle est pas tout en haut
ils ont pas fait aussi bien que j'ai pété 4
là encore
ce serait pas assez à côté de pourquoi cette
ligne est la deuxième révolution
ça c'est la première révolution qu'ils ont
lâché comme une bombe
c'était en fin septembre, début octobre
il y a deux mois
ça a peine dix jours
et c'est
une autre forme de révolution
c'est à dire que nous on était là à guetter, à attendre
toujours la même chose
si on va sur leur compte
il n'y a que ça, il y a des liens magnètes
pas plus de communication
là où deux jours plus tôt
il y a Google qui a fait
en fanfare et en trompe
des vidéos productes
surtout que les vidéos de Google
en réalité
en fait tu peux pas accéder au modèle
derrière, c'est à dire qu'ils ont dit
ouais ouais on arrive on a fait aussi bien que j'ai pété 4
mais pas maintenant, mais bientôt t'inquiète
on me fera aussi bien, plus
ils se sont fait accuser très rapidement
d'avoir faiqué en réalité les interactions
de la vidéo et qu'elle a été en gros majoritairement
fait en post-prod
ce qu'ils ont avoué après
dans un blog post
on peut y accéder à gmini, parce que moi je suis retus
on ne pouvait toujours pas m'aisser depuis
tu peux accéder à certaines versions mais pas gmini ultra
d'accord
qui est censé être leur compétiteur à gmini 4
bon bref tout ça pour dire, mistral ils font
toujours l'inverse, il y a dix jours
et il publie simplement un nouveau magnète
et alors là c'est Noël
donc tout vaut le magnète et tu regardes ce qu'il y a dedans
et là il y a un modèle qui s'appelle
mistral 7B
x 8
alors est-ce que vous avez des idées
est-ce que tiffony tu as une théorie sur ce que vous veux dire
ce nom cryptique
ça s'appelle
mistral 7B x 8
genre ils ont mixé plusieurs
plusieurs dias entre elles
exactement
en gros
on s'attendait à ce qui sort peut-être
des meilleures versions, peut-être une version
13 milliards ou le plus
mais c'est pas du tout ce qu'ils ont fait
parce que probablement qu'ils servent beaucoup mieux que nous
en réalité ce qu'il faut faire
ce qui est intéressant et utile
ce qu'ils ont sorti c'est un modèle
dit de MOE
donc ça veut dire mixture of experts
donc un mélange d'experts
et alors
on va pas avoir le temps de rentrer vraiment dans le détail
de techniquement comment ça fonctionne
mais dites-vous que
c'est une architecture différente
pour créer un modèle de langage
c'est probablement on est quasiment sûr que OpenAI
a utilisé cette architecture
sur GPT4 et c'est comme ça qu'ils ont réussi
à attendre ce niveau
et le concept simple c'est que plutôt que d'entraîner
un seul modèle, ce que tu fais c'est que tu entraînes
différents modèles mais qui vont se spécialiser
dans des domaines différents
pour faire très simplifier
l'échématique, c'est un peu ça
pour faire simplifier l'échématique
c'est un peu comme si tu entraînais un modèle à être super bon
en maths, un autre à être super bon
en code, un autre à être super bon
en littérature et en philosophie
dans les faits c'est quand même beaucoup plus compliqué que ça
mais ce que ça permet de faire
concrètement c'est
d'entraîner un modèle du coup avec
avec différentes branches
et en gros c'est comme un server
à 8 têtes
mais ou lors de la génération donc pour chaque nouveau
token généré, il y a seulement 2
de ces têtes qui sont utilisées
donc là où c'est intéressant
c'est qu'en gros pour simplifier
tu bénéficies
de la taille d'un modèle
qui fait 8x7
sans
en payer le coût
au niveau du hardware
donc pour
le coût d'un 7 plus 7
donc pour le coût de 14 milliards de paramètres
tu bénéficies
en quelque sorte de 8x7
ok en fait
il est juste plus gros en taille
mais il ne nécessite pas plus
de puissance de calcul c'est ça ?
exactement en gros
non mais c'est exactement
je ne sais pas le formuler
c'est exactement ça
leur mix tral donc
c'est un mélange d'experts de leur premier
mix tral
en ce d'autres qui sont partis de leur première base
pour le lui faire atteindre
ce stratosphère
pas forcément seulement en termes de performance
alors vous l'avez vu il se débrouille extrêmement bien
donc en gros on peut considérer
qu'il est à peu près du niveau de gpt 3.5
enfin même peut-être même un peu au-dessus
dans les tests
mais c'est pas ça le plus fou
le plus fou c'est que tu peux le faire tourner
sur un Mac M3 Ultra
qui a 64 gigas de RAM
donc tu prends
un Mac
qui se vend j'y appelle pour 2-3 mille balles
et tu peux faire tourner
littéralement en local
un concurrent de gpt 3.5
qui est probablement même un peu meilleur en réalité
c'est fou
c'est la première fois de l'histoire
que c'est possible
et le deuxième truc de fou
c'est le niveau de performance
parce que pour l'instant on a juste parlé de l'intelligence
mais c'est pas la seule chose qui contigue
la vitesse des tokens aussi qui importe
à quel point tu vas vite à répondre
et eux
non seulement leur modèle est gigasmart
mais surtout
il peut répondre à énormément d'utilisateurs
en même temps
et il peut générer des tokens à la vitesse de l'éclair
donc en gros ça veut dire que
sur ton Mac qui a 64 gigas de RAM
tu peux débiter du token
comme jamais
et pour faire le parallèle
plus réaliste de t'es une entreprise
et tu veux déployer ta propre version de Mistral
et je vais discuter avec pas mal de boîtes
qui sont totalement en train de faire ça actuellement
c'est en train de prendre Mistral
de les fancyner sur leur version
et de déployer ça sur leur serveur
voilà enfin c'est bon
je pense que même Mistral le fait potentiellement pour des clients et les suivants
c'est probablement un de leurs business model d'ailleurs
pour ces entreprises-là
ça va coûter beaucoup beaucoup moins cher
que ça ne coûte à OpenAI
de faire la même chose
pour faire très très court
et ce qui est fou c'est que avec ça là
on a un chat gpt qui est meilleur
que chat gpt à sa sortie
si on reprend il y a un an
on peut le fancyner avec ses propres documents
et habitudes d'une boîte
en local en tout cas
pas exposé à des fuites
sur OpenAI etc
qui tourne sur une machine
une machine classique
qui ne coûte pas non plus un bras
et qui est disponible
en reline si on le veut
qui disponible pour tous les collaborateurs
de la boîte et tout
c'est sûr qu'il y a de 15 applications
et que de toute façon
les models Open Source
c'est ce qui va aller le plus dans les entreprises
qui veulent vraiment un truc spécialisé
pour une tâche précise
je pense que vous réalisez du coup
que ma hype n'est pas déplacée
je oserais même dire que
là où certains parlent de bulles
en mode survalorisation
de milliards c'est beaucoup trop machin
je suis pas si sûr
parce qu'ils ne communiquent pas
cette valorisation elle correspond
au potentiel que les gens voient
dans l'avenir d'une boîte
qui coup sur coup
a juste explosé l'état de l'art
en fait
surtout que pour l'instant c'est
je vous ai parlé de petites révolutions
il y en a probablement encore à venir
en réalité
et comment on le sait ? c'est parce qu'ils ont annoncé récemment
leur cloud
donc en gros la version hébergée
si tu t'as pas les machines disponibles
ou alors que tu veux servir beaucoup d'utilisateurs
la version hébergée de leur modèle
qui s'appelle la plateforme
JU Access
et concrètement c'est très cool
du coup JU Access
et c'est en gros une version
de la pays d'openai
il y a même une rétro-compatibilité
c'est à dire que si tu as développé un service pour openai
c'est les mêmes endpoints
tout marche pareil, t'as juste à changer l'URL
et tout va bien
malin
d'ailleurs dans une doc ils ont mis
pour citer openai
ils disent ça marche comme notre
fameux concurrent
genre ils le citent pas mais je trouvais la formule ça
c'est incroyable
d'accord et du coup
sur cette plateforme
qu'est ce qu'on a découvert ?
qu'il y a effectivement les deux modèles qu'ils ont déjà publié
mais il y a un 3D modèle
donc ces deux modèles là
ils les appellent MISTRAL SMALL
attendez
je crois c'est MISTRAL MEDIUM
il y a MISTRAL TINY
MISTRAL SMALL
donc déjà
le MISTRAL SMALL pour eux
c'est la petite ligne jaune tout en haut
voilà
et il y a un petit MISTRAL MEDIUM
qui est en alpha
celui-là n'a pas été encore publié
pas exactement d'ailleurs ce qu'ils vont faire
ils vont peut-être un jour arrêter
de publier des modèles on espère que non
si vous plaît non continuez
mais
ce MISTRAL MEDIUM
tu peux déjà essayer des inférences dessus
donc y accéder via une appellée
exactement
et en gros ça promet
ça promet d'être encore un sacré morceau
il est probablement encore plus gros
et au niveau du coût
est bien plus accessible
qu'un GPT-4
on pense en fait qu'il se situe entre les deux
c'est-à-dire c'est probablement pas encore exactement
l'équivalent d'un GPT-4
mais que ça va te coûter beaucoup beaucoup moins cher
à l'inférence
ce qui est leur spécialité
j'ai une question un peu
mais alors tu me dis c'est un peu hardcore
t'as tu je serais pas
est-ce qu'ils expliquent du coup
comment est-ce qu'ils ont réussi à compresser
alors sur la partie MOU
de passer de 7 milliards
ouais pour passer à 7 milliards de paramètres
tout en étant autant
efficace
et ben la réponse est non
oui
et ils l'assument totalement
c'est-à-dire que eux ce qu'ils font
c'est qu'ils sont open-weight
c'est-à-dire qu'ils offrent
des modèles à la communauté
pour qu'on fasse jouet avec
mais ils gardent leurs recettes secrets
et clairement ils l'assument
ils disent non mais voilà c'est nous c'est la manière dont on veut fonctionner
on veut vous donner
des super jouets
ouverts que vous pouvez utiliser
par contre on garde
nos recettes secrets
pour pas se faire rattraper tout de suite
donc c'est un peu leur politique
franchement moi si ça leur permet
de financer l'entraînement
du prochain GPT4 open source
tous les jours je signe
il n'y a pas de problème
garder vos recettes secrets
vous partagez les plus tard peut-être
ce qui est fou c'est qu'ils sont français
et du coup à moins de ce que j'ai lu ils font tourner leur entrainement
avec Skelway
avec le ROHPC
c'est le super calculateur européen
et donc en fait ça contribue
à créer un écosystème incroyable
parce qu'en fait ils sont méga des terres
pour revenir sur le médium
du coup ils viennent en concurrence frontale
avec Entropique
parce qu'en gros Entropique
leurs stratégies on essaye de faire
comme GPT4 en un peu moins bien
mais on est moins cher
exactement ce que t'as dit pour le médium
à mon avis encore moins cher
mais du coup est probablement mieux
parce que là on a parlé un peu
de ces benchmarks etc
et rapidement après la découverte
de ce mistral médium
il y a pas mal de gens qui ont commencé
à faire des traits de twitter où ils font des comparaisons
sur des sujets hyper précis
entre GPT4 et mistral médium
et moi je trouve ces exemples là
qui sont les plus intéressants
parce que ce genre de benchmark c'est un peu flou
mais c'est quand tu vois des vrais problèmes
souvent c'est les problèmes de développeurs
je trouve que ce qui sont les plus intéressants
quand tu vois des vraies comparaisons
sur une manière d'approcher un problème complexe
entre deux IA que ça devient intéressant
parce qu'un truc à préciser
c'est que le GPT4 qu'on voit tout en haut
c'est les versions de l'API
et il y a pas mal de gens
qui commencent à constater si ça vous intéresse
enfin je vais recommencer
il y a pas mal de gens qui commencent à constater
que les versions publiques de OpenAI
de chesh gpt deviennent de plus en plus débiles
ils essayent des trucs
qui marchaient il y a encore 6 mois, 1 an
il y a encore des gens qui ont demandé de générer des scripts
ou à une époque où ça marchait bien
ils réessayent aujourd'hui
ça marche beaucoup moins bien
qu'est ce que tu entends par version publique
c'est à dire que les versions accessibles
dans chesh gpt dans l'interface
ok, content
et donc tout le monde est un peu perplexe
et il y a plein de théories sur pourquoi
est-ce que les versions de GPT4
deviennent moins performantes
avec le temps
sur les interfaces de chesh gpt
il y a plein de théories je vais pas rentrer dedans
parce que je vais en faire une chronique
bientôt, je sortirai sur cette même chaîne
vous pouvez vous abonner si ça vous intéresse
incroyable et ça devrait être dans 2 semaines
a priori, juste après la vacance
de grande chance
et du coup un exemple frappant
que j'ai vu c'est par exemple
un exercice de codage en piton
la demande qui était formulée
à mixtral d'un côté
et à GPT4
c'était écrire un script
qui peut rentrer
un fichier csv complet
qui fait un milliard de lignes
dans une base de données SQL
pas besoin de comprendre vraiment l'énoncé
dites-vous juste que c'est un problème de programmation
non trivial
donc c'est pas en gros, c'est un bon moyen de vérifier
si vous avez en face de vous un élève de 3ème
ou un piège dix quoi
parce que la bonne réponse en fait
c'est que tu peux pas simplement faire
une boucle sur l'ensemble
des entrées du csv
et les rentrer dans une base de données
il n'y a aucun système
il n'y a pas besoin de contexte
supplémentaire pour savoir que c'est juste impossible
il te faut une manière
d'approcher le problème plus intelligente
où tu marches avec des batchs
tu fais attention à la gestion de ta mémoire vive
des choses comme ça
il fait la démonstration et il montre que
d'un côté dans l'interface de chat GPT
dans la version 4
qu'il est complètement à côté de la plaque
qui boulechite des trucs qui ne servent absolument à rien
son code
fonctionne à peu près
mais en gros il est paresseux
c'est pas qu'il est bête, c'est qu'il passe son temps
à te dire non mais ça implémentes-le toi-même
commentaire
ça c'est quand même un peu trop compliqué
donc ça demanderait beaucoup plus d'investigation
et tu vois le message
alors on s'est habillé
faut pas faire les blasés, ça reste très stylé
on a des attentes maintenant
qui sont hyper élevées mais globalement
tu vois pas hyper pertinent
t'as besoin de lui reposer des questions en mode
non non mais vraiment donne moi le script complet
qui répond à l'énoncé et là il finit par y arriver
prof qu'il est pas con juste qu'il est devenu paresseux
la même demande
posée à Mistral Medium
et il te pond une réponse
mais...
du caviar
il y a pas un token entre... il commence pas
à te raconter sa vie etc c'est tout the point
ça te donne du code
qui est certes pas exactement forcément complet
mais où t'as déjà des briques
intéressantes à savoir un système de batching
en gros il a une profondeur
une compréhension dans l'énoncé
et à la fin il te donne des recommandations pour aller plus loin
mais qui sont pas des recommandations en mode
il est compliqué de faire du développement
tu sais des...
on sait tous à quoi correspond ce genre de texte
c'est genre... c'est des messages
vides, c'est des conseils vides
voilà c'est... y a pas d'âme entre eux
on se pêche
et tu compares ça avec
les recommandations que te font Mistral
et là c'est actionnable
t'as des trucs très très précis
qui sont évoqués, des services, des fonctions d'amputons
que tu pourrais utiliser etc
et alors c'est un exemple, ça vaut rien
c'est pas une étude approfondie
mais moi j'ai trouvé ça quand même frappant
de se dire au moment même où
on a l'impression que j'ai pas tes quatre et en train de se prendre les pieds dans une tapis
et de devenir pas ouf
parce qu'ils ont probablement
des soucis de performance, il y a trop de gens qui l'utilisent et tout
au même moment
tu vois une courbe comme ça
sur la performance et les capacités
de Mistral
et même si ça prouve rien
ça participe aussi à la communication
autour du modèle et le fait que ça prend de l'ampleur
et que ça peut aller encore plus loin
ça crée une émulation
tout ça pour dire merci
Mistral d'avoir créé cette boîte
merci à eux, ils sont juste trop forts
suivez-les si vous plaît
suivez cette émission
parce que c'est pas la première fois
c'est pas la dernière fois qu'on va parler de eux
c'est certain
et on espère vraiment pouvoir les recevoir
à nouveau et franchement
c'est le genre de boîte
qui peut rendre fière d'être français
tout simplement
ça fait rayonner la France
bien plus que beaucoup d'autres choses
donc ça fait très plaisir
et on croise les doigts
pour qu'il ne se passe pas la même chose
que beaucoup d'autres grandes boîtes
et beaux industriels
on ne s'y trape pas de nom mais qui ont disparu
du gérant français
et que Mistral restera
un énorme acteur européen
français
et on croise les doigts parce que c'est quand même
une trop belle histoire
et moi j'ai entendu dire qu'en fait
aux Etats-Unis ils entendent bien plus parler
que nous ou de Mistral
paradoxalement quand tu regardes
il y a des gens qui ont fait des stats sur les téléchargements
du lien magnète
pour voir depuis quelles pays
les IP proviennent
tu peux comme ça savoir
quelles sont les pays les plus hautes à l'air
pour tester les nouveaux modèles
et les français sont là
avec les allemands, les anglais etc
oui mais clairement tu vois les Américains
il n'y a pas le même engouement
c'est débile
mais il y a quand même une petite
communauté de boîtes françaises
qui s'est créée
je pense à Hanging Face qui est devenu un peu américain
mais c'est quand même français à la base
il y en a d'autres, moi j'ai vu des
alors c'est des trucs, enfin ils ne sont pas au niveau de Mistral
ils ne sont pas valorisés comme Mistral
mais il y a Lighton, j'ai vu un truc qui giscard
c'est quoi son
le truc de giscard ?
je ne sais plus mais essayez pas
de corriger les IA
faire un side travail que les IA ne font pas
mais que eux ils pourraient faire à côté
et il y a plein de labos pour le kudugafan et tout
qui sont hyper forts
et qui
partent si bâchement l'écosystème
on pense à Dikmahin
et même en réalité
parce que là on
on joue la caricature
parce que c'est rigolo mais tous les modèles
propriétaires en général
sont faits par des chercheurs qui publie
donc qui participent en fait à la recherche
donc voilà c'est important
nous moi ça m'importe personnellement le côté
les poids sont accessibles et tout
la réalité c'est que c'est pas du tout la seule manière
de contribuer à la recherche
et on peut citer Google
et Facebook comme des
des acteurs et Amazon
comme des acteurs majeurs de la recherche
en IA en fait
et en fait c'est un secteur relativement jeune
où en fait tout se passe encore
chez les scientifiques et dont il n'est pas
pas bien de recherche ça commence à un peu changer
parce que l'industrie s'en empart mais le papier de google
de 2007 là sur les transformeurs
il a traumatisé plus
d'un chercheur en intelligence artificielle
c'est une pépite ce truc c'est
et ce qui est terrible pendant cette chronique j'ai raté tous les jeux de mots
sur les mistralgas
la mère qui prend l'homme sur la table
moi j'ai un truc sur j'ai découvert
récemment j'ai vu je sais pas pourquoi
je suis tombé sur les annonces de Microsoft
in it il y a quelques semaines
moi c'était avant le drama open AI
et j'ai découvert le concept
de SLM donc de small
language model alors je sais pas
exactement qu'est ce qui réagit un SLM
il faut qu'il soit petit comment
mais j'ai appris que Microsoft développait son propre SLM
mais pas open AI vraiment en interne
c'est un micro soft qui s'appelle
Fi2 je crois je ne l'ai absolument pas vu
dans le je sais pas si c'est comparable
avec Mistral je l'ai absolument pas vu dans le classement
non parce que c'est là
c'est vraiment le podium du podium
je ne peux pas espérer avec moins de
c'est micro soft mais clairement
mais en fait c'est juste
la compétition est super
la compétition est super
tu dis Microsoft quand même
mais comme si Tiffany genre
c'est la guerre
mais c'est fou
et c'est juste aussi que ça correspond
c'est pas des poils léger
ce serait des poils super légers
c'est des enfants
je pense que c'est pas comparable
pour le coup ça a plein de
des trucs comme ça qui est fou
ou même un truc sur ton device
qui est spécialisé en code
il y a plein d'usages
c'est juste que ce podium ne décrit pas ça
dans combien de temps on a un modèle de fondation sur le téléphone
pas de temps
il est même petit soit petit
c'est une question de temps je vous le dis
avant qu'on ait mieux que gp t4
surtout nos appareils
c'est vraiment ça va arriver très très vite
question importante
comment est-ce qu'on fait pour essayer mistral
et profiter de tout ça
option numéro 1
vous inscrivez sur leur site
et vous utilisez la paye c'est le moyen le plus simple
c'est à dire que vous n'avez pas besoin d'installer quoi que ce soit
sur votre appareil
il y a une liste d'attente non
il y a probablement une liste d'attente
mais il y a pas mal de services
qui l'hébergent
et qui te donnent accès à une playground
ou si tu t'appelles genre mistral
playground et tu vas trouver plusieurs moyens
de pouvoir l'essayer
ou alors tu l'héberges toi même
mais justement
option 2 surtout si vous avez un Mac
en général je sais pas pourquoi c'est quand même souvent le plus simple
vous pouvez utiliser Studio LM
qui est une des meilleures applis
avec une interface simple
téléchargez n'importe quel modèle
que vous trouverez sur Hugging Face
et l'essayez
au maximum des performances
en profitant de toutes les nouveautés
sur le GPU, les inférences rapides tout ça
directement sur votre ordinateur en local
notamment si vous voulez
essayer la deuxième ligne jaune
donc c'est pas Open Hermès je sais plus comment ça s'appelle
moi je l'ai sur mon ordinateur c'est génial
donc pour deux fois que le site d'Open AI
il lag ou alors je suis dans le train je n'ai pas internet
et je finis par juste utiliser un modèle
en local qui fait 5 GB
j'allie finir en le faisant mais ça marche
bon bref c'est de l'imaginoir
vous pouvez faire ça et sinon
c'est déjà en train d'être intégré dans d'autres services
par exemple si vous voulez l'utiliser
pour du code il y a une extension
pour VS Code qui est déjà dès maintenant
et compatible avec MISRAL
ça va très vite ça va toujours très très vite
et qui vous permet d'utiliser ça
directement pour développer
à tous les coups c'est eux qui l'ont fait
possible c'est possible mais c'est même pas sûr
parce que je pense que les gens sont tellement
au taquet et en fait
la communauté a créé tellement de projets tout autour
un écosystème tellement complet que maintenant
ils ont juste un truc qui met à avoir la bonne glu
pour intégrer le nouveau modèle
et donc...
ils ont l'air de faire les choses intelligemment
sur la façon dont tu peux avoir accès à leur modèle
il y a toujours l'impression qu'ils sont pas cons
mais ils sont bons pour entraîner des modèles
mais en plus sur la mise en application
je suis pas conscient de ça, la mise en prod
et l'utilisabilité pour les développeurs
j'ai l'impression qu'en plus ils sont pas bêtes
clairement, clairement, clairement
ah oui, il y a aussi, j'ai parlé de StudioLM
il y a Oliama
O-L-L-A-M-A
c'est génial, c'est plutôt ça c'est un outil en command line
mais l'avantage c'est que c'est
un service, c'est à dire que ça tourne non stop
sur ton Mac
et en gros
il va pouvoir réveiller un modèle
quand tu envoies une inférence sur
le serveur local
donc concrètement c'est une sorte d'équivalent
de dockers pour
les modèles de langage en local
c'est à dire qu'ils ont une syntaxe pour décrire un modèle
quel est le prompt initial
et ça permet comme ça
de se partager très facilement des modèles
et d'éviter à ce que chaque nouvelle
appli qui fait de l'IA
réinvente la route, tu vois donc en gros
tu t'insales une fois Oliama sur ton Mac
et après, d'autres applis
vont pouvoir s'interconnecter avec
sans avoir à gérer toute la partie
télécharger un modèle, le mettre à jour
parce qu'il y a eu une mage qui a été publiée
tout ça, tout ça
du coup c'est un peu comme Yolem ou...
c'est pas une interface graphique
ok donc tu peux l'utiliser directement en ligne
de commande ou ça peut être utilisé par d'autres applis
qui vont s'interconnecter avec
par exemple c'est à recasse, tu vois tu peux discuter avec
Oliama, forcément tu me l'as vendu
bref
et pour une achète aussi
non en vrai là tu me l'as vendu parce que
je fais pas c'est tellement de trucs par recasse
mais toi
tu peux le faire maintenant
et encore, là je te l'ai vendu
maintenant tu as recasse et un lalem
qui peuvent parler ensemble
est-ce que tu peux pas imaginer des trucs
automatisés
ils ont déjà plus ou moins fait mais fallait payer
c'était un peu chiant
il y a juste quelqu'un
qui nous dit que Mixtral tourne
sur Mac et main Pro 16 giga tranquille
ah ouais
en fait il a MiMistral
il m'a dit MiMistral 8 X7B
c'est mixtral
tout sur mon Mac M1 Pro 16 giga tranquille
sac à dos si tu as des infos
je vais clairement essayer
moi j'ai exactement ce modèle
donc je vais clairement essayer
c'est dingue
ça c'était incroyable parce que oui
t'as ça en plus
bref
j'espère en tout cas que je vous ai partagé mon enthousiasme
et que je sais pas si tu suis dehors
tu sais que t'es pris à mort
est-ce que tu as le temps de suivre un peu ce qui se passe dans le game
si si je regarde carrément
ouais bah je suis obligé
mais non mais c'est ultra cool
ça va beaucoup trop vite
à chaque fois
en plus là c'est la dernière
il y a pile poil 2 ans
que je suis venue à l'émission
en tant que la 1ère fois
et qu'on a parlé de LIA sur Minecraft
j'ai l'impression
que c'était dans la préhistoire
et c'est juste incroyable
on était comme des foots devant GPT3
qui écrivait 3 lignes de la main
je sais pas si on le dit dans la vidéo
mais c'était GPT3
j'ai un petit doute parce que c'était tellement inconnue à l'époque
mais je trouve ça dingue
et en fait c'est marrant de se dire
bah là aujourd'hui c'est la dernière de cette année
2023
c'est juste fou la vitesse à laquelle c'est allé
c'est un throwback de
c'est fascinant c'est clair
et s'il y en a qui veulent
je fais de la promo mais des coulisses
sur ton passage lors de la première underscore
avec ces fameux vidéos
sur Minecraft
j'ai vu que t'as fait un podcast
j'ai pas encore tout écouté mais où tu expliques
que tu es toi-même étonné de ce que fait ton IA
et c'est très marrant regardé
ça s'appelle tronche de tech il me semble
et c'est un peu drôle
est-ce que tu vois qu'il fallait en me...
si vous n'avez pas vu la vidéo il faut la voir
parce qu'on a tous été surpris
quand c'est mis à faire un truc
c'est assez génial
ce qui est super drôle dans cette vidéo
c'est qu'on est tous les trois
très honnêtement mais hallucinés
de s'y en train de se passer
c'était juste... mais aujourd'hui on regarde la vidéo
on est pas du tout hypez
c'est trop bizarre
par contre c'est vrai qu'elle a mal huillé
parce que la réalité c'est qu'il y a pas eu
de temps d'intégration hyper
bien foutue en fait c'est Minecraft
on va se la manger
la vague de ALLM dans le jeu vidéo
mais pour l'instant ça reste quand même relativement
discrét à part dans le jeu 1D
je pense que cette vidéo a quand même
un effet wow
toujours maintenant je trouve
si vous la regardez aujourd'hui il faut la remettre dans son contexte
c'était AvantChat GPT
à contre à mon avis dans deux ans
quand juste dans GTA 6
tout le monde a une personnalité
ultra deep
là effectivement vous allez moins le ciment
même le scénario imagine il serait à Evolute
juste incroyable
moi je me pose une question
parce que nous on a beaucoup plus de temps
pour juste scroller twitter
parce que ça vient nourrir des chroniques
est-ce que ça te sert un peu de veille
aussi les chroniques
nascar ou pas disons
non mais si
des fois vous parlez de trucs je peux pas
en fait c'est impossible d'avoir les yeux
surtout et en fait quand je viens
j'ai l'impression de découper
c'est vraiment trop cool
en vrai je suis comme les gens dans le chat
tu es là wow
des fois c'est même pas mon domaine
donc je crois pas et tout mais non c'est super cool
c'est carrément malade
c'est vrai que on s'en aperçoit pas parce qu'on est
en fait tu...
instinctivement tu fais tellement un peu ce qui se passe
en attendant c'est notre job
tu as un truc où avant l'émission
tu te dis ils vont forcément savoir de quoi je veux parler
je vais parler de biper mini
tout le monde est pas un intravenu
non
tout le monde est pas un intravenu
sur les news tech
faut un comprendre
ça c'est ça
salut si vous appréciez un underscore vous pouvez nous aider
de ouf en mettant 5 étoiles sur apple podcast
en mettant une idée d'invité que vous aimeriez qu'on reçoive
ça permet de faire remonter un underscore
voilà telle une fusée
puisque il est temps de parler du dernier
sujet de cette émission
avant de vous quitter
aujourd'hui on va parler d'un truc
que tout le monde a déjà utilisé
et où vous êtes probablement jamais posé de questions
dessus alors que pourtant
il y a des questions à se poser
avec matieu nous allons entrer dans la face cachée
des speed test
c'est test pour tester notre connexion
internet
pardon
oh bah
avec matieu nous allons entrer dans la face
cachée des speed test
c'est test pour tester notre connexion
internet
que se passe-t-il quand on lance un speed test
sur son ordinateur qu'on ne voit pas
comment ces tests fonctionnent
de l'intérieur
qu'est-ce qu'il mesure exactement
est-ce que c'est vraiment fiable
qu'est-ce que
quels sont les paramètres qui peuvent influencer
le résultat et la vitesse de connexion
et
à qui profite vraiment ces speed test
qui fleurissent partout
Autor de questions
qu'on s'est posé et aujourd'hui on a décidé
de lever le voile
sur ces fameux speed test
tu le disais c'est quasiment devenu un peu un réflexe
dès qu'on a des petits soucis de connexion
même nous
pour qu'on en émission de lancer un speed test
pour voir si c'est pas
quelque chose sur notre connexion
il en existe tout un tas en commençant
par sans doute le plus codu speed test
point net
en tout cas en France mais en vrai je pense que c'est dans le monde aussi
chaque gros acteur d'internet
à son speed test, il y a le speed test
de google qu'on peut avoir directement
sur une recherche google
clout flair, alcien, netflix également
et j'irai viendrez
et vous allez voir qu'il y a une raison
au fait que ces gros acteurs
et tous installés
des speed test
mais alors qu'est-ce que ça fait
un speed test
concrètement, oh ça va être un peu chiant à dire ça
qu'est-ce que ça fait concrètement un speed test
et qu'est-ce que ça mesure de façon assez simple
alors un speed test c'est un outil
qui télécharge et envoie
des données à un serveur
pour en déduire
deux valeurs
premièrement c'est la latence
qui varie en fonction de la distance
à laquelle on se trouve du serveur avec lequel
on communique
et c'est une valeur plutôt simple à avoir
parce que globalement on fait un test
sur plusieurs secondes et on prend la valeur la plus basse
parce que ça veut dire que c'est la valeur
de la latence qui est la plus
accurée, enfin la plus...
et c'est, il faut pas une moyenne ?
sur la latence non parce qu'en fait c'est une valeur impossible à fosser
vraiment si ton message
si tu as une latence de, je sais pas, 10 000 secondes
et ben...
c'est 10 000 secondes
donc, concrètement pour dire
un ping pour ceux qui ne savent pas exactement
c'est qu'on envoie une requête web
depuis votre machine jusqu'au serveur
qui est vu, ou fait tout le trajet
arrive au serveur et revient
et après j'imagine qu'il divise par
non il divise pas par dedans, c'est ça le ping
et pour le débit par contre
là on est fait, tu as raison, c'est une moyenne
donc en fait c'est le nombre d'octets
qu'on a pu transférer sur un temps donné
et en fait tu fais ça sur
un temps un peu plus long
et là tu fais une moyenne
c'est pas une valeur exacte
après la latence, attention c'est
on prend la minimum, en tout cas tous les speed tests sont ça
mais ça peut varier s'il y a des perturbations
sur le réseau etc
ça c'est comment ça marche mais alors est-ce que
quand on lance un speed test
tout de suite on s'amuse à
balancer 1 giga octet et on voit ce qu'il se passe
c'est pas exactement
comment fonctionne l'intérieur
d'un speed test parce que en fait
quand on lance un speed test
et qu'on clique sur go, vas-y je fais moins speed test
le speed test en face
il ne sait pas du tout à quelle
connexion il a à faire donc s'il envoie
1 giga de données d'un coup
sur une connexion
dans la creuse en ADSL
moins, ça ne giste pas mais
ça va mettre 10 heures
ça va juste
ça va jamais aboutir en fait
ça va saturer le réseau donc c'est pas
comme ça que ça marche
en fait si on envoie un trop gros
morceau ça va juste satirer la connexion
les résultats seront fossés
en fait
la plupart des speed tests
utilisent le protocole TCP
qui est utilisé à peu près partout sur internet
c'est un protocole qui s'assure
que les données ne se perdent pas
et que tout a bien été reçu
en fait, à certains moments
on va vérifier, on va attendre
une confirmation que ok très bien
tu as reçu
la bonne information
c'est ce qu'on appelle un acknowledge, un acca
c'est ton client qui dit au serveur
c'est bon, j'aime bien le fichier
exactement, et du coup le serveur
il peut continuer à envoyer
des données
et donc dans le cadre de notre speed test
qu'est-ce qu'il va faire ? il va commencer
à partir petit, il va envoyer des petits paquets
il va tester la connexion
et si aucun paquet se perd
il continue et il va pouvoir augmenter
un petit peu la taille
de ces paquets
jusqu'à avoir un paquet perdu
si il y a un paquet perdu
là, ça va
redescendre, en fait ce que se fait un speed test
et c'est plutôt intelligent
comme fonctionnement
c'est qu'en fait il s'adapte à notre bobe passante
il va progressivement, puis à un moment il va se dire
ok là j'ai perdu un paquet
et donc je vais me restabiliser
est-ce que c'est pour ça que quand tu démarres le speed test
la courbe elle monte
elle commence de zéro et
elle préchaute ma chronique
exactement ça
ça c'est
un speed test que j'ai réalisé
sur le speed test de Claude Flair
où tu peux télécharger les données de ton speed test
à chaque fois
c'est des paquets qu'on voit, chaque ligne c'est un paquet
et donc par exemple
c'est chez nous ça
ça a été fait hier
et donc toi en bleu
je vois pas les noms d'ici
mais c'est la taille des paquets
donc en bleu c'est un petit paquet
en vert ça a commencé à augmenter
de nouveau en bleu parce que c'est de la Claude
au début il fait du Doughnut, après il fait de la Claude
et en orange ça a augmenté
et après je crois qu'il re-augmente une dernière fois
en jaune
et donc en fait il commence petit
et il y va assez fort
et si on peut mettre le graph qui est juste après
oui on voit que ça commence avec 10 kW
après il en voit
100 kW
après 2,5 MHz
je crois que j'ai vu en bas
oui c'est possible
donc en gros il a plein de...
et il en voit plusieurs trompes
c'est à dire que sur leur serveur ils ont plein de petits fichiers de différentes tasques
j'y viens
on va voir comment ils construisent en interne
c'est marrant
voilà vous voyez ça commence
ça augmente, ça augmente et boom
il y a une barre horizontale
ça veut dire qu'on a perdu un paquet
et donc en fait quand on fait un speed test
c'est pour ça qu'au début
ça fait une courbe exponentielle
ça monte très vite et d'un coup ça va redescendre
et ça va se stabiliser
en fait c'est parce qu'il a détecté qu'à partir de ce moment là
on avait perdu un paquet
et donc potentiellement que j'allais saturer la connexion
et donc je vais réduire un petit peu
les paquets que j'en vois
ça vient d'un monsieur que s'appelle Jeff Houston
je vais quand même le citer
qui a un grand pont du réseau
en Australie
un pont du web, exactement
il appartient à l'apnique
un peu l'apnique mais au Australie
et du coup la valeur
qui est mesurée
ce qu'on te donne comme étant ta vitesse de connexion
c'est le max que tu peux envoyer
sans perdre de paquets
alors en fait c'est juste qu'il va s'adapter
après il va quand même refaire des tests
il faut juste retenir que le speed test s'adapte
à ta connexion et donc il fait des tests
dès qu'il perd des paquets il redescend
mais après il va pouvoir augmenter un peu
et c'est pour ça qu'un speed test ça dure pas 5 secondes
ça dure plus 15, 20 secondes
il prend le temps un petit peu de tester
et d'envoyer pas mal de paquets
dans le but de maximiser le plus possible
exactement c'est maximiser le plus possible
en un temps réduit pour éviter
de complètement saturer
tout le réseau
à faire des speed tests
alors bon
on comprend à peu près comment ça marche, il y a des histoires de paquets
on a des premières réponses
mais j'avais envie justement de savoir un petit peu plus
sur l'intérieur d'un speed test
et comment on monte un speed test
et j'ai pu échanger avec Louis
un français, un ancien ingénieur réseau
chez Claude Fer justement
et qui a travaillé
sur la mise en place
de leur speed test
voilà exactement
alors c'est pas le C.I.
il y a un ingénieur principal qui l'a fait mais il était portugais
donc c'était plus compliqué pour parler avec lui
mais du coup il a quand même participé
à mettre en place ce speed test
et j'ai pu discuter avec lui
derrière un speed test
comment on fait un speed test ?
il y a un générateur de fichiers
et si possible qu'il soit le plus rapide possible
parce que tout ce qui prend du temps
on va essayer de le supprimer parce qu'on veut que tout aille
le plus rapidement possible pour que les mesures
soient le plus fiables possible
et un générateur de fichiers
qui soit proche de l'utilisateur donc potentiellement
qui fasse ça en local du côté
du client
et surtout un élément super important
pour ce générateur de fichiers
c'est qu'il fournisse des données aléatoires
pourquoi ? parce qu'il ne faut pas
que le navigateur puisse anticiper les données
et du coup les prédire
et les mettre dans son cache
il faut absolument que ça soit des données aléatoires
pour pas fausser encore plus
quand il m'a dit ça j'étais
bien pensé et en fait c'est un défi
un peu de faire un générateur de fichiers aléatoires
enfin un défi, ça se fait
parce qu'évidemment on l'oublie parfois
mais quand tu vas sur google ou youtube
la petite image google ou youtube
elle est chargée qu'une seule fois
le navigateur la redemande pas
un million de fois, il leur demande peut-être
une fois par jour ou une fois toutes les semaines
pour voir si elle a été modifiée
mais effectivement
ça pourrait fousser tout le test de collection en fait
donc ça c'est la première voyez que c'est
de faire un générateur de fichiers qui soit
plutôt chouette pour un speed test
après il faut évidemment mettre au point
l'algorithmie qui a derrière
cette histoire d'adaptation au débit
de la connexion qu'on a en face de nous et d'éviter
d'envoyer un giga et que ça prenne 10h
c'est ce qu'on vient d'expliquer
et puis ce qui me disait aussi
dans la mesure du possible faire un front-end
le plus léger, le plus clean possible
c'était d'avoir des images qui mettent 100 ans à recharger
parce que si entre temps tu as l'os-7 en speed test
et bah c'est un peu chiant
ou des pubs partout, ou des pubs partout
on y reviendra
combien ça consomme de données
un speed test c'est une question aussi
qu'on s'est posé
alors ça dépend un peu quand on lance celui de google
il nous annonce que ça va prendre 40 Mhz
là par exemple pour celui de clou de fer
ça a envoyé 169 Mhz
en download
et 56 Mhz en upload
sur celui, ouais quand même
mais franchement je ne réalisais pas que c'était autant
parce que quand tu fais ça
sur ta 4G par exemple
mais par exemple si tu fais ça sur ton forfait frimobile
à 2€ il y a 50 MO
de prévu dans le forfait
il est pété
il n'y a plus de forfaits
c'est pas anodin quand même
sur Netflix
c'était environ en tout 300 Mhz
quand je l'ai testé au bureau
c'était 220 en don non et 81 en upload
donc
quand même pas négligeable mais en fait ça dépend de ta connexion
si ta connexion est pourrie ça sera moins
parce que bah en fait il va envoyer
quelques paquets, il va très vite
s'arrêter d'augmenter la taille
de ces paquets mais globalement
c'est quelques centaines de Mhz
alors maintenant on va arriver
aux questions qui nous intéressent
est-ce qu'un speed test c'est fiable
et ben oui
et non
en fait il y a plein de paramètres
qui peuvent influer
sur un speed test
la question m'intéresse particulièrement
parce que je me souviens que
à l'époque où je suivais de très près le projet Shadow
je sais pas si vous vous souvenez
évidemment le client qui permet
d'accéder à un ordinateur à distance
pour jouer depuis son Mac ou n'importe où
et bien je me souviens
qu'il m'avait raconté
que beaucoup de leurs clients se plaignaient
du service et le fait que ça marchait pas bien
parce que
parce qu'il y avait des problèmes de connexion
et le problème c'est que
il leur disait non mais en fait
pour que Shadow marche vous avez besoin
de 15 Mbps en descendant
donc en gros
une connexion, une bonne ADSL
grand minimum
et donc il y avait bien écrit ça
il n'y avait aucun doute qu'il fallait
au moins cette connexion là
pourtant il y a plein de clients qui venaient
qui disaient mais j'ai fait un test de connexion
donc un speed test
et j'ai la fibre
j'ai 100 Mbps en descendant ou alors 300 Mbps en descendant
et pourtant Shadow marche pas
alors que j'ai 300
il faut 15 mais ça ne marche pas
et du coup j'ai toujours eu
un questionnement sur ces histoires de speed test
sur à quel point ça représente bien
le fait d'avoir une bonne connexion
parce que visiblement ces gens qui avaient
entre guillemets la fibre
et bah je sais pas si ça devait être une fibre bizarre
ou en tout cas c'était pas reflété dans le speed test
que leur co est éclaté
et du coup ça m'intéresse
alors je vais essayer de répondre
à cette question et cette vaste question
de base un speed test
c'est un bête calcul de transfert
vraiment on envoie des données on voit combien de temps
elle met à arriver d'un côté ou de l'autre
entre un serveur et un client
mais il y a une première douille
c'est qu'en fait quand on fait un speed test
il va systématiquement
essayer de trouver un serveur le plus proche
de soi sauf quand on va sur un site web
le serveur il n'est pas forcément
au même endroit que on a fait le speed test
et donc et souvent qu'en plus
les speed test en fait
derrière il y a une grosse infrastructure
ils ont des gros serveurs qui marchent super bien
et donc en fait qui répondent super vite
mais en fait il faut se rappeler
qu'on teste vraiment la connexion
entre un client ou un serveur
d'ailleurs si jamais vous avez chez vous
des serveurs et que vous voulez
tester faire un peu un speed test
entre votre client
chez vous et votre serveur
qui est bergé quelque part
vous pouvez installer un petit truc qui s'appelle
hyperf
comme un petit truc en ligne de commande
qu'il faut l'installer côté client, côté serveur
et donc ça va permettre de faire
ton petit speed test
toi même
mais en fait plus
le serveur est proche
plus du coup notre latence
est faible et en fait
plus la latence est faible plus le débit est levé
pourquoi ? parce que
en fait
dès que
dès qu'il y a un paquet qui est perdu
en fait on va le demander
de le renvoyer et du coup
cette action ça prend du temps et ça fait baisser
le débit parce qu'il n'y a pas plus d'information
qui est arrivée au client depuis le serveur
et donc si la latence est forte
le fait
le fait de redemander
de renvoyer les paquets qui sont perdus
ça prend plus de temps parce que la latence
est grande et du coup ça fait baisser le débit
donc plus la latence est faible
plus votre débit sera grand
toujours on optimise
à fond la latence qui est perçue
parce que comme ça ça a permis de maximiser
le débit et tout est une question
de paquet perdu
tu le vois pas ?
c'est à dire que toi tu vois juste que tu as une lat
moi la plupart du temps je me disais juste
si tu étais dans un jeu
tu fais pas de lien logique
avec le fait de pouvoir télécharger un fichier vite
c'est deux choses qui n'ont rien à voir
la latence et le débit
dans les applications
oui parce que si tu lis ça sur
une grande période de temps
et en fait si tu as peu de paquets
perdus ça n'influit pas
mais si tu as beaucoup de paquets perdus
ce que vous pouvez tester sur des speed tests
ça influe sur le débit
mais est-ce que la distance avec le serveur
augmente les chances de perdre des paquets ?
alors
en théorie
en fait si tu es tout seul sur internet
non parce qu'en fait ce qui va faire te perdre
des paquets c'est les perturbations
qui peuvent venir de plein d'endroits
plein d'endroits différents on pourra en reparler
mais en fait vu qu'on est beaucoup
en fait dès qu'il y a beaucoup de
trames et de paquets qui sont
congestionnés quelque part ça a créé des perturbations
et donc du coup plus c'est loin plus potentiellement
tu as des perturbations et donc
des paquets perdus donc ça s'expère
et typiquement si tu dois
ton paquet doit traverser l'atlantique
bon bah
plus de temps mais outre le fait que ça soit plus long
parce qu'au final
ça va à la vitesse de la lumière sur les films
sous l'atlantique donc c'est vraiment négligeable
évidemment un speed test
ça change en fonction de l'horaire à laquelle
vous le lancez
à 8-9h du soir quand tout le monde
a installé tout le monde visionne
Netflix ou prime video
je sais pas quoi et que
en fait ça provoque des congestion
de réseau évidemment
ça peut avoir un impact
ça peut avoir des perturbations sur le réseau
et ton speed test ça sera pas le même
que le matin ou le midi
pas vraiment il y a quelqu'un dans le chat
qui nous dit qu'il travaille chez Oocla
oula je vais parler de Oocla plus tard
ça va être intéressant
qui est une boîte qui fait des speed tests
et en réalité quand tu l'en s'inspites
ils en font 3
justement pour éviter
si tu parles ça va voir que si tu n'as pas
des congestion sur un serveur ou des blocages
je vais être comme ça
pour avoir le moyen
ça tu as un...
j'ai hâte de quand tu vas parler de Oocla
tu vas pouvoir poser des questions
ça me met une petite
expression
mais du coup par exemple
on peut prendre un exemple
on peut faire
on peut fausser les résultats d'un speed test
en se disant ok si on est tous
dans un même endroit un peu reculé
je sais pas si on est tous en Sibérie
et qu'on se dise tous de faire un speed test
au même endroit qui va taper le même serveur
et que le serveur il est d'imensionner
mais ok et que du coup il va répondre plus lentement
et du coup ça va fausser les résultats de ton speed test
juste parce qu'en fait tu es en train de faire un dédose
à ton serveur de speed test
donc en fait ça reste
un calcul entre deux machines distinctes
et si il y en a une qui défaille
bah ton speed test il est beaucoup
moins écuré
très bien
donc si je devais résumer
tout ce que je viens de raconter en une phrase
un speed test c'est un test de connexion
à un instant T
qui suit un chemin bien particulier vers un serveur
proche de lui et déjà ce chemin
peut changer en fonction de l'heure de la journée
parce qu'il va y avoir des conjections et ça va passer
par un autre chemin et ça peut changer
de plein de façons différentes
donc globalement c'est bien pour avoir
un ordre de grandeur
ou pour savoir combien de temps
va me prendre un téléchargement
ou pour évaluer
ma connexion avec Netflix
parce que du coup si j'utilise
le speed test de Netflix
ça représente vraiment bien
le temps que je mets
à contacter les serveurs de Netflix
parce que les serveurs de speed test
de Netflix sont les mêmes
que les serveurs qui diffusent
les films et les séries Netflix
donc ce qui est intéressant
c'est qu'il y a marqué
il y a marqué
par Netflix
ça voudrait dire que tu pourrais
théoriquement
sur Google avoir la capacité
de regarder des films en 4K sur Netflix
mais en fait quand tu test sur Netflix
bah non, parce qu'ils ne sont pas au même endroit
et à l'inverse tu pourras avoir
une super connexion avec Netflix
parce que tu l'as fait sur fast.com
mais en fait sur Amazon Prime
ou sur Disney Plus
ça marchera pas autant
et dans l'autre sens pour Shadow
il devrait proposer aussi un speed test
propre speed test, je pense qu'ils l'ont
et d'ailleurs ils l'ont fait entre temps
parce que du coup c'est peut-être ça aussi la reliance entre
on ne connait pas l'infra qui a derrière Amazon
qui a derrière Disney Plus
et derrière tous ces serveurs
autant les serveurs de speed test
la plupart du temps en tout cas
ils sont vachement bien optimisés
parce qu'il faut qu'ils marchent à balles
mais en fait tu ne connais pas exactement
comment vous réagir et en plus
tu ne connais pas les connexions entre
ton opérateur à toi et
Netflix, Google, Amazon
ou Shadow
et on va y revenir
justement est-ce que mon opérateur
il peut enjoliver un speed test
est-ce qu'il peut faire en sorte que
bah... en quoi il te fasse croire
que t'a une giga-fibre alors qu'en fait non
voilà
et ça les arrangerait
et je lui ai la réponse, j'ai demandé
à Louis justement
oui
en fait il y a un concept en réseau qui s'appelle la QOS
qu'on peut traduire par la qualité de service
qu'on peut faire chez soi dans son coin
mais aussi qu'on peut faire à un niveau d'opérateur
et en fait tu peux très bien détecter
les trams qui viennent
les paquets, les trams qui viennent d'un speed test
par exemple speed test.test qui est très connu
et prioriser à fond
le fait que ces trams
on les délivre en premier
et c'est ce qui va aller le plus vite possible
alors tu pourras pas passer d'une ADLC à d'une fibre
évidemment
et tu peux... en fait tous les opérateurs
font de la QOS de la qualité de service
c'est-à-dire qui priorisent certains aspects
et d'ailleurs j'ai un exemple très marrant
c'est le cas de free
je ne sais pas si vous vous souvenez c'est un petit moment maintenant
mais quand free mobile est sorti
et puis même sur Twitter ils ont joué
on voyait un peu des speed tests
des connexions free ou free mobile
publié sur Twitter en mode
c'est vraiment les meilleures connexions et tout
ils ont joué un peu dans leur communication
à mon avis ils avaient bien opti la QOS de speed test
si tu faisais le même speed test
sur
le speed test de Google
qui s'appelle M Lab je crois
c'est plus bref tu sais la speed test de Google
qui avait pas de boost
c'est pire que ça
t'avais pas du tout la même connexion
pourquoi ? parce que c'est une époque où free avait des problèmes de peering avec Google
c'est à dire qu'ils étaient en conflit avec Google
ils voulaient que Google paye parce qu'ils trouvaient qu'ils prenaient
trop de bandes passantes d'un côté et pas dans l'autre sens
c'est des histoires de gros sous entre opérateurs
et gaffes femmes
mais globalement c'était
un peu chiant quand il s'est free à l'époque
parce que ta connexion avec Google
était vraiment détériorée
et t'avais un nombre de gens qui se pléniaient
de ce problème sur les forums qui étaient fous
je sais pas si vous vous souvenez c'était dans les années 2012
et 2015 quoi je sais pas quand le problème
s'est résoludaire par exemple
tu t'es chargé une appli sur le Google Play Store
me souviens sur Android
ça m'était 10 ans aussi c'était pas
c'est parce que Niel était fâché avec le free page
et parce qu'il y avait un conflit
on appelle ça de peering donc d'interconnexion
entre Google et free
et donc du coup vu que c'est les mêmes serveurs de Google
si tu faisais ton speedtest sur Google il était nul à chier
parce que juste les interconnexions avec les serveurs de Google
étaient nul
cette histoire de QOS
ça me... tu viens de me brerre
mais parce que
c'est évident
pour préciser en gros c'est comme si
de manière générale
on s'imaginerait que toutes les requêtes
de tous les appareils du réseau
internet sont traités de la même manière
mais en fait ce que tu disais
c'est que avec le QOS c'est de fonctions
qui te permettent de dire non non mais
probablement que telle requête
elles sont plus critiques que telle autre
qui peut attendre un peu
et typiquement c'est obligatoire et je vais écrire le lien dans le chat
pour les appels d'urgence
il faut que les appels d'urgence qui passent par IP
il soit prioritaire
donc il faut absolument qu'il y ait une QOS
de priorisation de les appels d'urgence
et il y a d'autres cas tu vois mais c'est ça
et alors je...
petit bémol c'est impossible à prouver
que les opérateurs fomirent de la QOS
sur speedtest.nest
mais bon
en tout cas ils ont la possibilité de le faire
et
il y a d'ailleurs autre exemple le même cas
avec Netflix
il y a des opérateurs
même encore aujourd'hui
ou typiquement il y a tellement de trafics
ça consomme tellement Netflix
que pour essayer de fournir
de la bonne bande passante vers Netflix
à tous ses abonnés
tu vas dégrader un petit peu la QOS de Netflix
à certains heures de la journée etc
parce que sinon tu t'en sors pas
ou ça te coûte trop cher
ou tes accords de Piring avec Netflix
sont ce qu'ils sont etc
et donc du coup si tu fais ton test
de connexion sur fast.com
qui est le speedtest
de Netflix
tu pourras avoir un résultat
un peu différent ou moins bon par exemple
que sur Google
ou que sur un service qui est moins utilisé
à 10h du soir
voilà
alors du coup
conclusion
tous les Google Netflix etc
vu qu'ils ont tous un peu
des conflits d'intérêt parce qu'ils font autre chose
qu'un speedtest on pourrait se dire
le plus fiable c'est speedtest.net
finalement
il appartient à aucun grand gaffe
à main
et ben en fait
et ben en fait
non juste je ne sais pas pourquoi
il y a un problème dans mes notes
mais c'est tout de bien
est-ce que du coup ces services de speedtest
qui font que du speedtest
nous cache quelque chose
la réponse est oui
parce que comme je l'ai dit tout à l'heure
pour faire un bon speedtest
en fait il faut une sacrée
infrastructure réseau
il faut des serveurs partout qui soient le plus proche
de tout le monde tout le temps
il faut des serveurs qui puissent gérer
minimum 10 gigabit de seconde
parce qu'aujourd'hui il y a des connexions
qui sont parfois capables de faire du 10 gigabit de seconde
même chez des gens comme vous et moi
bon c'était une belle installation
il en faut partout
il faut des fibres qui relient les points de présence
réseau partout dans le monde
ça coûte un bras
alors ok google est capable de faire ça parce qu'il y a d'autres raisons
comment speedtest
est capable de faire ça
et alors d'ailleurs
chose... ah c'est un... non je le
je le dirais après
comment font-ils du coup
ces speedtest
c'est très simple
ils récoltent des données
et parfois
pas forcément anonymisés
et en fait ils les revendent
alors pour Netflix
Google et Claudefer
ils les revendent pas forcément
mais en fait ça les aide dans leur infrastructure
en fait ça permet de débugger leur infrastructure
ça permet de savoir à quel endroit
leur connexion, leur peering
leur connexion avec leur service marche mieux dans le monde
où est-ce qu'il y a un problème
où est-ce qu'il faut des bugs
bref en fait c'est comme mettre des sondres
un peu partout dans le monde
pour savoir comment va leur état de leur réseau
mais pourquoi c'est les gens qui les font tout seul
et sauf que c'est des gens qui les font tout seul
ils ont rien à faire
mais en fait eux ça leur permet d'avoir des petites alertes partout
et donc pourquoi tous les gros services
qui ont des infrastructures réseaux absolument immenses
mettent en place des speedtest
mais en fait c'est pour ça
c'est pas une genre de carte d'internet
exactement ça cartographie leur propre réseau
c'est pas grave
c'est pas grave
mais ça cartre
parce que en fait ce qu'il faut savoir
c'est que pour connaître la vitesse d'internet
il n'y a pas d'autre moyen
que de juste tester pratiquement avec un speedtest
et d'envoyer des paquets et de voir combien de temps ils mettent
à revenir en fait tu peux faire toute la
théorie que tu veux
tu peux prendre les valeurs théoriques
normalement ça a du 3 gigabit seconde
oui mais en réalité pas 3 gigabit seconde
ta sainte son méga octet
et donc du coup en fait la seule possibilité c'est de faire 8.7
mais alors du coup je me suis un peu embrouillé
dans les pinceaux mais du coup speedtest.nest
c'est les gentils de l'histoire
et en fait pas du tout
ils ont une méga belle interface
qui est bourrée de pub
ils ont absolument des serveurs partout
ils ont tout un marketing
pour encourager à faire le speedtest
j'en ai lancé un cet après-midi
il m'a dit on a fait plus de 50 milliards
de tests de connexion
50 milliards
dans la journée tu veux dire ?
depuis l'année ?
on est 7 milliards
et en fait ils s'en servent pour récolter
des milliers et des milliers de résultats
et ils vendent ces données
soit à des agences
marketing on a fait attention aux IP
et surtout je crois que c'était un direct
et surtout je me suis dit
là le test de plo de en même temps que la diffusion
c'est ton direct
que je t'aimais maintenant
mais du coup en fait
ils revendent
on est toujours vivants
je vais me permettre d'intervenir maintenant
je comptais attendre la fin
mais en fait quand on a changé de chronique
j'ai dû recharger tous mes assets
et Arc, notre navigateur
de feu a rechargé tous les liens
de tous les speedtesters en même temps
et le débit est absolument tombé
au moment où tu as commencé ta chronique
en disant alors les speedtest
on a pris un dividé par 4
en bitrate
c'était la petite
non mais effectivement
les gens nous ont perdu
c'était ça moi je trouve ça
à mourir de rire
ils nous ont pas complètement perdu
on est passé de 6500 kilobits
de seconde à 2500
donc oui, grande perte
mais en gros normalement
on a une diffusion qui s'adapte
et on devrait compenser
le manque de plo de enjeu
et ça a mourir de rire
que pile au moment où on teste
l'opelot de l'émission
je me suis dit
est-ce que c'est une bonne idée
pardon
et du coup
l'interface est magnifique
il y a pas mal de pub et tout
il y a tout pour encourager à faire plein de speedtest
et en plus c'est un peu les leaders du marché
mais en fait ils récolte énormément de données
de connexion
d'IP et parfois même plus
et en fait ils revendent ces données
c'est leur business model
soit des agences marketing
pour du ciblage parce que ça peut permettre de faire cibler des pubs
soit des états ou par exemple
à des agences comme l'Arcep
qui gère le réseau français
peut être très intéressé
par avoir des données de connexion
pour cartographier un peu le pays
avec des précisions assez importantes
tu peux avoir
enfin tu peux avoir l'IP, le user agent
etc.
et j'ai une anecdote incroyable
qui prouve un peu ce qu'on dit
enfin qui est mais une hypothesis
Louis avec qui j'ai discuté
il a demandé à Comcast
donc c'est aux états uniques ça se passe
c'est son opérateur
il a demandé ces données privées
je peux faire des réclamations
RGPD alors là bas ça s'appelle pas comme ça
mais pour avoir accès à ces données privées
et dedans il y avait des données de résultats
de tests de débit, de sa connexion
de son adresse IP
avec des précisions
genre l'heure de test
son user agent etc
et en fait c'est très très très probable
que ça vienne de Oucla
et que Comcast lui-même en tant qu'opérateur
est acheté
une étude
une banque de données
pour évaluer la connexion de ces utilisateurs
et de ces adresses IP à Oucla
et en fait c'est un business
mais c'est incroyable
tu te dis pas qu'il pourrait y avoir
un lien entre ton opérateur et le site de ton speedtest
et genre là vraiment
il y a un potentiellement un qui est le client de l'autre
et là vraiment dans les données que Comcast avait
sur lui
il y avait
des données d'un test de connexion
très certainement fait sur Oucla
avec des infos
assez précis
pas tout anonymisé assez précis
sur le fait que c'était bien
une machine qui lui appartenait
peut-être qu'ils n'ont pas acheté
ils l'ont récupéré
parfois aussi il y a des données qui sont accessibles sur internet
mais bon
c'est quand même
peut-être qu'ils n'ont scrapé etc mais il y a quand même
une possibilité où ils ont acheté la banque de données
et ce qui est marrant
et puis c'est le business de Oucla
Oucla appartient à une firme
qui s'appelle ZIF Davis
qui est une grande firme qui fait plusieurs choses
ils sont en même temps
dans la cyber sécurité ils ont des VPN
notamment ils ont IP Vanish VPN
Strong VPN
ils sont aussi dans les magazines
ils ont PC Mag et donc si vous voyez
ils font aussi des VPN
en gros
c'est dur à expliquer
mais ils ont des médias
donc par exemple sur PC Mag vous aurez des tests de VPN
et souvent dans les premiers résultats qui tombent
ça sera leur VPN
parce qu'évidemment ça leur appartient ils ont Meshable aussi
et ils ont aussi Oucla
et en fait ça leur permet
d'agréger plein de données et de revendre des données un peu partout à Keev
parce que c'est marrant
sinon la combinaison plateforme de communication
et business en ligne très rentable
mais ça permet en fait
les plateformes de communication pour faire de la pub
pour les VPN
parce que c'est des sites
qui probablement marrent plutôt bien
PC Mag, Meshable, Lifehacker
c'est tellement smart
qui a l'écosystème
alors c'est pas ils ont tout à fait le droit de faire ce qu'ils font
mais ils ont acheté plein de trucs
et qu'ils se sont fait une petite galaxie
et que Ziv Davis est une énorme compagnie
mais c'est intéressant de comprendre
les mécanismes sous-jacents
que tu peux voir
tu vas faire tes recherches sur ton VPN
là tu vois le top 5 des VPN sur PC Mag par exemple
bon bah c'est
tu es content quand même de savoir que PC Mag
est dans l'industrie et ont-elles été l'acteur
c'est comme tu dis
c'est leur problème mais c'est intéressant de savoir
pour avoir regardé il y a un petit moment
eux ils sont plutôt réglos ils l'indiquent
alors en petit
en bas du cid ils indiquent toujours
PC Mag est une société
de Ziv Davis qui détient
tel et tel VPN
en vrai
personne ne lit ce message
bizarre part peut-être moi
mais voilà
et alors ce qui est très marrant c'est que les opérateurs
font aussi des speed tests
souvent ils les font la nuit pour éviter
justement congestion du réseau parce que ça peut quand même avoir un impact
mais eux aussi ils ont besoin
de leur côté sur leur infra
en fait tous les acteurs
du réseau c'est un truc qui font tout le temps
et du coup j'en arrive
à ma conclusion déjà qu'est ce qui détermine
la vitesse de connexion en fait c'est deux choses
c'est déjà de 1 on s'en doute
c'est les limites physiques des équipements
réseau que ça soit si vous avez la fime le cuivre
les équipements réseau qui sont sur le chemin
entre le client et le serveur
les câbles tout ça ça peut
avoir des aspects limitants
en fait les deuxièmes c'est les perturbations
du réseau qui vont entraîner des pertes de paquets
en fait l'un des trucs si vous voulez
savoir si votre connexion est fiable
regardez les pertes de paquets
il y a certains speed tests qui vous donneront le pourcentage
de pertes de paquets je crois que c'est le cas sur Claude Flair
mais sur d'autres aussi
et en fait c'est le pourcentage de pertes de paquets
c'est ce qui en fait
c'est ce qui fait descendre votre débit à cause de la latence
et c'est maintenant ce qui a été
corrigé d'ailleurs dans shadow pour reboucler
puisque dans ton interface tu vois
ton débit descendant mais aussi
les paquets perdues
parce que c'était depuis le début
c'était ça le problème
le truc qui foutait la merde c'est que les gens
avaient des bons débits théoriquement
mais en fait il y avait énormément de pertes
de paquets qui leur poussaient
leur expérience sur internet
surtout quand tu es sur du stream
vidéo on sait un peu ce que c'est
les pertes de paquets ont un gros
impact et donc du coup pour finir
un speed set ça vous donne un aperçu
une indication de votre connexion
entre un serveur donné et vous
mais en fait aujourd'hui
déjà avec les débits qu'on a
qui sont de plus en plus grands c'est devenu quasiment inutile
parce qu'on a qu'est-ce
enfin comment c'est tout ça à avoir la file pas tous
mais en fait appartientement aussi tu sais
que t'as la DSL la file t'auras des différences
mais qui ne sont pas énormes
et surtout que si vous avez des soucis de connexion
c'est plus probable en fait
qu'il vienne d'un autre élément
je sais pas votre serveur
que vous essayez de contacter il a des problèmes
et que ça soit pas votre connexion à vous
mais en réalité
à qui est le plus utile
pardon mais en réalité le speed test est surtout
utile à celui qui l'héberge c'est-à-dire qu'en fait
quand vous faites un speed test vous avez une petite information
pour vous mais c'est super
utile pour speedtest.net ou google
ou codefer ou netflix
qui cartographient l'ensemble de son réseau
c'est pas grave
vous donnez pas des informations
de connexion mais en fait
c'est plus utile à ceux qui hébergent les speed tests
que à ceux qui les font
c'est hyper marrant
ça avec que j'ai jamais pensé comme ça
j'ai pas l'impression de participer à cartographie internet
quand je fais speed test
c'est cartographer le réseau
d'un arc-terre en particulier
rien n'est jamais gratuit en fait
c'est marrant de voir des boîtes complètes
qui peuvent financer des infra
extrêmement cher juste parce qu'elles font
de l'intelligence et de la donnée
et ce qui est fou c'est que déjà un speed test
ça coûte super cher à mettre en place
parce qu'en fait il faut des grosses infras
alors quand tu les as déjà c'est ok
mais quand tu les as pas déjà c'est ok
et en plus rien n'est à nos dents
c'est fou
petite question et je sais pas si t'as
eu des infos sur cette partie là
mais théoriquement si je fais
un speed test avec mon iPad
ce que je mesure c'est donc le trajet entre
des requêtes
entre mon iPad
et un serveur qui est que part sur internet
donc en réalité on peut dire que ça mesure
deux choses c'est
à quelle vitesse vont les requêtes entre mon iPad
et mon routeur
et à quelle vitesse elles vont ensuite entre
mon routeur et une Netflix par exemple
oui
est-ce que tu sais
est-ce qu'il peut
influer j'ai des idées
j'ai des idées j'ai des doutes mais est-ce que tu sais
ce qui peut influer le plus entre mon iPad et mon routeur
tu vois comment est-ce que
exactement
en local
parce que là on a beaucoup parlé du fait qu'il peut y avoir des congestions
des pertes de paquet sur le réseau
parce qu'il y a aussi des trucs en local
qui peuvent avoir une influence sur le débit
que je veux obtenir
alors déjà c'est intéressant parce que le calcul de la latence qu'on fait
et du débit entre un client et un serveur
en fait c'est vraiment la latence de bout en bout
donc tu peux pas en déduire
les latences entre tes morceaux
de tes différents équipements
tu peux pas savoir si
c'est à cause d'un routeur qui mère au milieu
de ton passage
si c'est à cause de ton device à l'origine
c'est plutôt à cause de ça
c'est vraiment de bout en bout
encore une fois c'est assez imparfait en fait
comme technique pour
avoir la vitesse de ta connexion
et alors ce qui a influ entre
ton appareil
et ton routeur
ça va être comment tu te connectes les équipements
est-ce que ton routeur est capable de gérer du 1 gigabit de seconde
ou plutôt du 100 millisecondes
est-ce qu'il est en wifi
est-ce qu'il est en internet
est-ce qu'il est connecté en usb
ton téléphone est connecté en usb
il fait du partage de co
et en fait ça va beaucoup dépendre
de la physique
et ça va aussi dépendre de ce que font les autres gens
sur ton cerveau
par exemple j'ai appris un truc
c'est que tu peux être très proche
en wifi de ta box
de ton routeur
avec un bon débit wifi 5 ou wifi sit
wifi ac wifi aax
si
t'as un mec avec son téléphone qui est loin
et qui galère
et qui est lui
qui galère à envoyer des requêtes
parce qu'il est loin
et que ça galère beaucoup plus
c'est un impact sur le mec qui est tout près
en gros le
routeur
il fait des efforts entre hubea pour essayer de
discuter avec cette personne qui a très long porté
et donc ça détère ailleurs toi
ton expérience à leur côté à 2 mètres
en fait tout le système ip
et fonctionne en best effort
c'est le principe de l'ip
et donc du coup
ça a un impact
test et force ça veut dire qu'on t'essaye de faire le max pour tout le monde
quitte à pourrir la vie
de certains au détriment de d'autres
d'où la qos qui est parfois bien utile
ok
interesse
peut-être que tu n'as pas la réponse mais peut-être le chat l'aura
est-ce que, je sais que pour les souris
par exemple
tu peux avoir en réalité des latences plus
faibles sur ton pc
avec des souris
sans fil
qu'avec des souris filaires
ce qui paraît complètement contre-intuitif quand il pense
parce que tu te dis que
les informations
elles passent plus rapidement via un câble que dans l'air
est-ce que
tu sais si jamais ton débit
il peut être meilleur en wifi
qu'en filaire
oui il peut être meilleur, aujourd'hui il peut être meilleur
parce que en fait ça a tellement évolué
que en fonction de ton câble
que tu utilises, ton wifi
peut juste être meilleur
typiquement si tu as une installation
fibrée dans ta maison ultra moderne
ce que personne n'a
dans ce cas elle n'a peut-être pas
en gros la fibre c'est un peu
le meilleur des mondes
c'est ce qui passe sous l'atlantique et en fait
c'est à la vitesse de la lumière
dans un tube qui est guidé
c'est à dire qu'en plus ta lumière elle peut pas aller dans tous les sens
comme une onde radio
elle est vraiment guidée sur une fibre optique
et en gros la fibre optique
c'est ce qui va le plus vite
mais si tu prends par exemple la capteur sAD
je crois que c'est limité à 100 Mbps
aujourd'hui il y a du wifi qui va à plus de 100 Mbps
donc en fait ça dépend de ton câble
ça dépend de tes équipements
faut faire des comparatifs
par exemple
si tu branches en usb
tu es limité à
ton téléphone
et après derrière tu fais de l'éternet
tu es limité à 300 Mbps
en usb 2
mais si tu vas en usb 3 c'est beaucoup plus
tu as plein de limitations
tu peux être limité par ton câble usb
évidemment en fait tu es limité
par chaque transmission
ou à pareille de transmission
et si il y en a un dans le tas qui merde
et bah ça sera la vitesse la plus
faible qu'il emporte
donc c'est pour ça que par exemple faire des installations à 10 Gbps
c'est méga cher parce qu'il faut acheter
tes câbles incroyablement
vif et robuste
il faut acheter tous les routers qui coûtent super cher etc
apparemment du coup
en câble torsadé
donc les câbles rj45 que tu peux acheter
tu peux monter à 1 Gbps
ah oui bien sûr
je parlais pas des câbles torsadés
je parlais plus du câble
la perte de câble
numériqueable
enfin c'est pas le internet
le coaxial
je me suis trompé
en coaxial tu as des limitations
tu as des limitations partout
mais du coup effectivement
avec les dernières Nord on me wifi
tu peux probablement atteindre des débits
qui vont dépasser des installations
classiques 1 Gbps
enfin
typiquement je sais que
si tu vas mettre du cpl dans ta maison
parce qu'il y a un truc qui est quand tu fais beaucoup
d'une émission un peu ancienne et tout
en gros tu utilises le réseau
électrique de la maison pour envoyer
du rj45
et enfin de l'eternette
et ben souvent tu ferais mieux d'être wifi
en fait parce que des appareils récents
qui sont wifi 6 etc
pour largement exploser
ton débit et ta latence
ouais et par exemple le réseau
5G aussi jouait énormément
je crois que la 5G millimétrique
dans certains cas
j'ai un petit doute là dessus mais tu peux atteindre du 1 Gbps
ce qui est plus que ton
réseau local chez toi
t'as pas du 1 Gbps
donc dans certains cas
le cellulaire il va même
il peut aller plus vite
donc en fait à la base qui était vrai en filaire
ou ça va forcément plus vite en filaire
en fait c'est des contraintes physiques
si tu es en wifi tu vas avoir des contraintes radio
donc tu peux avoir beaucoup de perturbations
donc du coup créer des paquetes loss et du coup
avoir un débit moindre
et en physique en fait ça va dépendre des perturbations
de ton câble
si ton câble n'est pas de qualité
enfin s'il est capé
en dessous bah t'auras une vitesse moindre
je fais une remarque extrêmement drôle
à la message du chat il dit
dès qu'on parle de réseau personne n'est d'accord c'est dingue
oui c'est extrêmement drôle
de voir qu'on a lancé des débats
à l'infini
il y a des débats là sur le chat
sur le fait que si sur du coaxial en fait
tu peux monter à plus d'1 Gbps
mais seulement sur 1 mp
et en fait ce qui est intéressant de dire aussi
c'est que tu peux avoir du 1 Gbps
théorique
mais en fait t'auras jamais du 1 Gbps
sur toutes les destinations dans tout le globe
en fait ça va vachement
dépendre tu peux très bien si ton serveur
est méga loin et est super mal
desservi entre guillemets
tu seras peut-être à 100 Mbps pour l'attendre tu vois
parce qu'il suffit qu'il y a un moment sur le réseau
ouais
c'est comme si les nœuds du internet c'était un peu des
si t'es au cas actant et qu'ils ont fait n'importe quoi
avec le router
no fans pour au cas acteur
je crois qu'ils ont un beau réseau parce qu'ils ont plein de fermes de minage
mais
mais ouais
complètement
c'est comme si t'avais des nœuds qui étaient
trop décervés
trop occupés à certains endroits du globe
si ton chemin passe par là
globalement toi il va avoir le meilleur fibre
symétrique 1 Gbps
tu vas avoir une connexion avec toi
j'ai même une anecdote
je vais me faire un subtil mais c'est pas grave
mais c'est vrai
dans certains cas
tu sais quand tu utilises un VPN c'est forcément plus lent
ce qui est physiquement vrai parce que
tu encapsules ta connexion
dans quelque chose d'autre et le fait d'encapsuler cette connexion
ça rend
si tu es dans un moment
où il y a une congestion de réseau
je reprends le Netflix à 20h
et que t'es loin par exemple
tu dois traverser l'Atlantique
j'ai déjà entendu des gens
me dire que
si tu prends un VPN
ça peut potentiellement aller un poil plus vite
parce qu'il va passer par un chemin différent
bon alors après il faudrait faire des cours de BGP
de routeur et tout machin
mais il va prendre un chemin différent
il aura peut-être pas les mêmes congestions
du coup malgré le fait que tu utilises un VPN
et bah tu peux aller un petit peu plus vite
et
je l'ai pas fait moi personnellement
mais j'ai discuté avec des gens
et je les crois profondément
qui l'ont vérifié
sur des grandes distances
donc là c'était traverser
l'Atlantique
à minimum
littéralement l'équivalent de Waze
qui te fait un énorme détente
quand tu finis par garder du temps
ça veut dire que si tu fais un speed test
avec un VPN
du coup la même chose
complètement
et en fait
les VPNs en fonction de ton VPN
c'est aussi des infras
des grosses infras très très bien implantés
et ils sont capables
de te faire passer par des endroits incroyables
de leur réseau
passionnant
et bah je sais maintenant comment marche
à la tête des connections
non en vrai je n'avais jamais vraiment creusé le truc
alors que c'est un truc qu'on utilise vraiment tout le temps
tous
moi les utiliser peut-être
justement le chat a parlé d'une alternative
qui existe équilibr qui s'appelle libre speed
voilà je me permets
de la partager qui est du coup
ton propre speed test que tu héberges
libre open source
et à mon avis
comme tu le disais Mathieu tu vas l'héberger
sur un de tes serveurs
et donc ça va imiter
je pense que c'est comme hyperf non
et à mon avis ça va te
donner un speed test
avec ton server
c'est à dire que si ton server
il tient pas bien la route
ou alors sa propre collection à lui est éclatée
ça peut un peu forcer tes résultats
si ton server il est chez tes parents
mais que
le speed test sera pas ouf
j'en profite quand même parce que je l'ai pas refait
mais je remercie grandement Louis
avec qui j'ai pu échanger
on n'a pas pu faire de visio
parce que c'était trop juste
mais en vrai si c'est intéressant on peut toujours le faire
après les surnages je te le dis
mais si tu penses que ça apporte un truc
juste là il prenait un avion c'était compliqué
en vrai je sais
merci beaucoup Louis qui a travaillé chez Claude Flair
et qui a littéralement
participé à un plémentaire speed test
donc il y a eu plein d'infos que j'ai eu
et grâce à lui
franchement ça fait intéressant
sur les partis opérateurs
ça fait être cool de lui poser des questions
trop cool et ben
ça clôt la troisième chronique de cette
émission j'espère que vous l'avez apprécié
nous on se retrouvera
dans deux semaines on ne fait pas de pause
pour la fin de l'année
donc si on fait
on va pas revacons
mais on sera bien là
présent dans deux semaines pour la prochaine émission
de notre score mercredi
à 19h en attendant vous pouvez
follow cette chaîne twitch c'est très important
pour ne pas rater ça
et surtout qu'on est toujours à l'heure
et moi je vois des gens après on commence
les émissions ils sont bonnes oh ils sont commencé à l'heure
mais moi je suis en retard
si vous voulez pas que ça arrive il suffit de vous follow
vous avez la petite notification
et sur ce on vous souhaite une extrêmement
belle soirée
bonne soirée à tous et à très bonne soirée
et nous allons manger des pédéras et bonne fête
on se revoit juste après le 3 janvier
bah t'as croit j'allais oublier
joyeux noël à tous
en avance et on se revoit
dans deux semaines
tchuss