La face cachée d’Apple Intelligence

Durée: 52m31s

Date de sortie: 22/07/2024

Matthieu revient sur les annonces d’Apple à la WWDC et sa proposition d’intelligence artificielle générative. On a fouillé au delà des annonces publiques, on vous livre nos impressions, et la technologie qui nous paraît vraiment prometteuse pour la suite.


Pensez à mettre 5 étoiles pour soutenir l’émission !


Écriture : Matthieu Lambda



Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Pourquoi Banque Populaire est la première banque des entreprises ?
Je me posais des questions sur le partage de la valeur pour mes salariés.
Elodie, ma conseillère Banque Populaire, m'a proposé une solution d'épargne salariale sur mesure,
rapide à mettre en place et que je peux piloter en ligne.
C'était simple et surtout ça a fait des heureux.
Accompagner nos clients sur tous les territoires avec des solutions adaptées à leurs besoins,
c'est ça, être la première banque des entreprises, Banque Populaire, la réussite est en voulue.
Étude Quantar PMEP, mid-2023, 14 Banques Populaires, 1ère Banque des PM.
En effet, pendant d'autres absences, il y a eu des petites...
Il n'y a pas eu grand-chose, en vrai ?
Non.
On a eu un non-steck.
En vrai, c'était plutôt assez calme.
Si il y avait un mois pour partir, c'était vraiment celui-là.
Contrairement à Avril, par exemple, c'est quand même marrant de voir les différentes chronologies
où tu as des mois sombres de liens, et les mois où tout le monde se précipite.
Mais là, il y a eu quand même une news un petit peu sympa.
Il y a quand même le Google IOSI.
Je crois, pendant que tu étais pas là.
Où c'était avant ?
Je crois que c'était avant.
Pardon.
Tu vois, je ne me rappelle même plus de ce qui était annoncé.
Mais là, s'il y a un truc un petit peu intéressant qui s'est passé, c'était autour d'Apple.
Et justement, pas mal de trucs sont un peu passés sous l'air d'un.
Je vous le disais, Apple a enfin annoncé son service d'intelligence artificielle.
Apple intelligence intégré aux iPhone, iPad et Mac.
On va revenir ensemble justement sur les annonces intéressantes, ce qui sort du lot
qui a été montré dans ses conférences, mais surtout ce qui a derrière
et qui a un peu plus passé inaperçu sous les radars.
Et qu'on peut retrouver notamment sur les blogs de recherche en machine learning d'Apple.
Et vous allez voir, il y a des trucs très intéressants pour prédire à l'avance
ce qui pourrait arriver dans les prochaines mises à jour d'IOS.
Mathieu, tu t'es un petit peu renseigné justement sur toutes ces questions.
Et je pense qu'on peut partir du principe où les gens ont peut-être vu passer la news.
Mais à mon avis, on ne peut pas considérer que tout le monde sait en détail ce qui a été montré par Apple,
alors que c'était un truc super attendu quand même.
Donc on va essayer de vous résumer tout ça et d'aller un petit peu plus loin, comme tu le disais.
Donc c'était le 5 juin dernier Apple lors de sa conférence, elle a doulé WDC.
Donc c'est la fameuse semaine d'Apple dédiée au développeur qui travaille sur Apple.
Ils ont annoncé leur offre d'intelligence artificielle générative qui s'appelle Apple Intelligence.
Et je vous le disais, on va passer en revue quelques fonctionnalités annoncées.
Ce qui se cache derrière, une annonce qui a atturé en tout cas notre attention,
je ne sais pas si ça sera l'attention des autres, et enfin un peu les avancées d'Apple en arrière cuisine,
côté recherche pour intégrer des modèles directement sur tous les appareils.
Oui, juste une petite mini question avant de commencer.
Ça fait très longtemps qu'on est sur les starting blocks et on attend que Apple sort de son trou
et fasse enfin des annonces et prononce le mot « il y a » dans une putain de conférence.
Toi justement qui attendait ça depuis longtemps,
c'est quoi ton sentiment maintenant qu'il y a eu cette conférence-là ?
Est-ce que tu étais plutôt déçu ou est-ce que t'es en mode non non, ça valait le coup d'attendre ?
Alors, tu me dis si ça te va, mais j'ai prévu de le distiller un petit peu à droite à gauche, mon avis,
en fonction des annonces et de dire, ça c'est trop...
Ça me fait juste avant, tu vas le faire en détail, mais d'avoir peut-être un feeling un peu général.
Moi j'avais un feeling un peu aux F, en mode, ils rattrapent leur retard,
et parfois même quand tu creuses un peu, tu te dis en fait ils le sont toujours
parce que ça reste des annonces, et quand tu regardes le calendrier qui est prévu,
tu fais « ouais, quand tu rajoutes 4-5 mois à une annonce,
dans l'intelligence artificielle, c'est énorme 4-5 mois.
Il y a des choses qui ont été annoncées il y a 6 mois et qui ont été implémentées à 6 mois chez des concurrents
qui aujourd'hui sont dans notre quotidien et on en parle même plus.
Et on le sait, vu qu'on traite beaucoup d'intelligence artificielle dans cette émission, ça va très vite.
Là, quand ils font une annonce d'Apple Intelligence en juin,
et qu'en fait, ça sera disponible en bêta à l'automne,
tu te dis « ouais, ok, ils rattrapent leur retard en termes d'annonce,
mais en termes de technologie, d'implémentation, d'intégration,
il court encore pas mal et ça va bosser dur cet été chez les enjeuneurs d'Apple.
Donc en vrai, j'étais en mode « c'est bien »
et il y a des côtés très très bien sur lesquels je vais revenir,
mais j'étais quand même un peu en mode « ouais, c'était mon sentiment. »
En tout cas, avant de découvrir d'autres choses.
Ça se fait comme un truc.
C'est ça, c'est pour donner un petit peu d'espoir.
Justement, le but de cette vidéo, c'est de vous montrer les trucs cool
et les trucs qui sont peut-être encore un petit peu décevant,
mais aussi ce que laisse présager la suite.
Et que peut-être que comme tu dis, c'est un peu des diesel à Pulse,
c'est-à-dire qu'ils attendent un petit peu trop parfois.
C'est toujours été ça.
Mais quand ça arrive, ça peut être quand même intéressant.
Et justement, certains modèles, certains papiers de recherche
peuvent laisser présager des prochaines versions qui seront elles un peu sympas.
Oui, et alors du coup, on va attaquer, je vais le dire dans le dur,
mais dans le très classique, niveau fonctionnalité,
qui est-ce qu'ils ont annoncé.
Et donc au début, on a eu du très classique, c'est-à-dire,
reformuler ou changer le ton d'un mail ou d'un message
en première fonctionnalité.
On a le fait de pouvoir résumer un texte sélectionné
par le système d'exploitation d'appels que ça soit sur iPhone ou sur Mac.
Il y a aussi le fait de corriger son texte.
Ils ont mis ça en avant, d'un point de vue de l'orthographe et de la grammaire.
On verra si c'est... Qu'est-ce que ça apporte aux outils
qu'on a déjà sur nos iPhones et nos Macs.
Honnêtement, comme je vous le disais, c'est des fonctions disposent
sur des appareils Samsung ou Google,
parfois depuis presque un an, ce qui est une éternité
quand on parle d'IA, comme je le disais.
Donc, c'est très chouette qu'ils le fassent, mais on n'est pas sur le cul.
Mais question très bête, parce que moi, je ne suis pas très utilisée à tirer le...
D'iPhone, oui.
Il n'y en avait pas avant ?
De correction d'orthographe ?
Oui, de tout ça, là, de ce que tu viens de dire.
De correction d'orthographe, il y a ce qu'on connaît
sur tous les Spartans et les Macs, mais là, en gros,
il faut pouvoir...
Ce qu'ils ne disent pas corriger, ils disent...
Je ne sais plus.
Reformuler ?
Ils disent réviser.
En fait, là, c'est ce que tu fais toi manuellement.
Tu prends ton mail, tu le copies dans le charge d'épétit,
tu le demandes de faire un résumé, une version mieux écrite, etc.
Là, c'est le jeu, c'est directement, nativement, dans l'appli mail.
Tu sélectionnes, tu reformules, tu gagnes 5 clics.
C'est ça.
Donc, dans le temps, il n'y avait pas ça,
il y avait du machine learning qui était implémenté,
notamment autour des images, mais c'était loin d'être de l'IA génératif.
On l'a sent tranquille, en termes d'application.
Non, sinon, il n'y avait vraiment rien du tout.
On utilisait d'autres outils, comme Open AI.
On a aussi un modèle de diffusion pour les images
qui ont développé, donc on peut lui demander de générer des images.
Alors, ça sera certainement très encadré,
parce que c'est Apple, dans les démos qui montrent,
on peut générer des images soit dans le style croquis,
soit une illustration, soit une animation,
mais on n'a pas vu de style réaliste pour créer des images
comme on a pu voir les images du pape qui sont générées avec une dune.
On sent qu'il y a une volonté de contrôle,
et c'est normal, c'est un petit peu ce que ce qu'a toujours fait Apple.
J'ai vu des emojis aussi.
Exactement.
C'est un truc où j'ai trouvé ça sympa.
Des jeunes emojis.
Des jeunes emojis, ils appellent ça.
Des jeunes emojis.
Ouais, c'est des gmojis générés.
Et ça, en vrai, il y a un monde où ça va bien marcher.
Parce que je pense que tout le monde est un peu content de créer
son propre gmoji que personne d'autre n'a créé.
Et donc, en fait, tu peux juste lui demander de créer sur mesure un gmoji.
Et ça, il y a un monde où ça va très bien marcher.
Il y avait même des comptes Twitter qui faisaient des mélanges
de ces emojis qu'il publie tous les jours.
Et ça marchait vraiment bien.
Ça, c'est...
D'ailleurs, le gars qui faisait ça, je crois qu'il a annoncé qu'il arrêtait.
Je sais pas si ça a un lien avec Apple.
C'est possible.
En vrai, c'est fort possible.
En vrai, ce qui serait très cool,
c'est que, au fur et à mesure que tu écris ton texte,
déjà aujourd'hui, quand t'écris ton texte,
il te propose déjà des emojis qui existent
qui ont un rapport avec la phrase que tu viens de dire.
Ce qui serait cool, c'est qu'en fonction de la phrase que tu viens de dire,
il génère des emojis sur le côté.
Ah, illustrétaire.
C'est une bonne idée.
Mais, ouais.
Ça, sans avoir à faire l'extra-truc de générer l'emoji,
juste, il te propose à la fin de ta phrase.
Mais en fait, le problème, c'est que si t'as,
à chaque fois, des emojis inconnues,
pour la compréhension des messages,
ça va être galère parce que quand tu vas tuer,
les messages ont les très vite.
Ouais, je sais pas.

si t'as des emojis inconnues à chaque fois,
notre cerveau va devoir processer, ça va pas du tout.
Ça me va, moi.
J'aimerais bien ça pour ça, comme feature.
Il y a la feature qui vous en est montrée,
et il me semble, c'est, on peut dessiner,
par exemple, avec la Apple Pencil,
un petit croquis, un petit schéma,
et lui demander de faire la version, on va dire,
plus réaliste, en tout cas, la version illustrée,
retravaillée.
Donc ça, c'est le genre de feature.
Moi, je trouve que ça rend très bien à l'écran.
Je trouve que franchement, quand on le voit,
t'as instantanément envie de le faire.
Après, dans la réalité, je sais pas, c'est quelque chose
qu'on va utiliser tous les jours, mais ça sera sans doute
pour quelques professions.
On a ça, et puis aussi, on a une chose qui est quand même
assez importante, je trouve,
qui est la recherche avancée dans sa bibliothèque photo.
C'est-à-dire que, dans le photo,
aujourd'hui, on peut, par exemple, taper dans le champ de recherche
un chien, et ça va sortir tous les images de chien.
Là, on peut aller avec un contexte beaucoup, beaucoup plus fort.
Par exemple, un chien au bord de la lac avec Manies,
et lui, il va comprendre, et il va chercher un peu
les photos qui se rapportent à ça.
Et en fait, pourquoi je parle de cette fonction ?
Parce que je pense que, globalement, les fonctions de recherche
augmentées par IA ont un très bel avenir devant eux.
Déjà parce que c'est déjà un peu le cas,
on l'utilise déjà beaucoup, et là,
ça va être encore plus amélioré.
Parce que ça aide vraiment l'utilisateur,
et l'utilisateur n'a pas l'impression d'utiliser de l'IA,
donc c'est très transparent pour lui.
Et en plus, c'est encore complètement sous-exploité,
parce que ça nécessite de contrôler un système d'exploitation
que ne fait pas, par exemple, Open AI.
Et donc je pense que c'est des usages qu'on va voir
fleurir dans Windows, dans Mac, dans les iPhone,
dans Android, etc.
Je pense que c'est une direction
que ça va nous apporter un truc sans qu'on se rende compte,
et qui va très bien marcher.
– Et ça se décline, oui, c'est intéressant.
En fait, ça se décline, c'est-à-dire que pour les photos,
on commence à prendre l'habitude.
Si ça se trouve demain, pour retrouver un mail,
ou un message, etc., vous allez dire,
j'ai parlé il y a un an avec ma mère
du code de la porte, de la pectre,
et en fait, il va te le ressortir tout de suite,
ou même chose dans des fichiers,
genre, juste ton explorateur de fichiers
pouvait accepter des courriers bizarres de ce genre,
ça ferait plaisir. – C'est clair.
– Et clairement, oui, je pense que ça va être très cool.
Autre cas d'usage, les enchaînent un petit peu vite,
évidemment, après, on va passer à autre chose,
mais que je trouve aussi en vrai pas mal,
en tout cas mieux que ce que je vous ai annoncé au tout début,
c'est les notifications.
En fait, l'iPhone va déjà ranger les notifications
par priorité, bon, ça, c'est pas une révolution,
mais par contre, moi, il y a un truc qui m'intéresse,
c'est qu'il va pouvoir résumer les notifications.
Je prends un exemple, parfois on reçoit des messages WhatsApp,
et on a juste la notification avec le début du texte,
sauf que parfois le message, il est long,
et tu sais pas si du coup, si le début du message
t'en donnes pas d'indication,
tu sais pas si c'est important,
s'il faut l'ouvrir, répondre maintenant,
ça peut attendre ce soir, etc.
Et donc là, potentiellement, tu auras un résumé du message,
alors c'est un cadavage très précis,
mais je le trouve pareil, bien intégré au système d'exploitation
qui est l'iPhone, iOS, et bon, c'est sympa,
et en fait, c'est quelque chose que j'avais jamais vu ailleurs,
alors peut-être que je l'ai raté sur Android.
Ce truc que j'ai vu, c'est que t'as certains navigateurs,
genre Arc qui te résume le nom des onglais
qui ont le même problème, où tu vas que le début.
Oui, j'avoue, je n'utilise pas ça.
Ah voilà, c'est pas fou non plus.
Non.
Je pense que pour les messages, ça peut être intéressant.
Moi, ça va juste me perturber de cliquer sur le message
et que ce soit pas ça qui est écrit vraiment.
Ben moi, j'attends de voir,
parce que c'est possible que je sois perturbe aussi,
mais en tout cas, je trouvais la chose intéressante.
Je pense que ça a un intérêt pour les messages
et pour le reste, pas trop,
parce que ici, c'est une notification Instagram de like.
Je t'en fous un petit peu.
Moi après, c'est quelques annonces de fonctionnalité
qu'ils ont mis quand même un peu en avant.
Alors, il y a une spécificité que je n'ai pas dit,
mais Apple va essayer de faire ça le plus localement possible.
Donc il y a énormément de requêtes d'intelligence artificielle
qui vont se passer en local,
que ce soit sur le Mac, sur iPad ou sur iPhone.
Et c'est d'ailleurs pour ça que c'est des fonctions très limitées
en termes du nombre d'utilisateurs.
Enfin, le nombre de devices, il n'y a que l'iPhone 15 Pro,
je crois, qui est supportée.
Oui, c'est ça.
Et je vais revenir, c'est un gros, gros, moins,
on va dire, un gros, une grande question,
c'est qu'il n'y a que l'iPhone 15 Pro,
même pas l'iPhone 15,
qui est pourtant sorti en septembre,
qui est compatible avec Aire.
On va dire que ça compte particulièrement bien
avant une sortie de nouvelle iPhone.
Voilà.
Mais bon, leur justification est bonne.
C'est-à-dire qu'objectivement,
à avoir un maximum d'inférences qui sont faits en local
et qui ne sont pas envoyées dans le cloud,
c'est quand même agréable.
Mais en même temps, ils ont ce sorte de double discours
où ils ne font pas dans le plus tôt en local.
Enfin bref, on va justement en discuter, j'imagine, mais...
Je vais vous donner dans cinq minutes mon avis là-dessus
si vous vous intéressez, sinon ça sera coupé.
En tout cas, moi, j'ai reçu trois choses de ces annonces
que je trouve vraiment intéressantes.
Déjà, ça confirme qu'Apple est à l'amour sur l'IA.
Pourquoi ? Parce que tout ce que je vous ai dit,
la plupart déjà des fonctions sont toutes très classiques,
et existent chez la concurrence depuis parfois plus de six mois.
Et surtout, ce que je vous disais,
c'est ce qu'ils ont annoncé n'est dispo,
que dans les versions beta d'IOS et de macOS et d'iPadOS à l'automne.
Ce qui fait que c'est dans quatre, cinq mois
et donc c'est dans très longtemps.
D'habitude, quand il y a des annonces à la WWDC,
les beta des systèmes iOS, macOS et iPadOS
sont disponibles dans la foulée.
Et elles sont déjà disponibles d'ailleurs.
Mais il n'y a pas Apple Intelligence dedans,
parce que ça sera plus tard, ça sera à l'automne.
Et donc ça, je trouve que c'est...
OK, on se rattrape, on rassure les investitions.
C'est un peu un aveu d'échec de...
On est quand même vachement à la beaux et il faut voir
que les ingénieurs d'Apple, ils bossent fort, fort, fort cet été.
Globalement pour rattraper tout ce qu'ils font,
parce que je rappelle que Samsung a déjà des choses
en interne dans leur téléphone, Google également, etc.
Et, chose que je n'ai pas mentionné,
pour l'instant, il n'y a que l'anglais de disponible.
Pareil, les autres...
Les différents, ils ont plusieurs langues de dispo.
Donc quand même, alors c'est aussi...
Ça a toujours été la façon de faire d'Apple, hein.
Et ça peut devenir une force d'arriver un peu plus tard
sur le marché, mais avec quelque chose de nouveau.
Et on l'a vu, ils ont souvent fait ça.
L'iPhone, ça peut être pris en exemple,
parce qu'il y avait déjà des téléphones sur Android,
mais ils ont complètement le changé de marché grâce à ça.
Donc ce désavantage peut se transformer en une force,
et Apple, c'est très bien le faire.
Il n'empêche qu'ils te sont là, bon.
En revanche, certes, les fonctionnalités annoncées,
sont sommes toutes assez courantes, en tout cas,
pour les nerds que nous sommes.
Mais, ce qui est très cool, c'est qu'Apple va mettre
ses fonctions dans les mains d'énormément de gens,
avec un parc utilisateur gigantesque.
Ça dépasse, comme je disais, un peu les quelques nerds
qui traînent sur les spaces,
Dunk-Dink Face à longueur de journée,
pour trouver le petit système, pour recadrer ton image, etc.
Et c'est la force d'Apple, ils vont intégrer ça
nativement dans leurs différents OS,
et ça va apporter des fonctions
à des gens qui ne vont pas...
– Qui ne sont probablement même pas que derrière,
c'est l'IA.
– C'est l'IA qui doivent ouvrir, une fois,
chat de GPT de temps en temps,
parce qu'on en a tellement entendu parler
que chat de GPT, c'est bon,
mais qu'ils ne vont pas, par exemple,
générer une image pour créer un visuel, etc.
Ça va vraiment rendre
très grand public ces fonctions,
et surtout, on sait qu'Apple,
une de leurs forces, c'est d'intégrer
ces outils de façon remarquable,
et en fait, quand tu vois les...
l'interface utilisateur pour reformuler un mail,
pour corriger ton mail,
pour le... bref,
pour faire toutes ces fonctions
pour créer un emoji, etc.
En fait, c'est vraiment très bien foutu.
– Mais en fait, je pense que c'est assez critique,
ce que tu viens de dire, parce que...
et on peut peut-être pardonner leur retard pour ça, en fait.
Parce que t'as beau avoir un super outil,
si t'as pas l'expérience utilisateur derrière
qui est nickel, au final,
ça sert à rien.
Du coup, même si ça arrive un peu tard,
mais que derrière, ils ont bien réussi
à polir, en fait,
l'expérience utilisateur,
et qu'effectivement, il y a d'options de masse,
quelque part, ils auront réussi, en fait.
– J'entends les team Cook
dans une interférences propoues disait,
nous, on est...
jamais les premiers, toujours les meilleurs.
– Ah, c'est beau.
– Ça s'est réalisé par la com...
Ouais, et en plus d'avoir
ce côté interface utilisateur
très poussé et très léché,
ils ont ce côté, on contrôle les OS.
Par exemple, OpenAI,
ils peuvent faire toutes les meilleures
intelligences artificielles du monde,
et ils peuvent pas l'intégrer directement
dans un téléphone ou un ordinateur.
Bon, c'est pour ça qu'ils ont la partenariat
avec Microsoft, évidemment.
Mais quand même, il y a un petit frein,
et en fait, ça, c'est, évidemment,
le point positif de ces annonces
d'Appal Intelligence, parce qu'on les attendait,
il y avait une bonne raison pour que les attendent,
où ils ont enfin eu, c'est quand même une bonne douée.
Et enfin, on en parlait justement la compadribilité.
C'est à dire que le bas blesse un peu,
c'est dispo sur les Mac et iPad avec des processeurs M1.
Donc ça, en vrai, ils commencent à avoir un parc existant
depuis quelques années.
Mais c'est là que ça pique.
Dispo que à partir de l'iPhone 15 Pro seulement.
Et c'est, en fait, tu le disais,
le prix de vouloir faire tourner le maximum
de requêtes d'intelligence artificielle en local.
Mais je trouve que ça picote beaucoup,
et ça va avoir des implications.
Notamment, c'est une mauvaise nouvelle
pour les iPhones plus anciens,
pour leur revendre sur le marché de l'occasion.
Aujourd'hui, quelqu'un qui va vouloir acheter un iPhone,
alors je vois que Tiffany n'est pas d'accord,
mais on va vouloir avoir de l'offrir
à mesure du temps, ces fonctionnalités vont devenir
quotidiennes et on ne va plus pouvoir s'en passer.
Donc un iPhone qui ne peut pas faire tourner
Apple Intelligence va tout de suite être mis de côté.
Et donc sur le marché de l'occasion,
ça va complètement faire descendre les prix.
Je suis d'accord surtout le jour où il y a une killer feature.
En gros, pour l'instant, je pense,
ça ne va pas beaucoup être le cas, c'est mon cas de vue.
Mais le jour où vraiment il y a quelque chose
qui change complètement la manière d'utiliser les iOS
et qu'il n'y a pas d'accès parce que tu n'as pas la bonne puce,
là les iPhones vont prendre autant cher
qu'on prie les Mac quand t'es sorti Apple Silicon.
Oui.
Moi, je peux vous dire, j'ai un Mac Intel,
autant dire que son prix a été déduisé par 3.
Ah oui.
Et cette killer feature, on en reparlera peut-être.
On a une petite idée à vous présenter.
Juste pour commenter ma tête,
ce n'était pas d'accord,
c'était en fait, ça va être un sacré gâchis de matos.
Complètement.
Parce qu'on est habitués à ce système
où il y a des iPhones qui est des devices et des appareils
qui deviennent obsolètes au fur du temps.
Mais là, vraiment, il y a un iPhone qui est sorti en septembre,
qui n'est pas compatible Apple Silicon.
Mais je pense qu'il faudrait.
Et c'est quand même assez violent.
Ce serait quand même assez intéressant d'arriver à estimer
l'impact de ce genre de révolution technologique.
Par rapport à justement l'obsolescence un peu prématurée
de tous ces devices là,
qui vont d'un seul coup se retrouver à la poubelle.
Mais complètement, c'est pour ça que...
Moi, je pense que ça va l'horreur.
C'est vraiment, il y a du bon et du moins bon,
c'est un peu des annonces en demi-temps.
Moi, j'ai utilisé vos iPhones jusqu'au bout.
C'est ça.
En vrai, je suis plutôt...
Je suis ni-cellé.
Ni-cellé.
Je suis un peu comme ça avec mes devices.
Il y a juste un truc qu'on n'a pas parlé.
C'est que le Vision Pro
n'est mentionné nulle part dans leurs annonces.
Alors qu'on était ici un peu les premiers à se dire
que ça allait être l'appareil qui allait être un peu
le catalyseur des nouveautés d'intelligence artificielle.
Là, on parle que d'iPhone, d'iPad et de Mac.
C'est assez étonnant.
C'est vrai que c'est étonnant, franchement.
C'est peut-être parce qu'il y a des équipes un peu en silo
du côté Apple,
ça ne m'étendrait pas avec leur passion pour la confidentialité.
J'imagine que ça va arriver.
En plus, il y a des puces M dans les Apple Vision Pro.
Mais c'est assez étonnant quand même.
Et ils ont parlé de Vision Pro par ailleurs
dans la conférence de WDWDC.
Donc, on a mis le Vision Pro de côté.
Il n'y a pas eu de lien fait entre Apple Intelligence et le Vision Pro.
Et donc, c'est un peu surpris.
Peut-être qu'ils ont priorisé
les choses qu'ils devaient faire et chippé.
Et du coup, c'est pas dans le top de la liste
que ça va peut-être devenir plus tard.
Alors, est-ce qu'il y a des bonnes nouvelles,
des surprises un petit peu
qui nous ont été annoncées pendant cette Apple Conférence ?
Là, je peux te dire,
je vous ai dépeint tout le chat, il attend Siri.
Exactement.
Notamment du côté de Siri que j'ai mis un peu de côté.
Je l'ai fait complètement exprès.
On l'attendait depuis longtemps,
peut-être 10 ans, des nouveautés du côté de Siri.
Siri va enfin comprendre le langage naturel.
Donc, on va pouvoir se tromper dans nos phrases,
reprendre et il va nous comprendre.
Alors, ça, en 2024, c'est quel plaisir.
Il va pouvoir, ça, c'est intéressant,
prendre le contexte de votre système,
que ce soit un iPhone ou un Mac,
et qu'il connaît par exemple,
ça va être les messages, le calendrier, les photos.
Bref, il peut mettre en contexte
un peu tout ce qu'il connaît sur la machine
et ce dont il a les autorisations, évidemment,
donc en priorité les applications d'Apple.
Et en fait, il en fait un contexte.
Donc, ça devient,
ça commence à se rapprocher un peu de ce qu'on connaît,
d'un agent conversationnel qui nous connaît,
bref, qui connaît un petit peu notre contexte,
un peu à l'image de Copilot
sur Microsoft.
Et enfin, et alors moi, je trouvais que c'était une super bonne nouvelle,
on va pouvoir s'adresser à Siri
avec du texte.
Moi, je dis oui.
Parce que je trouve que ça m'est fin à ce mythe technologique,
qui est que l'interface Home Machine Ultimate,
c'est la voix, alors que pas du tout.
Il suffit d'être dans une cuisine avec des gens
dans un métro pour savoir qu'on ne veut pas
interagir avec Siri par la voix, parce que c'est très jeuneant.
Et donc là, maintenant, on pourra interagir avec du texte.
Et on va pouvoir le faire autour de Siri, du renouveau de Siri,
on va pouvoir le faire en texte.
Et c'est une sacrée bonne nouvelle.
Il y a deux choses très cool
avec Apple Intelligence dans Siri.
Outre ce que je vous ai déjà annoncé,
qui sont des nouvelles sympathiques,
mais en fait, on s'y attendait un peu.
La première, c'est que les développeurs
vont pouvoir intégrer des actions de leur application
avec Siri et un peu toutes les expériences
système.
En fait, c'est ce qui s'appelle chez Apple App Intense.
Et App Intense a une API
ouverte au développeur.
Alors, je le dis tout de suite, ça a existé déjà.
Les développeurs Swiss peut-être dans le chat
connaissent très bien. En fait, c'est ce qui permet
une app de s'intégrer, par exemple,
soit dans les widgets de l'iPhone,
soit dans les short cuts aussi
de l'iPhone ou du Mac.
C'est la même API que les short cuts.
C'est la même API
qui te permet d'avoir le...
En gros, par exemple,
moi, j'ai 6 timappeurs installés sur mon iPhone.
Et donc, je peux facilement créer des short cuts
et intégrer
une action de city mapeur.
Ou je peux me créer un widget sur ma page
défilée à gauche de l'iPhone avec city mapeur.
Et en fait, ça, c'est disponible
via la Librex, ça s'appelle App Intense
de l'iPhone. Est-ce que c'est un peu plus flair ?
Oui. Et en fait...
C'est trop malin parce que du coup, il y a un historique...
Enfin, toutes les applications se sont déjà fichées,
enfin, une bonne partie,
à s'intégrer avec ce framework-là
pour gérer des récourcis.
Et là, maintenant, ce sera plus trigger
par un humain qui programme
née par Siri. Et ça, c'est vraiment...
Et en fait, il suffit que les développeurs
continuent d'intégrer
dans leur application cette fonctionnalité
qui est délivrée par App Intense
de ce qu'ils appellent les In-App Action.
Et en fait, ça permet tout de suite
de pouvoir profiter d'Apple Intelligence dans Siri
de façon quasiment transparente
pour les développeurs. Alors, l'exemple
qui est pris pendant la conférence,
c'est sur une app professionnelle de photo.
Il s'adresse à la professionnelle
et il lui dit,
prend une photo, longue exposition
pour que je puisse voir les fards des voitures
de façon un peu sympathique.
Et en fait, je trouve que c'est quand même
un bon exemple, enfin, c'est un très bon exemple,
parce que c'est une fonction souvent qui est loin
cachée dans les réglages de l'application.
On ne s'est pas trop allé, on le fait une fois
tous les deux ans ou tous les trimestres.
Et là, en fait, le fait de pouvoir le faire
à la voix ou au texte via Siri,
ça change tout, en fait.
Et il suffit que le développeur derrière
qui n'est pas encore une fois Apple,
qui est un développeur Ties, intègre ça
de façon bien faite dans l'application.
Et en fait, t'as tout de suite Apple IntelliJons
qui rentre en jeu.
En fait, c'est un peu comme les outils.
C'est un peu comme OpenAI
et leur marketplace
d'outils, tu sais, les tools que tu as.
Tu peux fournir à des modèles
pour qu'il aille requêter des trucs à l'extérieur.
C'est ça, mais en utile.
C'est pas ce qui du coup.
Parce que...
On a des habitudes des développeurs.
Les habitudes, et surtout,
tu l'as dans la poche,
tu étais déjà connecté à tous tes comptes partout.
En gros, ils sont là où il faut être
pour avoir un assistant.
Dans l'outil, tu te disais tout le temps.
Vu que la pays est déjà utilisée,
il y a quand même de fortes chances
que ça soit adopté.
C'est toujours la question, est-ce que les développeurs
vont adopter cette technologie, mais là,
vu que c'est déjà quelque chose qui est intégré,
il devrait pas y avoir trop de mal.
Juste un petit bémol.
Il y a eu des workshops en ADC.
C'est aussi le but de cette semaine.
Justement sur ce point de App Intense.
C'est très cool,
parce qu'ils disent qu'on va pouvoir utiliser
Apple Intelligence, mais il n'y a
aucune démo.
On se dit, ok, trop bien.
C'est incroyable.
Mais en fait, c'est pas encore prêt.
Je pensais quand même dans un workshop
annoncé aux développeurs, il y aurait quelques précisions.
Mais en fait, pas tant que ça.
J'étais un tout petit peu déçu
de pas avoir un cas d'usage
en application
outre la démo marketing
ou un cas d'usage au niveau du développement.
Mais ça reste quand même
une très bonne nouvelle, cette intégration.
La deuxième, et elle a été évoquée
durant la conférence,
mais plutôt rapidement.
C'est ce qu'ils appellent le on-screen awareness.
En fait, c'est une fonction
qui permet à votre iPhone
de comprendre ce qu'il y a
à l'écran et d'effectuer
des actions.
Alors, je vais vous dire l'exemple que Apple
prend lors de sa conférence. Vous allez me dire ce que vous en pensez.
Un ami vous envoie son adresse
et vous pouvez demander à Siri
ajoutes cet adresse
à sa fiche de contact.
Mais en fait, c'est quelque chose qu'on peut déjà
faire très facilement.
Même l'iPhone nous le propose
ajouter cet adresse
au quartier d'adresse.
C'est déjà une suivi éxuelle qui existe
que là, c'est via Siri.
C'est un peu différent et c'est ça qui change tout.
Pourquoi ? Parce que ce qui veulent faire comprendre
via cet exemple, c'est que Siri va pouvoir
faire une action juste en regardant
en analysant
ce qu'il y a
à l'écran. On est d'accord.
C'est pas très clair.
On reste sur notre fin
et pourtant, c'est vraiment ce qui a été annoncé
tel quel dans la conférence.
Mais est-ce que c'est pas plutôt le texte qui est lu
plutôt que l'image qui est analysée ?
Eh bien, on a fait quelques recherches
et Michael, d'ailleurs, tu m'as tout petit peu aidé
enfin, tu m'as complètement aidé sur ces recherches.
On a fait des recherches pour en savoir un peu plus
sur ce qui se cache derrière cette technologie
annoncée par Apple. Et on a creusé dans
les publications de recherche d'Apple
qui sont publiques et on a trouvé.
Alors, je sais pas si vous vous rappelez, on vous a déjà
présenté dans une précédente vidéo
le langage de modèle
ferré d'Apple, qui est d'ailleurs
Open Source.
Et en fait, Apple a fait
ce constat
que ce qui est bloquant
dans l'évolution de l'intelligence artificielle
pour qu'il y ait une meilleure adoption pour que tout marche
mieux que ça soit intégré aux iPhone, aux Mac,
à tous nos appareils,
ce qui est bloquant, c'est la compréhension
des éléments d'une interface par un modèle dire.
C'est ça pour eux, le facteur militant.
Et donc,
les chercheurs d'Apple ont travaillé sur un modèle
qui ont dévoilé
les résultats début avril, donc c'est
avant la conférence d'Apple, qui s'appelle
ferré UI.
Et donc,
c'est un modèle
que je trouve assez impressionnant,
parce qu'on n'en a pas vu beaucoup il y a âge,
et il est directement en confrontation avec GPT4
Vision. Et donc c'est un modèle
conçu expressément
pour comprendre les interfaces utilisateurs
mobiles.
Et uniquement
mobiles, pas de Mac,
pas de
GPT4 Vision, de reconnaissance de photos, etc.
C'est, on se concentre
sur l'interface mobile
parce que
ce que je n'ai pas dit, c'est qu'il y a
déjà de très bonnes langages de modèle
pour analyser des photos, des images plutôt réalistes, etc.
Mais en fait, les interfaces, c'est plein
de petites complexités.
C'est des légendes d'image, des images, des
icônes, des boutons d'action,
des menus,
la barre des tâches en haut
qui te dit, où est-ce que ton wifi est activé, etc.
En fait, c'est toute une langue
implicite que les humains comprennent
sur qu'est-ce qu'on peut appuyer,
sur qu'on peut pas appuyer, qu'est-ce qu'on peut scroller.
Et toute cette langue implicite
était jusqu'à présent
plutôt hors de porter des modèles de vision.
Et globalement, même
GPT4, même les plus gros modèles de langage
n'étaient pas très forts pour comprendre les interfaces.
Mais du coup, ça comprend
juste l'interface, où ça peut aussi
actionner des choses sur l'interface.
Ça peut prendre des décisions, puis cliquer sur des boutons
tout pour toi.
Ça va pouvoir actionner des choses sur l'interface.
Mais en fait, pour l'instant, ça a l'état de...
Pour l'instant, c'est juste de recherche.
Ça regarde juste l'interface et ça la comprend pour l'instant.
C'est ça que ça fait.
En fait, le modèle, Apple n'a absolument pas mentionné
Phere UI, en fait,
dans sa conférence, etc.
Ils disent,
Siri peut maintenant comprendre ce qu'il y a à l'écran
et quand tu vas voir le blog,
tu te doutes, c'est pas compliqué de faire le lien.
Il n'y a que nous qui faisons le lien.
Tu peux fortement supposer
qu'en réalité, c'est ce genre de modèle
puisque c'est hyper cohérent, ils veulent tout faire
en local dans les modèles les plus compressés possible.
Et en fait,
aujourd'hui,
moi, je trouvais ça intéressant de voir le schéma,
c'est quel genre de trucs
que tu peux demander au modèle exactement sur l'interface ?
Si, si, je vais y revenir.
On peut y aller.
Globalement, pour entraîner
ce modèle,
ils ont fait un corpus d'interface.
Est-ce qu'il y a intéressant,
ils ont pris des interfaces d'iPhone,
ils ont aussi des interfaces Android.
Et ils n'ont pas d'autres déplins.
Le but de ce modèle, c'est de incomprendre
les interfaces utilisateurs mobiles,
mais c'est aussi d'exécuter
des tâches sur cette interface.
Et, en plus,
c'est assez classique de comprendre des instructions ouvertes.
C'est-à-dire qu'on doit pouvoir lui donner
un truc un peu large et pas forcément très fermé.
Et lui, il doit comprendre.
Mais, en fait, quand tu lis le papier de recherche,
c'est très axé sur la compréhension des éléments d'interface
et un peu moins sur les actions.
Mais, ça va arriver très vite
et ils ont déjà donné des exemples
dont je pourrais revenir.
Donc ça, c'est par exemple,
l'interface où ils mettent une interface d'absor
et le but, c'est de comprendre cette interface.
Et comme on le disait,
en fait, une interface a des ratios
d'images très différents que dans la vie réelle.
Donc c'est vraiment tout nouveau.
Il fallait vraiment un modèle spécialisé dans les interfaces.
Et donc, pour ça, comment il marche ?
Ce qui est intéressant, c'est que le modèle
s'en démarre de l'image en deux.
Et c'est pour pouvoir gérer les interfaces
en mode paysage ou en mode portrait.
En fait, il les coupe en deux et en fonction de comment il est,
il peut gérer un petit peu les deux.
Et donc, comme je disais,
son but, ça va être, au fur et à mesure du temps,
de comprendre un écran comme celui-ci,
à quoi sert cet écran,
d'identifier qu'est-ce qui est une icône,
d'écrire une fonctionnalité d'un bouton,
de prédire si un élément peut être touché,
cliquable,
ou si c'est un élément inert.
De prédire potentiellement, quand on a une page
avec une image que la légende,
c'est le petit texte qui est en dessous.
Donc de dire ça, c'est sûr, c'est une légende.
En fait, d'essayer de prédire un maximum
d'informations, c'est ce que va apprendre
à faire le modèle.
Et donc, du coup, est-ce que ça marche,
cette histoire ?
Et bien, en fait, ça marche plutôt bien, honnêtement,
sans être un expert du domaine.
Ça marche plutôt bien, en tout cas, dans ce qui déclare
dans leur papier,
Ferré UI est capable
de faire une vraie analyse d'une interface.
Il mentionne des benchmark,
il dit que sur les tâches élémentaires,
donc les tâches élémentaires,
ça va être de l'identification,
ça va pas être encore vraiment
répondre à des questions, de dire, ok,
à quoi ça sert cet interface, à quoi ça sert,
plus, ok, là, il y a un bouton, là, il y a un texte,
d'identifier un petit peu, en gros, de cartographier
ton interface,
eh bien, sur le benchmark, il dit que
ce sont les meilleurs, et ça surpasse
GPT-4 Vision.
C'est vraiment du bon travail qu'ils ont fait.
En regard sur les tâches un peu plus avancées,
de comprendre sans un peu plus, on va dire,
en prenant un peu plus de recul,
ils sont un petit peu en dessous
de GPT-4 Vision.
Ils prennent aussi
en référence d'autres modèles open source.
Je sais pas qu'on prend la distinction entre les deux, c'est-à-dire que,
en gros, si le job
c'est de trouver tout ce qu'il y a un bouton
cliquable sur une page,
Ferret UI va se débrouiller très bien,
mais sur une question où,
par exemple, c'est, j'aimerais
installer une application sur mon
téléphone,
quelles actions je devrais effectuer,
ou à quel endroit je devrais
taper, là, il va être un peu moins fort, on va
faire un peu ça. Un exemple, c'est par exemple,
sur cette page, c'est, va dans le menu,
j'arrive pas à lire les menus en bas, mais va
dans le menu application ou
dans le menu jeu. Et en fait, c'est ce qui est
en bas de l'écran, donc ça veut dire qu'il doit trouver lui-même
le bouton et il y a aller. En fait, ça,
c'est une tâche un peu plus complexe.
Donc c'est dépasser un peu l'analyse
et arriver à des choses, alors voilà,
là, ça a des tasks avancés, mais je
sais pas si moi, j'arrive pas à lire, personnellement,
mais j'ai pas noté
exactement tout ce qu'il y a, mais
globalement, ça va aller sur la suite
d'actions, la suite d'analyse.
Et donc ça, pour l'instant, c'est un petit
peu moins bon que la concurrence, mais
encore une fois, ce qui est
très fort chez Apple, c'est qu'en fait, eux, ils ont
directement le parc d'iPhone,
de Mac, etc., qui peuvent mettre en application
alors qu'OpenAIL ne l'a pas.
Je trouve ça très cool.
Je pense qu'ils l'ont pas forcément mentionné, mais je pense que
ça va révolutionner un peu l'accessibilité
sur...
Ah, ok.
Tu penses bien.
Non, je sais pas, c'était pas le... c'était parce que
tu avais mentionné là. Et il y a un autre
truc que je trouvais assez cool, et que je pense
que ça va quand même influencer pas mal,
c'est justement la façon dont
les développeurs vont designer leurs applications
sur les téléphones. Je pense que maintenant, ils vont
le faire... et iFIRST, tu vois, ils vont
réfléchir à comment est-ce que
l'interface, elle va être compréhensible.
C'est vrai que ça, c'est trop marrant, parce que peut-être
que là où on optimisait
une UX, une interface,
pour que l'humain se trompe jamais,
si ça se trompe, on va se rendre compte qu'il y a
des zones... des angles morts, par exemple, dans
les modèles d'IA. Du coup, faut jamais
faire de...
Mais c'est clair, je pense que...
Et en fait, ils vont disparaître, il y aura plus que des hamburger
menus, tu sais, je vais dire, peut-être qu'il va se passer
des trucs bizarres dans les interfaces, et vous saurez
que c'est parce que c'est les modèles.
Ce serait standardisé, et je pense qu'il y aura une...
Ravouir au début d'internet, c'est...
Mais il y aurait en tout cas, c'est sûr, une nouvelle façon,
encore une fois, de développer. Et je trouve, ces 2 choses là,
enfin, je pense que ça, ça va beaucoup influencer
ces 2 choses-là.
En tout cas, ils avancent beaucoup, et moi, je trouve
ça très intéressant de voir qu'ils ont fait un modèle
de langage dédié à ça.
Alors, il faut aussi mentionner
ce qui marche un tout petit peu moins.
Par exemple, le modèle a encore du mal
à identifier l'heure en haut, ou alors,
est-ce que le wifi est activé, ou est-ce
que c'est en mode avion... Enfin, bref, tout ce qui a
un haut, ça, il a encore un peu de mal, donc
il y a encore du travail à faire.
Et il y a des facteurs aussi, qui apprendront
contre, par exemple, la résolution de ton
écran, va beaucoup jouer
sur est-ce que ton modèle arrive à bien détecter
les éléments. Parce qu'ils ont évidemment
testé ça sur différentes résolutions, avec
des iPhone, avec des Android. Et donc,
Apple a l'avantage de pouvoir un peu normaliser
donc pas mal de ces iPhone ont les mêmes résolutions,
donc je pense qu'ils vont s'en sortir grâce à ça.
Mais on va dire que c'est un point qui est
encore un petit peu compliqué à gérer.
Je... On va venir, évidemment,
à grande question du partenariat
Apple, OpenAI, charge etc.
Mais avant, je voulais souligner un truc.
C'est que, de mon point de vue,
c'est ce truc-là qui m'excite le plus.
En gros, c'est
Ferey UI, est-ce qu'il va être possible
derrière, qui est le plus intéressant.
Parce que...
Je sais pas comment
dire ça, mais en gros, celui qui arrive
à craquer la compréhension
d'interface, et le fait
d'agir sur des interfaces logicielles,
ça va être le roi du pétrole après.
Et...
Parce que, évidemment,
ce dont on a... Ce que tout le monde a en tête,
le truc,
le produit à 1000$, le service à 1000$,
c'est, évidemment, Jarvis, c'est
l'assistant qui peut effectuer
15 actions complexes
à la suite, sans que t'es à temps soucié.
Et en fait, pour ça, on l'a déjà expliqué ici,
le mur,
le gros problème, c'est
les interfaces avec les différentes appays,
les différents services.
Et... Et ce mur-là,
pourrait sauter, le jour où quelqu'un
sait faire un modèle
qui comprend bien les interfaces.
Or, c'est quoi les interfaces
les plus accessibles, les plus concréhensibles
qui sont les plus à la portée
d'un modèle pas forcément trop intelligent ?
Bah, c'est les interfaces mobiles, en fait.
Et c'est ça qui est super intéressant. Ils se sont concentrés
d'abord sur le mobile, parce qu'en fait, c'est plus simple
que de
essayer de le faire sur desktop.
Tout le monde le fait, parce que, si, OpenAI,
c'était logique, tu l'utilisais sur ton ordinateur.
Et aujourd'hui, comme tout est pensé
pour le mobile, tu peux en fait tout faire.
C'est-à-dire que tu vas avoir une des versions de tous les sites
qui sont un peu plus simplifiés, un peu plus
parfois, justement, compréhensibles, justement.
Mais tu peux aller bouquer des hôtels,
des avisons, tout ce que tu veux.
Tu peux accéder à tes mails.
Évidemment, tout est possible
via une interface mobile.
Et pourtant,
c'est probablement un peu plus
à la portée d'un modèle intelligent, justement.
Et du coup,
moi, je sais pas. Je trouve que
Ferey UI, c'est ce qui est
le plus prometteur pour la suite.
Et c'est ça qui,
ça m'étonnerait pas que la troisième ou quatrième version
de cette petite brique-là
soit en réalité, un OS à lui tout seul.
Oui. Et justement,
si on prend les Ferey UI d'un côté
et App Instant de l'autre qui va fonctionner
pour les développeurs pour intégrer Apple Intelligence,
en fait, on a d'un côté quelque chose qui est capable
d'analyser très précisément ton écran
et de l'autre des actions enregistrées
par les développeurs
que tu peux actionner avec Siri.
Et donc, en fait, tu donnes ces deux éléments à Siri,
savoir ce qui se passe sur ton écran
et des actions enregistrées
qui ont été programmées auparavant.
Et en fait, ça te donne
ce qui eux veulent appeler
comment ça s'appelle le on-screen awareness,
de pouvoir en fait effectuer
des actions et de, en fait,
Siri va pouvoir interagir
avec n'importe quelle application
de façon très fluide.
Donc, comme tu disais, ça devient quasiment
un Jarvis et c'est incroyable.
Et en plus, ils annoncent un système
pour déporter l'écran de ton iPhone sur ton Mac.
Oui, alors seulement...
En fait, je pense qu'il y a un lien
entre toutes ces choses.
Si ton iPhone devient la porte d'entrée de ton assistant,
ce qu'aurait voulu
être le rabbit R1, etc.
mais qui n'aurait évidemment jamais pu faire
parce que ce n'est pas Apple,
si c'est ça, ton point d'entrée à tout,
derrière ton Mac, ton Apple Vision Pro,
tout ces trucs, ils auront juste à se brancher dessus, en fait.
Et donc, ça va être trop stylé,
mais ce n'est pas tout ce qui était annoncé.
Ce n'est pas tout ce qui est annoncé, mais juste
pour donner une date, ce n'est pas encore disponible.
Mais quand même, ça arrive le on-screen awareness,
donc, on semble être le non-commercial
derrière Ferret Ui,
est annoncé pour 2025,
donc ce n'est pas dans si longtemps que ça,
pour le coup, cette feature.
Et donc peut-être qu'en 2025, on commencera
à avoir les premières versions, il faudra sans doute attendre un petit peu,
mais ça va pouvoir donner des belles choses
et en effet, j'ai voté aussi
très...
en jaillet.
En joué,
par ces découvertes dont tu m'as parlé.
Tu me disais.
Non, ce que j'allais dire simplement, c'est que
l'éléphant dans la pièce.
L'éléphant dans la pièce, en effet, c'est l'annonce du partenariat
d'Apple avec OpenAI
et ChatJPT. Ils ont intégré ChatJPT
directement dans les iPhone, dans les Macs
et dans Apple Intangibles, en fait.
Pour pouvoir effectuer toutes les tâches
un peu plus gourmandes que tu ne peux pas faire
en local.
Pas uniquement que tu ne peux pas faire en local, mais globalement
Apple n'a pas encore développé de son côté.
Et il y a une possible intégration
avec ChatJPT.
Alors, c'est très surprenant
de la part d'Apple d'avoir fait ça.
Parce que déjà, ils deviennent...
ça fait qu'ils ne sont pas souverains sur cette techno.
Ils sont dépendants d'un acteur externe qui est OpenAI
et en vrai, ce n'est pas trop trop dans les habitudes
d'Apple. Ça dépend un peu
des domaines, mais ce n'est pas vraiment dans les habitudes d'Apple.
Et puis quand on connaît aussi l'importance
de la vie privée chez Apple,
ou en tout cas
l'importance qu'il montre,
l'importance d'apparence chez Apple,
c'est assez étonnant également de se dire
qu'il ouvre la porte
à un acteur externe
comme OpenAI et de voir
ce partenariat se nouer.
Et puis après, j'ai un peu réfléchi et aidé par quelques news
qui sont tombés ces derniers jours.
Et en fait, cette annonce pour moi
est un
coup de maître pour Apple
et je vais vous expliquer
et vous m'a penser et pourquoi je pense que
c'est probablement un coup de maître d'avoir noué
ce partenariat avec OpenAI.
En fait, on a appris que Apple
aurait négocié de ne pas payer OpenAI
pour le mettre en place ce partenariat.
Et donc le deal, c'est
on apporte
OpenAI
à OpenAI des millions d'utilisateurs en plus,
parce que grâce à un ordre parc d'appareils
d'iPhone, d'iPad et de Mac,
on l'intègre à la sauce Apple,
donc on l'intègre en native
et de façon très smart,
très intelligente.
Et potentiellement pour vous, ça va augmenter
les ventes des abonnements payants.
Donc ça sera un pourcentage,
tout le monde ne va pas prendre un abonnement
de JPD parce qu'il a ça sur son iPhone,
mais ça permet eux de détendre leur business,
de croître.
Et d'un autre côté, pour Apple, ils ont la meilleure technologie
d'intelligence artificielle, générative du marché
et c'est très cool.
Et alors pourquoi c'est une maître classe ?
Déjà parce qu'ils ont la technologie gratuitement
et la technologie la plus aboutie du marché.
Pendant ce temps,
ils peuvent
se concentrer à développer leur modèle
et à potentiellement rattraper leur retard,
sans que ce soit bloquant pour eux
et qu'il y ait quand même
déjà des
des applications,
du traitement d'intelligence artificielle
sur les iPhone et sur les Mac.
En plus de ça,
ils prennent 30% a priori
sur les abonnements de chat JPD premium
comme l'App Store.
Donc en fait, Apple devient une plateforme
comme l'App Store
mais pour les modèles de langage.
Alors, j'ai pas la confirmation du 30%,
peut-être qu'il y a une négociation
qui s'est fait, peut-être que c'est moins,
mais a priori ils prennent un cut sur les abonnements
parce que ça passe via le système de paiement d'Apple
et donc il y a un cut.
Et en plus, le clou du spectacle
c'est qu'il pourrait bien qu'Apple
mette chat JPD en concurrence
parce qu'on a appris qu'ils étaient allés
à toquer à la porte de plusieurs acteurs
de l'IA Apple.
Ils ont toqué à la porte de Google, de Meta,
d'Entropic, soit quasiment
tous les gros du secteur, en tout cas américain
de l'intelligence générative.
Et en fait,
on se dit que potentiellement,
ils pourraient
intégrer
plusieurs intelligences artificielles
sur leurs appareils et un peu les mettre en concurrence,
vous pouvez choisir un peu ce qu'ils veulent.
Eux, ils deviennent une plateforme
de...
ils deviennent l'abstort des motels d'intelligence
artificielle tout en
développant leur
modèle de leur côté et donc à tout moment
ils peuvent les têcher parce qu'ils en ont plus besoin.
Donc, en tout cas, à court terme
j'ai l'impression qu'ils ne sont perdants
sur aucun tableau, mais à part peut-être la communication
ou ce partenariat a surpris.
En fait, ça leur permet de rester dans la course,
de potentiellement se faire plus d'argent,
en tout cas, nulment
d'en perdre et de développer
leur modèle
de leur côté.
Moi, je dirais que c'est probablement pas
l'idéal qu'ils auraient espéré.
Non. A mon avis,
s'ils pouvaient remonter le temps de 4 ans
et essayer de développer leur truc,
ils le feraient.
Je pense qu'il n'y a pas qu'une histoire de temps
et d'avoir été visionnaire au point visionnaire,
je pense qu'il y a juste aussi une histoire de données,
d'avoir des méthodes et Google,
des OpenAI dans leur manière de fonctionner.
Ils ont des masses
de données, de discussions
à qui siphonnent
sans
moindre remords.
Et les données, c'est le nerf de la guerre
pour construire des gros modèles de langage.
Donc je pense qu'il n'y avait pas
qu'un retard,
qu'un échec de vision.
Je pense qu'il y a juste aussi un truc où, intracecément,
Apple n'est pas en capacité
de faire ses gros modèles
en tout cas maintenant.
C'est la deuxième meilleure option.
Ils ont quand même, en gros,
dans cette position difficile,
ils se sont quand même sacrément bien démerdés.
Là je parlais de leur stratégie à court terme.
Parce que pareil, est-ce que c'est une bonne stratégie à long terme ?
Pas sûr, tu restes quand même dépendant d'un acteur
externe. On va dire, à court terme,
ils ont fait plutôt un brand-ove,
ils ont bien réagi.
Ça ressemble à ce qu'ils font sur les moteurs de recherche.
Ce n'est pas leur métier de faire des moteurs de recherche.
Mais du coup,
j'imagine qu'ils les mettent en concurrence
et que c'est le plus haut franc qui paye.
Ils reçoivent plus combien de milliards de Google
chaque année pour mettre Google par défaut.
Donc c'est...
Sauf qu'ils n'ont jamais développé leur moteur de recherche.
On sent quand même qu'il y a une criticité
peut-être un peu autre.
Peut-être.
On n'est même pas sûr.
Mais d'ailleurs, ils se mettent dans la course
de l'intelligence artificielle générative.
Et étrangement, ils communiquent un petit peu
haute-outre les conférences,
mais ils se comparent.
Ils jouent au jeu des matchs-marks.
Ils ont développé un site
sur le machine learning.
Et il y a des benchmark où ils se comparent à
Phil, mais d'Allemagne Microsoft, à Mistral,
à Gemma, de Google.
Ils se comparent sur la base de quoi, du coup,
parce qu'ils n'ont pas de LLM.
Parce qu'ils ont des LLM
pour faire tourner Apple et Intelligence.
Ils développent des petits LLM pour l'instant.
Ils se comparent sur les petits avec
Microsoft, Mistral, de Gemma.
Quand tu vois les graphes habituels
sur des conférences d'Apple,
normalement, il n'y a pas d'apsis, pas d'ordonnées,
pas de chiffres.
Et tu as des jolies courbes comme ça ?
Ou tu te dis, elle a été lissée, parce que c'est vraiment joli.
On ne mentionne quasiment jamais les concurrents.
Donc là, il y a un côté assez nouveau,
qui n'est pas anodin,
sur la manière dont Apple a décidé de faire
de la recherche ouverte, publier des modèles,
jouer, comme tu dis au jeu, des matchs-marks.
Et dans les faits, il semble que sur les petits modèles,
ce qui est peut-être le plus critique pour eux,
ce qui les démarque le plus de la concurrence
sur le côté vie privée,
ils se débrouillent pas si mal.
Moi, je trouve intéressant aussi, c'est de voir
qu'ils ont des papiers au-delà des modèles,
ils ont plein de papiers sur
comment tirer le mieux parti
du moindre méga-octet
de mémoire disponible sur des appareils type iPhone.
Donc notamment, j'ai vu un papier
qui parle de technologie
de compression de modèles.
Comment ça s'appelle déjà ?
Alors, j'ai plus le nom du papier en fait.
La quantisation, le pruning.
Non, le pruning.
Voilà. Exactement, c'est du pruning.
Est-ce que tu pourrais nous expliquer, tu sais ?
Euh...
Je...
C'est ce que je suis en train d'étudier ça en ce moment,
mais je préfère en parler que quand je maîtrise bien le sujet.
Dis-moi, en tout cas, si ça te semble
être quelque chose de ce genre,
moi, je prends pas de risque en disant de la merde.
Si je dis patronnerie,
dans les modèles de...
dans les modèles de langage,
t'as énormément de couches de neurones.
Et on se rend compte en faisant
énormément de tests en parallèle
que parfois, tu peux supprimer des couches
et qu'en gros, t'alters pas trop
les capacités du modèle.
Peut-être qu'elles servent à rien.
Elles ont été sous-entraînées, etc.
Et du coup, tu peux comme ça réduire la taille
de ton réseau de neurones
sans en détériorer trop les performances.
Oui.
Tu penses que c'est un peu ça ?
Ouais, ouais.
Je pense qu'une analogie pas mal,
c'est la réduction de la qualité des images.
Quand tu regardes d'assez loin,
tu peux toujours à peu près voir ce qui se passe.
Mais quand tu zooms, tu vois qu'il y a quand même des trucs qui manquent.
Et bien là, c'est un peu pareil.
C'est exactement ce que t'as dit.
Tu perds un peu en performance,
mais par rapport au gain que tu fais
en termes de poids, de temps d'inférence,
de coups,
ça reste assez intéressant.
Au final, la compression de modèle,
c'est super critique
pour justement la portabilité,
la rapidité, plein de choses comme ça.
2x2 storage
pour chaque interview.
Of course.
Il a dit...
C'était un peu...
J'ai pas envoyé des petits indiens
à tout moment dans le live.
Pardon, excusez-moi, mais c'est une vidéo
sur le developer.appel.com.
On est vraiment sur une confé, qu'eux ont mis.
Mais non, on dirait un tuto, j'avais...
Non mais, il faut savoir qu'il y a plein de vidéos d'Apple
quand tu vas voir un peu les workshops pour développer et tout,
qui sont beaucoup, beaucoup, beaucoup au travail
avec les conférences Apple, qui sont assez classiques au final.
Mais en effet, il y a plein de choses intéressantes,
c'est intéressant de voir tous les papiers de recherche
d'Apple qui publie.
Alors déjà, c'est très douloureux parce que c'est sans doute
le domaine où Apple communique plus.
Moi, je me rappellerai, il y a des mois du tweet
du responsable de Siri qui disait, qui demandait
si on pouvait tout faire, qu'est-ce que vous voudrez faire
sur Siri, et il mentionnait le fait
de pouvoir lancer une playlist sur Spotify et la volée.
Ça a été annoncé des mois après à la WWDC.
Chose impensable chez Apple de préchaute comme ça.
Et en fait, c'est le seul secteur où Apple communique
de cette façon, mais c'est pour plein de raisons,
pour attirer des chercheurs, etc.
Et comme tu disais, alors, il y a sur le site
Internet d'Apple de l'intelligence artificielle,
il dit clairement qu'il travaille en même temps
sur un modèle on-device, en même temps sur un modèle serveur.
Mais on voit dans les papiers de recherche,
énormément de recherches qui font, sont sur,
comme tu disais, l'optimisation de ces modèles on-device
et de faire, soit le plus petit possible,
le plus efficace possible, le plus efficiant,
que ça consomme le moins de batteries.
Et ça, pour le coup, on a vu plusieurs papiers de recherche
ces derniers mois qui vont dans cette ethnologie-là
et se construisent, en tout cas,
de ce qu'on peut lire, une vraie expertise
sur ces petits modèles-là.
On-device.
Malgré tout, l'état d'arrancement de la recherche
fait qu'ils ont été obligés d'annoncer
cette histoire de cloud private inférent.
J'en ai pas parlé parce que c'est un peu une fumisterie.
Oui, c'est clairement une fumisterie.
Et t'en vois juste tes données sur le cloud.
Oui, tu sais que j'ai regardé vraiment le moment
et ils disent vraiment, ce n'est pas comme nos concurrents
qui peuvent stocker des données et vous ne le savez pas, etc.
Chez nous, et on ne le sait pas, c'est pas transparent.
Chez nous, c'est transparent.
Mais comment tu es transparent ?
T'inquiète.
Dans les faits, j'ai pas suffisamment cruisé pour le savoir,
mais il existe quand même des moyens cotés,
c'est à vers côté d'Atas Center, d'avoir des audits externes
ou des choses comme ça qui viennent un peu prouver que tes données,
elles se déplacent pas, c'est ce que certains VPN vont faire par exemple
en haut des Suisses.
C'est ce qu'ils annoncent, tes audits externes, etc.
En fait, ce qu'ils disent est totalement vrai, etc.
Sauf qu'en fait, vu qu'il n'y a encore rien de concret,
on ne peut rien vérifier.
Donc on pourra le vérifier plus tard.
On sent que c'est... Ils n'ont vraiment pas eu le choix.
C'est juste qu'aujourd'hui, t'as besoin de modèles qui font 30, 70 milliards de paramètres
si tu veux effectuer des actions, un temps soit un peu complexe.
Mais on sent que c'est pas sur ça qu'il parie.
En gros, c'est un peu en attendant que vraiment,
on puisse tout faire en local sur l'iPhone.
Est-ce que ça sera possible ?
On verra l'avenir parce que c'est possible qu'on ait toujours besoin de...
Ce qui est sûr, c'est que ça arrangerait Apple,
parce qu'ils n'ont jamais été des grands administrateurs de serveurs.
Enfin, ça, c'est pas vraiment leur job.
Et donc, si eux, ils peuvent le faire tourner en local,
c'est du bon. Et s'ils publient la recherche, c'est encore du bonus.
Ça fait plaisir.
Et...
J'avais pas vu que j'avais préparé une conclusion.
Mais globalement, si vous voulez mon avis là-dessus,
je commence un peu à fatiguer.
Mais globalement, pour moi, ce sont des annonces un peu en demi-teinte.
C'est d'un côté, il y a du déjà vu.
Et en fait, on constate le retard d'Apple.
Et de l'autre, un potentiel méga intéressant à venir
et une stratégie, comme on le connaît chez Apple,
assez rôdée pour installer une technologie en Vogue en ce moment.
Et en fait, c'est dans la lignée de tout ce qu'ils ont fait auparavant.
N'est pas Apple qui veut, au final, de l'intégration et de l'interface utilisateur.
Moi, j'ai grande confiance dans le fait qu'ils vont mal driver l'adoption.
Et ça, c'est très cool.
C'est ce qu'ils ont fait ces dix-viertes, à l'année en casque.
Alors, juste parce que j'ai quand même vu passer, je suis les vérifié.
Depuis deux jours, je crois, ils ont annoncé que Apple Intelligence
était mort en Europe à cause des DMA et de RGX, etc.
Oui, c'est ce que j'ai vu passer.
Mais c'est un autre sujet que j'ai décidé de ne pas traiter,
parce que ça nous fait défendre des trucs.
Là, c'est législatif.
C'est un combat entre Apple et la Commission européenne qui est judiciaire.
En fait, c'est...
Je suis en train d'entendre le sujet.
C'est un autre sujet qu'on a hésité à traiter,
mais je ne pouvais pas trop le traiter aujourd'hui.
...

Les infos glanées

Je suis une fonctionnalité encore en dévelopement

Signaler une erreur

Underscore_

IA, Hacking, Robotique — Des conversations de terrain avec ceux qui construisent. 🥨


Partenariats: underscore@micorp.fr


---


Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Tags
Card title

Lien du podcast

[{'term': 'IA', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Investissement', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Nouvelles Technologies', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Tech', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Actu tech', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Cybersécurité', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Développement', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Dev', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Entreprenariat tech', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'IT', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Robotique', 'label': None, 'scheme': 'http://www.itunes.com/'}, {'term': 'Technology', 'label': None, 'scheme': 'http://www.itunes.com/'}]

Go somewhere