Erik Bernhardsson - Modal
Durée: 42m7s
Date de sortie: 14/08/2023
This week we talk with Erik Bernhardsson about Modal, a serverless platform for data teams. Erik talks about his background in data science and machine learning, and how he saw a need for a better tool for data teams. We talk about the challenges of building a serverless platform, and how Modal is building a new vision for serverless cloud. We also talk about the challenges of building a platform that is both easy to use and flexible enough to handle a wide variety of use cases.
Become a paid subscriber our patreon, spotify, or apple podcasts for the full episode.
- https://www.patreon.com/devtoolsfm
- https://podcasters.spotify.com/pod/show/devtoolsfm/subscribe
- https://podcasts.apple.com/us/podcast/devtools-fm/id1566647758
- https://www.youtube.com/@devtoolsfm/membership
Le plus vite possible de l'application de la Loupage est quand vous vous réagissez localement.
Donc, si vous pouvez mettre le cloud à l'intérieur de cette Loupage,
vous avez l'air d'avoir l'air de pouvoir faire les choses très rapidement.
Et quand vous êtes prêt, vous devez le déployer.
Hey, avant de commencer, je voudrais vous rappeler que l'épisode est seulement available à nos abonnés.
Les plateformes de currentes, vous pouvez les abonner sur YouTube, Spotify, Apple et Patreon.
Et avec ça, on va nous faire l'épisode.
Hello, welcome to the DevTools FM Podcast.
This is a podcast about developer tools and the people who make them.
I'm Andrew and this is my co-host, Justin.
Hey everyone, our guest today is Eric Bernhardsen.
Eric is the CEO of Modal Labs, which we're really excited to talk about.
Before that led engineering at better and before that had a big sprint at Spotify.
Eric, before we start, would you like to tell our listeners a little bit more about yourself?
Yeah, sure, and it's great to be here by the way.
Yeah, so I've been coding for, I don't know how many years, 30 plus.
Started back in 90s on a Mac, Mac Plus.
And yeah, like you mentioned, in particular I was a Spotify for almost seven years.
Built a music recommendation system there and ran data teams and machine learning teams.
CTO for a number of years have better and then the last three years I've been building my own startup.
Modal Labs, that's my very condensed story.
So did you yourself build the music recommendation system at Spotify?
Yeah, I mean, A, I left eight years ago and there's been a lot of work since then.
And B, towards the end when I was there, I had a team of about 30 people.
But yeah, I mean, initially I built the first version and scaled it up and then started getting help when people saw potential in what I was building.
Pretty cool.
So let's just jump right into modal since that's what you've been working on lately.
So for our listeners who don't know, how would you pitch modal to us?
Yeah, modal is a tool for data teams.
And I'm a little nebulous about what data teams mean, but people who work with machine learning, AI,
or also kind of compute intensive things or building data pipelines or cron jobs or whatever.
And modal helps you deal with all the infrastructures.
So you don't have to think about provisioning and resource management and scaling.
Basically, just describe your code as normal Python, and then modal takes that code and executes it in the cloud.
And it's essentially, we are a cloud provider in the sense that we execute it on our platform and then we charge per usage.
So it's sort of a less platform, sort of like, you know, in the style of AWS Lambda, but more targeted towards what data teams need.
So why did you start it?
Was working with data and working in this fashion hard to do?
Is there a lot of infrastructure to set up if you want to do these types of data processing stuff?
Yeah, totally.
I've been working with data since most of my professional career, so 15 plus years.
And to some extent, purely selfishly, I always wanted to have a better tool.
I almost wanted to build a better tool for myself.
I always felt that there's so much stuff where most of the complexity is less about actually building a prototype that works locally.
It's like getting into production.
There's so much stuff about scaling and scheduling and stuff where it just gets in the way of delivering value.
As well as the rest of the data stack, frankly, there's also a lot of stuff higher up, like, you know, thinking.
At Spotify in particular, I built a workflow, no record straighter slash a workflow scheduler called Luigi.
So I've also spent a lot of time higher up in the stack and thought a lot about different data frameworks and tools and systems.
Et ce que je réalise, c'est que beaucoup de ce genre de choses sont vraiment fragmentés.
Les équipes de data ont eu beaucoup de temps sur l'infrastructure.
Encore, les entreprises qui ont pu être plus grandes, elles ont tendance à construire leur propre plateforme de data,
ce qui est souvent comme un rapiste thin à la Kubernetes.
Et les équipes de data ne sont pas heureuses avec ça.
Parce qu'elles ne veulent pas faire beaucoup de choses qu'elles veulent faire,
Je pense que c'est très clair, mais c'est pas très clair avec la base de la GPU.
C'est très difficile pour les équipes de data à l'interface à la plateforme existante.
Donc oui, je voulais re-devoir l'entrée de la stack de data.
Je réalise que le meilleur endroit pour faire ça est vraiment dans la lait de la runtime.
Ce que je veux dire dans la runtime, c'est de construire l'infrastructure de la cloud qui exécute la code.
C'est-à-dire construire un Kubernetes qui est cloud native et qui s'occupe des types qui ont besoin de la lait de la data.
C'est moins de service, il s'est fait un peu de scie, il s'est construit très rapidement.
Il a eu une très grande clé de feedback.
J'ai commencé à construire ça 3 ans plus tard, fin 2020.
Je réalise très rapidement que c'est un problème de technique.
Je dois être très profond et avoir des systèmes de file et de linux, des containers.
Et je ne peux pas faire ça sur le doigt de Kubernetes.
Donc je vais devoir rébuilder tout ceci.
Tout le monde pensait que c'était fou pour dire ça.
Mais je réalise que c'est une chose, c'est qu'il faut faire ça.
Il y a beaucoup de travail, mais il faut que quelqu'un construise des doigts.
Je peux aussi construire quelque chose de l'équivalent.
J'ai commencé à déblier avec ça et je réalise que c'est ce que je veux faire.
C'est ce que je veux faire pour commencer et pour commencer à m'assurer les gens en 2021.
Nous sommes relativement petits, nous sommes 10 gens.
Mais nous sommes devenus des gens qui nous ont fait faire sentir ce qu'on veut.
C'est vrai que beaucoup de problèmes infrastructuraux que vous avez vu
dans votre expérience de passé, ou d'autres entreprises,
vous voulez acheter un peu de problèmes et donner un bon tour de temps pour les gens
d'essayer de faire des bénéfices.
Il y a un cassement entre les gens en train de faire des choses locales et de faire des choses en production.
Il y a un peu de plus avec les containers, mais envers les containers,
il faut maintenant introduire les containers dans votre travail.
C'est un peu anoyant, il faut faire des re-buildings, des containers à l'heure pour faire des choses.
Un peu de choses que nous avons fait dans les derniers 5 ou 10 ans avec l'infrastructure
ont en fait enabled nous à briser les gaps entre les gens en production un peu plus.
Mais c'est en fait un peu plus de feedback.
Les backups sont beaucoup plus mauvaises,
comme un peu de décennies auparavant,
il y a un code de machine SSH, et quand je l'ai fait, je l'ai fait,
je l'ai copié dans le folder de production, et des choses comme ça.
Je pense qu'il y a quelque chose à être dit sur les backups que vous avez,
quand la production et le cloud étaient les mêmes.
Pour moi, mon point de départ est que je veux faire des choses très productives,
et je veux pas avoir de pensées sur la production versus la cloud.
Donc, comment peut-je prendre le développement local et mettre le cloud à l'intérieur?
C'est comme un loop quand vous faites des codes.
Je pense que si vous voulez penser à la production de développeur,
la meilleure façon de comprendre les productives de développeur est en termes de feedback loops.
Vous avez des feedback loops, et le plus rapidement que vous avez le feedback loop
est quand vous faites des codes localement.
Alors, comment si vous pouvez mettre le cloud à l'intérieur de ce feedback loop,
et avoir l'air de pouvoir faire des choses super rapidement,
et que vous faites ça, vous déploiez ça, parce que c'est tout le temps construit,
et que ça se déploie dans le cloud.
C'est ce que j'ai réalisé, c'est le but de la production de développeur.
Surtout avec des tools de données.
Oui, je ne suis pas beaucoup d'un engineer de données,
mais j'ai construit des produits qui ont besoin de GPUs.
Vous êtes bien, le déploie local est difficile,
mais le déploie dans le cloud est un niveau de doublage.
Et ce que vous avez fait avec Modal, le DX est super bien.
En fait, en prenant des files de multiple YAML,
et en inquiétant sur ma structure, je vais juste faire un file,
et faire le tout en un endroit.
Oui, oui, oui.
Le DX est incroyable.
Oui, il y a 0 YAML à Modal.
En fait, il y a 0 configuration, c'est tout code.
Et c'est très intentionnel.
Parce que c'est un problème que je peux faire pour les listeners et les utilisateurs de Modal.
Il n'y aura jamais une ligne de single line de YAML à Modal.
Oui, donc, on va commencer.
Le premier exemple est le docker.
Donc, on doit créer un file de docker,
et tout ça.
Comment s'établir votre docker en sense de Modal ?
Vous ne utilisez pas le docker.
En Modal, vous décrivez la structure dans le code.
Et je pense que ce n'est pas une nouvelle idée.
Il y a des frameworks intéressants qui font des choses similaires.
En particulier, on utilise Pulumia et Modal.
Je pense que Pulumia est intéressant.
Pulumia, pour les gens qui ne le connaissent pas,
c'est un terrain de forme, mais c'est programmable.
C'est tout comme code.
Quand j'ai commencé à utiliser, c'était comme mon cerveau.
La idée est vraiment, vraiment, Pulumia a d'autres problèmes.
Mais la idée de la core est très solide.
C'est juste de faire un code qui est defini.
Vous pouvez mettre 4 loops et functions
qui créent route 53, ou autre chose.
Donc, je veux avoir quelque chose similaire à l'intérieur du code.
Mais ensuite, pour le plus tard,
je veux aussi mettre l'app code à l'intérieur de ça.
Je pense que c'est un peu de frameworks AWS,
CDK, Chalice, et des autres.
Je pense que c'est une idée similaire.
Mais la idée avec Modal, c'est de faire un code,
comme Python, on travaille sur Python.
Et le bénéfice des teams de data, c'est 99% de Python.
Et dans un code, vous avez juste de la définition des environnements,
mais aussi de faire des functions.
Et puis, si vous avez un peu de différentes functions
qui se font dans différents containers,
ils peuvent juste les appeler.
C'est juste des fonctions normales.
Vous n'avez pas de pensées,
comme ceci, vous êtes en train de le faire,
et puis vous avez à se serialiser et invoquer.
C'est juste un call de fonction,
donc vous pouvez construire et construire
cet application à l'intérieur de Modal,
juste comme un script Python,
ou plusieurs modules,
et définir toutes les différentes dépendances,
toutes les containerisations
sur le niveau fonctionnel,
et puis, vous avez toutes les fonctions
qui se sont appelées, et qui sont appuyées.
Et puis, quand vous exécutez,
le modèle se construit,
les containers nécessaires,
si nécessaire, et puis, il se démarre tout.
Il se démarre en dessous des containers
comme besoin,
et il s'exécute.
Et il s'est remis à l'outil,
à votre local laptop.
Vous n'avez pas de...
Vous avez un bloc AWS,
vous avez à construire un containers,
vous vous pliez à la plage,
vous allez au console, vous cliquez,
et puis, il y a des rangs,
et quand c'est terminé, vous devez downloader les logs,
et puis, vous regardez les logs,
et vous dites,
je n'ai pas oublié de mettre
un semicolon sur cette ligne,
je dois commencer à l'enlever.
En Modal, c'est tout de suite,
il se démarre en dessous du script,
et puis, il s'exprime à l'outil,
et il y a un bloc de très faible feedback,
et comme je l'ai mentionné,
c'est une configuration 0, c'est tout comme un script single.
Le bloc de feedback est vraiment bien,
pour le point que je construis,
j'ai essayé de mettre des points d'influence
sur les faces de la plage,
et je me suis dit,
j'avais attendu 10 minutes pour construire un Docker
mais avec Modal,
comme je change mon layer de containerisation,
il fait un petit peu
d'extravaluation qu'il faut,
et le prochain moment, je le conduis,
c'est super vite, et je suis dans le space de problème.
Oui, totalement,
et Modal laisse vous déployer un code dans un couple de secondes,
et si vous avez besoin de rebuilder le container,
même ça ne s'adresse que 10 secondes,
pour installer un package Python,
donc on a vraiment pensé
de ce point de vue, on veut avoir
des loops de feedback très vite,
on veut avoir une expérience de développement
qui se sent magique,
on veut...
Oh, c'est-à-dire que c'est même en train de se conduire dans le cloud,
ça ne se conduit pas,
je veux que les gens ne croient pas quand ils le voient,
je ne sais pas si on est assez là-bas,
parce qu'il y a un peu de délègue noticeable,
c'est pas assez vite de conduire,
mais on va y aller.
Oui, c'est un peu...
Un peu...
En plus d'un moment, nous avons eu le créateur de Unison
et il y a un sens très similaire
qui me fait...
faire le cloud et les appareils
au sein de votre computer,
il est juste local,
il n'y a pas de communication entre
mon client et mon service,
c'est juste un code tout le monde.
Oui, totalement, je me suis regardé un peu à Unison,
je pense que c'est super intéressant,
je pense que la différence entre Modal
et Modal, c'est
que tu as ça, mais
d'un certain point, tu as le normal Python
l'environnement, les libraries,
les normales choses que tu es habituée à,
et je pense que c'est une grande question
d'appuyer des gens pour un nouveau
langage de programmation,
c'est le même Python que tu es toujours familier
avec, c'est le même IDE,
tu roules le code le même manière,
mais tu peux en faire le cloud
et nous allons faire tout ce qui est scale, tout ça.
Quelque chose d'intéressant
sur le
sort de système de data
ou au moins de la construction
de Python, il me semble un peu
plus fragmenté, probablement
que ça n'a jamais eu, à la fois
je n'ai pas activement fait beaucoup de Python
depuis longtemps, mais
quand les gens utilisent Modal,
est-ce que tu as des tools pour
mettre en place un plan de package
de solution pour Python, par exemple?
Et tu as dit que tu fais beaucoup de choses
sur le cloud, c'est un fait d'enfermage
d'enfermage, donc je me souviens
que quand tu fais des packages spécifiques
tu fais ça par un
dsl
rappeur d'un de tes files de configuration
c'est comme, je dois avoir ces dépendances
que cette fonction...
Dans les files de configuration,
tu parles de la façon
d'être...
c'est comme ça, d'un de tes fonctions
donc c'est comme
nous vous donnons les tools que tu as besoin
pour faire des choses comme la dépendance et tout
et tu te dis, tu te dis, tu as juste écrit
cette fonction et c'est bon, ou
est-ce que c'est plus comme, c'est comme un slot
dans ton autre workflow
tu sais, tu es en utilisant, je ne sais,
une poétrie ou quelque chose.
Oui, je veux dire, on a tendance à
mettre des gens en utilisation comme PIP,
j'ai tendance à penser que PIP c'est
comme la seule chose qui a été utilisé, que ça fonctionne
mais je pense que le autre bénéfice
c'est aussi comme dans le cloud, on build
tout de la scratch, donc
c'est moins de problème
j'ai tendance à penser que le gros problème avec Python
c'est quand tu as un peu de différents environnements
localement, tu dois réconcilier tout le monde
mais
je pense que l'approche d'une donne
juste crée un nouveau environnement virtual
pour tout ça, ça fonctionne
ou on build un nouveau contenu pour tout ça
ça fonctionne aussi
et si tu fais ça, c'est moins
critique, quelles
frameworks tu utilises
j'ai tendance à utiliser PIP
pour tout ça, c'est la plus
commonly utilisée, c'est bien compréhendant
on supporte aussi les autres
un peu de gens utilisent Conda avec modal
tu peux en théorie utiliser poitret
on a des supports basiques pour poitret
donc
que sont les prématives que modal
vous donne pour vous construire
ces choses, comment tu définis
une des fonctions cloud ?
j'ai juste écrit une fonction Python
et tu appris un décorateur, et dans ce décorateur
tu définis le environnement de la runtime
c'est ce que l'image est
tu peux aussi définir
les choses, tu as besoin de GPU
tu peux spécifier le type GPU
c'est beaucoup de choses
tu peux ajouter un syntaxe chron
si tu veux que la fonction soit automatiquement
la certaine fois aujourd'hui
tu peux monter les systèmes files
on a des modèles de déficits
d'effets, d'équivalent
et tu peux monter ça au contenu
tu peux mettre les systèmes files
et si tu as des choses différentes
et puis
ces fonctions sont juste des fonctions normales
et dans ces fonctions
tu peux apporter
des fonctions, et on peut automatiquement
scale-out
un couple d'autres choses que tu peux faire
tu peux mettre les secrets
dans la phase web, tu peux définir
les clé-s, les clé-s
ou les clé-s
et tu peux les importer
tu peux ajouter des fonctions et tu peux les injecter
et tu les apportes
à un emplacement
en ron-time
et à une fois, tu n'as plus de temps
pour des secrets hard-coded
et tu les injectes en cloud
qu'est-ce qu'il y a ?
tu peux définir des choses
pour être un web hook
donc tu peux prendre un fonction de modal
et garantir que je veux que
c'est une web hook publique
exposée au monde
et puis se generer
une unique URL
que vous pouvez aller à la place et ça va se tricher à cette fonction.
Donc, ce sont des primitifs que nous avons à la mode,
que nous avons pu construire avec des apps assez poweraux.
Est-ce que cette position est plus comme une frameworks serverless
dans le sens que c'est plus pour des jobs plus longues?
Donc, vous faites un processus plus longues versus
peut-être un plus long terme de vie,
peut-être que vous faites un grand analyse
ou quelque chose de la saison à un GPU.
Oui, je pense que dans ce scénario,
vous devez avoir un service qui est dédié à ce processus.
Oui, pour refraindre.
Est-ce que plus ou moins des jobs plus longues
que vous avez aimé pour ça?
Je pense que nous sommes assez inédits sur ça.
Comme modal, vous pouvez faire des choses pour 24 heures.
Mais ce que je dis, je pense que c'est probablement
que le scénario soit plus court, plus court.
La main raison est probablement que l'un des bénéfices
de la service serverless est vraiment la faible.
Quand vous avez un scénario sur le scénario,
on peut faire un model machine-learning.
Vous ne savez pas combien de trafic vous allez avoir.
Le système traditionnel, comme le Kubernetes,
il faut être au niveau de la scénario,
il ne s'agit pas de la scénario dans un second.
Vous devez avoir une provision pour la capacité de pique.
Vous devez avoir une utilisation très basée.
Je pense que nous avons fait,
par far de la plupart des outils,
des modèles de GPU-based.
Les GPUs sont aussi expensibles, c'est la même chose.
Les gens veulent en payer le monnaie en service.
C'est l'un des plus grands bénéfices
que l'on peut avoir avec le modal.
Un peu de gens peuvent en payer le monnaie en service,
et en payer le monnaie,
car ils ont l'avance d'autoscale
très rapidement, en utilisant la usage.
C'est pour cela que le monnaie est plus rapide
en faisant des choses,
comme des points de l'infrastructure et des points de stabilisation.
On a beaucoup de gens qui font des choses
comme la fin-tuning, c'est plus commun.
Un exemple de fin-tuning, c'est la green booth.
Vous pouvez fin-tune un monnaie de stabilisation
basé sur les photos de vous,
sur les enfants ou les enfants.
Vous pouvez générer des photos de stabilisation
sur les photos de votre enfant.
Ce processus de fin-tuning
fait 30 minutes.
On fait beaucoup de choses avec le monnaie.
On a des choses qui ont fait 30-40 minutes.
On a des choses qui ont fait des mottes,
des 100-100,
et on a des choses qui ont fait des trainings.
Vous devez avoir des choses qui ont fait plusieurs heures.
Je pense que ça peut être
24 heures, mais je crois que vous pouvez
l'extender à 7 jours.
On a des gens qui ont fait plus de 5 secondes.
C'est probablement 5 secondes.
C'est plus tard que les autres platforms
où vous avez fait 20 secondes.
Vous n'aurez pas trop d'interessants.
On a des choses qui ont fait 20 secondes.
La scénarisation auto est un point énorme.
Quand je compare les plateformes,
je viens de la compétition en javascript.
Je n'ai jamais eu de gpu.
Et la scénarisation de gpu
pour un mois tout le temps
c'est 500-600 $.
La possibilité d'être un hacker
et de dire que je veux mettre
ce modèle à un moment
et que je ne peux pas le faire
c'est super fort.
Si ça va viral, on va le faire.
Exactement.
Je vous aime les features que vous avez
pour avoir un tour
pour 3 minutes après
la dernière réquestation
ou pour 1 ou 2 fois.
C'est très beau et très flexible
pour les besoins de l'adv.
La problème,
c'est que c'est intéressant
de parler de gpu
avec le service list.
C'est le coup d'un coup.
Pour faire
ce modèle service
il faut que vous spignez
les containers très rapidement.
Si un client s'en vient,
il faut que vous spignez
les containers très rapidement.
C'est un problème pour la function
de la cpu.
Lambda a solvé ça.
Mais quand vous parlez de gpu models,
c'est un grand problème
car les models de gpu
sont 5 GB.
Vous avez besoin de prendre
5 GB de large.
Avec Kubernetes, c'est brutal.
Vous pourrez faire un container
et puis vous vous aborder.
Maintenant, vous avez besoin de
5 GB de networking
pour la mémoire.
C'est un peu minuit.
Mais avec Modal, nous avons
construit un système de file.
Nous avons construit un système de container
et un builder.
Parce que
nous pouvons faire
quelque chose similaire dans 10 secondes.
De la fonction de la container,
mettre les 5 GB de file
de la mémoire en cpu
et puis faire un copy de cpu
en cpu.
Je vais l'entraîner
en quelques secondes.
5 ou 10 secondes,
c'est encore
un long temps.
Et c'est un latency remarquable.
Et ça peut être plus pour un model
de langage.
Il y a 40 GB.
Ce sont des challenges
très intéressantes.
Comment
mettre ces modèles de large
en cpu en sceau
de la distribution?
Je ne pense pas que vous aurez
l'air de l'air de l'hôpital.
Oui, on n'a pas
le temps.
On a aussi un hôpital
d'oracle.
On a aussi un gpu
de la compétition de gps.
On a aussi un gpu de burst.
On n'a pas été très bas
dans la construction de notre hardware.
Je pense que c'est un bruit.
Je ne suis pas sûr si on va s'en passer.
Il peut être un jour.
Mais tout est
à ce point.
On a fait beaucoup de
performances, tuning, Linux, kernels.
Il y a beaucoup de stuff
que nous avons besoin de.
Pour nous
de faire la performance.
Je pense que
ce que vous avez dit au Oxide
est que si vous vous
sur les softwares
et les components de hardware
et que vous pensez plus critiquement
sur ce qu'est le problème de la solution
que vous avez essayé de résoudre
vous pouvez souvent venir avec des solutions
plus performantes.
Il y a tous ces traitements et les laires
et les softwares de la construction.
Vous avez les Kubernetes,
les Docker et tout.
Ils sont pour une utilisation
et peut-être que
ce utilisation est non optimale.
Je pense toujours à ça.
La compétition moderne
a beaucoup de laires obstructions
sur les laires obstructions.
Chaque layer de laire obstructions
s'adresse à l'abstraction de la magnitude.
Pourquoi est-ce que
quand je vais à AWS
les compétitions font
un million de laires
sur les opérations de la construction.
Mais quand je vais à AWS
et je vais réveiller des laires
dans les conditions de la construction
ça prend 25 minutes
pour les proposer.
Pourquoi ?
Je pense que la solution est
qu'il y a beaucoup de laires
de laire obstructions
qui sont tous en train de réveiller
la validation de la cash
ou des TDLs
et beaucoup de choses
qui s'adressent.
C'est pourquoi nous avons la chance
de faire des choses très slowes.
Mais beaucoup de ces choses
si vous vous pliez
vous pouvez faire des choses
100 fois, 1000 fois plus vite
que ce que les gens pensent.
Ce sont tous les limites fondamentales.
La chaine est la main.
Quand vous saturéz
ce que la chaine s'interface
c'est difficile de faire.
Mais beaucoup de choses
comment se sont faits les containers ?
Je ne sais pas. Je ne vois pas pourquoi
je ne devrais pas commencer en quelques secondes.
Je pense que c'est la beauté
de construire un modèle de compagnie
où vous êtes vraiment en train de
faire un problème holistiquement.
C'est ce que nous voulons faire
quand nous voulons provider ce DX
et nous voulons donner des garanties de performance
et nous donner une expérience juste en général.
Vous pouvez dire que nous n'avons pas besoin de ça
ou que nous voulons faire ça
ou quelque chose qui ne ne ne va pas faire sens
si vous êtes sur un équipe
à Amazon
vous pouvez retirer ces laitres
et que nous pouvons
mais aussi nous devons mettre ces autres choses
ou nous fousserons ces méchants
ou quelque chose.
Je pense que c'est un grand bénéfice
de construire un cas de utilisation
ou d'un équipe particulière.
Quand je regarde l'AWS, je respecte
l'AWS. Je aime l'AWS pour ce que je peux
faire pour construire
et je ne pense pas qu'on serait ici sans l'AWS.
Mais l'AWS, les produits
sont en train de construire un groupe
très grand de gens en même temps.
Ce qui est souvent le cas, c'est
qu'ils ne sont pas vraiment en train de penser
qu'ils ne sont pas en train de construire
une infrastructure et de la mettre en place
et d'en espérer que les gens puissent le prendre.
Et en fait, c'est un truc de mode
où nous pouvons commencer
et penser sur ce qu'ils ont besoin.
Je n'ai pas besoin de construire
une infrastructure continue
parce que j'ai besoin de ça.
J'ai besoin de construire un spike
parce que j'ai mal.
Nous faisons ça
pour construire un groupe de plus vite
pour les équipes de données.
Je pense beaucoup
que Versal est une compagnie
qui a beaucoup de travail.
C'est une compagnie très différente.
Mais dans un de nos deux cas,
c'est un problème.
On va faire des enjeux plus vite
et on va faire ça plus facile
pour les déployer.
Et puis, ils peuvent optimiser.
En un moment, c'est comme repackager
la cloud
dans un de la manière verticale
pour un certain travail
et un certain set de utilisateurs.
Et si on fait cette assumption,
tu peux vraiment aller plus loin
sur ce que les gens veulent.
C'est un très intéressant de regarder.
Je peux voir beaucoup d'autres compagnieurs
en train de faire des enjeux verticales
et je pense que c'est fascinant.
Je l'ai écrit beaucoup sur mon blog,
et je l'aime beaucoup
de la cloud
et les WS et les autres
ont une technologie immense.
Mais je pense que
l'expérience de la devine est toujours là.
J'ai utilisé les WS pour 15 ans
et c'est toujours difficile
de déployer un Lambda
et puis IAM,
c'est difficile.
Je pense que c'est intéressant de voir
que dans les derniers 5 ans
il y a eu un peu d'urgence
d'un deuxième état de cloud
Snowflake est un bon exemple.
DataDog, Versailles,
et Motel, aussi Railway
et Fly
et la idée est
qu'ils repackagent le cloud
et offrent une expérience de développement
et que même si ils ont utilisé
le cloud sous la hood,
Snowflake est un
SQL-based data warehouse.
Ils ont utilisé
les WS sous la hood
et les autres providers.
Comment ils peuvent être capable
d'experter avec les WS
parce que les WS est aussi tentant
de s'y aller et de s'y aller
mais je pense que
les WS est très bien
dans l'interlayant de la lait
d'Ec2 et de route 53
et de S3 et de toutes ces choses.
Mais dans la lait de la lait
il y a plein de room pour les gens
pour être capable de s'exprimer
et de revoir ce que ça ressemble.
Je vois un monde qui a
donné quelques années.
Les ingénieurs ne peuvent pas interagir
avec les cloud.
Ils peuvent interagir avec les outils
qui sont sur les cloud.
Je veux diguer un peu plus bas
sur les technologies que tu as mentionnées.
Tu as dit que tu devais rébuilder
le système de file.
Je ne pense pas que je dois rébuilder le système de file
pour avoir cette garantie de performance.
Pourquoi tu fais ça ?
Oui,
c'est un secret ouvert.
C'est un système de file
qui est un peu moins difficile que tu penses.
Il y a des fuses
qui sont en place.
Il y a un rappeur Python
qui est un Python en implementation.
Le premier prototype de file
qui était terrible
a été généré pour
rébuilder le point.
Pourquoi rébuildons-nous le système de file ?
On veut commencer les containers
très rapidement.
Les containers
sont des points de view
des limites.
Il y a des choses
sur la sécurité et la isolation
mais il y a aussi des choses
sur le système de file.
Pour le système de file
dans la machine Linux,
commencez un container.
Ce que nous réalise
est que l'image de container
est très large.
Il contient beaucoup de files
qui n'ont jamais été rédes.
Quand tu as la puissance
de les images de container,
il y a beaucoup d'efficiencies
qui ont fait de la data qui n'est jamais rédes.
Et aussi,
de l'extrême point, de la même data.
Un peu de containers
ont fait de la même data
de la même manière.
Il y a une déplication basée sur le lait
mais ce n'est pas trop
trop d'efficiencies.
On réalise
qu'est-ce qu'on peut
construire un système de file
qui présente le système de file
pour le système de container.
Mais, en fait,
ces files n'existent pas
sur le local disk.
Mais quand le système de container
s'envoie,
on les fait sur le réseau.
Donc,
vous pouvez accomplir
de ne pas
faire des copies
de ces files.
Le autre chose que l'on réalise
est que, un peu de les files sont les mêmes.
Qu'est-ce qu'on peut checker
sur les files et, en fait,
on les a construits par la base
de la base de la checksum.
On a construit un système de file
qui est très bien connu.
On a construit un système de file
pour les checksum
pour chaque file.
On a installé ça separatement.
Et ensuite, on a des files index
qui résoluent à ces blocs
et nous avons construit un système de file
qui présente le système de file
pour le système de container
comme le système de file.
Mais, en fait, on va en faire
des blocs et les cacher
localement sur les SSDs.
Et si vous faites un peu de ces trucs,
vous pouvez avoir un start-up
de très bases latencies
et une très bonne efficiency de cache.
Ça veut dire que vous pouvez mettre des containers
très rapidement. C'était le but
qu'on voulait avoir.
C'est super cool.
Et ça me rappelle de unison.
J'ai bien joué avec Justin
à la même time.
Ils ont aussi des tests
sur les bases de checksum.
Vous êtes bien sûr.
C'est très intéressant.
C'est super cool.
Vous avez fait un système de file laissé.
L'une des plus grandes choses
de la performance est de faire des choses laissées
et ça va faire ça plus vite.
C'est comme si vous avez pris ça à l'extrême.
Oui, totalement. C'est un CDN en fait.
On pense que c'est un CDN
de plein de façons.
C'est un espace qui devrait être exploré
plus...
J'ai vu des expériments créatives
avec les gens qui jouent avec Fuse.
On est en train de construire des trucs cool.
Les systèmes de file sont très puissants.
Il y a beaucoup de choses que vous pouvez faire avec eux.
C'est un grand exemple.
Oui, totalement.
Le système de file est préparateur.
Il y a des gens qui ont été
implementés dans les Kubernetes
et dans les Docker.
Il y a un projet qui s'appelle NIDUS.
Il n'y a pas de projet de dragofly.
Il y a des trucs comme ça.
Peut-être que c'est la même chose.
Il y a un autre système de file
qui s'appelle StarGZ.
Il y a des tentatives de implementation
dans les systèmes de Kubernetes
d'un Docker.
Il y a des trucs qui sont très utiles.
Mais il y a des idées
qui sont en fait...
Si vous vous inquiétez plus
et pensez en ce qui est dit,
il y a beaucoup de gens qui ont vécu
les conclusions de la même chose.
Je suis sûr que vous avez beaucoup
d'interessants utilisés pour ces cas.
Une des choses délicates
pour construire un produit comme ça
est de voir comment les customes utilisent.
Quels sont les trucs cool
que vous avez vécu avec modal ?
Oui, tout de même.
C'est drôle de vous demander.
Parce que pour l'année 1re et 1,5,
nous n'avons pas un cas de utilisation
dans le monde.
Nous étions juste en train de construire
un Kubernetes pour des teams de données
cloud natives.
J'ai toujours eu une grande conviction
que ça ne fait pas le sens.
Mais je ne savais pas
qu'est-ce qu'un app de killer
ou que l'utilisation est la main.
Et ce n'était pas jusqu'à la fin de l'année dernière.
Nous avons commencé à réaliser
des trucs cool
en Gen A.I.
Nous avons beaucoup de primitives
qui sont valibles
pour cet audience.
Nous avons la support de GPU,
le service,
le fast boot up.
C'est vraiment
ce que nous avons vu
avec beaucoup d'attractions.
Il y a beaucoup de choses
que nous avons vécu.
Dès que ça a été
stabilisation,
des gens en générant
beaucoup d'images,
c'est comme un prompt
d'images.
C'est un cas de utilisation
de la vécu,
de la vécu,
de la contrôlée.
Nous avons aussi vu
un nombre de textes
de speech,
de la vécu,
des gens en générant
de la musique en modal.
Nous avons aussi vu
un couple de gens
en faisant
3D rendering en modal,
qui est un peu inutile.
Je pense que c'est fun,
c'est comme,
vous pouvez utiliser
GPUs
pour render 3D.
Et ils sont comme,
attends un moment,
c'est comme,
vous l'inquiétiez,
c'est ce que la GPU
a originalement construit.
Mais oui,
il y a beaucoup de gens
en utilisant modal
pour render 3D images.
Et ensuite,
nous avons un couple de gens
en faisant des choses
complètement au-delà de l'A.I.,
en faisant
des biotechs computationaux,
comme Alpha Fold,
ou des alignements de séquences,
des trucs comme ça.
Web scraping,
des encodées de vidéo,
des trucs comme ça,
des trucs qui sont en bachelard,
des pés de FFN.
C'est un grand nombre
de choses que les gens
utilisent.
Oui,
il faut être
très bon
quand vous vous dites,
oh, wow, l'A.I.,
il a juste popé
dans la scène
et fait
un cas de use parfait.
Totalement.
Et je pense que,
ce que je pense que c'est clair,
c'est qu'un an plus tard,
nous avons fait ce truc,
nous avons pensé que c'était
mieux que Kubernetes.
Mais je ne pense pas que c'était
fondamentalement
bon pour les gens
d'être en train de se dire
que je vais changer.
Ce n'est pas assez cher
à la coste de la changement,
mais quand les stuff de l'A.I.
sont en train de se faire,
je me souviens
très bien que
les infrastructures traditionnelles
ont été en un moyen grand,
où il y a maintenant,
une raison très claire
qui se change pour quelque chose de nouveau.
Et c'est là que nous avons
senti la position
de nous-mêmes.
Mais mon rôle,
c'est de être clair,
et pas de
être une company de l'A.I.
Je l'aime,
je travaille toujours
sur l'A.I.,
la maquillage,
la maquillage,
la maquillage,
mais je pense qu'il y a
beaucoup d'autres trucs.
Il y a beaucoup d'autres
non-A.I.,
il y a beaucoup d'autres
impôts d'intensif
tout au-delà de l'A.I.,
c'est aussi super excitant.
Et nous voulons supporter
ces choses aussi.
Oui, je pense que,
surtout maintenant,
avec tant d'excitement
et d'intention,
comme il y a,
l'une des propres
d'interessants
d'intention
est juste
de la baie d'entrée
de l'entrée.
Parce qu'il y a beaucoup
d'autres gens qui veulent
expérimenter,
qui veulent mettre des produits,
et
dans un set
infrastructuriel traditionnel,
vous avez beaucoup
d'investissement d'ingénierie,
comme vous avez déjà pointé,
juste en commençant
et en s'étendant le truc,
et c'est généralement
une organisation
qui fait ça.
Et,
vous savez,
avoir quelqu'un,
une personne
ou un petit groupe
d'ingénieurs qui peuvent s'y aller,
et puis,
en un week-end,
comme un concept profil
d'un produit,
parce qu'ils ont
des recours de la faute,
comme vous avez dit,
parce que c'est
un demandant infrastructuriel,
toutes ces choses,
vraiment bonnes UX,
c'est
un grand plus
d'envoi
pour les gens
de construire des produits.
C'est incroyable et excitant.
Totalement.
Et c'est pas
nécessairement
de la baie d'entrée.
Je pense que c'est
comme un côté de la spectrum.
Vous devez définir
que c'est plus facile
pour les gens
de faire ça.
Mais je n'ai jamais
voulu construire
ce que j'ai fait
en le fait de la banque
pour les enfants.
C'est une version
simple de la banque.
Parce que je pense que c'est
vraiment important
que vous vous faites
quelque chose
qui est aussi
un avance d'utilisation
de l'usage.
Et,
en fait,
je pense à moi-même.
Je comprends
l'AOBS bien.
Je comprends
ce que c'est,
le docker,
le tarif,
les tools.
Je vais l'utiliser
pour 15 plus de années.
même pour moi,
il me reste un moyen
de la valeur de la livraison.
Je veux une bonne code.
Je veux une bonne code.
Je veux une bonne code
et construire des applications
pour les éliminer.
Pour moi,
les meilleurs tools
sont toujours
les tools
qui appellent
à tous les côtés de la spectrum.
Les gens
commencent
à débarter
avec quelque chose de nouveau.
Et ils disent
que c'est facile
de commencer.
Mais aussi,
les gens qui sont
vraiment
dans l'expertise
d'avoir
tout ce type d'expertise,
ils disent
que c'est un moyen
de faire
quelque chose.
C'est un
tool
que je veux toujours
construire.
Vous pourrez
avoir un range
d'utilisateurs.
Pour moi,
je pense que c'est
tout de même
relative à la même chose.
Les laitiers de l'abstraction
appellent
beaucoup d'intensibles complexités.
On ne veut pas
qu'on se dépêche
tout notre temps
en tournant les Kubernetes,
mais on en fait
parce qu'on a besoin
de la manière
d'avoir quelque chose
de nouveau
pour le déployer.
Et oui,
c'est
d'abord des experts
ou des beginners,
c'est juste
qu'il n'y a pas de
configuration
ou quelque chose,
c'est juste
d'améliorer le temps.
Absolument.
Donc,
nous allons voir
le futur un peu.
Qu'est-ce qui est
pour Modal?
Qu'est-ce que vous vous
vous faites
pour le prochain?
C'est comme si vous avez
une plateforme
qui fonctionne
pour beaucoup de
outils de utilisation.
Qu'est-ce que vous vous faites?
Oui,
je veux dire,
nous n'avons pas de GA,
c'est généralement disponible.
Nous avons un liste de weight
et nous
sommes en train de
en délinatement,
mais pas
en train d'avoir un registre.
Donc, c'est le prochain
milestone,
c'est de le faire
au G.A.
La main focus
maintenant,
c'est de la performance
et de la scale.
Nous avons besoin
d'un peu de
fondamentaux
d'infrastructures
pour être prêts
pour cette scale.
Et aussi,
à un point de vue
de fixation,
je veux dire,
les clients
ne le baissent pas,
mais
il y a quelques choses
où je dois
faire un break
sur les STK
dans quelques façons.
Je veux faire ça
avant que nous la puissions
lancer,
parce que je ne veux pas
déprocater
trop de la code.
Mais c'est,
j'espère,
relativement,
à l'heure
de la fin de l'année.
Je ne sais pas
très bien,
mais je veux que
ce soit le prochain milestone.
Et puis,
j'ai un peu de
scale et performance
pour le reste de l'année.
pending
des
glyc dulors
c'est très difficile.
En pensant au long terme,
je pense que, en fonction de l'AIS,
on est très intéressés en biotech,
en fonction de l'application financière,
il y a beaucoup d'interessants,
des simulations de test de base,
qui sont assez intéressantes.
Nous tentons de faire vraiment bien les start-ups,
mais nous commençons à avoir des clients enterprise,
et c'est un autre secteur,
je veux vraiment explorer plus.
Nous avons juste des complérences de stock,
et c'est tout,
et c'est un point de start-up
pour les clients enterprise.
Et puis,
je ne sais pas,
l'excellente partie de l'application
est que,
quand vous construisiez ce type de fondation,
il y a beaucoup de différentes directions,
nous explorons un peu de différents,
nous étendons avec des idées,
et je suis très excité,
qu'est-ce que nous pouvons rébuilder,
comme des sandboxes,
pour que les gens puissent faire des codes,
c'est un peu comme ça,
les LLMs qui génèrent des codes,
et puis, on veut exécuter ces codes,
mais on ne veut pas les codes pour nous réclencher,
ils veulent une safe code exécution,
c'est comme une de les procédures concepts
qu'on explore,
parce que nous avons tous les prématives pour ça.
Donc, nous verrons,
pour moi, c'est un projet de recherche,
mais nous avons beaucoup de idées,
de faire ça,
on peut faire ça,
et puis,
peut-être que l'on va travailler,
mais pour moi,
où nous sommes maintenant,
c'est super excité,
parce que nous avons tout de suite,
on a une plateforme très solide,
que vous pouvez construire,
beaucoup de choses à la base.
Oui, vous m'avez fait croire,
je n'ai pas réalisé que ce n'était pas G.A.
Vous avez des docks,
vous avez beaucoup de bons exemples,
comme moi,
je suis un développeur,
mais j'ai été en mode,
et je suis productive avec ça,
dans les heures,
vous avez fait un très bon travail,
de communiquer sur le site.
C'est génial.
La prochaine année,
je veux que ça soit pour minutes,
ça doit prendre minutes pour les gens
de être productifs,
et après, il y aura des secondes,
et des milliseconds.
Ça se rapporte pour les outils de tour,
cette semaine.
Merci d'avoir regardé, Eric.
C'était un bon parler,
sur le monde de modal,
sur les services,
quelque chose que moi et Justin
n'ont pas vraiment été customisés,
mais c'était fun de parler,
et merci d'avoir regardé.
C'est génial, c'est génial,
merci beaucoup pour ce qui m'a fait.
Oui, Eric,
et pour répéter ce que Andrew a dit,
c'est génial.
Et aussi,
merci d'avoir regardé.
Je sais que c'est un problème
que vous êtes
sorti de nerds,
dans le fait,
mais modal
donne un valeur réel,
et c'est un espace
que je suis excité
de réduire,
de donner aux gens
une option
pour réduire
la complexité incidentale
un peu,
pour qu'ils puissent construire
plus de produits.
Oui, je suis 100% certain.
Je suis très bias,
mais je suis certain.
...
Episode suivant:
Les infos glanées
devtools.fm:DeveloperTools,OpenSource,SoftwareDevelopment
A podcast about developer tools and the people who make them. Join us as we embark on a journey to explore modern developer tooling and interview the people who make it possible. We love talking to the creators front-end frameworks (React, Solid, Svelte, Vue, Angular, etc), JavaScript and TypeScript runtimes (Node, Deno, Bun), Languages (Unison, Elixor, Rust, Zig), web tech (WASM, Web Containers, WebGPU, WebGL), database providers (Turso, Planetscale, Supabase, EdgeDB), and platforms (SST, AWS, Vercel, Netlify, Fly.io).
Tags