Solomon Hykes - Docker, Dagger, and the Future of DevOps

Durée: 51m55s

Date de sortie: 28/05/2024

This week we have Solomon Hykes, the creator of Docker and co founder of Dagger. We talk about the history of Docker and how it has impacted the development community. Then we dive into Dagger and how it's simplifying CI pipelines with code. We also talk about the future of DevOps and AI integration.

Episode sponsored By Clerk (https://clerk.com)

Become a paid subscriber our patreon, spotify, or apple podcasts for the full episode.

Le code Docker Build est un simple preuve de la technologie de la hidden code.
Le code de la build kit est plus puissant que ce que vous pouvez exprimer dans le code Docker.
A chaque programme que vous pouvez exprimer comme un set de nodes
qui se dépassent en parallèle et qui envoient des données à l'un de l'autre.
Le code de la build kit peut se dépasser.
Il se trouve que c'est un bon code pour builds,
mais aussi un bon code pour votre entire pipeline.
Build, deploy, test, et tout ce qui se passe en-delà.
Bonjour, bienvenue à la DevTools FM podcast.
C'est un podcast sur la dev over for tools et les gens qui le font.
Je suis Andrew et je suis ma co-host Justin.
Bonjour tout le monde, on est vraiment excité,
vraiment honnête de avoir Solomon Hikes avec nous.
Solomon, vous êtes le co-founder de Docker,
ou en ce moment, c'était dotcloud,
dotcloud,
jusqu'à ce que ce soit renommé en 2013, je pense.
Et puis, depuis 2019, vous avez travaillé sur une plateforme appelée Dagger,
dagger.io, vous avez trouvé ça,
oui, vous avez trouvé ça en 2019.
Je suis vraiment excité de vous avoir regardé.
C'est un honneur.
C'est-à-dire que l'on que vous avez travaillé
a beaucoup influencé sur la façon dont nous faisons la développement moderne,
ce qui est vraiment incroyable.
Avant de vous dire plus,
pouvez-vous dire aux listeners un peu plus sur vous-même ?
Bien sûr, merci pour avoir moi.
Je parle beaucoup de DevTools,
avec les gens qui en aiment.
Oui, je suis Solomon.
Vous avez découvert mes deux principaux projets.
Je suis allé en France,
j'ai vécu à l'école,
j'ai appris le programme,
et à un moment, j'ai décidé de vivre dans le Valle de Silicon.
Et la motivation de me laisser était mon premier projet, dotcloud,
qui a ensuite été un docker.
Et je ne pouvais pas trouver
aucun fondament pour ça en France,
surtout parce que de mon expérience.
Et j'ai été heureux, j'ai été un communiste blanc.
Honnêtement, sur la compétition,
ils n'étaient pas sûrs de ce que j'étais en train de construire,
mais ils m'aimaient de la passion,
la confiance,
et le fait que nous étions en train de cracier un peu de code.
Et ils nous ont donné une cheque de 17 000 $.
Ils m'ont dit qu'ils devaient changer le biais.
Et nous l'avons fait.
Et ça a changé tout pour nous.
La Valle de Silicon a changé beaucoup pour nous.
Et ça nous a fait un tournage qui nous lead à aujourd'hui.
Comment est-ce que ça a été expérimenté?
Qu'est-ce que l'année que vous avez été en train de faire?
2009 ou 2009?
2010.
Qu'est-ce que l'expérience était?
C'était plus petit que aujourd'hui.
Je pense que c'était 30 start-ups,
ou quelque chose comme ça.
Et c'était...
Nous étions complètement au-delà de l'expérience.
Pour moi, c'était mon premier contact avec le monde de start-up.
Tout était nouveau,
tout était une expérience de la classe.
J'ai un super intense.
Un peu d'émulation,
un peu d'étude d'étude,
des founders travaillant sur des problèmes cool.
C'est juste...
C'est un overdrive.
On a de la même chose.
On a de la même chose.
C'était un temps transformational.
Je ne sais pas comment le dire.
Une transformation.
Quand vous avez créé un docker,
quel sont les problèmes que vous essayez de résoudre?
Je pense que c'est le premier
de mes propres études,
comme un ingénieur de systèmes,
comme des nerds,
et de la sens de la gueule.
C'était juste un cool technologie.

Un cool set de problèmes pour attaquer.
Et une confiance en sorte de blindes
que peut-être que d'autres dans le monde
ont des problèmes relevantes
que je peux m'aider à résoudre.
Mais je n'ai pas expérimente
d'en savoir pour sûr
ce qu'est le besoin de l'industrie.
Parce que je n'ai pas de travail,
mais pas de très longs.
C'est pas de saison.
C'était la situation où
j'ai acheté le même problème pour 20 ans.
Et puis je l'ai créé pour la solution.
Parce que j'ai travaillé sur Google
et on l'a construit.
Et maintenant le monde a besoin d'en bénéficier.
C'était plus comme
travailler dans le biais de l'industrie.
Et je pensais que c'était cool
ce concept que vous pouvez
automater le déploiement
de pas seulement un service,
mais de nombreux services.
Et juste de la déployer des codes
à travers tous ces services.
Et d'imaginer leurs états
à un grand niveau.
Ce qui s'est fait de la pensée
de l'individu des computers
pour un whole bunch de computers
comme les plateformes.
Je pensais que c'était cool.
Et je voulais
faire des tools qui ont fait ça.
Et je suis très proche
de la universe niche
de
les tools de configuration management.
À la fois
les tools qui existent
étaient appelés CFEngine.
Il y avait un tool d'expérience
d'infrastructure,
quelque chose de nouveau.
Puppet était assez nouveau.
Chef n'existait pas.
C'était
ce qui était un peu de la chute.
Et puis, bien sûr, ce type de tech
que je pensais être fascinant.
C'était aussi très nouveau en Linux.
Donc, non un problème
très cohérent ou structureux
d'insights,
un problème business
qui doit être solvé.
C'est drôle de chasser ces choses
que nous trouvons intéressantes.
Mais ce que je trouve intéressant
c'est que le docker a été un standard.
Ma première interaction avec le docker
n'était pas dans mon travail.
C'était dans ma vie de maison
où j'ai des pièces de software
que j'aime faire sur ma chaîne.
La meilleure façon de faire ça
c'est de faire avec le docker.
Vous avez créé une technologie
très ubiquitous, même non-developpables.
Qu'est-ce que vous pensez
que le projet s'est posé pour ce type de succès ?
Je pense que nous nous touchons
sur quelque chose important.
Ce que vous avez probablement
de dire, je peux encapsuler
tout ce travail et tout ce que je suis le plus délicieux.
Et quelque chose que je peux aller
sur une lune et c'est toujours là.
C'est mon truc.
Ça vous donne presque des grandes grans
pour construire.
Ou alors, vous êtes sortant
de la chose, mais
vous n'avez pas la garantie qu'il y a
de la permanence de ce que vous faites.
Vous devez faire ça tout le temps
et je me souviens
même au début
comme un super-genre
tinker sur ce sens.
Je veux une base de maison.
Et donc, en faisant ça comme un grand noir,
ça nous a fait un succès,
même si ça a pris longtemps,
parce que nous étions en train de faire
quelque chose important.
Et puis, honnêtement, c'était un combination
de ça et juste de rapid iteration
et de tout ce qui se passe
à la main et à la fois,
juste de pure tinker, pure tinker
et puis, en combinant
de parler aux utilisateurs, de la carrière
de ce que les gens pensent
et de comment ils l'utilisent, de ce que ils disent.
Et puis,
de survivre et de persévérant longs
pour que ce soit le cas.
Parce qu'il était un très long et paixful journey
de réjection, et surtout
de la réjection,
de la différence.
On ne sait pas
si personne ne le craint,
mais quand on se voit, on se voit
une personne qui le craint
et ils vous donnent juste de la recette
pour que vous vous ayez de la faire.
Et puis, vous faites ça pour 10 ans et c'est ça.
C'est le succès de la réception.
Nous avons fait ça pour un long temps.
Une récession
très solide
sur cette direction générale
plus de flexibilité
et de rapidité
et tout autre, juste pour un long temps.
Longer, je pense, que la plupart
de la population se tolererait.
C'est fascinant de regarder
sur le site de hindsight.
Parce que pour moi, la transition
du monde pré-docca
a fait une similarité
à construire tout à l'heure
vers la réinstallation de la binary.
C'est un tout différent.
Quand j'ai commencé ma vie, je me souviens
d'avoir fait un des premiers trucs que j'avais fait.
Vous devez mettre le site de la lampe
mais vous devez avoir la même configuration
que ce site de la lampe.
Je dois aller dans les files
et installer le site de la lampe.
Et même quand
vous avez mentionné Puppet et Ansible
et que les automations de scripting
sont en train de sortir, c'est toujours
comme, oh, c'est comme, oh, le state
de ces services se termine
le même.
C'est un grand truc.
Et puis,
vous avez un truc
qui est un peu plus important
que l'impact de la lampe
que le projet de docca
a eu
sur le système de l'éco.
Je pense que ça peut nous réciter
le potentiel de la compétition
de la collection de technologies
de haut niveau.
Les containers Linux sont les 1ers.
Mais c'est la combination
de containers Linux,
des files de copyright,
des systèmes
et quelques autres comme ça
qui ont sorti et créé
un nouveau standard pour la delivery
de l'application.
Je pense que ces technologies
étaient considérées comme le sénat de
les machines physiques, le server,
peut-être virtualisés, mais
encore fondamentaux,
les systèmes et les administrateurs.
Et plus tard,
les infrastructures, les sREs,
et les terminaux,
n'existent pas quand nous avons commencé.
Je pense que le plus important
que le docker a eu
c'est de prendre tout ce qui a été
un impact sur l'application
et sur lesquels les développeurs
ont paké leur travail, leurs artifacts.
Et donc,
avant ça, vous avez l'équivalent
dans le monde Java, vous avez
l'executible
et les windows.
Mais, vous avez créé
un artifact de l'application
que vous pouvez produire
et que cet artifact
pourrait être créé
par ce nouveau platform nascent
qui est le cloud,
qui a sorti
d'une façon
qui a été créée en ce moment.
Tout ce que les servers
ont fait, c'est de l'absence
de la compétition et de la storage,
pour utiliser ça comme un plate-format,
comme un computeur.
Et ça n'a pas été fait en soi,
c'est comme un docker qui a sorti,
mais ça a éloigné
la possibilité de
programmer le cloud.
Je pense que c'est le plus important
pour être un bridge entre le monde
de la machine
et le monde
de la service et le monde de l'application.
Nous aimerons que vous puissiez
remercier notre sponsor cette semaine, Clerk.
Clerk offre un bon usage de l'utilisation
pour que vous puissiez construire les appels plus vite.
Ne vous arrêtez pas de mettre en place
votre applet et vous vous aborder.
Clerk apporte des choses comme
multi-factor auth, SSO, magick links,
SMS messages, bot detection,
la liste s'occupe.
Ils ont un peu de features qui font
que les utilisateurs ont un ennemi
pour votre application, un peu plus facile.
Ou bien que ce soit les propres
des compétences qui vous permettent
d'intégrer, auth super, super,
ou les SDKs qui vous impliquent.
Ils ont votre bête.
Une des choses qui est vraiment
une bête à mettre en place avec l'authentication
c'est tous les logins sociaux.
Vous allez au site et vous vous dites
« Ok, je veux ajouter Google comme
un provider d'authentication. »
Bonne chance de lire les docs, ils sont confusés.
Les SDKs sont sur le place
mais avec Clerk, c'est juste un clic de la bouton.
Super cool.
Ça vous permet beaucoup de travail.
Un autre cool chose avec Clerk
c'est qu'ils ont un bon site.
Ils offrent 10 000
utilisateurs monthly. C'est beaucoup
d'utilisateurs et vous ne l'avez pas beaucoup,
donc c'est un bon site.
Si vous voulez apprendre plus
sur Clerk, vous pouvez aller
au clerc.com pour voir.
Ou vous pouvez aller au site
d'un co-founders Braden, c'est un bon
site. Ça vous donne beaucoup d'insights
sur ce qu'ils sont en business et
où ils sont venus. Si vous êtes
inquiets de entendre ces ades, vous êtes
un membre de l'un des nombreux channels
que nous offrons. Avec ça, vous allez
avoir des épisodes plus plus plus
plus tard que tout le monde, sans ades
et vous vous aidez beaucoup à la podcast.
Si vous ne voulez pas faire ça, vous pouvez
aussi vous envoyer un merch.
Allez sur www.shop.devtools.fm
pour voir ce qu'on a. Avec ça, nous allons
revenir au épisode.
Donc, Docker est
un projet d'opensource et
monétiser des projets d'opensource est
quelque chose qui est difficile à faire.
Qu'est-ce que vous avez appris
sur la monétisation d'opensource
par le travail d'Odder ?
Je pense que ce que j'ai appris
c'est que le travail d'Odder est différent
d'un nombre d'observes au sein de l'Odder.
En fait, je me sens
que parfois les mauvaises lessons
ont été appris par la histoire d'Odder.
Je pense que le plus grand
de la maîtrise que je pense
est que
si vous vous envoyez trop
trop de temps, vous ne pourrez pas
monétiser. C'est vrai, mais
dans le cas d'Odder, je ne pense pas que c'était
le problème. Je pense que
si on devait faire ça tout à l'heure,
tout ce que l'Odder a appris
c'est que
je n'ai pas appris sur l'opensource
et tout ce que l'Odder a appris
pour le frein.
En fait,
en ce moment, les deux étaient les mêmes choses
en ce cas. La seule exception
d'être le docker pour Mac,
le docker pour Windows,
les éditions des desktop,
l'Odder n'a jamais eu
de la récente.
Je ne pense pas que c'est un lesson
de la récente,
mais le docker
a l'air de
être un business successful
pour un long temps, et il a
juste fait trop de frein.
Si on n'a pas appris
l'opensource et la CLI, on n'aurait pas
créé la possibilité
de monétiser le premier place.
Je pense que l'un des lessons
pour moi est que vous devez être
très, très
clairs
et intentionnels
sur les basic
règles
qui gouvernent
votre business et votre communauté
et la relation entre elles.
Les règles sont peut-être
tout ce qu'on veut, mais
il est toujours mieux de penser
sur les frontières et
faire des règles plus claires
et juste être upfront et transparent.
Et si vous ne le savez pas,
c'est d'être en train de faire les choses
que vous ne savez pas.
Nous ne savons pas comment nous allons faire
le ménage.
Mais c'est mieux de le dire.
Et puis, si bien
que ce soit possible, ne pas
changer les règles plus tard.
C'est vraiment bien.
En notre cas, nous n'avons pas changé les règles,
mais nous n'avons pas été
plus clairs.
Et la raison pour laquelle nous n'avons pas été
plus clairs, c'est que
ma frère, au moins, était pour tout le monde
de nous aimer.
C'était
ma motivation
d'avoir la validation de mon père.

nous avons beaucoup de
de l'amour de la communauté.
On a beaucoup de gens qui nous disent
qu'ils aiment le docker, qu'ils aiment le utiliser,
qu'ils aiment le contribuer.
Et je pense que nous avons été addicts
d'être
toujours unicorns et rabos
tout le temps.
Et on a été
dans les films Lego,
et tout est génial.
Et c'était comme ça,
qu'on a été au docker
depuis un bon an.
Nous avons été 5 ans,
et nous avons été pivotés
pour le docker, et nous avons été
éloignés.
Et pour le 1er an,
nous avons commencé
d'avoir des critères.
Et pour moi, le critère
est
un signal
de fixation.
On a dit que quelqu'un n'a pas l'air.
On a un gros
de votre producteur et de votre communauté.
À un moment,
tu ne t'es pas trop malade
pour ne pas avoir des critères.
Et il y a un grand variety.
Ce qui s'est passé
c'est qu'il y a un mix de
n'importe quel type de users qui se sont hit
ou qui sont en train de se faire fréquenter
ou qui sont dans le doigt.
C'est normal, on va juste se faire fréquenter
et ça, tu dois juste
s'y souhaiter.
Tu dois essayer de fixer
et de s'adapter.
Et puis tu as un autre category
de critères qui ne sont pas
des users qui ne sont pas heureux.
C'est des gens qui sont effectués
par votre succès.
Et ils sont heureux
par ce que c'est parce que
ils sont compétitors et ils sont
en train de se faire fréquenter.
Ils sont en train de se faire fréquenter

ils sont des collègues
des users
et maintenant ils sont en train de
s'y utiliser
ou de s'intégrer
ou de juste se faire fréquenter
et ils ne m'ont pas demandé
pour n'importe quel type.
Ils sont imposés
sur leur vie
et ça est frustrant.
Ou parfois, ils se défendent
en désespoir.

être hacpection.


ährt
de la marque entre les gens qui utilisent leurs produits dans la communauté,
les gens qui sont des clients, des clients potentiels pour leur offert commercial,
et tout le monde.
Je dis que je dis que je vais ignorer tout le monde.
Ils vont dire ce qu'ils vont dire.
Mais il faut trouver une façon de le faire,
car ils ne vont pas pouvoir servir leurs clients et leurs clients.
Et les mauvaises choses vont arriver.
C'est la main, juste de garder la chaîne de communication clean et de maintenir.
Vous pouvez le faire avec des sujets de plus ou plus de sujets de plus ou plus de sujets de plus.
Je pense que c'est un grand.
C'est intéressant de voir comment les dynamismes changent quand vous vous créez.
Vous avez une relation très différente dans le début.
C'est très intéressant.
Je pense que les dynamismes humains ou les dynamismes de la power,
c'est la chose que nous devons toujours se faire,
et quand vous avez une grande position dans le marché,
vous avez, à l'arrivée, un niveau de power dans le marché.
Vous devez faire ce que vous dites.
Ces critérismes sont des gens qui ne veulent pas vous faire avec vous.
Mais vous êtes là.
Je pense que l'autre chose,
c'est de penser très tard sur le brand et le marché.
Je pense que dans le monde de l'open source,
l'intersection de l'open source et du business,
il y a beaucoup de drame et des débats.
Je pense que beaucoup de gens sont sur l'IP,
le licenciage de votre code et qui est allowed de faire ce qu'ils ont fait.
Je me suis senti que vous devez vraiment
se mettre dans les basiques.
Si vous êtes en open source,
vous devez juste mettre tout en haut pour que vos codes soient en open source.
Utilisez un license de l'OSI.
Et vous devez bien se faire surement que vos goals business
se sont alignés avec ça.
Et puis, si ça s'est fait,
ne touchez pas.
Et si vous avez besoin de toucher, c'est un mode de défaut.
C'est-à-dire que vous vous screwsz quelque part.
C'est ma opinion.
C'est comme ça qu'on se sent.
Mais d'autre côté, je me sens que les gens
ne sont trop risqués de license et pas assez de trademarks.
Qu'est-ce qu'il faut faire avec l'utilisation de votre nom et de votre brand.
Dans aucun business, un produit,
c'est pas trop important d'en tenir.
C'est pas aussi important de contrôler
et de le changer.
Parce que votre brand
est un petit espace
dans les mains d'autres.
C'est attaché à votre nom ou à votre logo.
Et au début, il n'y a pas de brand qui connaît.
Personne ne sait qui que vous êtes.
Mais par exemple, chaque brand
qui est exposée au nom de votre brand
et au logo, ont développé des associations.
Ils attaquent ces impressions,
et les opinions, et les facts.
et cela se crée en temps et c'est très difficile à changer.
Il y a beaucoup d'efforts.
Par exemple, si c'est une connotation négative,
je dis que je n'ai pas appelé ces gens pour des chers.
Il y a longtemps à fixer cela.
Donc, c'est vraiment important de se contrôler en sorte que,
parce que si c'est déjeuner, c'est très difficile de fixer plus tard.
Donc, dans le contexte de l'open source,
beaucoup de fois, ça se dérange,
ça se dérange en sorte que,
par exemple, c'est la distribution de votre software
sous votre nom.
Donc, dans notre cas,
je parle d'un dagger,
mais c'est vraiment ce que nous faisons là-bas
directement au résultat des lessons qu'on a appris par Docker.
Nous sommes super prémissifs sur l'IP.
Bébé, si on a un code d'open source,
on ne peut pas prometre que vous allez être en source à toujours,
parce qu'on ne sait pas ce qui va arriver dans le futur,
mais on n'a pas d'intention de changer de licence.
On a créé un business qui peut arriver
avec le licence en étant très ouvert.
Et puis, le use de notre nom,
nous sommes très restrictifs.
En un moyen très faible,
mais il y a des choses qui vont parfois
aller contre le grain de les médecins
qui sont considérés standard.
Nous n'avons pas vraiment aimé
des packages de distros de notre software.
Le facteur de la package,
c'est que les packages de daggers
sont en ordinateur de distribution,
en extérieur, de Linux, de l'hôpital, etc.
Nous n'avons pas considéré cela pour être un bon truc,
parce que parfois,
ces packages ou des séances de l'institut sont modifiées.
Avec bon intent,
mais ça ne s'est pas créé
une expérience d'usage que nous ne contrôles pas,
et peut-être que l'expérience d'usage
qui vient de cette version repackage
est dans la balance de ce que nous considérons
d'être bon,
mais ça peut changer plus tard.
Et quand ça fait,
on va être sur le hook pour ça.
Ce n'est pas un bon truc,
ce n'est pas un bon truc,
et c'est dans l'usage de l'usage.
On va dire,
j'ai eu une bonne expérience
avec Red Hat aujourd'hui.
Non, ils vont dire,
j'ai eu une bonne expérience avec daggers aujourd'hui.
Cela se passe parce que
ils installent la version de Red Hat.
Red Hat est juste un exemple de rand.
Donc,
tout ce qui est en train de le contrôler
de notre nom et de notre rand,
nous sommes en train de procurer agressifement.
Et je pense que les développeurs d'open source,
surtout les commerciaux,
sont, je pense,
trop permissives
de comment ils ont pu déterminer
les bagages d'assistance pour utiliser leur marque de travail.
Et ils le font en train de l'ignorance
et de l'expérience,
et juste de l'inertiaire
de comment c'est fait.
Mais je pense que
je suis invité pour,
et je pense qu'il y aura un réadjustement.
Ironiquement, on followed le modèle de Red Hat.
Donc, notre marque de travail
est en train de mettre en train de la marque de travail.
Ce qui est en train de la marque de travail
de la marque de travail est ouvert.
Oui, ça fait un peu de sens.
Et ça fait un peu de sens
pourquoi les projets plus tard
ne pensent pas à quelque chose comme ça.
Mais, le changement de la marque de travail est un peu plus élevé.
Vous avez mentionné ça.
Vous avez un nouveau truc que vous avez travaillé
pendant un temps,
qui s'appelle Dagger.
Donc,
c'est quoi?
Et pourquoi j'ai envie de l'utiliser?
Oui, je pense que j'ai fait des choses au bord.
Donc, Dagger est mon deuxième start-up.
J'ai commencé avec mes deux co-founders,
Sam Alba et Andrea Ledard.
Ils étaient,
les plus anciens employés à Docker.
Et donc, on a sorti de la banque ensemble.
Et Dagger est
un tool qui vous permet de simplifier
vos scripts CI
par les tourner en code.
Tout le projet de software
a ces scripts messiers
et des files YAML
qui orchestrent les différents tasks
que vous voulez automater
quand vous achetez votre application,
construire, tester, relier,
essayer de les mâcher tout ensemble
et d'adresser de la pipeline.
C'est presque toujours un messier.
Et c'est un messier qui est bien,
bon enough,
jusqu'à ce que ce soit pas.
Quand votre projet s'étend,
votre projet s'étend,
et puis la complexité,
les scripts qui sont de la façon de
se battre, se battre,
à un moment,
vous payez le prix pour ça.
Ça devient trop lent,
trop unreliable,
impossible de changer.
La personne qui a écrit
les scripts,
ne comprend pas
comment ça fonctionne.
Donc, ces pipelines
ont fini de être un problème
pour beaucoup de ces équipes.
Dagger vous donne un ordinateur
pour les API clean,
les SDKs,
les APIs,
et les langues que vous savez,
comme Python, Go, type scripts.
Et vous faites ces scripts
et les files en YAML,
et vous les tournez
dans ces fonctions.
Juste un petit peu de codes
qui sont dans la langue,
vous savez,
qui expériment la logique de votre
projet
ou la logique de votre déploiement
dans un très simple moyen.
Et puis, Dagger
va appuyer,
loader ce code,
et appuyer,
et juste le faire
en un moyen très clean
et efficace.
Donc, c'est un travail de clean-up.
Et le feature d'un killer
de Dagger
n'est pas tout ou rien.
Vous n'avez pas de
couper tout.
Vous pouvez juste
prendre un endroit
de votre pipeline
qui est très malade
et vous dédaggerisez.
C'est le terme que nous utilisons.
Donc, vous avez peut-être
300 lines de basse
en YAML
et vous tournez
dans 20 lines
de Python ou Go.
Et puis, vous faites
ce changement de votre repo
et les choses sont un peu plus simples,
un peu plus vite.
Personne ne doit même savoir.
Et puis, vous continuez
de là-bas.
Oui.
C'est ce que nous faisons.
Donc, est-ce que ce soit
l'intérieur de la CIE traditionnelle
?
Donc, c'est comme,
on dirait que vous travaillez
avec la CIE circule
ou les actions GitHub
ou etc.
etc. etc.
Est-ce que
vous utilisez ces
et ils se nomment
comme Dagger's Engine
et faites des choses
ou vous vous vous providez
votre propre service CIE ?
Donc, c'est ce petit
lait sur le top
que
vous rassurez
le même chose
localement et dans la CIE.
C'est en fait
généralement le premier
le hook.
Un des problèmes les plus
les plus malades
que vous avez
si vous êtes en charge
de la CIE
dans un projet
c'est ce que nous appelons
le « push and pray ».
Vous voulez changer
quelque chose dans la pipeline ?
Oui, vous savez ce que je parle.
Vous faites un change
et puis vous commettez
et vous vous mettez
et puis vous faites un petit
travail.
Pouvez-vous travailler
et puis vous n'avez pas
un espace ou quelque chose.
Et parce que vous vous faites
que vous vous faites
que vous vous vous faites
parce que ce n'est pas code
ça vient de l'effet
que ce n'est pas code
parce que ce n'est pas code
appelant le standard
l'application
c'est en fait
c'est un DSL
c'est un
c'est un proprérité
quasi code
qui est généralement
amal
mais Genkins
c'est un autre exemple
c'est juste un défi
de configuration et de scripting
que vous pouvez
seulement
rassembler
sur
ce CIE server.
C'est un petit box noir
et vous devez le mettre
et le mettre
et
c'est un modèle beaucoup plus
meilleur
si vous

si vous avez un API
c'est fort enough
que vous pouvez
faire des codes
qui s'appelle l'API
c'est beaucoup plus
plus grand que
juste faire ce code
et puis rassembler
le code
le manière dont vous rassemblez
aucun autre code
pour dire
où vous voulez
quoi que vous voulez
vous savez
sur votre laptop
sur le CIE server
ou autre
donc c'est notre modèle
quand vous avez
dégarré
un piece de votre pipeline
il se dégarrera
le même
local
et
sur votre environnement favori
et puis en temps
la configuration
pour ce CIE
vous savez
ça s'arrête
parce que plus et plus
de ça
c'est juste
ce que vous appelez
ce code est
un code
c'est un code CIE
vous type
code
quelque chose
et ça
juste
fait
ça.
Ouais
j'ai récentement
un nouveau team
qui s'appelle
client platform
et j'ai spent
mois juste
dans ces problèmes
et c'est
pas mal
comme
le
le
loop
pour
le push
et
le
pro
est
juste
trop
mal
comme
je suis currently
regardé
notre
1000
line
long
deploy
amour
et test
ce
et le
bugs
dans le
c'est
juste
trop
mal
et
j'aime
que vous pouvez
faire
ce que vous pouvez

de
aussi
comment ça
fonctionne
donc
comme Justin
dit
est-ce qu'il y a un
container
quelque part
que c'est
le command
dans le
comme
comment je
j'ai
le même environnement
local
que ça
serait là
dans le CIE
le
problème
n'a pas été
solvé
c'est que
c'est
simple
quand vous
décrivez le problème
pour
solver
une fois pour tout
vous devez
aller
tout le monde
à
le
le bout du stack
et vous devez
construire
comme
un
un nouvel
un
pour que vous
avez un API
sur le top
de l'engin
c'est
fort
suffit
que le code
que vous
vous
vous
vous
et
le point
pour ça
est
containers
donc
vous
vous
vous
vous
vous vous

saayer
ce
entreprenu
de
l'engin
des




saucer
c'est un peu alternative à Docker, en ce sens.
C'est en fait basé sur une autre technologie
à l'aide d'un Docker, qui s'appelle Buildkit.
Il y a un sort de tree évolutionnaire
dans le Docker Textac.
On a le réel Docker Engine, Docker Run.
Et sur ce top, on a Docker Compose,
ce sort d'extra-convénients au dessus.
Et puis il y a Docker Build.
Et Docker Build, en itself,
fait un peu de contenus pour faire son travail.
Mais le façon que Docker Build fait ses contenus
est complètement différent de ce que Docker Run fait.
Et la technologie corse, l'underlayant Docker Build
est un component super-powerful,
ce texte qui s'appelle Buildkit.
Et donc Docker Build est un simple
avant-end pour cette technologie de la technologie hidden,
qui se trouve qu'il est plus powerful
que ce que vous pouvez exprimer dans le Docker file.
C'est presque un NodeS,
un système spécial d'opérations
qui fait des tags.
Et les tags,
les graffes, les nodes et les éros.
Donc, il y a un programme
qui peut être exprimé
comme un set de nodes qui se sont en parallèle
et qui font des données à l'un de l'autre.
Ou que chaque node est un petit contenu.
Buildkit peut faire ça.
Il se trouve qu'il y a un bon nombre de build,
qui est pourquoi Buildkit existe,
mais aussi un bon nombre de build
pour votre entire pipeline.
Build, deploy, test,
et tout ce qui se passe entre les deux.
Il se trouve que tout ça est un tag.
C'est un graff, c'est un box et des éros.
Donc, on commence
par ce quart de la technologie en général.
Et donc,
un enjeu de tag
est un enjeu d'exécution
avec un API
qui est sur le top.
Quand vous faites ce code 20,
vous dites que vous avez besoin de build
et que vous voulez que vous puissiez
faire ce code et que vous puissiez
faire ce code, c'est une fonction simple.
Ça fait que c'est un graff
qui est un superbe élevé
d'exécution
que le dagger va transmettre
à des containers. Et ça fait tout ça
en soi-même. Vous avez besoin de
le dagger CLI
et c'est ça. Vous avez besoin
d'un système capable de faire des containers.
Ça semble que c'est un progrès
de votre travail
de faire un dagger.
Et le sort
d'investissement technique
et les problèmes que vous vous en faites
à la dagger.
Qu'est-ce que les réalisations
que vous avez envers les daggers ?
C'était très similaire
de la dagger, c'est à dire
que c'était très incremental.
La différence
est de la manière dont nous avons commencé.
L'enjeu d'un dagger
était juste moi qui suivait
ce punch comme un
expérience d'exécution.
La deuxième fois
c'était un projet

Il y avait un groupe de gens
qui voulaient travailler ensemble.
J'ai vu Sam et Drex
faire quelque chose ensemble.
Et si nous étions ensemble
avec la culture
et le moyen de travailler,
on va
trouver le problème perfect
pour le sol.
Et donc,
à la very begin, nous n'avons pas
pas étudié de solider
un problème.
Nous avons juste dit qui nous voulons travailler
et c'est de la manière dont nous voulons travailler ensemble.
Et ça s'arrête
pour que nous voulons bouger vite.
Et c'est un peu mal,
on va l'entraîner et entendre aux utilisateurs
et faire surement qu'on soit heureux
d'avoir un bon temps.
Parce que sinon, nous ne voulons pas rester long.
Il y a beaucoup de
des choses de mouchiers
sur comment vous allez travailler
pour ne pas se sentir comme un travail.
Mais en même temps, ça nous a
fait nous attirer à des gens
qui veulent construire un produit
et qui veulent bouger vite.
Ils veulent juste valoir la relation humaine.
C'est comme un groupe
et un film de pirate
qui est un film de pirate.
Peut-être pas un groupe de pirate
qui serait probablement pas si fun.
Mais, je veux dire,
c'est comme une aventure fun
qu'on va construire des trucs cool.
Et le résultat de ça,
c'est que nous avons des prototypes
et nous avons parlé avec les utilisateurs
de la façon dont nous avons parlé
et nous avons donné des réponses
et nous avons éterri.
Je pense que le Dagger nous a été créé
en 2020,
en 2021.
Ce sont des prototypes de 60-something.
Les prototypes, qui étaient un peu indépendants
et nous avons créé
une éterinte d'initiation.
C'était un processus
très interdit,
avec une formule simple.
Et le résultat
c'est un radar de paix.
Vous vous rendez en train
de suivre les personnes qui font la paix
en basant sur ce qu'ils ont décrit.
Vous vous étiez en place
et vous vous étiez en place
sur la solution de la bonne solution.
C'est un moyen organique.
Ça fait longtemps.
Mais c'est tout.
On n'a pas eu de grands insights
au début. On a eu des hautes.
Mais
j'étais surpris de ce point
que tout le monde nous a dit
que leurs pipelines étaient dégâts.
J'ai assume que le Dagger
était plus solide.
On a fait le Dagger
et le Dagger écosystème
a fait toutes les variations
de containers
de base,
C.I. et C.D.
C'est un des tools gazillons
sur lesquels on a des tools.
Comment peut-on ne pas être solide
si il y a beaucoup de tools?
C'était
notre assumption.
On a été prouvé.
Tout le monde nous a dit
que c'était pas solide.
C'est très malade.
C'est bien.
C'est très solide.
C'est hawaiie.
On lingue quand même et
ils sont creates
ce maximum
kokawai qui empêche
la structure.
On a creamy
des clusters un peu thunes
mais c'est un truc que j'aime
un peu trop.
On fait nos maths

dans votre travail, c'est juste, ça ne fait pas de coding où vous voulez juste être coding.
Et j'aime vraiment que le code CI, vraiment, amoxe ça ou vous pouvez être comme, OK,
ce n'est pas juste de code.
Oh, ce petit truc que vous faites dans quatre différents places,
juste faites-le un fonction.
C'est juste une progression naturelle.
Oui, je suis content d'y entendre.
Et aussi, il semble que peut-être que je dois vous montrer le démon de Dagr.
Et vous pouvez me dire ce que vous pensez.
Je l'ai envoyé à ma team ce matin.
Je me suis dit, hey les gars, ça semble que nous devons utiliser ça.
C'est un peu de plus.
Donc, on va parler de quelques plus de features de Dagr.
Vous avez des modules et vous avez ce whole marketplace de choses.
Donc, ce sont les modules?
Qu'est-ce que vous pouvez faire avec eux?
Et peut-être quelles sont les meilleurs?
Vous avez vu?
Donc, oui, les modules sont un futur que nous avons lancé récemment,
comme quelques mois auparavant.
Et c'est sort de la dernière pièce de la mignonne.
Je veux dire, nous avons beaucoup de features que nous devons évoquer.
Et il y a des bugs pour fixer, etc.
Mais l'architecture d'une personne
a besoin de modules pour être le final de la forme.
Et la raison pour laquelle les modules vous donnent
des compagnons réusables à travers la langue.
Donc, à travers les modules,
qui sont vraiment les modules de langue,
le moyen que vous utilisez Dagr est que vous avez picked un SDK
par rapport à quelle langue vous préférez mettre le code.
Et puis, on dirait que dans votre cas, vous avez des typescripts,
donc vous avez picked un typecript SDK,
et puis vous readez les docs et vous allez,
« Great, je peux expérer mes bouts,
mes différents parts de ma pipeline, ce code. »
Vous faites ça, et le code s'appelle la Dagr API.
Et puis, pendant votre code,
vous êtes en fait en écrit un typecript tool custom,
un tool de CLI,
mais vous pouvez le faire avec un service, pourquoi pas.
Et vous vous embedez ces calls en fonction de votre code.
Donc, vous vous êtes en train de obtenir la valeur de la Dagr API
parce que vous utilisez tous ces prématives que la Dagr vous donne.
Vous savez, il y a des prématives pour les opérations containers,
et il y a des prématives pour les opérations file,
les opérations networking, etc.
Ok, donc maintenant, vous êtes heureux, vous avez ça en train de passer.
Mais maintenant, vous voulez que ce soit le team qui arrive à l'arrivée,
et ils ont aussi une pipeline,
et leur pipeline intervient avec vos en quelque sorte.
Donc, peut-être qu'ils ont besoin de des calls de votre build,
pour incorporer leur build,
ou ils ont besoin d'une version de test,
une version éphémorale de votre service,
pour les connecter, pour les tests de leur integration,
etc.
Et il y a un problème,
ils utilisent une autre langue que vous.
Ils sont un team d'agendaire de données,
ils sont en train de faire Python,
ou ils sont en train de faire Go.
Donc maintenant,
il y a tout ce cool logic qu'ils utilisent avec la Dagr,
mais pour eux, c'est comme une île, ils ne peuvent pas atteindre.
Peut-être qu'ils peuvent utiliser la Dagr,
eux-mêmes, en leur langue,
mais maintenant, ils ont deux îles de Dagr.
Donc, on a beaucoup de demandes pour les îles de Dagr.
Donc, si vous avez écrit le ultimate,
je ne sais pas,
ce que vous devez déployer dans votre projet?
GCP.
Ok.
Comme Cloud Run, quelque chose comme ça?
Je suis le premier d'importance,
c'est une box de black.
Vous avez écrit type script code,
et puis quelqu'un de votre team a écrit
le ultimate GCP déployment fonctionnel.
C'est parfait, il y a eu des trial, mais c'est là.
Vous voulez que d'autres teams utilisent la Dagr,
et par extension,
tout le monde en la communauté de Dagr
peut utiliser cela,
en tant que langue, ils utilisent.
C'est un problème technique très difficile
pour nous de la solider.
Et ça nous a pris un whole année
pour la solider correctement
avec la communauté.
Parce que nous avons développé tout en faisant la opening,
et nous avons décoré tous les jours,
et évidemment, nous avons utilisé le GitHub.
Et donc, maintenant, c'est ce que nous avons fait.
Vous pouvez prendre le même code que vous avez écrit,
et vous packagez cela en fonction de la Dagr.
On a usually un peu de fonctionnels
qui sont liés à la base,
vous packagez cela en module.
Et puis, ce module est juste de code.
C'est votre code sur un repo,
et puis vous dites,
je l'ai écrit, c'est le module GCP perfect,
c'est à ce repo, et tout ça.
Et puis, quelqu'un d'autre peut le rappeler
jusqu'à la Dagr.
Je veux que vous la déployez dans l'API.
Vous êtes en train de l'extender
la Dagr API
avec vos propres prématifs que vous avez créés.
Et maintenant, quelqu'un d'autre peut construire
les propres prématifs sur lesquels vous faites,
créer vos propres prématifs,
et ainsi de suite.
Donc, c'est tout de même
le début d'un système de langue cross-icosystem
de la connaissance DevOps
qui peut être combinée
et construite en soi-même.
C'est vraiment le point de la Dagr.
Nous essayons de faire tout ce fragment
de la collection de la connaissance DevOps
de la connaissance DevOps
à travers des tools gaziliers
et des services,
et de l'utiliser
un système de software unifié.
C'est le module GCP.
Et la Dagr vers la machine de search,
elles peuvent trouver tous ces modules.
C'est bon.
Donc, nous avons parlé un peu
du module GCP
par rapport à la machine de Dagr,
par rapport à la machine de running
des choses locales.
Et vous êtes touchés
sur ce système de l'éco-system
avec les modules et tout.
Donc, quels autres choses
existent dans le système de Dagr?
Peut-être que nous pouvons parler
du cloud de Dagr.
Qu'est-ce que la application de la cloud
et comment cela se fait?
Oui.
Et c'est une bonne connecteur
pour votre question de la question
d'open source et de la monetisation.
La platform de Dagr est deux parts,
deux grandes parts.
Il y a un engin d'open source
et il y a un cloud propraitaire.
Le engin de Dagr est un truc que vous vous rassurez
dans votre machine de développement
et dans votre service CI.
C'est comme un co-processor.
Il se tourne là-bas
et il peut juste tourner
toutes ces cool fonctions
et faire des pipelines pour vous.
Et puis le cloud,
le cloud de Dagr est un service centralisé
qui compléde le engin de Dagr
avec des features
qui peuvent seulement exister
dans un place centralisé.
Et donc,
vous avez une belle symétrie.
Le engin de Dagr est open source
et centralisé.
Le cloud de Dagr est propraitaire
et centralisé.
Et nous avons fait sure
que le cloud de Dagr est optionnel.
Vous pouvez prendre le engin
et se faire tourner avec ça.
Et ne pas mettre un compte
dans le cloud de Dagr.
Vous savez,
ça sera triste,
mais vous verrez.
Et vous allez retourner.
C'est notre approach.
Donc, le principal feature
de la cloud de Dagr
est ce qu'on appelle les traces.
Vous vous rassurez
pour envoyer une telemetrie
au cloud de Dagr.
Le cloud de Dagr
collecte la telemetrie
et vous la logerez.
Et ça vous montre
la telemetrie
en un moyen utile.
Et ça vous montre
les traces de functions de Dagr
en appelant d'autres functions de Dagr, etc.
C'est génial pour la débugging.
C'est génial pour la collaboration.
Et c'est spécialement génial
pour les optimisations de performance.
Une chose que je n'ai pas mentionnée
et que tout ça est cashier,
qui est un des features de Dagr.
Parce que tout le monde
qui se tourne dans la structure
est un dag,
des voies et des héros.
Chaque voie
est une function de Dagr
qui tourne dans un containers.
Le moteur
connaît tous les outils
et les outils de toutes les functions.
C'est comme ça que le dag
tourne dans les héros.
Et comme dans le Dacr
chaque input et l'outil
est un check-sum
et
un stored dans le cache.
Si plus tard
vous appelez la même function
avec les mêmes outils,
ce n'est pas un renseignement.
La fonction
va juste obtenir
le résultat du cache.
Et ça speederait tout
d'abord.
C'est comme le Dacr
a une feature de cashier
qui est
basée.
C'est la version de groundbreaking
quand on a élevé
la version de cashier.
On est juste
élevé pour tout le monde.
Vous avez le cache
pour frein.
Mais parfois
quand vous avez un cache
parfois
vous pensez qu'il faut un cache
mais ça ne peut pas.
Vous inquiétez pourquoi.
Pourquoi pas mon cache
pour que vous regardez le trace.
Je vois que ça
s'occupe.
Ça vous montre comment
les choses se portent.
C'est un exemple
de la service optionale.
Si vous n'avez pas
le cache,
vous allez avoir des informations
utilisées.
Mais ça ne se tourne pas.
C'est la idée
de Dacr Cloud.
C'est assez utile.
Il y a beaucoup de pain
et des actions
qui disent
comment ça a été long.
Quand ça a été
passé?
Comment ça a été connecté
au final?
C'est presque impossible
de voir
sans ajouter
des actions extra
pour commencer
les choses.
C'est pas fun.
Oui,
c'est totalement.
Dacr cause un nouveau
dacr.
C'est moins mûr.
Dacr
on ne s'appelle pas
1.0.
Officiellement,
on ne dit pas
de production.
Mais beaucoup de gens
font.
Mais en fait,
c'est bon.
Parce que le
code de tech
est un kit.
C'est
un code
qui s'étend
les ingrédients
et les outils.
Et c'est un code
qui fait le travail.
Et c'est existé
pour
beaucoup d'années.
Quand vous vous appelez
Dock or Build,
c'est un code
qui est stable.
C'est
notre mode de pique.
On réserve
le droit de dire
que c'est pas production
prête, mais
vous allez bien.
Si quelque chose
s'arrête,
c'est dans le setup.
Ce n'est pas
dans le cours
de choses.
Dacr cloud
signifie
plus de polish.
On a beaucoup plus de
features
qu'on va ajouter.
Il y a
beaucoup d'informations
et des logs.
C'est
juste des logs.
C'est
juste des logs.
Et c'est
fondamentale.
Le telemetres
qu'on a
est
beaucoup plus
riche.
Il y a
beaucoup plus d'informations

les services de
CI.
On a
des
codes
qui
sont
dans le
cours de

On a
des
codes
qui
sont
dans le cours
de
des
codes.
On
a
des

qui
sont dans le cours
de
des codes.
Et
tout le
telemetres
est
disponible.
Le
bottom
est
de
polish.
Il
est
assez
ruff.
Mais
le
UI
est
plus
refin.
On
va
vous donner
des
insights.
Il
n'est pas
d'autre.
Il n'est pas
là.
C'est
quelque chose que je suis
excité.
Il
ne
va pas.

n'est pas
plus



que je suis
excité.
On
va


questions.
On



questions.
On
va
au
le
tout le temps.
On



ő э
t
takes



moi
je
marre
des
On peut aussi dire à la maîtrise des fonctions que vous avez,
que la maîtrise peut s'en apporter si elle veut.
Et la maîtrise peut dire, « Hey, pourquoi pas apporter cette fonction ? »
Ça devient plus et plus un secteur de focus maintenant,
car c'est comme ça qu'on a des agents de l'AI qui interagent avec le monde.
Pour l'importance et la magnitude des cas de utilisation que l'on bloque,
c'est un secteur qui n'est généralement pas bien bécé dans l'AI.
En fait, les fonctions d'AI sont parfaites pour les fonctions d'AI.
Partout parce que le fait que l'AI est très facile à égranger,
et que tout a des descriptions, on peut juste les placer.
On a des gens qui ont expérimenté les fonctions d'AI
dans un modèle,
pour que le modèle s'appelle les fonctions quand il veut.
Et ça est vraiment un étage de l'AI,
mais il n'y a pas de clou, on peut même essayer ça.
Le premier étage fonctionne très bien.
C'est quelque chose que j'ai assez éclaté,
en utilisant un Dagger, pas seulement pour les pipelines de l'AI,
mais pour d'autres types de pipelines,
et en particulier les pipelines de l'AI.
C'est vraiment cool.
Une des questions les plus importantes que nous avons toujours demandé,
c'est une question de la question de la future,
vous avez travaillé au Docker depuis longtemps,
et vous avez été en Dagger depuis un peu de temps.
En ce sort d'op-space,
le space de dev-op,
si vous avez regardé les deux dernières années,
quel est le espace qui va se rapprocher de la future ?
C'est drôle,
j'étais à KubeCon Europe et Paris,
c'était un moment grand pour moi,
parce que j'ai grandi à Paris,
et j'ai été content de voir que les deux mondes collègent.
La vibe était vraiment intéressante,
parce que le space de dev-op,
est plus mature que ça,
donc ce n'est pas vraiment le plus grand,
c'est un important chose que tout le monde a besoin,
mais vous avez juste pensé à travailler,
et si vous êtes vraiment dans le space de dev-op,
vous êtes un nerd de dev-op,
ce n'est pas le plus grand,
donc quand vous avez cruise,
il amène sur une attraction Scaucl1d,
qui gente de réseaux rent Zhang transport Nestiel.






une meilleure opportunité pour s'adapter à plus de plus.
Je pense que cette nouvelle movement de l'A.I.
et la communauté de DevOps,
ont besoin d'une autre énormément,
plus que d'un côté,
parce que dans l'A.I.,
vous avez des expériences, des toits,
et vous avez besoin d'un produit,
d'un produit utilisé,
et c'est un produit de la même manière.
Je pense que les applications de l'A.I.
sont toujours des applications,
et elles ont besoin d'une plateforme,
elles doivent être réveillées et testées,
et tout ça,
avec un nouveau array de features,
et de capacités et de tools.
C'est le prochain challenge
pour la communauté de DevOps
pour les prochaines 10 ans,
qui est de la plateforme
pour les gens qui veulent construire des appels de l'A.I.
Je pense que c'est le opposant
de,
ok, maintenant,
on va stabiliser
et se faire couper,
c'est le opposant de ça.
C'est un grand challenge
que la communauté de DevOps
doit adapter
pour ce nouveau stack,
et pour le développement.
Je pense que c'est cool.
Je pense que la solution est,
on doit mettre un pivot à l'A.I.
Il y a des nouvelles workloads,
on doit faire surement
que ces workloads travaillent bien,
et qu'on donne une plateforme.
C'est ce que je suis excité.
Je sais que tout le monde parle de l'A.I.
en tant que le prochain top-thing,
mais il faut penser intelligemment.
Oui,
surtout dans les rolls infraréles,
vous voulez 100% de temps,
vous ne voulez pas,
oh, ça marche 90% de temps,
l'A.I. se fait mal,
il ne peut pas vraiment le faire.
Oui, je pense,
oui,
l'architecture,
ce que ça veut dire,
c'est que c'est un bon infrastructure.
Ça va changer,
je pense que les nouvelles best practices
sont en train de faire,
le fait que ce chip
sort de la ligne de la base pour tout le monde,
c'est vraiment intéressant.
Les importances relatives
d'I.O. et de la CPU et de la GPU,
et de la storage,
je pense que personne n'a pas été répondu,
tout le monde a juste figuré ça.
Il y a beaucoup d'opportunités
pour les startups aussi,
parce qu'il y a un cloud provider,
et vous avez tout de là,
et pourquoi vous ne vous en avez jamais?
Mais maintenant,
nous sommes en train de voir
quelques producteurs
qui se sont étendus ensemble,
plusieurs cloud,
juste pour pouvoir avoir
l'accessibilité des GPUs qu'ils ont besoin.
Donc, les cloud multiplaques
sont plus réellement,
en ce moment,
à moins de maintenant,
ça peut changer,
quand les GPUs sont plus plus tôt,
mais plus facile à procurer.
Le point est,
c'est que
ceci,
ceci,
c'est que le n-Hill,
et nous sommes tous en train de rébuilder,
c'est notre chance de rébuilder le n-Hill un peu plus tard,
je n'aime pas ce point,
mais on va le faire mieux.
C'est ce qui me fait excélérer.
Bien, c'est parti pour nos questions,
merci pour votre question,
et c'était une conversation
très fun,
tout ce que vous avez fait à Docker,
et comment ça a été fait pour Dagr,
merci pour votre question.
Merci pour le plaisir.
C'est génial,
vous avez fait beaucoup d'aménages contributions,
et j'ai hâte de voir où vous avez fait Dagr.

Les infos glanées

Je suis une fonctionnalité encore en dévelopement

Signaler une erreur

devtools.fm:DeveloperTools,OpenSource,SoftwareDevelopment

A podcast about developer tools and the people who make them. Join us as we embark on a journey to explore modern developer tooling and interview the people who make it possible. We love talking to the creators front-end frameworks (React, Solid, Svelte, Vue, Angular, etc), JavaScript and TypeScript runtimes (Node, Deno, Bun), Languages (Unison, Elixor, Rust, Zig), web tech (WASM, Web Containers, WebGPU, WebGL), database providers (Turso, Planetscale, Supabase, EdgeDB), and platforms (SST, AWS, Vercel, Netlify, Fly.io).
Tags
Card title

Lien du podcast

[{'term': 'Technology', 'label': None, 'scheme': 'http://www.itunes.com/'}]

Go somewhere