
Kubernetes with Shahid Iqbal
Durée: 80m21s
Date de sortie: 29/11/2020
In this episode, I was joined by Shahid Iqbal to chat about Kubernetes. We covered containers in general, Docker, Docker-Compose, Kubernetes, Helm, Istio, and much more! Shahid is a Microsoft MVP and user-group organiser, specialising in Azure and Kubernetes.Links from the showShahid on TwitterShahid’s blogKubernetesAzure AKSGoogle GKEAmazon EKSHelmIstioProject TyeKataCoda‘Deploying blog on Kubernetes’ memeZoomItChris O’Dell talk on ‘How to get your submission accepted at NDC London’
Salut à tous et bienvenue à l'Unhandled Exception podcast, je suis Dan Clark et c'est épisode
numéro 5.
Donc, dans l'an dernier épisode, qui était sur l'enseignement des enfants de la Chambre,
nous avons eu le suivi short de mon jeune fils Mason.
J'ai eu la information 94 et je suis allé à la Chambre.
Et nous avons eu un giveaway de microbit pour la première personne qui a tweeté la technologie que Mason veut apprendre.
Mes congratulations à Callan White qui a tweeté.
Je suis venu entendre le podcast de Dracan's Unhandled Exception pour un moment.
Qu'est-ce qu'il y a de mieux à commencer que de la vidéo ?
Mon guess est que la technologie que Mason veut apprendre est Tube.er.net,
qui est fait hyphenée. Et il a aussi dit que c'est aussi connu comme Kubernetes.
Et ça a été spoté.
Donc, un microbit 2 est sur le chemin de Callan, si ce n'est pas déjà arrivé par là.
Pour le microbit 2, qui a coincidentement, quand il a envoyé la tweet, a juste été disponible.
C'est à dire, le microbit 5, plutôt que 4, un Power Button, un logo touché, un microbe et un speaker.
Donc, c'est un peu de défensement pour le microbit 1 que j'ai appelé.
Comme Callan White l'a dit, la phrase que Mason a dit était Kubernetes,
qui me lead très bien sur notre sujet pour ce épisode.
Donc, je suis très honnête à bienvenue à Shahid Iqbad pour me joindre.
Bienvenue à la chambre, Shahid.
Salut Dan, et merci d'inviter moi.
Non, ne vous inquiétez pas.
Alors, Shahid est un consultant de l'Ajare MVP spécialisé dans .NET, Azure, Kubernetes et AKS.
Donc, c'est l'Ajare Kubernetes Services, un speakant international et aussi organisateur de l'Ajare MK.NET.
Donc, avant de nous dédiver dans le monde des containers, Kubernetes et toutes les choses que nous avons discutées avant,
vous pouvez nous donner un peu de background sur ce que vous faites et ce que vous avez appris à nous?
Bien sûr, oui.
Je suis un consultant de freelance, donc je travaille vraiment avec des entreprises,
en particulier des petites entreprises,
juste pour les aider à les faire les meilleures en Azure.
Donc, ce n'est pas spécifiquement ou pas, c'est pas la Kubernetes,
c'est généralement un peu de services Azure.
Parce que j'ai un background de développement,
je peux souvent spanner ce gap entre le développement et le cloud infrastructure.
Donc, je tend à couvrir cet aspect, vraiment,
et juste pour aider les entreprises à faire les meilleures en Azure.
Donc, à l'heure où ils sont en train de bouger,
ils ont été utilisés pour un peu d'un peu d'un moment,
et comme je suis sûr,
Cloud s'est mis en place rapidement,
les services que nous commençons à utiliser,
et dans les semaines, il y a souvent de nouvelles features,
et c'est assez difficile de garder sur le top.
Donc, je peux venir et aider les entreprises
à comprendre les nouvelles features qu'ils peuvent faire de la meilleure utilisation,
vraiment, de ces choses.
Je vous utilise un docker sur un basis quotidien,
et pour moi, c'est comme le concept de containers,
c'est un peu de connaissance,
parce que c'est popular pour quelques années maintenant.
Est-ce que c'est quelque chose que vous trouvez,
ou que vous trouvez que beaucoup de développeurs
n'ont pas encore été utilisés pour container ces containers?
Vous pensez que c'est quelque chose que nous pouvons peut-être
passer avant de parler de Kubernetes?
Oui, je pense que vous serez surpris.
Je pense que certainement,
dans la sphère que nous vivons,
nous pensons que nos docker et les containers en général
ont été en train d'avoir été en train d'avoir été
sûrement tous les uns de leurs.
Et je me suis certainement senti
que j'ai commencé à faire des workshops,
donc, des workshops interdactriques
pour les conferences en D.C.
Et je pensais que je serais en train de faire
ce workshop pour peut-être six mois,
parce que après ça,
tout le monde m'a vraiment entendu de ça.
On est en train de faire des workshops
en plus d'une année et demi plus tard,
parce que il y a toujours de nouveaux gens
qui viennent de la technologie.
Et je pense que c'est important
que nous ne nous forgetons pas,
comme ceux de nous qui sont, je pense,
des éducateurs dans ce pays,
il y a toujours de nouveaux gens
qui viennent de la technologie.
Je pense que c'est toujours important
de couvrir les bases.
Vous pouvez se passer
pour aller dans les détails.
Ce serait un podcast d'automne-début
dans cette situation.
Mais, Sany, je pense que ça aide
à couvrir ces bases.
Je pense que je suis en train de
parler de la technologie
et de la technologie,
et de ces quelques années.
Je pense que beaucoup de développeurs
qui travaillent avec les projects Brownfields
n'ont pas eu la chance
de jouer avec ces choses.
Qu'est-ce que vous diriez
qu'il y a une bonne élevé pour les containers
d'Oscarra, qui n'a jamais
même été rédévaluée ou joué avec ça ?
Je pense que
la version courte est
les containers en général,
sont un format de packaging
où vous pouvez la batterie de votre application
et ses dépendances
dans un artefact dont vous pouvez
vous faire un tour de la machine
qui appuie aux containers.
Donc, la différence entre ça
et ce que vous faites maintenant,
c'est que, si vous vous faites un .NET,
vous devez généralement
avoir un .NET installé sur la machine
que vous êtes en train de jouer.
Avec les containers, toutes les dépendances
que vous avez dans le framework,
peuvent être bagages dans le container.
Donc, la technologie est parfois
de la manière en laquelle il y a des différences,
mais je vous referai souvent
de la version courte,
comme les machines de version courte.
Parce que, si vous avez
toutes les machines en version courte,
vous devez vous faire un image de version courte
et que vous puissiez
vous faire un image de version courte.
C'est un peu ce que les containers sont.
Et si vous pensez à la technologie,
la technologie est vraiment
d'accord avec la vie réelle.
Parce que, si vous êtes
familiar avec les containers de shipage,
et souvent nous nous voient les containers
de shipage,
comme une analogie.
Nous voyons que les containers de shipage
peuvent avoir de nombreuses produits
dans les containers.
Ils peuvent avoir de la sorte
de la voiture de transport,
et de la papier toilette.
Je ne suis pas sûr que les containers
soient plus valables pendant le coronavirus.
Mais nous avons les ships qui
ont mis ces containers à l'arrivée.
Nous avons les cranes à l'oxygène,
qui ont mis les containers et les containers de la main.
Et tous ces tools
et ces bits de infrastructure
ne connaissent pas vraiment
ce qu'il y a dans les containers.
Ils justent les containers.
Et c'est exactement ce que les containers
et les shipage de shipage ont essayé de faire.
En tant que vous pouvez mettre votre application
dans le containers et le faire,
tous les tools qui sont en train de faire
ne sont pas vraiment au care de ce qu'il y a dans le containers.
Ils vont juste le faire.
Et c'est vraiment la proposition de la valeur.
Il y a un peu de mime.
Il travaille sur mon machine.
C'est ce qu'il y a
qui ne fonctionne pas sur le service.
Et les containers sont basiquement
des machines.
Donc, on va juste le shiper.
C'est un mime assez amusant.
Mais je pense que c'est aussi assez accurate.
Oui, c'est vrai.
Je l'ai aimé.
Par exemple, je faisais un travail
avec InfluxDB.
Et on utilise l'InfluxDB Cloud.
Et le travail que j'ai fait,
c'était convenant de pouvoir
se tourner en place.
Et par la fonction de
InfluxDB,
j'ai installé toutes les images,
j'ai fait le software,
et je pouvais juste l'utiliser.
Je pouvais aller à leur dashboard
dans le blog local.
Et ça a juste travaillé.
Mais je n'avais pas installé
ceci sur mon machine.
Je n'avais pas des choses insertes
dans la registre des windows.
Je pourrais le faire.
Je l'ai installé.
Et ça a juste travaillé.
Je pense que ce n'est pas
juste vos propres applications.
C'est de pouvoir se tourner
ces tools.
Je pense que ça fait une grande différence.
Absolument.
Le installé de Hell
a sorti de la production.
Nous savons,
si quelqu'un de l'a essayé de
apporter ses propres applications,
comme un installé,
c'est juste les hauts égards
sur les versions
de la plateforme que vous devez déployer.
Les scripts installés, les conflits,
et tout ça.
Et la plupart sont de la perte,
parce que ce container
est un package self-contained.
Absolument.
Le docker run,
pour essayer de faire
quelque chose comme Redis,
qui est un cluster de Redis,
qui est très drôle de le installer,
qui est nativement
sur des machines, mais
les contrôles sont comparatifs
par rapport à la truvée.
C'est absolument une grande
position de valeur.
Vous pouvez aussi considérer
que ces tools et les libraries
que vous utilisez pour votre développement.
Même si vous n'avez pas de containers,
parce que vous pouvez,
plutôt que d'installer Redis sur votre machine locale,
vous pouvez faire Redis dans un container,
et puis votre application,
qui ne peut pas être utilisée par les containers,
peut encore parler de Redis,
localement.
Tout ce que j'ai fait, et on a mentionné
Redis et InfluxDB,
par exemple,
les choses que vous avez mis en place sur la command line.
Et puis vous avez mentionné
le processus installer, et ça
peut-être le lead à Windows vs Linux containers,
comme pour les applications GUI.
Est-ce qu'il y a un espace
pour les applications GUI
dans les containers de docker, à la fois?
Je pense que le public
de la command line est que
il n'y a pas de containers GUI
dans les containers.
Comme les choses, il y a des gens
très clairs qui peuvent trouver des moyens
sur ces applications, mais en général,
il n'y a pas de applications GUI.
Donc, vous ne pourriez pas
déployer un
plus traditionnel, desktop
base,
des applications GUI
en utilisant un container.
Il y a un caveat pour ça,
qui est un modèle où vous pourrez
utiliser quelque chose comme
un électron ou un web browser
comme vous avez du GUI, si vous voulez.
Et avoir un service
en basse, sur la machine de utilisation.
C'est probablement un modèle où vous pouvez
utiliser des containers, parce que votre service
de la back-end peut en servir
et que votre utilisateur
peut généralement vous mettre en browser
et aller à un URL.
Et je pense que ça devrait aussi travailler
comme un électron, par exemple, si vous avez
d'abord étudier un browser
d'embêtisant en utilisant un application desktop.
Je pense que ça devrait travailler aussi.
Ok, intéressant.
Pour l'honneur, tout ce que j'ai fait
a été sur Linux containers, et comme je le disais,
c'est juste en command line base.
Donc je sais que dans un desktop docker,
vous pouvez bien sûrment utiliser des containers Windows,
mais je n'ai jamais cliqué sur ça.
Je le ferais probablement, si vous avez pu l'experimenter.
Mais je me souviens que,
quand j'ai commencé à entendre des containers Windows,
où on a des images de
des gigs, et je crois que c'est
apprécié considérablement, mais je n'ai pas joué
avec ça.
Dois-tu tendre à aller avec Linux containers,
ou avez-vous joué avec Windows,
aussi ?
Oui, j'ai joué avec les deux.
Quand les containers Windows
ont commencé à venir, et certainement,
quand nous avons commencé à regarder quelque chose
qui va se couvrir bientôt, je pense, avec les Kubernetes,
j'étais assez excité, parce que
je suis un développeur de donnette,
et, évidemment, jusqu'à recently,
nous avons été
Windows-only.
Donc, avoir l'obligation
d'avoir des bénéfices que nous avons
avec les containers sur le côté Windows
était incroyable, mais aussi,
en pensant sur comment nous pouvons potentiellement
migrer dans les applications Windows,
en utilisant les containers Windows,
c'est assez excitant.
C'est faible que nous parlons d'un
challenge avec les containers Windows, et le
nombre est un des.
Un peu d'années, nous avons regardé
12 à 14 GB
pour un container Windows Server.
Et, je suppose, pour le contexte,
un container Outpine, je pense,
est quelque chose de 26 mètres,
donc, c'est une différence signifiant.
Maintenant, il y a deux versions
des containers Windows
d'opérance, c'est le core Windows Server,
qui est essentiellement
un Windows fully flèche.
Il y a un handful de APIs,
mais, généralement, rien que vous
allez être en train de relier.
Et puis, il y a Windows Nano Server,
qui est, en fait,
un système de container
dédicaté.
Le service Windows est plus petit,
je pense qu'il y a un target
d'environ 18 MB. Je ne suis pas
sûr de la size de ces images,
c'est probablement pas assez.
Maintenant, le service Nano Server
a des limitations, c'est un 64-bit
neuf, vous ne pouvez pas
faire un tour de la frame,
il y a des traductions.
Sur le core Windows,
ces images sont magnifiquement
plus petites, je pense que c'est
environ 6 GB maintenant.
Donc, elles sont plus petites,
mais évidemment, elles sont
encore plus grandes.
Et l'un des défis de ces challenges
est juste la weight,
la gravité de ces images,
la size de ces images,
les dégâts de la main,
les contenus des bénéfices,
c'est très rapide pour les séparer,
et très vite pour les faire
sur différentes machines.
Et bien sûr, vous imaginez
si vous essayez de bouger
les images dans les dix-gigues,
vous allez avoir des challenges
sur la nettoid bandwidth.
Et sans les 2x les dégâts,
il y a des mécanismes de cache
et des contenus qui font
ce pain un peu moins
plus, après la première fois
vous avez appris un image.
Mais oui,
il y a des controversies,
si vous allez sur Twitter,
vous allez voir des conversations
de contenus des Windows,
vous allez probablement voir moi mentionner,
ou je vais en chier un peu,
parce que c'est bien
d'underner que les contenus des Windows
sont une option, et je pense qu'ils sont
une étape.
Vous devez les utiliser
comme un mécanisme
de pouvoir bouger votre whole workflow
dans les contenus,
alors que vous devez vous apporter
votre code.net
pour le code.net
et le code.net 5 et non
en haut.
Je vous apprécie, parfois,
ça peut être un challenge
de votre point de vue de business,
la R&Y ou quelque chose,
ne peut pas être si facile
de le faire.
Et c'est pourquoi
je vois des gens
intéressés dans les contenus,
mais c'est très bien
un peu de la shift en lift.
Vous devez être familiar
avec la shift en lift qui est
de l'envers dans le cloud,
où les gens se sont en train de
bouger les machines virtuales
et tout de suite,
ils ont eu la chance de bouger
le cloud, et après un mois,
ils ont eu un peu de chocs de billet,
parce que tout de suite,
les machines virtuales dans le cloud
n'est peut-être pas si faible
que vous ayez des machines virtuales
sur le premises.
Et aussi, je pense que les contenus Windows
vous pouvez falloir dans cette trappe,
de la shift en lift,
parce que vous devez payer
pour ce fait de la data pour être
bougé. Vous allez perdre
des bénéfices de la
stoppage en container,
parce que ça va être plus lent.
Et je pense que le plus important
dans les contenus Windows,
c'est que la communauté en Windows
les contenus sont incroyables et ils
font des merveilles.
Mais l'entreprise, la communauté
native, c'est derrière
les câbles et les outils.
Ils sont primairement
focussés sur Linux.
Et je pense que Windows
a été un peu plus relative aujourd'hui,
et je pense que ça va probablement
être plus long.
Nous sommes sûrement en train
de voir des changements,
je suis en train de
voir des issues dans des projets
où ils ne sont pas
un binary de Windows,
ou parfois ils ont un binary de Windows
pour leur projet, mais
ce n'est pas très facile de installer,
il n'y a pas d'extension ex-XC,
il n'y a pas de la installation.
Donc, de la poussière pour avoir
des choses comme un package de chocolat
pour ces choses,
ça va aider à évoluer l'adoption.
Mais en général, je pense que les containers Windows
sont en train de la laver un peu,
et je ne suspecte pas de changer
les deux ou trois ans.
C'est un très bon point
sur les gens qui ont été touchés
sur le framework.
Quand je l'ai mentionné
que j'ai utilisé Linux containers,
je pensais
que ce scénario serait possible
d'utiliser un container de Windows,
et je me suis trompé de penser.
Mais comme vous l'avez dit,
si les gens ont été touchés sur le framework,
comme vous l'avez dit,
le retrait de l'investissement
n'est pas le plus cher pour le business
pour l'augmentation, mais ils veulent commencer
à le faire dans cette histoire.
C'est vraiment un bon point.
Je ne sais pas comment le plus grand subset
de gens s'invite, mais peut-être
cela fait que c'est plus difficile.
Et comme vous le dites,
moins de gens vont être requérés
comme le temps s'est passé,
parce que plus de gens vont être
sur les versions de .NET, .NET Core, .NET 5.
On va avoir de l'habitude de dire
.NET Core, on ne voit pas toujours
.NET 5.
Je pense que le point des gens
qui sont touchés sur le framework
de la version de .NET Core,
c'est une des choses de perception
qui sont dans la communauté
et dans le monde de la rencontre,
et on tend
à être raisonnablement au bout du temps.
On peut souvent overlookner
que la majorité est pas
.NET Core. Je ne sais pas
où les exactes noms sont,
mais je ne serais pas surpris
si la majorité est en train
de surmonter la date
qui est toujours sur le framework.
Je pense que le autre important
de l'inviter est que
quand on parle de .NET Core, on est
toujours en train de
parler de .NET Core,
en ligne, parce que vous pouvez
en parler de linx, mais vous
pourriez bien sûr
construire un produit qui doit
utiliser les API Windows,
en ce cas, vous pouvez toujours
utiliser .NET Core, et bien sûr,
faire target Windows comme plateforme.
À ce point, vous avez la option
d'utiliser un Core image
ou d'utiliser un Nano server image.
Le latter est
plus petit et plus
plus bon, mais vous êtes toujours
allé de cette communauté
de défis si vous avez l'air
sur les containers Windows en général.
Oui, c'est vrai. Nous avons touché
sur les Kubernetes, on va nous
ouvrir les Kubernetes.
Donc, si vous avez l'habitude de
utiliser Docker, vous pouvez faire
Docker Run et Spin Up,
ou tout ce que vous voulez,
votre application, les applications third-party.
À quel point vous devez
considérer quelque chose comme Kubernetes
ou un autre système de container orchestration.
Je pense que c'est le plus important
de la course, je pense que les gens
vont aller en. Vous vous en sortez
avec un seul container, vous en faites
un Docker Run sur votre machine local,
par exemple, et puis vous allez
en avoir un situation
où vous avez besoin de plus
d'un container. Vous devez
utiliser un database ou quelque chose d'autre.
C'est probablement important de vous en dire
que, dans les containers, vous avez un
seul processus logique.
Si votre application est en train
d'avoir un API,
peut-être un API de retour,
ce sera deux différents containers.
Nous allons très rapidement aller
de un seul container à plusieurs containers.
Nous allons parler de comment nous
avons mis plusieurs containers.
Cela nous a
empliés dans le monde de Docker Compose
et même dans le projet TI,
ce qui est quelque chose que nous
pouvons revenir sur.
Nous allons de un seul container
à plusieurs containers, mais ces containers
sont en train d'avoir un seul machine.
Dans le scénario de production, vous devez
être mindre que si la machine
se passe, votre application est en train.
À quel point vous devez considérer
que je veux aller sur plusieurs machines,
et c'est vraiment quand l'enquête d'enquête
s'est installée. C'est un concept
d'enquête d'enquête à plusieurs machines.
C'est-à-dire
que Kubernetes a
beaucoup de monde avec orchestrateurs?
Oui,
c'est très bien.
Certainement,
le landscape,
je pense que il y avait 18 mois,
nous avons eu Kubernetes,
nous avons eu Docker Swarm
et je pense que nous avons eu
DCOS,
la sphère de Mises.
Je l'ai récemment eu
DCOS, ils ont arrêté
le développement.
Docker Swarm est encore en train
et je pense que Docker
s'est transformé dans un peu de phoenix.
Docker est maintenant
une company de tooling
et ils ont acheté
leur entreprise Docker, leur
plateforme de management,
comme MoSeAWiedere d'ici dans M19
Et je pense que le public
d'àautreência est
d'aide aux prestations
d' அخر Swarm
Bel必 score
leur expertise.
Je pense que
le だkos
est le plus cannabis
orchestré à la bataille. Et je pense que c'est... c'est génial pour les autres de nous parce que
nous n'avons pas besoin de mettre nos bêtes ou de savoir quel on devrait faire de la même manière.
Donc oui.
Oui, c'est certainement utile. Je me souviens, quand j'ai commencé à apprendre les cubanettes,
j'ai utilisé ma... je sais que c'est la joie sur Twitter sur le grand truc massive
avec les cubanettes et de vous hoster un blog sur les cubanettes et puis le plus...
j'ai dû les trouver dans les notes de la show.
Mais je l'ai utilisé pour jouer autour et apprendre les cubanettes.
Et j'ai initialement mis ça sur le GCP, la plateforme de Google Container.
Et puis j'ai commencé à utiliser AKS, comme des services cubanettes,
qui en fait, on va parler de ça bientôt.
Et parce que c'était encore des cubanettes,
les files de Yammel des cubanettes, derrière les scènes,
je pouvais juste les appeler à un autre cluster complet. Et ça a juste travaillé.
Je pense que c'est un grand bénéfice pour tous ces plateformes
d'embrasser les cubanettes.
Absolument. Je pense que ce que les cubanettes sont en train de devenir,
ou ont été, c'est essentiellement un plan de contrôle standard, si vous voulez.
C'est le système de cloud opérant, si vous voulez.
Je pense que, comme plateforme pour le target,
ce que nous sommes en train de voir, comme vous l'avez dit,
c'est que c'est soutenu par beaucoup de compagnies de technologie.
Les providers de cubanettes qui ont réussi,
sont tendus à un panneau,
et beaucoup de frameworks comme JavaScript,
par le temps que ce podcast a fini,
c'est probablement un autre handful de providers de cubanettes qui ont réussi.
Et ils sont tous,
en tout cas, targetés de ce que nous n'allons pas dire,
des cubanettes conformes,
ce qui est un test que les cloud native computing,
lait de garantir que votre distribution de cubanettes
soit standardisé, si vous voulez.
Donc, je sais que ces conversations,
les gens souvent ont des cloud multiclouds.
Et je pense que je dirais que les cubanettes sont probablement
les meilleures facilités des cloud multiclouds.
Et c'est vraiment important de cacher ça par dire que,
évidemment, les défis de cloud multiclouds ne sont pas
technologiques, si je suis honnête,
les vrais défis sont des cloud multiclouds,
tout autour de la gouvernance,
et du financement de la coste,
et tout ces autres choses qui viennent avec ça.
D'un point technologique,
les systèmes de cloud multiclouds
sont probablement plus élevés que les autres défis.
Nous avons vu de l'aéroport avec des outages.
Il y a un outage AWS,
je crois, dans les dernières quelques jours,
en temps de la recording.
Et, à l'époque, il y avait un outage Azure
dans le sud de l'Union européenne.
Et je crois que ces outages étaient régionales.
Donc, il y avait outages dans l'availabilité zone,
donc pas même dans toute la région.
Mais les gens ont eu le temps de la dédiculture,
parce qu'ils n'avaient pas designé les systèmes
pour être en zone de l'availabilité multi-médiaire.
Donc, je crois que,
avant de faire un cloud multicloud,
il devrait probablement être en train de garantir
que vous êtes en train de faire un failure zone
dans votre cloud-provider.
Mais oui,
Kubernetes est probablement
le plus proche qu'on a
de la standardisation
à chaque provider
afin de l'abstracter le cloud de l'availabilité.
Oui, avec ce outage AWS,
c'était sur Wednesday.
Je faisais un talk de lignes
pour un autre bout de l'usage,
et c'était sur Mediator.
Et parce que Meetup.com est hosté
sur AWS,
ça a été fait.
Et évidemment, les choses sont virtuales
en ce moment, et ils utilisent Zoom.
Donc, où normalement, les gens qui ont eu le virus,
les vp,
ils pouvaient obtenir ce Zoom invité.
Les organisateurs de Meetup
avaient dû le faire.
Et nous avons été en train de faire Zoom.
Très malade.
Je n'ai jamais été en train de faire Zoom.
Le plus malheureux que cela a été
avant l'aventure a bien commencé.
Et les organisateurs ont été très bons
et ont vraiment mané le s'éteint
et ont gardé beaucoup de gens.
Et puis, pendant mon talk,
quelqu'un a été en train de le faire,
mais tout ce qu'ils ont fait
était annoté sur la table.
Donc, ce n'était pas comme ça.
Comme ça, c'était à la fin.
Ce n'était pas comme graphique à ce point.
Donc, ça a été bien.
Mais oui, c'était comme ça.
C'était assez excitant,
surtout au milieu de mon talk,
quand quelqu'un a commencé à en faire.
Je vois le tweet
du site Donner Southe West,
le tweet de Handel,
qui dit quelque chose comme ça.
Nous ne serions jamais en train de le faire.
Et j'ai hâte de l'honorer.
Je l'ai fait, je n'étais pas.
Je n'étais pas partie de Meetup.
Parce que juste la plus curieuse
de ce qui a été fait.
Je n'ai pas voulu me demander
parce que je pensais que c'était probablement
pour les gens de relivre
un incident traumatique.
Mais quand nous avons fait Meetup
avec Steve, pas trop longtemps,
et nous avons en fait sous-scrivé.
Donc, on avait, je pense,
la Meetup,
nous sommes sur Zoom Pro,
et je pense qu'il y a un limit de 100 attendus.
Et je pense que je n'ai pas checké
le limit de l'attendu
sur Meetup,
mais c'était à peu près de 105, je pense.
Et il a fallu,
et il y avait une liste de 15 ou 16 personnes.
Et
juste comme nous avons commencé à Meetup,
quelqu'un m'a dit,
« Oh, les gens me demandent,
peut-il augmenter
la capacité de Meetup?
Parce que nous savons qu'il y a un 50%
de drogue. »
Et je ne pouvais pas le faire,
c'était trop tard.
Donc, je me suis dit,
« Regarde, si quelqu'un
m'a dit que le link m'a dit juste,
je suis heureux.
Je n'ai pas posté publiquement,
si ça ne pouvait pas être fun. »
Mais oui,
j'ai fait
à peu près 1 DM
d'un personne
m'a demandé pour le link,
c'est génial.
J'ai posté sur la Meetup
sur la chute publique.
Et je pensais que ça serait assez safe
parce que c'est moins
moins probable que quelqu'un
s'enfonce et décide
de se fléchir des bêtes ou autre.
Où que quelqu'un a fait
dans l'année des discussions.
Oui.
Oui, comme je l'ai dit,
par chance,
pendant les discussions,
c'était juste quelqu'un
qui a brisé sur la chute,
mais avant tout,
c'était extrêmement graphique.
Donc, par chance,
la plupart des gens
n'avaient pas
été à la place de personne
qui a été joint à ce point.
Je voulais prendre mes yeux
et les voir.
C'était pas mal.
Je suis heureux
parce que j'étais sûr
de ce problème.
Vous savez,
à la start,
c'est une chose de lockdown,
mais
ça a sorti
de la tête de la main.
Donc,
c'est très bon que vous m'avez
mentionné,
parce que, oui,
je vous ai dit que
ça ne faut pas
être très, très, très
curieux pour ça.
Oui, je dois vous dire
que pour quelles meilleurs
organisateurs
ne font pas de share
sur les links de Zoom
sur Twitter
ou sur les médias sociaux
parce que
vous ne voulez pas voir
ce qui s'est passé.
Ce n'est pas bon.
Ce n'est pas bon.
Il est encore en train de les ouvrir
les yeux avec la bleue.
Je n'ai pas encore la bleue.
Non,
je ne l'ai pas entendu Trump.
Oui,
on ne veut pas avoir trop de politique.
vous êtes juste anglais
pour la sponsorisation de la bleue.
C'est un podcast
sponsorisé par Domestros.
La chose
que je n'ai pas réalisé
avec Meetup,
c'est que
quand Meetup
introduit les links virtuels,
vous pouvez ajouter
un link Zoom
ou un link de team
que
si
c'est passé au start-up,
vous ne pouvez pas avoir la VP.
Donc,
vous ne pouvez pas avoir le link Zoom.
Donc,
si vous avez suddenly vu
sur Twitter
comme
1 minute plus 7,
oh,
c'est une bonne meeting.
Je veux aller à ça.
Vous ne pouvez pas avoir la VP
et avoir le link Zoom
qui est un peu de pain.
Peut-être que vous avez fixé ça
mais j'ai vu ça
quand on ne l'a pas vu virtuel.
Donc,
nous avons parlé de
différents providers de cloud
pour les Kubernetes,
comme GCP,
Amazon
et pas sûr
de la version AWS,
de ce qu'ils ont appelé,
et puis, évidemment,
AKS pour Azure.
Vous spécifiez AKS, non?
Oui,
en termes des providers,
Google est le GKE
sur Google,
Google Kubernetes Engine,
et puis,
on a Azure Kubernetes Service.
je pense que AKS est le Amazon 1.
Et puis,
comme je l'ai dit,
chaque cloud provider
a leur part
et c'est généralement
quelque chose de Kubernetes Service.
Technologie,
company,
Kubernetes Service.
Mais,
bien sûr,
vous pouvez faire des Kubernetes
vous-même.
Ces services de management
sont vraiment
créés pour
en espérant
réduire
l'opération
ou la complexité
de la construction de Kubernetes
par prendre en compte
des des
plus compliqués bits
autour de l'enquête de contrôle.
Mais
beaucoup de Kubernetes
sont encore en train
de faire des teams
qui sont essentiellement
de la structure de la construction
dans le cloud
et puis
déployer des Kubernetes
sur ça,
eux-mêmes,
et de la manager
les full Kubernetes
pour les seuls.
Mais vous êtes bien.
Je pense que AKS
est le premier que je suis
le plus familier avec.
Je suis conscient
que je suis un max of MVP
et je pense que les gens
sont souvent
pensés que
c'est ce que je suis
le plus chiant
AKS.
Mais
c'est
en fait
le plus autre de la route.
Vous savez,
les cloud
que je suis le plus familier
avec.
Et oui,
je dis Azure
parce que
parle de
beaucoup de gens
dans l'U.S.
Donc,
c'est juste un truc.
Donc,
parce que
la cloud Azure
je sais le meilleur
que
évidemment,
il y a des figures
que je ferais
de l'avoir l'aider
dans le service de la cloud.
Et
et je pense que la cloud Azure
a été offre
le côté de la back
de cela,
c'est supposed
que parce que
c'est un point
très bon.
C'est un très bon point
parce
que nous sommes tous
les MVP.
Et je pense que c'est important
que les gens sachent
que Max of
ne force les MVP
ou la pression des MVP
pour
parler seulement
de leurs technologies.
C'est comme,
par exemple,
la semaine dernière
à Donat d'Oxford,
je fais le talk
sur JetBrains Rider
qui est,
évidemment,
vous pouvez l'agir
comme un compétitif
sur le studio visuel.
Donc,
je n'ai jamais été
noste par Microsoft
et je suis sûr que
c'est comme,
vous pouvez dire,
le seul
pour
faire confiance
vers les produits.
Absolument, oui.
C'est,
je pense que
ces programmes,
c'est le plus important,
je crois,
que
le
et
le programme MVP,
il y a un
un peu de critiques
et chaque
jeudi,
on a tendu
un peu de
Twitter
sur lesquels ils sont.
Et,
je comprends,
il y a des frustrations
autour de l'programme.
Mais,
certainement,
par mon point de vue,
je pense que
le plus important
c'est
le fait de la réponse.
Ils valent
la réponse
et,
en pouvoir connecter
avec un bunch de gens
qui peuvent dire
qu'en fait,
ce n'est pas
pas la bonne chose,
on va en savoir
avec nos clients,
on ne voit pas ça.
Ou,
dans mon compagnie,
ce n'est pas vraiment
vraiment going to work for us.
C'est,
c'est un des plus grands bénéfices.
Mais,
oui,
certainement,
je ne suis pas ici
à parler
pour le programme MVP,
par exemple.
Mais,
oui,
c'est,
c'est probablement
un bon point
qu'on ne,
on ne est pas juste
chelous.
Mais,
oui,
sur AKS,
comme je l'ai dit,
les bâtiments,
les bâtiments de la service de la Kubernetes
sont
très similes.
Ils sont tous offrant
les clusters de la Kubernetes
conforme.
Et,
les bénéfices de la Key,
comme je l'ai dit,
sont des providers,
ce qui est un aspect de la Kubernetes,
ce qui est essentiellement
le plan de contrôle.
Donc,
les brains,
si vous voulez,
de la cluster de la Kubernetes,
sont managés
par le provider de l'aile.
Donc,
c'est vraiment
où
la,
la date de la Kubernetes
utilise le CD,
c'est une des données
de la Kubernetes
qui est la dédiée de la Kubernetes.
C'est probablement
l'un des bâtiments
qui est un peu plus important
pour la managerie.
Vous devez faire
que ce soit très disponible,
vous devez faire que ce soit
reposé.
Et le plan de contrôle
en-dessous
est quelque chose que,
si vous vous rassurez,
vous devez
faire plusieurs instances
de la
et
vous déranger
toutes les
difficultés
sur les systèmes de la distributed,
et
les élections de la leaderie
et toutes ces complexes.
Donc,
avoir un service de management
prend le contrôle
de ça
de vous.
Ils le rassent pour vous.
Et en retour,
vous pouvez focusser
sur le reste de votre cluster
et, en tout cas,
vous focusserez
sur
les actuales applications
et déploiements.
Si les listeners
veulent jouer avec la Kubernetes,
vous recommeniez
juste de aller
à l'un des providers de la cloud
et de cliquer
sur le cluster
plutôt que de jouer
localement?
Je pense que,
dans l'un des premiers instances,
si vous avez un crédit
disponible
pour vous
dans le cloud de la Kubernetes,
ou si vous avez
un petit tour de frein,
alors
vous pouvez,
je pense que
il y a plein de options
pour faire
la Kubernetes
localement
afin de
commencer à apprendre.
Donc,
ce sont vraiment
des choses
comme
le Toulon desktop docker
dont vous pouvez
faire des Windows
pour Mac
et vous pouvez
vous pouvez
faire ça.
Les gens qui
ont peut-être
regardé le Toulon docker
un peu plus tard,
dans le passé,
vous avez besoin
d'avoir
Windows 10
professionnel
d'édition
afin de
faire le Toulon docker
parce que vous avez besoin
de Hyper-V
comme
WSL,
Windows subsystem
pour Linux 2.
Vous n'avez pas besoin de Hyper-V
donc vous pouvez
faire le docker
sur Windows 10
home edition.
Donc, c'est voulut
avoir un look à ça.
Donc, ça c'est une option
parce que c'est essentiellement
un clé pour élever la cluster.
Il y a aussi un project
de Minikube
qui est un project
que j'ai utilisé
quand j'ai commencé
à jouer avec
Kubernetes
et à faire des démarches.
Il y a eu des
challenges
à la fois
en randant sur Windows
en particulier.
Encore,
en revissant
à mon point
sur Windows
et à l'initialement
Donc, il y a eu
des challenges
en randant sur Windows.
Ça a apporté
un grand plus
d'expérience
et un grand plus de bricot.
Et ensuite,
il y a un autre project
qui s'appelle Kind
qui est un docker
comme c'est le cas.
Ce producte est un peu
différent
ou un projet
plutôt différent
dans le sens
que ça vous permet
d'élever
des clusters multi-nodes
aussi.
Mais essentiellement,
tous ces
tools de développement
vous donnent
essentiellement
des properes Kubernetes
à l'exception
de la singlee node.
C'est donc de la singlee machine
en fait,
que les Kubernetes
seront typiquement
en train de se contrôler
sur plusieurs machines.
Mais la beauté est
que
les outils que vous
générons
ou les files manifestants
et d'autres choses
que vous produisiez
pendant que vous travaillez
sur les Kubernetes
vous pouvez les appliquer
à un cluster de Kubernetes
et tout devrait
travailler.
Il y a
comme toujours,
il y aura un ou deux cas de
l'éducation
mais la grande majorité
de ce que vous produisiez
sera
sur
un cluster
irrespective
d'un moyen de la réchauffer.
Il y a un flashback
de
quelques années
avant maintenant,
une des conferences d'édition
je faisais un talk
sur les Kubernetes
et vous avez été
en train de se contrôler
et à l'enjeu,
je ne sais pas si vous vous souvenez
mais mon battery
ne sort pas.
Donc, tout de suite,
je pense que ça
était chargé
sur le device Wi-Fi
et vous venez
pour m'en réserver
avec un portable battery pack
et vous l'enviendrez.
Oui, j'ai eu des horaires
avec
Minicube
en ce moment
parce que l'un des problèmes
qu'il a eu
était
la management de la réchauffer
sur Hyper-V
et la réchauffer sur Windows.
Et
ce qui se passe
est que
si il a besoin
d'aller une réchauffer
d'autres souvenirs,
il va essentiellement se cacher.
Et ça ne se serait pas
immédiatement passé.
Donc, il a été le cluster
et il va être bien
et après 10 minutes,
il ne va pas travailler.
Et je me souviens
de faire un talk
à la rencontre
et je pense que c'était
en Telferd.
Et je viens de faire
ce cluster
et tout va bien.
Je suis commencé à parler
et j'ai fait mon
premier 20 minutes
de slides.
Je suis allé faire mon premier démon
et le cluster
était mort.
Et en orderant
de se couper le cluster
encore,
il a dû le déleter
et réproviser
encore.
Et il a fait
200 plusquets
de megabytes
de data
de la Wi-Fi
qui était évidemment
un Wi-Fi
Et c'était juste
un désastre.
Donc,
ça m'a prompté
de me voir
ce qui était causé
le problème.
Et ça a été
un simple fixe
dans la machine
de Docker
qui était utilisé
comme une dépendance.
Je pense que c'était
un de mes premiers
propositions propres
pour faire un patch
pour cela
qui, je pense,
a fixé ce problème
à l'avenir.
Ça a pris un peu de temps
pour le faire.
Mais
Docker a réveillé
et j'ai vu
tous ces projets
réveillés
et je n'étais pas
un développeur.
Donc,
mais,
merci de la fixation
c'était simplement
assez.
Je pouvais
faire ça.
Donc, vous avez beaucoup
de sauvage
d'autres démons, non?
J'espère.
Certes,
je sais que
j'ai commencé
à utiliser
la version de Docker desktop
quand ça s'est passé
parce que c'était
juste simple
à l'époque.
Et parce que j'étais
typiquement
en parlant de Docker
de toute façon,
ça a fait
sens.
Mais oui,
c'était
comme je l'ai dit,
je ne veux pas
donner des impressions
que
la MiniCube
est horrible ou quoi.
C'est certainement
massivement
un peu plus
plus rapide
que ça,
que ça used
à être
en retard.
Comme on l'a dit,
tous ces projets
vont se changer.
Donc,
c'est certainement
quelque chose
d'invité
si
vous n'avez pas envie
de jouer à Docker.
Je pense que la autre chose
que j'ai mentionné
est en fait
quand j'ai commencé
à jouer avec
Kubernetes.
Je n'ai pas même
fait
mon machine local.
J'ai utilisé
une plateforme
que je pense que vous êtes
familiar avec
aussi,
c'est
Catecoda
de Benhall.
Et
je ne peux pas
m'en souvenir
de ce que j'ai fait
avec Kubernetes.
En tout cas,
une semaine
j'ai trouvé
moi-même
sur Catecoda.
Je n'ai pas vraiment
compris ce qu'il était
à l'époque.
Et essentiellement,
ça vous donne
un peu de exercices
pour faire.
Et c'est
tout browser-based,
donc vous n'avez pas besoin
de
n'importe chose
sur votre machine local.
Et
ça vous donne un terminal.
C'est un vrai terminal.
C'est un vrai cluster
que vous jouez avec.
Et ça vous donne
des instructions
sur
ce que vous faites
ou ce que vous typez.
Et je me souviens
que
je me suis dit
tout sur ce site
à l'époque.
Et
j'ai été au bout
de la continent
et je me pensais que c'était
incroyable.
Et
je veux
parler de ça.
Et ça me fait
me dire
en parlant
à l'époque
aussi, je pense.
Oui,
je pense que ça a été
porté par
c'est O'Reilly.
C'est ça.
Oui,
je pense que c'est
un partage de O'Reilly.
Je pense que c'est
encore une plateforme
Vous pouvez le signer.
Et il y a un
un peu de technologies
sur le cloud
ce n'est pas juste
ce n'est pas juste
des Kubernetes.
Je crois que
beaucoup de documentation
des Kubernetes
sont de la vieille
sample,
si vous voulez.
Ce sont les powerages
par CataCoda.
C'est un bon moyen
d'apprendre
sans avoir...
Je pense que
parfois
ils utilisent
des laptops
par exemple
et vous avez
des policies restricitives
qui ne vous permettent pas
d'installer
des technologies.
Donc,
c'est certainement
une façon de commencer
et vous avez
un soutien
dans le cadre
avec des commandes
qui sont en train de
faire des commandes.
Donc, c'est un moyen fantastique
de
faire
ce qu'on a de l'initiel
si vous voulez.
Et puis
vous pouvez progresser
à l'aide de
les clusters
sur les machines de locales
ou même les clusters
dans le cloud
et
prendre de l'eau, vraiment.
Oui, je veux un petit
look sur votre site.
Donc, c'est toujours
même si
c'est brandé
sur O'Reilly
et c'est sur CataCoda
le site de l'on est toujours
sur CataCoda
et je peux
inclure le lien
sur les notes de la show.
Mais c'est un peu
comme des courses sur
Docker, Docker,
Compose, Kubernetes,
machine learning
et
plusieurs autres choses
aussi
comme Linux.
Donc, c'est pas juste
le Linux qui est intéressant
en fait,
je peux y aller.
Donc,
je pense que avec
la whole WSL
par exemple,
je fais un peu plus
avec Bash
que j'ai
peut-être même un an
d'anime.
Donc, je peux y aller
avec des courses Linux.
Mais oui, ça ressemble bien.
Donc, à l'époque
même si
j'ai utilisé Kubernetes
en production
pour des projets,
je tende à utiliser
d'une Docker
ou juste de
faire un peu de mon projet
d'un .NET
donc je voulais juste
faire un .NET
sur la ligne de commande
ou dans l'aider
d'un studio
local sur mon computer
durant le développement
et je ne peux pas
toucher
les Kubernetes
quand il s'agit de
la production ou de la production.
Je sais que j'ai
jamais eu le temps de jouer avec ça
mais
il y a eu des technologies
en Azure
je pense que c'est appelé
des spaces de la Terre
c'est probablement
été renommé
plusieurs fois depuis
l'année.
Mais est-ce que ça se passe ?
Je pense que vous pouvez
basiquement
déboucher
vos containers dans le cloud
si je vous le remercie correctement.
Oui,
la
histoire de développement
autour de Kubernetes
ou l'expérience de développement
est quelque chose que
je pense que
il est
encore
lager
derrière un peu.
Vous pouvez imaginer que
Kubernetes est quelque chose
que
l'on a adopté
en général
d'un côté
de l'opération.
C'est un
fantastique
de standardiser
votre
state de cloud
si vous voulez.
Et
je pense que nous devons
revenir
sur si
Kubernetes
est la bonne chose
pour vous
dans la conversation
naturelle.
Et je pense que
ce que nous voyons
c'est que
il y a eu un défi
pour essayer
de faire le développement
de la tooling
mieux.
Et en général
il y a deux
groupes
je pense que
il y a deux équipes
si vous voulez.
Il y a deux variants
sur ce.
En quelque organisation
et
typiquement
ce sont peut-être
des organisations
plus grandes.
Ils ont un plan de plateforme
délicaté.
Et je pense que
dans un certain
moyen
le plan de plateforme
est un travail
de la production
de la
team de développement.
Donc ils vont
construire
une abstraction
sur le top
de l'API de Kubernetes
que votre team de développement
va utiliser.
Donc les teams
qui sont abstractes
dans l'API de Kubernetes
sont typiquement
souhaités pour
quelque chose
au long de l'expérience
de la expérience de Heroku
où vous
vous vous
vous
vous
les développeurs
vous vous
vous
vous
vous
vous
contracting
bizarrement
boxes
passés
passés
par
je
le côté de ça est vraiment où les développeurs sont interactués avec Kubernetes API directement.
Donc ils sont peut-être en écrit des files manifestants.
Et puis, le débarguant et le développement sont un peu plus de un challenge.
C'est important de prendre un tour de la suite et de comprendre
ce que le fonctionnement de développeur semble quand vous êtes en train de
opérer cette espèce de cluster dans le monde de Kubernetes.
Donc, vous, comme développeur, vous pourrez écrire votre code et la machine de la loi, comme vous le faites normalement.
Et nous allons revenir à ce que vous vouliez faire dans le cas de Kubernetes.
C'est un peu de la même chose, mais typiquement, vous allez commettre votre code
à un genre de source control repository.
Et cette repository va construire votre code.
En tant que precontainement, le monde de source control repository
sera typiquement connecté à un système de integration continu de la construction.
Il peut être l'un ou l'autre.
Et cela va construire un artefact.
Donc, dans le monde de container, le building de l'artif est un container.
Alors que dans le monde traditionnel, vous pouvez construire peut-être un zip file,
un package de déploiement de quelque sorte, ou un installateur de quelque sorte.
Ceci, le building de container est posé à un système de container, typiquement.
Et puis, ceci est le système de container de registry.
Les images sont portées par le système de container dans votre cluster quand il se débrouille.
Donc, ceci est un workflow qui est assez convaincu, un processus assez long.
Donc, bien sûr, comment vous débarguez les situations?
Ceci est ce qui vient de vous, et comment vous faites cela sur la machine de la loi?
Je pense que beaucoup de gens sont en train de faire des choses,
comme vous avez dit,
de faire des choses sur la machine, comme un component de la loi.
Dans les deux liens de la loi, ou dans le studio de la visualisation,
vous pouvez faire des choses dans le container, si vous voulez.
Ceci est sensible, car vous faites surement que vous n'avez pas de coût
avec le container, en particulier si vous êtes en train de faire des windows et des linéaux.
Vous savez, la différence est là.
Et puis, ce que l'on voit beaucoup, c'est que les gens utilisent le docker compose.
On n'a pas vraiment parlé du docker compose,
mais essentiellement, il y a un moyen de faire plusieurs containers sur votre machine.
On voit les gens en train de faire des docks compose, comme leur environnement de développement local.
Et puis, ils poussent ces containers, et puis ils se débrouillent dans la Kubernetes.
Donc, il y a un peu d'un disconnecteur là.
Donc, le produit que vous avez mentionné, Azure Dev Spaces, est maintenant déproclé,
et il y a quelque chose très, très similaire,
qui s'appelle Bridge to Kubernetes,
qui tient à évoluer cette expérience de développement.
Donc, essentiellement, ce que Bridge to Kubernetes vous permet de faire,
c'est de faire un service individuel,
comme part de l'architecture de la micro-service, si vous voulez.
Donc, vous pouvez avoir un appui qui est comprise de plusieurs services.
Ce que Bridge to Kubernetes vous permet de faire,
c'est de faire un de ces des machines locales,
et essentiellement, avec des magiques,
une magique networking,
il connecte à un cluster et va dérouter la traficie qui vient dans votre cluster,
dans votre machine locale,
et vous permet de débarquer la code,
qui est en train de faire partie de l'architecture de la micro-service,
ou juste d'une architecture multiservice, si vous voulez.
Il y a quelque chose dans la communauté cloud native,
qui s'appelle Telepresence,
qui s'appelle quelque chose très similaire.
Mais tous ces services sont essayant de vous éviter,
et vous avez besoin de vous éviter de vous éviter de toutes ces containers sur votre machine locale.
Si vous êtes dans la machine net,
il y a d'autres projets qui sont en train de se faire,
donc il y a un projet de Thaï,
que certains de vous ont entendu.
L'essentiel de Thaï est...
Je pense que c'est un docker composé sur les steroids, si vous voulez.
Donc, il donne aux développeurs de Thaï,
des services micro-designés sur leur machine locale,
et aussi, il déploie eux à la cluster de Kubernetes.
On ne fait pas de la justice dans cette pièce élevée,
mais, essentiellement,
il y a besoin de la preuve pour vous,
des files, des files manifestants,
et ça vous permet de vous faire de nombreuses services sur votre machine locale, par exemple.
Ce qui est un scénario commun,
imaginez si vous avez un service qui comprise les 4 autres services,
sans quelque chose comme Compose ou Thaï,
vous avez de la nécessité de vous en faire dans votre studio,
vous allez au start-up et vous vous mettez sur plusieurs projets.
Vous devez ensuite se dédouer avec l'adresse de tous ces différents applications,
où sont-ils les applications?
Et ce que Thaï vous permet de faire,
c'est que ça manède ce discovery de service pour vous,
pour que vous ne faîtes pas de la faire en savoir exactement
ce qu'on appelle le service de l'autre.
C'est-à-dire qu'il crée un network, si vous voulez, entre ces services.
c'est probablement important de vous mentionner,
il n'y a pas de services sur les services.
Vous pouvez le mixer et le match,
vous pouvez avoir un couple de services,
vous êtes maintenant en train de travailler, si vous voulez,
et vous pouvez utiliser des containers pour un instance redis
ou un database de quelque sorte,
et vous pouvez utiliser un autre service de micro-service
que votre équipe a construit et va, par exemple.
En tant que ce soit dans un container,
vous pouvez toujours se déranger sur le Thaï Toulink
et encore avoir le bénéfice de avoir une expérience semelle.
Vous pouvez ensuite utiliser Thaï Toulink pour le mettre à votre cluster.
C'est assez intéressant dans le com.net qui a récemment été récemment...
Il a l'air que beaucoup de gens ne sont pas en train de utiliser
le feature de push, en même temps.
Les gens sont encore en train de faire
les plus traditionnels, les manifestants,
et peut-être des charts d'aide.
Je peux le voir, car Thaï est encore expérimental,
donc il n'est pas vraiment possible de l'utiliser pour le mettre.
Mais, comme expérience de dév.net,
je pense que c'est assez intéressant.
Je suis un développeur par train et par career, je pense,
mais je ne fais pas beaucoup de développement comme je l'ai été.
Ce n'est pas quelque chose que j'ai eu un grand nombre de expériences.
Mais certainement,
je pense que j'ai eu des questions sur mon workshops.
Je pense que je dois faire le docker fold,
et faire le docker compose manifestants.
Et je pense que Thaï est un des projets
qui essaient d'aider à l'adresser.
C'est cool. Je me souviens quand le projet Thaï a été annoncé à la bale.
Et la première chose que je pensais,
n'est-ce pas juste le compose docker?
Mais ça ressemble à ce que ça peut rater.
Comme vous l'avez mentionné,
le container docker, c'est comme une partie troisième,
mais vous pouvez aussi rater vos applications.
Et ça fait un peu plus de la main à la base.
Exactement.
Je pense que le compose, à la fois que Thaï est expérimenté,
c'était pas un spectre open.
Le docker a, je pense,
assez récemment,
depuis les dernières 12 mois,
ils ont ouvert ce spectre.
Je pense que, certainement,
j'ai entendu le projet Thaï,
les gens mènent qu'ils allaient regarder
si il y avait une opportunité
de bouger au niveau de l'modélisation de compose.
Mais, je pense que la différence est la plus importante,
c'est que vous n'avez pas à faire le compose,
et que vous vous en faites.
Ce qui, le Thaï, est un peu plus simple.
Et si vous êtes en train de rater
dans le monde de Microsoft,
Thaï est plus facile
parce que tous vos services
vont être en train de lutter.
La différence importante avec les composers,
c'est que vous devez vous insurer
que vous avez les files de docker
pour tous vos services en place.
Et puis, le compose de docker
peut évidemment construire ces images
comme un path.
Donc, il y a certaine équivalence,
des parallèles,
mais comme je l'ai dit, Thaï est un peu
composant de steroids, si vous voulez.
Mais, si vous êtes un organisateur,
ce n'est pas en train de faire de quoi,
Thaï est évidemment pas rélevé à vous.
Donc, c'est où le compose.
Donc, est-ce que Thaï est juste
un point de vue ?
Si vous faites des projects de docker ?
Je crois que Thaï est...
Vous devriez avoir
au moins un type de project de docker
comme part de Thaï.
Je ne sais pas le nom.
Il y a un bunch de applications
que Thaï est en train de rater.
Je crois que l'un de ces applications
devra être une application de docker.
En parlant de Thaï,
je me souviens que vous pourriez
faire un tout en plein
des containers en train de rater.
Vous avez bien compris que Thaï est un point de vue
C'est juste que vous ne vous en avez pas
de réels bénéfices,
parce que vous devez avoir
créé ces containers de toute façon.
Donc, à quel point vous êtes probablement
mieux offres ?
Pourquoi vous avez de la dépendance ?
Vous êtes dans le .NET
un type de chaine de tourneve
si vous n'avez pas travaillé dans le .NET
déjà.
Ça ne fait pas du tout le sens.
C'est vrai, donc je vais définitivement
ajouter ça à mon liste de choses à jouer avec.
Maintenant, dans mes notes de choses
c'est quelque chose que vous avez
juste mentionné récemment,
Helm.
Vous pouvez juste passer
à quel point Helm
fait et à quel point il est ?
Bien sûr,
Helm est souvent
décrivée comme un manager de package
pour Kubernetes.
Et je pense que, comme devs,
quand nous sommes un manager de package,
on va immédiatement
penser de la NuGet ou de la NPM.
Je pense que c'est plus important
d'understand que Helm est,
quand nous sommes un manager de package,
nous parlons plus sur
le chocolat ou le docker.
Donc, c'est en déployant
les applications à un cluster
que vous pouvez utiliser
dans les libéraux individuels,
si vous voulez.
Le problème que Helm
essaie de résoudre
est que,
quand vous déployez les choses
sur Kubernetes,
vous utilisez typiquement
des files manifestants.
Et ces files sont
souvent en Jamel.
Et pour quelqu'un
qui a travaillé avec Jamel,
il sait que la Jamel
est très
particulière
autour de l'espace white
et des indentations.
Et vous pouvez perdre
beaucoup de temps
sur un sujet
où vous n'avez pas
indécentré quelque chose.
Il y a beaucoup de lintes
et des choses à l'avail
qui font beaucoup de lintes
dans ce problème.
Mais l'un des choses
que vous avez mis à faire
c'est que vous avez
5, 6, 7
des files manifestants
et vous avez,
on dirait typiquement,
vous avez 3 ou 4
différents environnements
que vous devez déployer.
Vous avez un dev,
vous avez un test,
vous avez un stage
et un environnement de production.
Et vous devez changer
ces files manifestants
comme vous déployez
aux différents environnements
parce que
certains de ces valeurs
doivent changer.
Vous devez vous donner
une dépendance
ou une certaine service
de quelque sorte.
Vous devez utiliser
un secret différent.
Donc ce que Helm
essaie de faire
est d'essentier
d'assurer que vous puissiez
contempler ces files manifestants
et puis de vous donner
des valeurs
selon le sens
où vous déployez
cette particulare template,
quel environnement
vous êtes targeté.
Et ça fait un peu plus
que ça.
Je ne veux pas que
vous achetez de l'aide.
Mais essentiellement,
c'est l'une des causes
de la management
de ces files manifestants
pour vous.
Mais
il y a certainement
des défis
sur Helm.
Helm est maintenant
dans version 3.
Il y a version 2
qui est probablement
celui que vous
vous vous interviendrez
le plus,
je ne le souviens pas,
comme je pense
que beaucoup de gens ont
ce qui a très récemment
été fully déprocé
maintenant.
Mais il y a eu un component
dans le classique
called Tiller.
Et ce component
généralement
serait renseigné
comme un admin classique.
Il avait des
très très bons privilèges
et il y avait un peu
de risque de sécurité.
Donc, Helm 3
a changé un peu.
Il a retiré
ce component.
Donc, Helm est
probablement
le plus populaire
de la déployation,
mais pas la seule.
Je pense que
l'autre chose
pour vous remercier
avec Helm est que
vous pouvez déployer
ces autres
dépendances,
ces autres libraries
en utilisant Helm
aussi.
Et, d'ailleurs,
c'est un moyen popular
de distribuer
votre application.
Donc, si vous êtes
quelqu'un
qui distribue
votre application
pour,
on dirait,
autres développeurs,
alors que
avoir un charte de l'aide
est une façon
que ils peuvent déployer
dans leurs clusters.
Et
beaucoup comme Dock or Run
était quand
on l'a parlé
avant,
Helm est
la beauté
de ce que vous pouvez
faire avec Helm
install.
Vous pouvez déployer
quelque chose
qui peut avoir
10 différents
components
en trainant
dans votre cluster.
Vous pouvez le essayer.
Et si vous n'avez pas
l'air,
vous pouvez le installer.
Et tout ce que vous avez
déployé.
Donc,
tout de suite,
Kubernetes
devient cette plateforme
que vous déployez
vos applications
aussi
et ou
les applications
de troisième part.
Ça devient
la nouvelle base
de l'application
si vous voulez,
de votre
environnement de déploiement.
Donc,
vous ne devez plus
de dealing
avec les machines
et choses comme ça.
Vous en avez juste
dealing
avec cet API.
Je me souviens,
il y a des années
d'anime,
je l'ai entendu
un épisode podcast
qui était en train de parler
de,
je ne m'en rèverai pas
de qui c'était,
ce que l'application était
ou qui l'a été déployée.
Mais ils ont été
en train de travailler à Google
mais avant,
les Kubernetes
sont fameuses.
Et puis,
il y a
le Borg and Omega Project,
qui était
leur plateforme
interne
qui était base
de la Kubernetes.
Et ils se disaient
exactement ce que vous avez
dit,
où les développeurs
se sont
comme un cloud,
qui peut juste
déployer les applications
dans ce grand
cluster de Kubernetes.
Et ils n'avaient pas
à penser où c'était
en train de se déployer.
Et je me souviens,
à la fin,
ça a été
incroyable.
Maintenant,
ça se déploye
tous les jours.
Mais,
quand je écoute
le podcast,
je me souviens
que ça
est si bon
d'un point de vue
de développeurs.
Oui,
quand on a commencé
de bouger
dans le cloud,
une des
vraies
propositions
était que nous pouvons
maintenant
provisioner
des ressources
de l'infrastructure
avec le clé de la mouse.
Vous n'avez pas besoin
de se remplir
dans la forme de la réquisition
et de s'attendre
pour être
acheté,
et puis
installé.
Et six mois plus tard,
vous avez cette capacité.
Bien sûr,
quand on a bougé dans le cloud,
et que certains entreprises
ont impliqué
une manière de réquisition
de la forme de la mécanisme,
et que vous n'avez pas encore
encore eu
quelques mois ou deux
avant que vous ayez
les machines virtuelles
que vous avez besoin
pour votre projet.
Et je pense que,
c'est là où
ces plateformes
sont essayées
de faire ça
pour que c'est presque
immédiat.
Vous,
comme développeurs,
juste rassembler
cette application
et ils vont rassembler.
Et,
je pense que
certains personnes
vont entendre
ce que vous pensez,
et ça s'appelle,
très similaire
à la promesse de serverless.
Et je pense que,
en fait,
il y a un peu d'évoilage,
que serverless,
essentiellement,
que les plateformes
sont utilisées
dans les cas de la mécanisme,
elles rassemblent
votre code
dans un container.
Et je suppose que l'argument
est que serverless
est juste
une autre layer de
abstraction
par-dessus.
Mais avec
toutes ces choses,
la abstraction
est souvent liée.
C'est très difficile
de avoir une pure abstraction
où
la équipe de développement
n'a pas besoin
d'avoir
une surface
un service
avec des
des forces
qui sont servies
autour de la
compagnie,
des conditions de state,
des rondeaux limitées.
Il y a tous les choses
qui ont été
développées
pour
adresser à ces choses.
les réalités
sont que la abstraction
n'est pas pure
et que le développement
vous en aille
pour comprendre
que vous êtes
targeté
une plateforme serverless.
Je pense que c'est similaire
avec le Kubernetes.
Je pense que,
comme un développeur
qui est en train de entendre
ceci,
vous en avez besoin
d'avoir
un
base niveau
d'évoilage
d'une partie
de la
planche de contrôle
Et,
fondamentale,
c'est
qu'il ne faut pas
nécessairement
aller
dans les détails
de
des magies
de la
Kubernetes.
Mais
vous pensez que
vous devez comprendre
des components
de la planche de contrôle
et des
containers
et des
temps de contente.
Je pense que
la façon dont nous
de savoir
ces choses
dans le futur.
Et
vous ne devriez
même savoir
que vous venez
de la Kubernetes
tout à l'heure
parce que ce
serait
le défaillement
dans ces
plateformes de cloud.
C'est
l'âge de l'olden.
Il n'y a rien
qui ne peut pas
être solué
par un autre
coude d'abstraction.
Et c'est
ce que
c'est
ce que nous
en avons vu ici.
Je ne suis pas
convaincu
que l'abstraction
est
pure
encore.
Je pense que
c'est
probablement
Mais
en réalité,
il y a toujours
une dépendance.
Donc,
je pense que
une
cto
ou de
ceci
qui est
quand nous
adoptons
la Kubernetes,
on ne veut pas
que ce soit
plateforme
de la
développement
qui
est
probablement
optimiste.
qui sait
que
l'un des choses
qui sont mentionnées
est que
le développement
de l'âge
autour de
est
rapidement
en train de
bouger.
Encore une fois,
c'est quelque chose
que je ne suis pas
en train de
tenir sur le tour.
Il y a un
grand podcast.
Il n'y a pas
que mentionné
des podcasts
compétitifs.
Oh,
Cossicon.
Il y a un grand podcast
qui s'appelle
Google
Kubernetes Podcast
par
Google.
Google.
c'est
une
première
15 minutes
qui est
généralement
la
news
des products
et les
réglages.
Et
c'est un
bon
bon
bon
bon
bon
bon
bon
bon
bon
bon
bon
bon
bon
bon
bon
bon
bon
bon
bon
bon
bon
bon
il n'y a juste
verru
BB
un
rad
nom
et on a un nouveau équipe de team qui doit comprendre comment se réagir.
Le promesse de Kubernetes est de la façon ubiquite
de réagir des clusters multi-machines.
Ça veut dire que pour eux, c'était un bon défi de adopter ça très rapidement.
Mais si vous êtes un petit team qui vous aide à faire vos services,
vous n'aurez pas besoin de penser que nous devons faire des Kubernetes.
Je suis un avocat passionnant de la plateforme et de la service.
Je ne pense pas que beaucoup de Kubernetes parle de moi
que vous allez voir quand je ne me dis pas que la plateforme est encore complexe.
Et vous devriez toujours voir si vous pouvez évoquer de vous-même.
Je pense que c'est une plateforme incroyable.
Mais si vous n'avez pas besoin de savoir, vous n'avez pas besoin de vous-même.
Ce sera probablement votre focus,
surtout si vous êtes un petit team.
C'est donc seulement sur le site Azure.
La service app est une plateforme fantastique.
Vous pouvez avoir un long tour de votre voyage avec la service app.
Et si vous avez besoin de la service app,
vous pouvez aller en train de faire des Kubernetes
pour être plus simple.
Il y a des features en service app
qui vous permettent de faire des containers
et de faire des files de compose,
par exemple, des choses qui sont venus dans la service app.
Ça sort de la ligne.
C'est un peu trop tard.
C'est une des questions de ma prochaine question
quand vous avez utilisé le service app
comme un plan de service app qui vous avez répondu.
Et je n'ai pas de choses dans les plans de service app
qui sont en train de faire des images de Docker.
Parce que c'est juste plus facile à déployer.
Donc vous pouvez toujours utiliser Docker
dans Azure ou d'autres plateformes cloud.
Et vous n'avez pas besoin de utiliser les Kubernetes.
Même dans Azure, vous avez les instances de container Azure
ou d'autres instances où vous pouvez juste
créer un image.
Donc pour mon bon comprendre
des différences entre peut-être
un plan de service app
et un plan de service app
et un plan de service app vous pouvez encore scale
mais vous allez scale tout
où vous pouvez scale des services individuels.
C'est la main
raison que si vous voulez déployer
les choses séparatement, scale-out individuellement.
Je pense que le plan de service app
vous pouvez encore déployer individuellement
mais c'est la scale, je pense.
C'est l'une des défenses principales
où vous allez commencer à regarder les Kubernetes.
Je pense que le moyen de penser
sur les plans de service app est plus managé
que les Kubernetes, même dans le environ de Kubernetes.
Donc quand on pense à ce spectre
entre le service de l'infrastructure
et le service de la plateformes
et je pense même plus loin, les fonctions du service.
Le service de l'infrastructure et le service de la plateformes.
Ce n'est pas assez de plateformes pour le service
de l'enquête de la plateformes de la plateformes.
Vous avez des VMs comme part de votre cluster.
Vous ne faites pas de quoi que vous faites avec eux
mais vous pouvez les voir.
Mais sur une plateformes de la plateformes de la plateformes,
vous ne voyez pas les VMs en ligne.
Je pense que le point de transition
peut être très compliqué.
Vous vous dites qu'il y a des moyens de contrôler les containers
sur Kubernetes.
Vous pouvez payer vos machines en virtual
et juste contrôler les containers individuels.
Vous pouvez contrôler,
comme vous avez dit, le service app
et vous pouvez contrôler les containers sur le service app.
Nous avons un fabricage service
qui est un peu plus...
Je ne dirais pas que c'est décroqué,
ce n'est pas en ce moment.
C'était l'une des moyens de contrôler les containers
en Azure.
Et puis vous avez, évidemment,
AKS, le service de la Kubernetes Azure
et vous avez mentionné les instances de containers Azure,
qui est, je pense, le plus léger de tous ces containers.
C'est donc, en fait,
des containers serviles
pour essayer de mettre tous les mots en place
où vous pouvez donner, en fait,
un bunch de containers,
ou une main de containers,
et en fait, vous pouvez l'enlever
sans l'enlever à la provision de tout ce qu'il y a avant le temps.
Vous payez un second pour ça.
Pour moi, je pense que le point de transition
entre ces autres services et AKS
est probablement
juste le nombre de services que vous venez de contrôler
et de pouvoir manager des plans de service multiple
et puis, peut-être,
des plans de service Windows et Linux
et des plans de service app
d'un genre de framework.
On n'a pas vraiment touché,
mais vous pouvez utiliser les nodes de Windows
et Linux dans la cluster de Kubernetes.
Vous pouvez utiliser les containers de Windows
et les containers de Linux
dans la cluster de Kubernetes
et les manager, essentiellement,
dans le même API de Kubernetes.
Dans un plan de service, vous avez deux plans de service différents.
Juste pour vous rappeler,
le plan de service de service app
est le unit de bilingue, si vous voulez,
avec un plan de service app
et vous pouvez faire plusieurs applications
dans un plan de service app.
Vous êtes mort, quand vous scalez un plan de service app
dans un plan de service app,
vous avez scalez tous les applications dans l'underline.
Vous vous augmentez le nombre d'instances
de votre plan de service app.
Vous vous doublez le cost de le plan de service app.
Quand vous vous rassurez sur Kubernetes,
vous allez scalez les applications individuellement,
vous n'avez pas besoin de scalez la cluster,
vous n'avez pas payé plus d'admission pour ça.
Vous n'avez pas payé plus d'admission
par scalez l'application
dans les bounds de votre cluster de Kubernetes.
Et bien sûr, la scale de la setting est très importante dans l'AKS.
Vous devez comprendre
comment les capacités de scale de l'autoscale
travaillent dans Kubernetes.
Ou alors, sur le service app,
c'est essentiellement un slide et un box de tip.
Donc, c'est un point de service que vous avez
pu payer plus d'admission.
Vous avez payé plus d'admission pour ça.
Le plus cher de la route de la route de la service app
va probablement être
sur le cloud,
et la service infrastructure.
Et il y a un spectre là-bas.
C'est bien mentionné
les aspects de la cost
des choses comme AKS et d'autres providers de cloud.
Donc, c'est un peu de la histoire convolutée.
Si vous me soyez avec moi, on peut y aller.
Je pense que la GKE était la première
de la provider de cloud.
La première de la manière dont ils ont réussi les services de Kubernetes.
Encorement, Kubernetes était
largement un projet de Google au début.
Et quand ça allait en première place,
je crois qu'il y avait un charge nominal pour une cluster.
Et AKS a été un service prévu
et ils n'ont pas payé AKS.
C'est ce qui a signé que vous payiez
exactement le même prix pour votre service infrastructure
que vous pourriez payer AKS.
Ce qui veut dire que Microsoft ou Azure
étaient en train de vous faire
votre plan de contrôle.
Ils ont fait des notes de la qualité de la availability
sur votre côté et vous ne payez pas.
Et AKS a été en train de payer
les clusters de cloud.
Ils ont payé 20 cents par heure
pour une cluster.
Ce n'est pas un grand nombre de money.
Mais il suffit de mettre en place
quelqu'un qui veut débarter dans leur temps.
Quand vous avez eu l'option pour une cluster.
L'un des défis de la service prévu
sur la provider de cloud,
vous ne pouvez pas vraiment offerter un SLA.
Parce que les SLA sur la provider de cloud
sont basés sur les services que vous payez.
Donc je pense que c'était certain
d'avoir un point de vue
pour que l'Amazon soit chargé pour AKS
parce qu'ils ont voulu offerter un SLA.
Dans les derniers mois,
j'ai vu que le milieu de cette année
les AKS ont introduit un charge sur leurs clusters.
C'est 10 cents par heure.
Je pense que vous avez un cluster libre.
AKS a aussi introduit un SLA optionnel.
Ce qu'ils ont fait, c'est que
vous pouvez continuer à faire 3 clusters à AKS
si vous voulez.
Mais vous ne pouvez pas avoir un SLA.
Vous avez un SLO.
Donc c'est un objectif de niveau service.
Mais si vous voulez un SLA,
vous trouverez que beaucoup de grandes entreprises
vont balker l'idée de ne pas avoir un SLA.
Vous pouvez payer 10 cents par heure,
je pense que c'est toujours le charge.
Et vous pouvez avoir un SLA, un cluster avec un SLA.
Et je pense que AKS a aussi changé leur pricing
pour 10 cents par heure pour se matcher.
Donc tous les providers de cloud ont un SLA
et les 3 principaux providers de cloud,
et je crois que, si je vous ai mis le temps,
AKS est le seul qui vous permet de ne pas
être opté pour un SLA, si vous voulez.
C'est un peu de tangent, mais c'est pas facile
de dire ce que le SLA veut dans le cloud.
Je pense que beaucoup de gens
ne m'ont pas compris.
Imaginez que vous êtes en service,
que vous êtes en train d'avoir un site de e-commerce
sur un provider de cloud et que vous faites
1 million d'euros par heure sur ce site.
Si votre provider de cloud s'en va,
ils ne vont pas vous remettre la faible,
ils vont vous remettre la faible à la cost de l'avance.
Donc, dans le cas de ce cluster de Kubernetes,
ils vont vous remettre 10 cents.
C'est ce que vous avez perdu
depuis la fin de votre service.
C'est important de comprendre que,
quand vous faites une décision,
ce n'est pas une sécurité,
ce n'est pas un soutien de perdre de la faible.
Je suis sûr que c'est un soutien de la faible.
Mais je me sens que les gens
n'ont pas pu comprendre la nuance.
Je pense que c'est un point important
parce que beaucoup de companies
utilisant Kubernetes sont entier.
Ils doivent comprendre le SLA, c'est très important.
La chose que j'aimerais vous faire avant de finir,
c'est que nous avons parlé de Kubernetes et de Helm,
mais je sais qu'il y a d'autres produits
qui permettent de faire exprimer Kubernetes,
comme Istio et les services.
Si vous utilisez Kubernetes,
vous voulez commencer à considérer l'expérience de Kubernetes?
Oui, Kubernetes a un nombre de plus de services.
Et je pense que ce que nous voyons
est des services,
et Istio est un des services.
Il y a un besoin d'enlever plus de contrôle
de votre trafic de la Internet.
Dans Kubernetes, vous avez des services
qui vous ont envoyé des services.
Vous trouvez que dans les plus grands scénarios,
si vous avez le genre,
vous voulez contrôler la trafic.
Vous voulez avoir des logiciels de retrait.
Je pense que beaucoup de gens qui l'entendent,
sont des developers de la Internet,
qui sont probablement habitués à Poly,
un libre que vous pouvez utiliser.
Vous желiez ridiculously d'explorer
lesurs services.
les baumes clampardales de sommebank KwangT bewusst SLR etóp
l' desperation de 3 mois passant au Pixon mondialיים de Roamer
sites d'rill groundwater
Ce que je dirais, c'est que l'application de Kubernetes
est très puissante.
Et l'un des outils clés est qu'il a beaucoup de capacités
que vous ne peut pas réaliser
que vous avez besoin de l'instant.
Parce que votre application et vos déploies
sont très proches à l'instant.
Comme vous trouvez que vous avez besoin d'autres capacités,
il y a une bonne chance de construire des Kubernetes.
Et si non,
ils vont être disponibles à un point de vue.
Donc, sans spending trop longtemps sur les services,
c'est en fait,
c'est la tool de nettoyage
pour vous aider à la communication de nettoyage
entre les services micros.
Je suis venu à une de vos talks,
en parlant de ce genre de choses.
C'était un peu l'année dernière,
je pense, une des conferences de DDD.
Et,
pendant que j'ai fait beaucoup de Kubernetes,
je n'avais pas étendu de l'Isteo.
Un très intéressant talk.
En support pour des choses comme Mutual TLS
et plusieurs autres choses.
Mais oui, comme vous le dites,
le truc commence à sortir de la boxe de Kubernetes.
Toutes ces choses que vous ajoutez.
Vous ajoutez beaucoup plus, comme vous le disiez,
de la cognitive load.
Un autre tendance finie
que j'ai fait avant que nous finissions,
c'est que vous avez fait quelques talks en DDC.
Et vous n'avez pas seulement été un espèce,
mais vous avez été sur le comité de programme.
Vous avez trouvé, en parlant et sélectionnés
par ce grand liste de talks qui se sont détenus ?
Oui, des conferences en DDC.
Je suis un grand fan.
J'étais fan de ces concerts avant de parler.
J'étais très fortifié de pouvoir commencer à parler.
Ils m'ont donné l'opportunité
de voyager littéralement
autour du monde,
quand c'était un truc avant la Covid.
Je suis un grand fan de conferences en DDC.
Le London de DDC est venu
en fin de janvier 2021.
C'est un événement virtuel.
Je m'invite à aller là-bas et signer.
L'organisation qui s'est déclarée
l'année dernière,
c'est que je suis invité à être part de ce comité
qui a évoqué l'agenda.
Il y a eu un expérience de l'opinion.
On était en train de se démonter
pour deux jours.
Nous sommes dans le centre de London.
Certains de nous ont vécu
de très fortes places.
Nous avons été démonter
pour deux jours.
Nous devions s'assurer...
J'avais des talks
pour...
Je ne me souviens pas de les mêmes numéros.
C'était environ 90 slots
ou même 60 slots.
Quand vous pensez à ces numéros,
il y a environ 45 secondes
pour lire un proposement
et décider si c'est quelque chose
que vous voulez considérer ou pas.
Je veux vous donner un grand
shout-out à Chris
et à d'autres qui sont sur le comité.
C'est mon premier temps de faire ça.
Ça m'a vraiment aidé.
J'ai commencé à assurer les talks.
J'ai été en train de parler
quelques minutes.
Chris m'a dit que vous devez
bouger.
Ça m'a aidé.
J'ai eu de la possibilité de comprendre
comment faire un proposement.
Vous devez être très clair
avec ce que vous parlez.
Ce que ça explique
est de faire un brief intro,
des points de bullet
pour voir ce que vous allez faire.
Vous devez voir
ce que les attendees
veulent apprendre.
Vous devez savoir
pour aller à votre talk.
Nous avons vu des études
où les gens en parlant
sont en train de parler.
C'est un peu de cliquet.
Vous devez voir comment
faire x, y, z.
Vous ne pouvez pas
pas vraiment exercer ces talks.
Vous devez savoir
ce que le secret est.
Le secret peut être de
acheter mon livre,
ce qui n'est pas très acceptable
comme un talk.
Et vous ne voulez pas
parler de la pure cellule.
Je reconnais que ces conférences sont
sponsorées.
Et parfois, les gens pensent
que vous devez avoir
des sortes de sponsorisation
délicatées.
Mais les réactions,
les discussions,
les discussions,
les conférences,
elles sont très chers maintenant.
Mais en personne, elles étaient
fantastiques.
Mais elles n'étaient pas chers.
Nous, comme un comité,
nous avons été très cognisant
de la facture que nous avons
des gens qui viennent
d'une événement,
et pas seulement en l'Union,
les gens se sont volés
de l'Europe,
et de plus en plus en plus en profonde.
Et en s'assurant
que nous avons un programme
qui représente
les choses que les gens sont intéressés.
Et parfois, vous trouverez
que les topics de la hot
sont normales.
En ce cas, il y a
des discussions très belles,
mais le programme
serait un programme de technologie X
et de technologie Y.
Donc,
comme le temps
de la recording, nous sommes 3 jours
d'au bout de la période de la subvention.
Je ne suis pas sûr que quand le podcast
arrive, vous devez oublier la période de subvention.
Et puis, nous allons commencer
à faire cette sélection
pour l'événement,
probablement tout de suite.
Mais nous faisons ça en virtuel,
donc ça va être intéressant de voir comment ça fonctionne.
Je pense que c'est le 29 août,
ce qui est le sunday.
Si vous vous entendez,
vous pouvez le faire, mais
c'est le plus facile de l'événement.
Encore une fois,
comme les choses,
quand le programme est annoncé,
souvent, les gens sont déploiements
pour ne pas être sélectés.
Et le processus peut
être...
Le processus peut être
un peu opètre
pour les gens qui sont observés.
Je pense que l'année dernière, je vais essayer
de faire un tweet de la vie
du processus, car c'était le premier que je fais
et j'étais vraiment conscient.
Je dois dire,
à l'end of the two days, c'était brutal.
J'étais totalement dégrainé.
Parce que nous
avons commencé à 9 août et nous avons
passé à
10 ou 11 août au 1er jour
sur le saturday. Et puis, le 2nd
jour, on va essayer de le rappeler très rapidement.
Mais oui, il y a toujours
une chose d'apprécier les gens.
Et c'est juste purement le nombre
de ces gens.
Donc, les réalités, je pense que si vous vous
vous souviendrez de la DEC et que vous ne vous en êtes pas,
ne vous dévient pas et ne pensez pas
que votre parler est pas bon.
Je pense que ça aide à quelqu'un de vous
de voir votre proposement.
Je suis toujours heureux de
voir vos propositions.
Je ne suis pas si heureux de les écrire.
Je pense que ça me réveille.
Je suis toujours heureux de
essayer de vous donner des réponses.
Je ne sais pas si vous vous en êtes
Mais je ne vais pas vous
vous en avoir dans le 2021,
par exemple.
Je pense que
le processus est
difficile pour le comité,
parce que nous essayons de
écrire une balance délicate
entre les
nouveaux speakers, les speakers
qui nous connaissent bien,
parce qu'ils n'ont pas de compétition
et les grandes names de réalité
vont écrire les réponses.
Nous essayons de
écrire une balance délicate
entre les spectraux et les
topics divers.
Je pense que l'année dernière,
nous avons été très populaires pour les talks de blazer.
Nous serions
très contents de
les deux jours de la talk de blazer.
La réalité est que
Steve Sanderson a fait un couple de talks de blazer
et cela signifie que
si quelqu'un d'autre a fait un talk de blazer,
ils ne vont pas être sélectés,
parce que
la personne qui a créé le framework
a fait un talk.
Je pense que
ce qui est assez
difficile, si vous voulez parler de technologie
en particulier, c'est de faire des études de cas.
Vous parlez de comment vous implementez
votre company
ou de la route que vous avez vécue.
Les gens l'aiment vraiment,
les doigts de danse,
et les gens qui ont des choses.
Quand c'est un talk pure technologique
sur la technologie,
et que je suis à la bête de faire ça,
ils sont utiles, mais
je pense que ils ne sont pas as valuable
comme quelqu'un qui peut décrire exactement
ce qu'ils ont passé, les points de paix
qu'ils ont passé.
Cool. On va faire des déptips?
Il va être prédictif,
si vous savez que je pense que nous avons un défi
qui a dit cela en tout cas.
Mon déptip est de la laitière.
Je pense qu'on a eu
un peu de souci.
Oui, je pense que nous avons fait ça.
Je l'ai fait avant,
oui,
donc mon déptip est
quand vous utilisez ces technologies
des technologues cloutes,
la plupart ne sont pas des outils de commande,
et vous voulez les alier
comme vous pouvez.
Les Kubernetes ont la control cube
ou, selon le camp,
vous vous disiez que les gens ont la control cube,
la control cube,
les aliers de la machine
sont des K.
Je les ai mis en K, et cela
permet de contrôler.
Je utilise un tour de Pulumi,
et je l'ai utilisé pour les P.
Sur les windows,
vous pouvez créer
une bachelure,
une bachelure
qui contient ces aliers,
et vous pouvez avoir
un set de registres
qui vous applique,
qui signifie que les windows commande
sont en point, donc cela peut être
un terminal de l'old school ou un terminal de la nouvelle.
Ces choses de DOSC
sont en place, les aliers sont en place,
donc vous avez les aliers disponibles.
C'est mon déptip.
Je l'ai utilisé pour la Terraform,
donc je fais Tf pour cela,
et pour .NET je fais Dn.
Je utilise pas beaucoup de PowerShell,
donc je l'ai utilisé pour le profil PowerShell.
Donc mon déptip,
comme la dernière fois,
n'est pas vraiment un déptip
de la même manière.
Peut-être que nous devons renforcer
les tips d'une autre.
J'ai utilisé un outil appel Zoomit,
qui est partie du système interne
de Microsoft. Il est libre et il y a
des outils de bons outils,
comme partie du suite.
Zoomit vous permet de ne pas seulement zoomer
sur la screen, mais aussi de l'anitéter.
J'ai trouvé cela très utile,
pas seulement pour parler, mais pour faire des démos.
Mais aussi pour le programme de remote,
qui je fais beaucoup de temps,
je peux facilement
détenir les bits de code
ou les bits de l'UI. Il y a
quelques différents shortcuts
pour faire des choses différentes, et je suis
très utile. Je pensais que je
pourrais appeler ce tool, parce que c'est libre,
et c'est juste un partenariat du système interne.
C'est peut-être seulement des windows,
donc je vais inclure un lien
dans les notes de la show.
C'est cool, donc un grand merci
pour les gens.
Merci de me donner
le temps, c'était
très bien.
...
Episode suivant:
Les infos glanées
TheUnhandledExceptionPodcast
Tags
The DDD Conferences!