Rethinking SLOs with Narayan Desai

Durée: 25m14s

Date de sortie: 26/04/2022

Narayan Desai explains why SLOs can be problematic and proposes alternative methods for monitoring complex, large-scale systems.

Visit https://sre.google/prodcast for transcripts and links to further reading.

View transcript

Hello and welcome to the Esri podcast. This is a limited series where we're discussing Esri concepts with experts around Google.
I'm Viv and I'm hosting today with MP.
Hello.
Et notre guest est Narayan, qui est là pour parler des objectifs sur le service. Narayan, bienvenue à la podcast.
Bonjour. Je suis Narayan Desai. Je suis un nouveau tech lead. Je suis responsable de la reliantité des produits portfolio, des produits GCP, des données analytics.
Je suis à Google pendant 5 ans et j'ai fait beaucoup de travail en computing de la performance de la performance.
Bienvenu à vous. Merci d'être ici.
Les objectifs sur le service sont très bien joués, généralement comme un tool primaire pour les services de l'ESRI.
Nous parlons de ça dans le book de l'ESRI si vous ne vous connaissez pas.
Je pense que je suis très curieux de comment ces concepts travaillent quand vous regardez quelque chose sur la scale de Google, quelque chose comme Google Cloud.
Qu'est-ce que vous pensez ?
Je pense que c'est une expérience décidée. Si vous pensez au cas du business, que les SOOs sont créés, Google, les entreprises historiques, étaient très grandes, ont beaucoup de clients.
Et ne pouvaient peut-être apporter une reliantité dans l'agriculture, pas nécessairement targeter les utilisateurs individuels de services de la scale de la search ou de l'email.
La situation de l'ESRI est très différente, où tous nos clients comptent sur nous pour donner l'infrastructure qu'ils ont utilisé pour construire leurs entreprises.
Donc, tout un de ces deux signes doit avoir une expérience bien bonne.
Le constructeur de l'ESRI est une application d'agriculture que vous pouvez utiliser pour combiner toutes les expériences et mettre un threshold raisonnable pour les performances.
Ça fait beaucoup plus difficile dans cette situation, parce que tous vos clients ne sont nécessairement à la même valeur du business.
Et aussi, vous voulez donner une bonne expérience à tous les clients.
Les budgets d'air et de la course de la course sont créés sur les SOOs, ce qui est problématique, parce que personne ne veut être dans le budget d'air.
C'est understandable, ils sont payés pour un service que ils appendent.
Et donc, je pense que, par cette perspective, c'est très difficile d'appliquer les SOOs uniformément à travers le GCP.
Et je pense que le autre dimension qui est très intéressant, c'est que si vous pensez à la surface de la course de Google que tout le monde utilise,
les cases de utilisation sont assez marres par rapport à ça.
Si vous pensez à un service comme le GCE, c'est un centre de données dans une box.
Il y a une surface d'application très grande, un nombre de dégrés de frein, les clients ont.
Et puis ils finissent de construire des works très complexes sur les blocs de ces constructeurs que nous avons offerts.
Et donc, incliné, en plus de la preuve des erreurs, nous careons de la performance que les clients ont délivrées.
Et je pense que les SOOs ont vraiment de l'air de donner des insights importants
quand vous avez besoin de analyser la performance délivrée par un service
avec un nombre de workloads que les clients peuvent demander.
Ça fait un peu de sens. C'est très intéressant.
Alors, comment vous recommandez, en termes de remplir cette gamme que les SOOs ont,
en regardant quelque chose de complexe et de large ?
Je pense que c'est plus important de considérer les erreurs et la performance discrétalement.
C'est beaucoup plus facile de analyser les erreurs en utilisant les SOOs
que de analyser la performance en utilisant les SOOs.
Mais je pense que c'est plus important que ça.
La première question que vous avez besoin quand vous essayez d'utiliser un de ces systèmes
est, quel est l'outil, quel est le travail que vous voulez produire ?
Et comment sont ces tools en faisant le travail ?
Je pense que l'une des choses intéressantes de la façon dont les SOOs ont été adoptées
est que vous vous voyez souvent des gens qui disent que c'est utile pour tout.
Vous devez utiliser les SOOs pour obtenir beaucoup de différents outils.
Je pense que c'est très problématique parce qu'il n'y a pas de garantie
que les outils que vous essayez d'utiliser sont compatibles.
La première chose que vous pouvez faire quand vous utilisez un système comme les SOOs
est que vous soyez sorti de spectacles,
essayez d'understand si les SOOs sont utiles pour que vous mettez vos objectifs en place.
La deuxième chose que vous pouvez faire,
c'est que vous essayez de faire ces SOOs comme rares que possible
pour que ils soient utilisés pour répondre une question solide
si vous êtes en train de répondre à une variety de questions sortis,
et je suis un grand professeur
dans le besoin d'un certain nombre d'insights,
envers nos services,
pour comprendre ce qui se passe.
La prochaine chose est très importante
pour que nous fichons effectivement
ce qu'est normal dans nos systèmes.
Les SOOs sont utilisés comme une approximation normale.
Les formulations que ces SOOs sont formulées
sont que l'expert de l'examen
va examiner la performance de la production
sur un système historique,
la première année,
la première couple de mois,
et puis dire que pour cette operation API,
la production de l'examen

les questions de 99,99%
en moins de 500 ms.
Je pense que c'est une approximation normale,
mais c'est un point de temps de approximation normale.
Une des manières que cela peut faire le mal,
imagine que vous avez un système de storage
et le système de storage
consomme 300 de ces 500 ms.
Et comme l'application s'est développée
en tant que software,
imagine que votre système de storage
s'étend à 30%.
Maintenant,
l'estimage que vous avez normal
à 500 ms
pour 99,99% des réquests
est suddenly off
parce que 99,99% des réquests
sont en fait seulement 400 ms.
Il y a aussi besoin
pour examiner les données
et pour comprendre
comment les choses changent en temps.
Vous pouvez voir des changements en workload.
Si les clients commencent à envoyer
plus de réquests,
cela peut changer la comportement.
Encore une fois,
c'est important
que vous ajoutez un step de vérification.
Les 3 choses qui je recommande
sont de la manière scepticale,
de la question
que vous essayez de répondre
et de la validation et de l'intervention
pour faire sure que votre estimation
fait le sens
et qu'elle suit le fait que le système
s'étend.
Parce que vous ne voulez pas
une alerte détournée
ou une alerte agressive,
si un système sub-systeme s'étend plus vite,
vous voulez le prendre en considération
et se protéger en temps correct.
Cela tient à l'attention
d'un des plus grands points de pain
avec les SOOs.
Ce que je vois
dans mon expérience personnelle
est
que chaque fois que vous ajoutez un SOO,
c'est un autre point
que vous devez faire
de la maintenance
et que votre objectif
est toujours en date
avec la performance.
Oui, et je pense que le autre
qui est intéressant,
c'est que
c'est clair
comment faire des SOOs
qui sont
d'accord à répondre aux questions.
Mais,
comme vous l'avez mentionné,
il faut être un cycle de maintenance.
Je ne pense pas que ce cycle de maintenance
soit très bien développé
à ce point.
Et le problème
d'autre important
que vous avez
pour le sujet,
c'est que si vous pensez à ce que le cas
soit si vous avez des SOOs
pour répondre aux problèmes particuliers,
c'est que vous vous endurez
avec un SOO pour l'affirter.
Vous vous enderez avec
plus et plus SOOs.
Donc,
par exemple,
nous avons une surface interne
sur Google
qui a...
Ça peut avoir été créé
depuis la dernière fois
que j'ai parlé avec cette
équipe particulière.
Mais ils ont un point de 1,5 million
de paramétres d'SOOs.
Oh, non.
Et
c'est une surface.
C'est un point de la surface,
c'est un point de la surface.
Et donc, je pense que
le lieu d'affirter
que cela se trouve très difficile
est que
si vous avez que nombreux SOOs,
vous êtes toujours au SOO.
Qu'est-ce que ça veut dire?
Comment vous actez?
Comment vous combinez ces signes
ensemble
dans quelque chose qui est significatif?
Je pense que tous ces questions
sont très compliquées
et que nous n'avons pas
vraiment
étendu très bien.
La autre chose
que je pense
est vraiment drôle,
est que les SOOs
codifient
ce que l'on expectait,
mais ça ne corpore
aucun modèle
de ce que
la surface d'affirter
soit flexible de toute façon.
Donc, vous vous enduriez
avec ces représentations
très brutales
de ce que la performance
devrait sembler.
Donc, pas seulement vous devez
maintenir,
mais c'est pas clair
ce que vous devez
maintenir.
Et donc, vous n'avez pas
de bonne confiance
de où vous êtes.
Vous vous endvez
dans une situation
où vous avez plus et plus
des SOOs
et vous devez être modifiés
et vous ne savez
souvent comment ils doivent
être modifiés.
Donc, la précision
se termine en très bas
parce que
la manière dont les SOOs
sont déployés
est que vous sortez
un peu de l'éloir
et que vous la crée
les frises
ou d'autres types
d'actions
de grande scale
basées sur le système
de ce système
en regardant ces médecins.
Et il y a beaucoup d'insent.
Par exemple, si vous vous
allez payer quelqu'un
ou quelque chose d'autre
que l'ESLO
et vous avez un moderne
comme, let's forget
le million de quarts
pour un moment,
vous avez un service
qui a des sénaturs
de SOOs.
Vous allez payer
quelqu'un à la mort
si vous utilisez
un SOO en cette façon.
Et donc, il y a
beaucoup d'insentables
qui causent des gens
pour faire les SOOs
moins agressives
aussi.
Donc, je pense
que vraiment,
il y a beaucoup
de très difficiles
challenges
avec les SOOs
et nous devons vraiment
faire un plus robuste
framework.
En tout cas,
nous sommes dans ce
terrain.
Il y a quelque chose
que je voulais
remercier un peu.
Dans votre
frame de ce
et les expériences
avec Google Cloud,
beaucoup de ça
ressemble à
beaucoup de questions
qui arrivent
parmi les notions
des utilisateurs
qui sont un peu
des gens
qui ne sont pas
d'un utilisateur individuel.

un utilisateur
qui est
en fait
une organisation
derrière
ce qui est en train
de se réagir
et
ça a un peu
des problèmes
qui
arriveront
beaucoup
dans le cas
d'un provider

qui est direct
plus B2B
plutôt que B2C
structure.
Donc, je me suis
inquiétant
sur
ce quelles sont
vos questions
dans le frame
et sur
ce type
de questions
de business
que vous êtes
en train de répondre
avec vos SOOs.
Je me suis inquiétant
sur ce que vos
pensées sont
sur comment
tout cela
appuie
si cela appuie
la même
ou si cela appuie
de manière
différente
pour ces sortes
directes
de utilisateurs
monolithes
comme Search & Gmail.
Donc, je dirais

les détails sont différents.
Je pense
que
il y a un
vraiment
différent
entre B2C
et B2B.
Et
je pense
que
fondamentale, ce qui s'est passé
à la fin
de la journée,
les problèmes de business
que vous essayez de
faire ici
sont plutôt similaires
dans les deux cas.
Nous avons tous
des ressources
de la liébile
et nous devons
savoir où
les expériences sont

Les SOOs sont
un mécanisme
que nous pouvons
comprendre
où nous devons
engager.
Si vous pensez
sur les ressources
en colère
et les réponses
d'incident, c'est
expensif.
Donc, où et quand
nous engagerons-nous?
Vous voulez
engager ça
quand c'est besoin.
Mais on a
essayé de
le faire
avec les SOOs.
En quelque cas,
ça marche très bien.
En autres cas,
ça ne marche pas
très bien.
Et je pense
que
d'un perspective
de 50 000
foires,
les problèmes sont
exactement
les mêmes,
d'où vous faites
B2B
ou B2C.
Mais
les spécifiques
sont
très différents.
Nous avons
une grande diversité
de utilisateurs
de GCP
qui sont en train


de freitier
que nous voulons
donner une bonne expérience
pour quand nous pouvons,
pour
certainement
investir
d'un certain extent.
Mais nous avons
aussi des customes

qui nous payent
plus de money
et qui sont
de plus de services.
Et donc,
beaucoup de
places

les SOOs
ont
prouvé
les problèmes
dans cette
shift
de B2B
est
que
la calculation
essentielle
est de prendre
toutes les requises
que vous avez
et
dévier
les uns
qui ont faim
et
dévier
les autres
et c'est
votre insight.
Dans B2B,
vous devez
considérer
ces questions
de
quoi vous voulez
utiliser.
Vous voulez
considérer
toutes les requises
qui sont
plus importantes.
Vous voulez
utiliser des
types de normalisation
qui vous donnent
différentes insights
de la data.
Ces choses
sont différentes
parce que
B2B
est
fondamentale
et
restant
avec un certain point de question.
C'est cool.
Merci.
Je suis inquiétant
que vous avez mentionné
la nécessité
pour
un processus
plus meilleur
pour
les SOOs
ou
les alternatives
qui sont
plus robustes.
Je suis inquiétante
si vous vous parlez
de Google Cloud
B2B.
Qu'est-ce que
ce plus robuste
framework
que vous avez

Surtout
que vous pouvez commencer
avec les scratchs.
Qu'est-ce que la différence
est
que vous avez

de
hypothétiquement
fixer
les choses
que nous avons
discutées
qui sont problématiques?
Bien sûr.
Nous travaillons
exactement pour cela
parce que nous pensons
que c'est un grand problème
ou un arrêt
que nous avons besoin de.
Je
j'aime la manière
que vous vous en faites
question
parce que je pense que vous
avez besoin
d'un start
et de rébuilder
sur le terrain.
Une des choses
très importante
est que
nous avons besoin
de
des analyses
de la reliant
qui incorporent
une notion
de ce que nous espérons
exister
dans notre système.
Par exemple,
les SOOs ne disent pas
que les reliantes
sont des soins

Les SOOs disent
que vous soyez inquiétants
de ce que vousz
gehorez

de votre
steer
du parallèle
pour vous
apaître

Strep
LC
et ça devient plus important.
Donc, il faut comprendre ce que les clients
disent quand ils disent que le service est ou pas reliable.
Historiquement, nous avons fait un bon travail de définir ça.
Nous avons terminé avec ces définitions circulaires
où votre service est reliable si il met sa service au service,
et la service met sa service si c'est reliable.
Et puis vous avez sorti des arbitres,
des thresholds numériques pour ça,
et vous vous êtes en train de faire cette référence.
Et d'ailleurs, c'est vraiment important
de commencer avec une définition courte
de ce que c'est que nous parlons quand nous disons que le service est reliable.
Donc, la définition que nous avons commencé à utiliser
est une combinaison
d'effectivité de stationnés,
les clients espèrent que les clients continuent à obtenir
le service qu'ils ont fait hier.
Et ils espèrent que cette continuité,
ou la stationnésité, si vous pensez à un perspective statistique,
dans trois dimensions,
ils espèrent que le service sera disponible,
c'est-à-dire que quand ils ont besoin, ils seront là.
Ils envoient une question, vous répondez,
et pas seulement à leur propos.
Ils espèrent que ces résultats seront corrects,
que il y ait un contract de API pour le service.
Et ils espèrent que la performance sera consistante.
Si ils vous envoient un RPC, et il a pris 300 milliseconds hier,
ça va probablement prendre 300 milliseconds aujourd'hui.
Et ce qui s'est passé,
quand vous commencez à poser des termes mathématiques,
ce que vous êtes vraiment en train de regarder,
est une situation où vous pouvez faire une assertion
que la performance que vous avez envoyée
résulte dans une distribution stationnelle
en temps.
Ce n'est pas pour dire que chaque requête
sera exactement 200 milliseconds,
mais ce qui dit que la range et la distribution
de performances que vous avez,
ou les erreurs que vous avez,
sont sorties de la consistance en temps.
Vous avez des bonnes et des mauvaises,
mais la distribution sera plus de la fin.
Et je pense que cet approche
donne une manière différente
de regarder les systèmes,
de regarder les systèmes de comportement.
Parce que, fondamentale,
si je vous dis que je vais vous donner un talk,
je serai en train de mettre un slide
qui a deux graphes de performance.
Vous pouvez imaginer un graphe
qui est relativement équipé
avec des variantes très petites,
comme un exemple,
et un autre graphe
qui a une haute,
la ligne de trend est haute,
d'exemple, il y a des spics de large occasion,
et imaginez que les graphes
ont les mêmes sens.
Si vous pensez que le service est plus facile
d'utiliser et est plus reliant
par un utilisateur,
c'est le premier qui a une haute variance.
Je pense que l'un des choses
qui est le plus important ici
est que nous devons prendre des variantes
plus sérieusement
comme une propreté de la distribution.
Alors, on commence.
Nous avons construit des analyses
qui feront l'analysation
des distributions de performance,
et nous avons trouvé
que ces sont des bonnes indications
de surprise de customer.
Si vous pensez à cela,
dans cette infrastructure,
surprise est presque toujours
une chose de mauvais.
Et donc, vraiment, ce que vous voulez faire
est que vous voulez le détecteur surprise.
C'est ce que nous avons travaillé sur le building.
Et ça se termine,
que si vous pouvez
couper votre workload
dans des pièces qui sont assez self-similaires,
alors que beaucoup de ces comportent
consistant en temps,
et vous pouvez utiliser des rates
d'inconversations
pour se sponder
où votre service n'est pas comporté
et ce n'est pas un fonction
de changement de customer à leurs workloads.
Si vous regardez le crystal ball
dans les prochaines 5 ans,
les Bessellos, dans mon compte,
représentent la solution
pour produire des statistiques
sur la reliantité de votre service.
Mais je vois beaucoup plus d'analytiques
qui se passent dans les prochains 2 ans.
Et je pense que ces analyses
nous permettent de nous donner
des services importants
et nous donner des outages
pour se faire vendre les problèmes
plus vite et plus cher.
Et, à l'idée,
avant que les clients se sentent,
je pense que, à l'endemain de la journée,
nous savons que nous avons des outages,
mais vous voulez pouvoir
trouver et fixer ces choses
en tant que possible.
Et je pense que c'est
le challenge de la première fois.
Et je pense que c'est un très excitant.
Dans votre définition
de la reliantité,
je suis sous l'impression
que la performance
comme vous l'avez utilisé
est plus ou moins synonyme
avec l'utilisation
de la reliantité,
ou de la reliantité responsable, je pense.
Depuis le service,
si vous pensez au système de service,
alors oui, à peu près.
Donc je spent beaucoup de mon temps
en pensant sur les services de l'analytiques
et certains de leurs services sont
focussés sur la réponse de la reliantité.
Les autres sont beaucoup plus sincronisants.
Donc vous pouvez avoir
un travail dataflare
qui se débrouille pendant des heures
ou des jours.
Donc ce n'est pas une seule reliantité.
Mais vraiment,
quand je parle de performance,
il y a un point important
pour le client.
Et si c'est
une app Engine,
c'est la réponse
à un request.
Si c'est une grande reliantité,
c'est la réponse à une reliantité.
Ou chaque service
va avoir sa propre
et la seule preuve
qui va donner aux clients.
Et donc,
en en prenant des mesures,
et en prenant des mesures
de la réunité de la fin,
ça va être un grand part
de la déchamberie.
Je vais aussi demander
que le procédure de la correcté
est très difficile.
C'est extraordinaire.
Oui.
Dans mon avis,
la seule façon de savoir
ce qui est le réponse
à un request
est
que le système de comportement
est définitionnel
et il s'agit de la logique circulaire.
Oui.
Il y a des stratégies
que vous pouvez utiliser
en quelque cas.
Donc, les check-sums sont un exemple
où vous pouvez détecter
quelques mesures de défaut.
Mais le plus complexe
du service,
le plus difficile que ça peut être.
Donc,
les systèmes de la production
ont une variété
d'enjeux très difficiles
d'enginérements.
Mais un endroit
que je suis vraiment
en train de voir
est que
ils sont plus responsables
d'un système de compétition
littéral,
ce qui signifie
que vous
avez l'obligation
d'en comprendre
la structure de la data
et ce qui devrait être
un api particulièrement

Il y a des difficultés
de correctement
qu'ils ont,
c'est le bainomise de la panseilla.
Mais pour les analytiques,
c'est très difficile.
Et donc,
vous vous endvez
en passant
une variété
de paths complexes.
Une des idées
de la wilder
que nous ne nous expérimentons pas,
mais qui a spécifié
un peu,
c'est
qu'il y a un sort
d'exploitation historique
pour des supplémentations
de corollogique,
et de faire des choses
importants
deux fois.
Vous pouvez même
penser à faire ça
avec des réglages multiples
de la code.
Je pense que
il y a un précédent
pour ça,
mais oui,
correctement
c'est un
problème fiendish
Je suis curieux,
parce que
il y a eu
une conversation
potentiellement
de différentes priorités,
surtout
de l'aspect de l'usage.
Donc,
quand vous regardez
quelque chose
comme correctement
ou de la reliantité
que les utilisateurs
attendent,
les utilisateurs
font beaucoup de différentes
choses.
Je pense que la question
est avec
cette approche
de minimiser
les variants et les autres,
c'est potentiellement
d'exploitation
des utilisateurs
sur les autres
dans l'équation,
et comment est-ce
que cela a été compté?
Pour être vraiment clair,
mon équipe
n'a pas été travaillée
sur les méthodes statistiques
dans cet espace
tant plus.
C'est juste
une speculation
à ce point,
mais c'est
l'un des choses
qu'on va avoir besoin
de faire.
Donc, notre travail primaire
a été focussé
sur les erreurs
et la performance.
D'accord.
Oui, il y a beaucoup d'aspects
pour généralement
ce problème.
Donc,
je me sens
déjà en haut.
Je suis le plus optimiste
à ce point
sur les insights
que nous serons
pour obtenir une analyse
de performance.
Vous savez,
il y a un état
qui est un peu bizarre
que vous pouvez voir
une classe broade
de mode d'erreur.
Une des choses
que nous avons observées
dans beaucoup de nos outages
est que
priori
à la large scale
de Mayhem,
vous avez souvent
de la performance.
Il y a des
sub-systemes
ou des dépendances
qui commencent
à se faire plus vite.
Et
comme ils commencent
à se faire
et se bargner,
vous voyez,
en fait,
vous avez
un limit critique
où vous avez des délinements
et que
cette performance
s'est
évoluée
pour vous
qui vous permet
de vous baler.
Mais ce qui veut dire
est que
les problèmes de performance

sont plus synonymes
que vous pensez.
Je ne dis pas
que 100% d'erreurs
sont des problèmes de performance.
Mais
à la route
de beaucoup de
erreurs de PC
qui sont rétournées,
vous avez
des éléments
qui sont plus lent.
Et
si vous étiez
à prendre un maximum
de vue de ça,
il y a un temps
de PC
mais un PC
qui n'a pas répondu.
C'est un problème de performance.
Et donc,
je suis vraiment
optimiste.
Et on a des évidences
que vous pouvez voir
une grande
% de vos outages
dans le domainement de performance.
Et donc, je pense que c'est
la place
produite la plus
produite de tout.
Qu'est-ce que le grand
take-away de tout ça
et quel est le path
pour le looks
de ce point
comme vous le voyez?
Je pense
que le plus important
take-away
ici est
qu'il y a un grand opportunité
de faire
une analyse
plus suffisant
sur la data
de la reliance.
Mon personnel
de la croissance est
que ça
va impliquer
les outages
d'incorporation
de ce que nous espérons
nos systèmes
de faire
et de construire
des variants
pour les
behaviours
que nous espérons
de les exister
sur un système.
Et
je pense
qu'on doit
commencer
les questions
plus détails
et
essayer de leur répondre
avec des données,
pas seulement dans la
formulation
mais dans les autres
aussi,
et voir ce qui fonctionne.
Je pense que ce sera
un processus

où personne n'a pas
les mêmes réponses
encore.
Et je pense
que c'est important
pour la communauté
d'engager
et parler de ce qu'ils ont fait
et de ce qui fonctionne
et ce qui ne ne le fait pas.
Et c'est pour ça
que nous allons
mieux se faire.
Encorement,
les systèmes
que nous construisons
sont plus importants
et nous devons
être plus
réciaux.
Et je pense
que c'est un challenge

pour les prochaines 5-10 ans.
Les plateformes
de computing sont
increasingly
au centre
de beaucoup de processus importants
et nous devons les travailler
envers les deux.
Je crois que c'est un
très compétent
marifon
pour être partage
parmi nous.
Donc,
c'est un propos
pour ça, je pense.
C'est un temps
incroyable.
MP,
d'autres questions
avant qu'on vous rappel?
Je ne pense pas.
Je vous interrompe
aujourd'hui.
Merci.
C'est un chat
très bon.
Merci
pour être ici.
C'était bien d'avoir vous.
Et
pour tous les listeners,
je vous remercie
pour les prochaines
prochaines podcasts
pour la 5-10,
sur Migration.
Merci.
Merci beaucoup.

Les infos glanées

Je suis une fonctionnalité encore en dévelopement

Signaler une erreur

GoogleSREProdcast

SRE Prodcast brings Google's experience with Site Reliability Engineering together with special guests and exciting topics to discuss the present and future of reliable production engineering!
Tags
Card title

Lien du podcast

[{'term': 'Technology', 'label': None, 'scheme': 'http://www.itunes.com/'}]

Go somewhere