Customer-Centric Monitoring with Silvia Esparrachiari

Durée: 31m5s

Date de sortie: 12/04/2022

Silvia Esparrachiari talks about the challenges of monitoring and the importance of understanding your users.

Visit https://sre.google/prodcast for transcripts and links to further reading.

View transcript

Salut tout le monde, bienvenue à la série de SRE.
C'est une série limitée où nous parlons des concepts de la série de SRE avec des experts sur Google.
Je suis Viv et je suis votre host aujourd'hui et je suis ici avec MP.
Salut tout le monde.
Et aujourd'hui, nous allons parler de la monitoring avec notre guest Sylvia.
Bonjour.
Salut, merci pour être ici.




Vous voulez nous parler un peu de vous-même ?
Oui, pour sûr.
Merci pour l'invité, tout le monde.
Salut, je suis Sylvia et je suis la série de SRE UTL
pour une collection d'assortissements en services,
en AMP, qui est pour l'application de la plateforme modernisation.
Je suis sur Google pour 10 ans,
en série pour environ 7 ans,
et la monitoring est le centre de la série,
pas seulement pour les matéries,
mais aussi pour l'observabilité et l'undersoignement de nos services
en dépassant nos besoins de customers.
Merci.
Le SRE book a des notes sur la monitoring
qui sont plus des définitions en général,
comme vous l'avez fait dans les systèmes,
mais je me demande ce que vous pourriez définir
en monitoring si quelqu'un a dit
« on a besoin de monitor nos systèmes ».
Qu'est-ce que ça veut dire ?
La première question est
ce que l'est votre goal de business ?
La pensée traditionnelle de la monitoring
dit souvent que nous devons considérer les erreurs,
les latences, mais ce sont toutes les mesures.
Elles ne sont pas les targets, elles ne sont pas les goals.
La monitoring n'est pas un goal.
Ce n'est pas l'air d'inquiétiser les données
pour avoir trop de données,
car vous pouvez offrir les informations objectivement
que vous avez en regardant.
La première question est
quelles sont les goals de business ?
Et quelle est l'information
que vous pouvez extracter de vos services
pour faire une décision
sur si vous avez rencontré ces goals ?
Ou quelles sont les conseils que vous avez
regardé pour prendre le prochain step
dans votre segment de marché ?
Une des mots que vous avez utilisé,
c'est observabilité.
Un autre mot que j'ai entendu
dans l'industrie, c'est telemetrie.
Comment sont-ils les mêmes
ou les différents pour le monitoring ?
Je pense que la telemetrie
est un aspect de observabilité.
Pour moi, la telemetrie est
une série de temps
pour que vous essayez d'observer.
Observabilité signifie
que vous pouvez extracter de votre data
de votre telemetrie.
Vous pouvez avoir de la data
dans votre telemetrie, mais ils ne disent pas
de quoi vous essayez d'observer.
Je l'aime, c'est un approaches intéressant.
Les systèmes de monitoring
sont souvent pour un nombre
de goals.
C'est facile, si vous avez
un goal de business clear
que tout fonctionne.
Qu'est-ce qu'il y a un nombre
de goals ?
C'est un système de monitoring
qui compte pour tous.
Qu'est-ce qu'il y a complexité
pour les systèmes de monitoring ?
C'est un question
d'awesome.
Parce que, sur Google,
nous sommes souvent en train de
prendre des systèmes de monitoring.
Ils ont l'impression
de comprendre.
Ils ont souvent de différents goals
de différents partis.
Je pense que les goals
de les business
sont interprétés
et sont très différents
de ce que l'engineering
pense d'une manière
d'envers leurs services.
Les perspectives différentes
peuvent être utilisées
d'autres perspectives.
En ingénieur,
on a souvent tendance
à regarder les services
comme des black boxes.
Les ingénieurs,
en le premier moment,
vont essayer de
observer
des choses comme
l'availability,
qui est commonly
definie par l'aérosuriel
sur le service.
Donc, dans un certain timeframe,
vous avez besoin de votre
ratio d'air
d'un certain %
qui est appelé l'availability.
Mais la vérité est,
la prochaine question que vous avez
à faire est,
qui est observée ces erreurs ?
Est-ce qu'ils sont observés par
un seul utilisateur ?
Est-ce que cet utilisateur
est un utilisateur critique ?
Est-ce que cet utilisateur
est intentionnellement en train de
donner un exemple ?
Je voudrais vraiment entendre ça.
Oui.
Donc, c'est le truc.
Il y avait un système qui
allait mettre le data
dans un database.
Et puis, en deuxième moment,
ils voulaient intentionnellement
envoyer le même data
et déclencher le nombre
d'errées du duplicate.
Donc, leur availability,
par le point de vue de cet utilisateur,
l'availability était toujours 50%.
Parce que, en premier moment,
ils allaient injecter le data.
En deuxième, ils allaient essayer
d'injecter le data, encore plus tard.
Et, dans le meilleur scénario,
ils allaient obtenir
toutes les erreurs dans l'attente seconde.
Donc, si vous considérez
le temps de leur
availabilité,
c'est 50%.
Donc, ces sont les questions
que nous avons à nous demander
quand nous regardons la telemetrie.
Pourquoi est-ce que ces données nous disent
que,
si vous regardez seulement le public broad
de la vidéo,
vous pouvez avoir un réponse qui ne fait absolument pas le sens.
Et ça ne déclenche
l'expérience de l'utilisateur.
Donc, la data broad
par itself est rien.
Vous devez comprendre vos utilisateurs.
Vous devez comprendre vos cas de utilisation.
Et vous devez
accommoder la créativité de l'utilisateur.
C'est très difficile.
Les utilisateurs sont certainement inventifs.
Je sais que je l'ai vu beaucoup
en tant que déclencheur,
quelque chose qui est plus user-face.
Des choses très rares.
Donc, je pense que, en parlant de utilisateurs,
quand nous parlons de la mission,
sont-ils typiquement internaux pour nous?
Vous savez, nous voulons nos systèmes
de l'utilisation comme ça.
Ou est-ce que c'est plus
d'une approche d'un utilisateur
où nous voulons nos utilisateurs voir
X, Y, Z ?
Comment monitorer
quelque chose que les utilisateurs
ont appris
ou quelque chose que votre équipe
ou votre compagnie souhaite?
C'est une question très grande.
La observabilité peut arriver
à différents niveaux.
Donc, l'un des niveaux importants
est le
qui nous croit
est le plus proche de l'expérience de l'utilisateur.
Ce niveau est
décédé par nous-mêmes.
En fait, le plus proche de l'observabilité
est pour vous
d'être à l'extérieur de l'utilisateur
et d'observer leurs utilisateurs
par le système.
Mais c'est une très forte stratégie
pour s'éteindre.
Vous ne pouvez pas s'éteindre
à vos utilisateurs et de l'utilisation de l'utilisateur.
Nous tendons à automater
cette collection de données
à l'instrumentation de nos libraux clientels,
des choses qui sont sur le browser
et nous envoyons une télévision
sur les patterns de l'utilisateur
et la séquence de l'utilisateur.
Je clique le bouton
et ensuite je clique celui-là.
Vous pouvez donc en fait
faire les plus commones interactions
pour les utilisateurs
dans le browser.
Un autre layer qui est souvent associé
avec l'expérience de l'utilisateur
est au niveau de l'application de l'application public
que Google expose
aux utilisateurs.
En ce cas,
vous instrumentez
les call à l'application.
C'est un peu plus difficile
de tracer
l'interaction entre les applications
parce que
ce n'est pas nécessairement lié
mais c'est un niveau
général pour
l'infrastructure, pour exemple.
Parce que nous n'avons pas
d'une pièce de logic qui se trouve
sur le browser. Nous ne sommes
seulement en train de aller au niveau de l'application.
Je pense que ça a été
un peu.
Je sais un moyen
que c'est
dans mon expérience, je pense
que ces questions
sont des mots que je utilise
dans ma tête.
D'accord.
Si vous avez une télémetrie
qui vient de l'application de l'application
ou
un agent sur le browser
ou un agent à l'intérieur,
ce qui est souvent considéré
pour l'interaction de client.
Le monitoring de service
peut être
maladonnable.
Parce que vous pouvez encore
pour des différents
workflows sur le service,
qui est processé par le service.
L'interaction de service
souvent
tient le général
performance de la boxe black.
Donc le monitoring de service est souvent associé
avec la monitoring de la boxe black.
Mais vous pouvez
faire un monitoring workflow
sur le service.
Et c'est le challenge
dans la TIGCP.
Le monitoring de service est un terme que je n'ai pas entendu avant.
Je l'ai inventé.
Juste pour vous donner
quelque chose d'un peu différent.
J'aime. Vous avez entendu ça ici
avant.
Nous pouvons que ce soit pour tous nos équipes
et nous parlons de monitoring de service
pour le service.
Pour le customer.
Pour le customer.
Pour le customer, oui.
Je sais.
Ce n'est pas nécessairement une question,
mais une question.
Je sais que l'une des choses que notre équipe pense
souvent est que si vous avez ces différents pièces,
client-side, workflow,
plus le service-side, si vous voulez dire ça.
Comment vous connectez-vous
pour obtenir une photo de ce qui est
en train de se faire,
et comment vous pouvez appliquer
les deux des pièces quand vous êtes
regardant différents incidents,
ou en général, en regardant les trends long-term.
C'est une question de 1 million.
Donc, oui.
Quand devons-nous utiliser la observabilité ?
Quand devons-nous appliquer la observabilité ?
Pour moi,
il y a deux moments
où vous avez besoin de la observabilité.
L'une, comme vous l'avez mentionnée, est
durant les outages et les incidents.
Vous voulez savoir
comment ça impacte
vos outages.
Et c'est
une information
cruciale
que vous devez avoir
à l'heure de l'outage.
Vous devez vous donner une réponse
aux vos clients.
Nous sommes sûrs.
Nous savons que ça se passe ici.
Nous nous prévons que ça sera fixé par là-bas.
Il y a un autre moment
où vous devez prendre un regard de la observabilité,
qui est un plan stratégique.
Vous ne devez pas faire ça.
À un moment,
vous pouvez regarder
dans le passé
et observer les trends.
Vous devez regarder
des décisions de
de nouvelles usages
ou des zones
où votre service
ne peut pas
délivrer ce que l'utilise veut.
Vous pouvez trouver
beaucoup d' conveniently
quel себя de Wellness

lespremiemment.











Je pense que, dans une situation idéale, quand vous commencez à penser à la monitoring
quand vous vous faites un nouveau service ou système ?
Je pense que dans votre expérience, je sais que la monitoring est une partie importante de ce que vous focusz
est-ce que c'est quelque chose que vous apprêtez ?
Vous portez votre approche à des systèmes existants et vous évoluez la monitoring ?
Quand pensez-vous à ce que ça ne ne existe pas ?
Ou quand pensez-vous à l'évoluer ?
Dans un processus de développement, il y a un point de vérification
Si ça ne fonctionne pas, ce n'est pas le sub-set des utilisateurs qui n'ont pas de bonnes expériences
que vous avez créées.
La monitoring serve pour la vérification et pour la purpose de tout le temps.
La beauté de la monitoring est aussi une automation.
Vous n'avez pas de question à vos clients tout le temps.
Hey, est-ce que ça fonctionne ?
Non, vous avez la monitoring, vous pouvez le vérifier.
Quand pensez-vous à la monitoring, pensez-vous à la question de la vérification
pour votre fonctionnement ou votre produit.
Et intégrer les indicators, les télémetries, que vous avez besoin de vérifier ces conditions
dans le plan de design.
Quand vous lancez la feature, il y a tout le nécessaire monitoring que vous avez besoin
pour vérifier si c'est un succès ou un fail.
On a parlé d'être très intentionnel dans ce que vous montrez le data.
Comment savez-vous que ce data est accurate ?
Ou plutôt, comment vous pouvez croire ce data ?
C'est une question excellente.
Oui, les problèmes avec la data monitoring peuvent être très déceptifs et difficiles à entendre.
Je pense que l'exemple récent que je peux penser, c'était toujours un problème.
Il était toujours 0 ou toujours 1.
On ne pouvait pas vérifier que c'était un problème avec le data monitoring
parce qu'il y avait une information secondaire,
ou une source secondaire de télémetries.
Par exemple, notre monitoring disait que les usernames étaient bonnes.
On en a eu 0 erreurs quand on a registré un nouveau useur dans le système.
Mais quand on regarde les logs, on peut clairement voir les logs d'erreurs being reportés.
C'est donc une chose de ressentiment, vous ressentez que ça devrait être une variation
dans l'indicateur. Pourquoi ça se fait toujours 100 % ?
Ce n'est pas le cas.
Donc, toujours regardez votre télémetrie avec un peu de critères.
Et ne vous confiez pas un seul indicateur.
Toujours construire une collection robuste de indicateurs
qui vous permettent de donner la toute la picture avec plus de confiance.
Ok, donc ce que je vois c'est que vous ne vous confiez pas de votre data,
mais de votre service, peut-être.
Pas que vous ne vous confiez pas de votre data, mais juste de ne pas être critiques.
Vous ne vous confiez pas de l'invité du tout, vous ne vous confiez pas de la petite partie individuelle.
Je pense que c'est intéressant de vous rappeler que il y a un sens robuste de la monitoring.
Je ne sais pas si ça veut dire qu'il y a un overlap dans ce qu'on a regardé,
mais si vous avez seulement un point de vue, peut-être que vous ne savez pas quand c'est terminé.
Il y a seulement un aspect que vous pouvez approcher.
Il y a un autre moyen de vous valider que votre monitoring vous donne la date que vous espérez.
C'est similaire aux tests unis, vous vous buildez le test et vous vous créez et vous voyez que ça ne va pas.
Vous savez que le test est réacteur pour la condition de la bad.
Vous pouvez faire la même chose avec la monitoring.
Si vous avez un indicateur qui dit que quand votre système est terminé,
vous pouvez vous donner quelque chose à vérifier, probablement pas en production.
Vous pouvez vérifier que votre appartement est terminé,
ou que votre graphique est terminé.
Vous pouvez vérifier que votre intention de monitor est en place.
Qu'est-ce que vous avez à dire en meta-monétant?
Monétant votre monitoring?
Oui, c'est la question de qui regarde le watchman.
C'est la beauté des options.
Si vous ne vous en soyez pas, vous pouvez toujours avoir deux solutions en place.
Vous allez au marché, vous choisissez et vous le mettez en place.
Si vous offertes une solution de monitoring,
n'hésitez pas à utiliser votre propre solution pour vous monitor.
Vous pouvez faire ça avec un système séparé secondaire,
mais aussi avoir une autre solution pour vous garantir
que les décisions les plus critiques pour votre système ne soient pas dépendantes.
Vitez les dépendances de la monitoring
et cliquez les dépendances pour tout.
Je me souviens de la principale chose que vous avez dit,
que vous avez des systèmes de monitoring,
que vous avez à suivre,
ou que vous avez le sénat pour ne pas atteindre le point.
Est-ce que c'est idéal?
Ou est-ce que c'est où?
Il y a une sénatisation d'observabilité,
à moins que Google,
dans les années 10.
Nous avons déjà regardé nos services
et nous avons été en train de faire des informations
pour un utilisateur abstrait.
Toutes ces enquiries sont pour l'utilisateur.
C'est une entité singlee qui représente tout.
Nous ne sommes pas souvent en train de regarder
la longue perte de performance.
Si nous avons 5 nains d'availabilité,
nous sommes heureux.
Cela représente que l'utilisateur générique est aussi heureux
car ils observent 5 nains d'availabilité
ou de la latence, ou de l'indicateur.
Maintenant, le monde a changé un peu,
en fait beaucoup,
et nous commençons à compte
pour différents profils, différents utilisateurs.
Nous ne sommes plus en train de considérer
que 5 nains d'availabilité représente
l'expérience d'une personne.
Nous avons un plus grand look
sur la longue perte de performance.
Cela change la façon dont nous avons mesuré les choses.
Avant, nous n'avions pas besoin d'un identifiant
pour les utilisateurs. Nous pouvons facilement déterrir ça sur la flore.
Pas même d'identifier pour les utilisateurs.
Nous avons mentionné que les utilisateurs
sont plus importants que les utilisateurs
individuellement, car différents utilisateurs
peuvent performer le même travail dans nos systèmes.
Nous voulons bien savoir que tous les
utilisateurs qui sont servus par nos systèmes
sont bien performés. Ils peuvent se diverger
dans leurs requirements computationaux.
Un travail peut avoir
une meilleure latitude,
mais pas beaucoup d'accuréance.
Nous avons besoin d'un travail pour cela.
Un autre travail peut avoir
une meilleure accuréance, mais ils peuvent
tolerer un jour de la stagiaison.
J'ai une question que je voulais poser.
Quand nous parlions de telemetrie,
et l'idée de telemetrie user-centric
est-ce qu'il est expensif pour des données
pour essayer de tenir une telemetrie sur un basis user-psique?
Oui, c'est correct.
Si nous considérons que si nous étions
1 million d'utilisateurs, nous aurions
une ligne sur le graphisme pour tous les utilisateurs,
ce graphisme ne sera jamais rendu.
Et ça ne sera pas si utile.
Nous sommes humains, nous pouvons couper
avec 10 lignes,
même si nous sommes 1 million.
C'est où le concept de la fonction des laboratoires
ou des profils,
ou l'unité d'agriculture.
Tout ce qui nous donne
entre 1 million et juste 1 million,
mais nous pouvons toujours
extraire l'information actionnable.
Nous ne devons pas comprendre
chaque utilisateur individuel,
mais nous pouvons comprendre les classes
des utilisateurs, leurs laboratoires,
ou même si le data n'est pas nécessairement
centré sur l'utilateur,
nous pouvons choisir l'agriculture
qui est basée sur le service.
Nous serons servus au photo-album
pour nos utilisateurs.
Nous pouvons considérer la disponibilité
et la latinité par l'album,
ou par la photo.
Mais nous pouvons voir
combien de albums sont plus healthiers.
Nous ne devons pas savoir
quel utilisateur est en train de regarder,
mais nous pouvons comprendre
combien de albums sont plus healthiers
ou sont rendus dans un second ou plus.
Et même si le nombre de albums
est trop haut, nous pouvons agréger
leur et dire, comment sont les albums
avec 5 photos, en fonction des 5 photos,
de quoi sont leurs performances?
Qu'est-ce que la performance des albums entre 5 et 20 photos?
Ça fait du sens.
Je pense que, pour continuer,
les utilisateurs
ont des albums relativement petits.
Les utilisateurs sont en train de regarder
des albums avec des photos
et peut-être les longs-tail.
Est-ce que le point de la monitoring
est un question rhetorique?
Je suis inquiétante de savoir
si la monitoring est plus pour faire sure
que vous gardez des tabs sur le certain workflow
ou profil des utilisateurs.
Pour exemple, savoir si le système est en train de faire les albums
ou est-ce que c'est plus un moyen
d'improver sur le système pour ces personnes
parce que votre service peut tendre à l'account
pour l'adversaire. Ça fait du sens?
Oui, et c'est exactement le point.
Vous pouvez avoir direct le insight
sur où votre service est en train de l'account
et vous pouvez prendre une décision objective
sur si vous pouvez faire votre service performer mieux.
Donc, pour dire, 99% des utilisateurs
ont des albums photos entre 5 et 20 photos.
Est-ce que vous êtes heureux avec ce numéro?
Est-ce que nous avons un client
qui est vraiment engagé
à avoir des photos très grandes?
Est-ce que nous devons satisfaire
cet usage? Si l'answer est non,
on peut même désirer
cette classe de l'information.
Mais au moins, nous savons que nous ne sommes pas malades.
Oui, ça fait du sens.
C'est une de mes questions, comme quand nous soisons,
parce que je peux tout de suite voir ce qui est
une question de pourquoi nous voulons
faire un test de l'account
pour tous ces espèces de travail.
Si les numéros de gens en travail, comme B ou Z,
sont plus petits que A,
peut-être que c'est une question de business.
Mais ça semble être un truc qui pourrait être tricky.
Et nous pouvons aussi lever cette information
pour les vols de business et leur aider à décider
sur ce qu'est le prochain step.
Je pense que, à un certain niveau,
nous avons dansé un buzzword,
un buzz d'abriviation,
en parlant d'une monitoring user-focused.
Je pense que ce serait les CUIs et les CUJs.
Les interactions et les journeys de critiques.
Oui.
J'ai entendu ces termes.
Comment se sont-ils faits dans cette picture?
Oui.
Les journeys de critiques,
qui sont les plus raisonnables
d'agriculture des données,
sont souvent des interactions.
Les clics de la bouton,
les textes, les formes de submissions.
Ce sont des choses plus petites
pour nous, à l'inquiétude.
Au moins, il y a un problème spécifique
avec l'interaction.
Un interaction intéressant,
il y a un bouton dans un UI
qui a besoin d'une courte
d'un système ACL,
d'une système d'autorisation
pour décider si le bouton doit rentrer.
Et le whole UI se règle,
en attendant pour cette autorisation,
parce que la logique et le JavaScript
ont besoin d'une courte,
pour qu'ils puissent construire le whole domaine.
Il faut dire que
il y a plusieurs utilisateurs
qui ont été impactés par les outages
de la grande courte
dans ce système d'autorisation,
qui n'était pas créé pour cette type d'autorisation.
Une autorisation constante pour rendre un UI.
En ce cas,
le clic sur le bouton
ou juste la visualisation de l'utilisation
était un problème pour l'utiliseur.
C'est généralement une erreur.
Juste pour le faire,
la solution pour cela est
de rentrer le bouton d'une manière,
et si l'utiliseur clique le bouton,
vous décidez de quoi arriver.
Vous pouvez même montrer une erreur d'autorisation,
mais ne bloquez pas
la rendition de l'utilisation
basée sur une seule autorisation.
Juste pour que les gens puissent savoir.
En général, vous êtes après
une expérience,
parce que l'expérience
compte plus
pour la performance
que pour une seule événement.
Et en la même manière,
que vous pensez que quelqu'un
qui est devant un computer
et qui veut envoyer un email,
cliquez ici, alterz l'email,
envoyez le bouton,
la whole set de actions peut réciter
une collection de calls
après les réquises
pour les API.
L'utiliseur
fait leur chose sur le UI,
et puis
les calls de l'HTTP
pour l'API,
sont converties dans les réquises internes
pour le bas-de-bac de l'API,
et le bas-de-bac
dans sa courte
envoie un bunch d'autres réquises
pour les systèmes de l'adjacent.
Donc,
tous ces trés,
tous ces stacks,
vont impacter la tour de l'utiliseur,
pas seulement
les calls de l'API,
pas seulement les clics sur le bouton,
tout.
Donc, quand quelque chose va pas,
c'est vraiment difficile,
souvent,
d'understand ce qu'est le mot,
parce qu'il n'y avait pas de problème
avec le bas-de-bac de l'API.
Il n'y avait pas de problème avec le browser.
Le JavaScript était bien.
Donc, ce qui a été le cas,
c'est qu'il ne faut pas savoir
quelles sont les calls
qui peuvent impacter
cette expérience de l'utiliseur.
Une façon de faire ça
est d'établir un trail de brésil
à travers vos systèmes.
Donc,
chaque fois que vous avez
un réquest de l'utiliseur,
vous vous annotez avec
l'idée individuelle,
et vous propaguez l'idée
à travers tous les autres
réquestes de l'utiliseur.
C'est extrêmement expensif.
Donc,
vous pouvez essayer de faire ça
avec un type de sampling.
Ou, si vous savez
que vous avez un problème avec un jour spécial,
vous vous appuyez
pour ce jour spécial.
Oui, je vois
pourquoi les journeys utilisées sont un bon point
de focus.
Et pourquoi je pense que c'est
peut-être, je ne veux pas dire de nouveau frontier,
mais de nouveau point de vue
pour monitor, pour s'y faire
de l'expérience.
Ça va passer avec beaucoup de choses,
je pense que nous avons généralement parlé
de ce épisode.
Et vous avez des questions que vous voulez
parler de avant de vous rappeler?
Je pense que je suis tout à fait
un discussion très fascinant.
Je l'ai vraiment aimé.
Je suis vraiment heureux que vous vouliez nous parler
de vos idées de monitoring,
peut-être où il va,
telle émettance, observabilité,
monitour du travail,
beaucoup de choses très grandes dans cet épisode.
Merci beaucoup pour
venir et avoir cette chute avec nous.
Oui, c'était super fun, merci beaucoup
pour l'invite.
Merci beaucoup pour le tourner
dans le podcast de SRV, et à la prochaine fois,
pour l'épisode 3 de la L'Eurté.
...

Les infos glanées

Je suis une fonctionnalité encore en dévelopement

Signaler une erreur

GoogleSREProdcast

SRE Prodcast brings Google's experience with Site Reliability Engineering together with special guests and exciting topics to discuss the present and future of reliable production engineering!
Tags
Card title

Lien du podcast

[{'term': 'Technology', 'label': None, 'scheme': 'http://www.itunes.com/'}]

Go somewhere