A Microsoft AI discussion with Olorunfemi Davis
Durée: 35m7s
Date de sortie: 17/10/2025
In this episode, I was joined by Olorunfemi Davis to chat about AI. We chatted about Microsoft Copilot Studio, Semantic Kernel, and AI in general. With 9 years of experience, Olorunfemi specialises in architecting, building, and optimising secure, high-performance systems. His expertise covers the full spectrum of C# / .NET development and managing infrastructure across Microsoft Azure, AWS, and Google Cloud (GCP). He focuses on bridging Dev and Ops to drive efficiency, CI/CD Automation, and ...
Hey, if you want to welcome to the Unhoundrel's exception podcast, I'm Dan Clark and this
is episode number 79.
Donc, tout d'abord, je suis désolé qu'il y ait un délai entre les épisodes.
J'ai entendu des holidays et des temps de famille et aussi, c'est tout de suite,
pour faire cette vidéo.
Mais je suis là maintenant et j'espère que j'ai plus de épisodes fréquent.
Et dans cet épisode, aujourd'hui, je suis jointé par la famille Olivou Davis et nous
allons parler de Microsoft des différents co-pilote et des AI-tournants pour nous aider à
construire des appels de smart.
Alors, bienvenue à la show, c'est génial.
Tu es là.
Merci Dan.
Je suis heureux d'être sur la show.
Ah, bienvenue.
Je suis très heureux d'être sur la show.
Je suis heureux d'être sur la show.
Je suis heureux d'être sur la show.
Je suis heureux d'être sur la show.
Je suis heureux d'être sur la show.
Je suis heureux d'être sur la show.
Je suis heureux d'être sur la show.
Je suis heureux d'être sur la show.
Je suis heureux d'être sur la show.
Je suis heureux d'être sur la show.
Je suis heureux d'être sur la show.
Je suis heureux d'être sur la show.
Je suis heureux d'être sur la show.
Je suis heureux d'être sur la show.
Je suis heureux d'être sur la show.
Je suis heureux d'être sur la show.
Je suis heureux d'être sur la show.
Je suis heureux d'être sur la show.
Je suis heureux d'être sur la show.
Je suis heureux d'être sur la show.
Je suis heureux d'être sur la show.
Je suis heureux d'être sur la show.
Je suis heureux d'être sur la show.
Je suis heureux d'être sur la show.
Je suis heureux d'être sur la show.
Je suis heureux d'être sur la show.
Je suis heureux d'être sur la show.
Je suis heureux d'être sur la show.
Je suis heureux d'être sur la show.
Je suis heureux d'être sur la show.
Je suis heureux d'être sur la show.
Je suis heureux d'être sur la show.
Je suis heureux d'être sur la show.
Je suis heureux d'être sur la show.
Vous avez dit que vous avez des agents.
Vous pouvez établir des agents sur le fly.
Vous pouvez établir un site de site de l'agent sur le fly.
Et vous pouvez intégrer avec des plateformes.
Et un peu d'autres des business.
Comme je l'ai dit, c'est pour notre business.
Pas pour les personnels.
Vous avez dit que vous avez des agents.
Vous avez dit que vous avez des agents.
Je serai plus en commun.
Je serai plus en commun.
Je serai plus en commun.
C'est un connecteur.
C'est un connecteur.
Un connecteur qui est en train de s'appliquer.
C'est un connecteur de la langue.
Il s'agit d'un connecteur qui est un connecteur.
Il peut lire votre code.
Il peut prendre le data de votre ID.
Il peut s'improver le data.
Et envoyer ça au modèle de langue.
Et ça lui donne des résultats.
Avant d'avoir des quantités,
par exemple sur Azure,
vous pouvez avoir des connecteurs qui parlent de SQL.
Vous avez des connecteurs qui parlent de CosmoDB.
Un agent est le même concept pour l'AMM.
Je suis un peu déçus de ce studio.
Je suis joué avec le UI.
C'est fantastique.
Oui, je peux créer des agents.
Quand je crée un, je peux créer des connecteurs.
Je peux regarder les listes.
WhatsApp, Slack, Web App, Twilio, etc.
On a des services de la même manière.
On a des services de la même manière.
On a des services de la même manière.
On a des services de la même manière.
On a des services de la même manière.
On a des services de la même manière.
On a des services de la même manière.
On a des services de la même manière.
On a des services de la même manière.
On a des services de la même manière.
On a des services de la même manière.
On a des services de la même manière.
On a des services de la même manière.
On a des services de la même manière.
On a des services de la même manière.
On a des services de la même manière.
On a des services de la même manière.
On a des services de la même manière.
On a des services de la même manière.
On a des agents qui veulent integrer leur application via AI
pour connecter avec leur producteur, pour créer ce bruit.
Je pense que les agents qui sont dans le fichier
vont être plus que les applications.
Je sais que c'est un truc qui les fait très spécifiques
pour ne pas faire beaucoup de choses.
Je me demande si les agents sont les nouveaux services microserverses
où un service est juste un agent qui fait une chose
et peut parler avec d'autres agents.
Je sais que tu as des agents d'orchestration.
C'est intéressant, comme tu l'as mentionné au début.
Tu as été très intéressé par les agents d'AI
qui sont en train de changer de manière très vite.
Je pense que beaucoup de développeurs
vont demander comment ils se restent avec ces changements.
Oui, je me demande si c'est un grand challenge
pour les millions de développeurs et les ingénieurs.
Les ingénieurs sont concentrés sur les outils
et sur les produits de la source.
Les développeurs sont concentrés en évoquant ces outils
et en utilisant les applications.
La main concernant de l'AI, c'est que
si on regarde la peur que les gens ont,
que l'AI va répliquer,
c'est quelque chose similaire à la façon dont
les éco-systems de l'académie sont en train de se faire
pour le service de la voiture.
On a éliminé les outils pour les ingénieurs.
Il y a des millions d'outils,
à chaque voiture que vous voyez aujourd'hui,
et la idée de la voiture de la voiture
est de les éliminer.
Beaucoup d'entre eux sont en train d'aider.
Je vois aussi quelque chose dans le software,
où il y a presque 40% des outils qui sont éliminés.
Les développeurs sont concernés
avec comment se développer
pour ne pas se faire en train d'évoluer.
C'est une évolution, car pour moi,
ça a l'air immédiat, quelque chose d'actual.
Les développeurs qui ont adopté l'AI
sont dans le frontier des études et des services.
Je l'ai compris.
Je pense que pour les développeurs,
l'initiel grand-chose sera contre les développeurs junior.
Les développeurs junior ont commencé
et beaucoup de leur travail,
en plus de l'initiel,
est un truc que l'AI peut faire plus maintenant.
Je pense que les entreprises ont trouvé
qu'on n'a pas besoin de développeurs junior.
Je vois ce long terme,
mais c'est un long terme.
Tout le monde a dû être un développeur junior à un moment.
Qu'est-ce qu'il va faire pour l'industrie?
Si les développeurs junior ne peuvent pas trouver des travail,
ils n'ont jamais de travail pour devenir développeurs de l'experience.
Mais je pense qu'il a dit à Right about,
qu'il n'y avait pas de travail pour l'AI,
qu'il n'y avait pas de travail pour l'AI,
qu'il n'y avait pas de travail pour l'AI,
qu'il n'y avait pas de travail pour l'AI,
ou quelque chose comme ça.
Je sais que c'est vrai,
je ne peux pas le dire.
Je sais que c'est vrai,
mais je pense que c'est plus important.
Dans le grand scheme de choses,
je pense que le développement de la source
va vraiment changer.
Nous avons aussi regardé la origin de la développement de la source,
et je suis aussi âgé
en termes de la source de la writing
qui a été réalisée pendant 13 ou 14 ans.
Mais je crois que durant les jours
de Cobrol et de Fortran,
c'était plus difficile de faire des codes.
Maintenant, vous pouvez mettre un ID
dans 5 minutes,
puis vous pouvez le mettre en name de l'émulator,
et vous commencez à tester
le code, vous pouvez le mettre en name de l'NPM,
vous pouvez le mettre en packages de tous les moyens,
et vous pouvez le construire.
Mais avant, c'était plus difficile.
Je pense que l'AI va se changer
de manière à la fin de la production.
Je vais faire ce genre de réaction,
et il y aura beaucoup de changements
d'espérance, et ce n'est pas possible.
Je pense que beaucoup de la set de skill
va être en train de faire l'AI.
Je trouve que je vais utiliser l'AI
pour que ce soit possible.
Il y a quelque chose
où ça a bien augmenté ma productivité,
et ça me fait beaucoup de temps.
Mais il y a d'autres choses où...
Vous savez quand vous utilisez le chat GBT,
et vous vous typez,
et si ça se passe,
c'est tellement convaincu que c'est correct.
Ça se fait tellement convaincu,
même si c'est juste en parlant.
Je me suis dit que c'est pas correct.
C'est correct.
Et je pense que le coût de pilotage
a fait un fantastique travail
en réduisant le travail.
Quand je l'ai évolué,
il y a des différents écrans
et des modèles de l'AI
que j'ai décidé de payer
pour le coût de pilotage.
Et puis je n'ai pas de pros de Germany,
mais l'intégration de mon IDE
n'est pas très bonne.
L'extension,
par exemple, la code VSCOTE
et l'ID, n'est pas très bonne.
Je utilise le coût de pilotage
et ce que ça fait
en réduisant cette église
est que
les agents ont vraiment demandé
tout le monde pour les éviter
les imputations
et les outreaux de l'AI.
Donc parfois,
les agents,
qui ont envoyé
les requises, même en remettant
les modèles,
pour vérifier si c'est correct,
si c'est accurate,
si c'est consistent
avec ce qu'on a
et vous avez vu
ces conversations de l'AI
et vous avez fait ça,
parfois ça va bien
et après quelques secondes,
il va vous mettre le final resultant
et vous allez voir que le resultant
est encore mieux et encore plus accurate.
La chose que j'ai trouvé
avec le coût de pilotage est que
beaucoup de gens vont dans la chat
et ont une conversation avec ça
pour réaliser un équipement.
La chose que j'ai trouvé mieux est
de créer un file prompt,
comme un file de Macdown MD
et de mettre
beaucoup d'informations sur mon mémoire
possible dans ce file prompt.
Et puis, pour donner le mieux de contexte
que je peux, je peux réutiliser
ce file prompt, si peut-être
la window de contexte est
en train de se faire oublier
parce que je peux réutiliser mon file prompt
avec des changements dans la conversation.
Je peux aussi demander au coût de pilotage
pour réutiliser le file prompt.
Donc si il y a quelque chose d'inconstitut,
je peux le dire dans la charte de coût.
Je peux réutiliser mon file prompt
pour ne pas faire le mistake de la conversation.
Et puis, le coût de pilotage
va éditer ce file de Macdown
pour le prompt. Et je peux contrôler
ce file de prompt, qui est une bonne documentation
pour les réquivérations.
Mais c'est réutiliser le file de prompt
qui va lui donner des réponses.
C'est un pattern bien bien,
mais c'est intéressant de
faire des réquivérations
pour des modèles,
plutôt que des codes.
Oui, oui, je trouve
cela très intéressant.
Je le fais beaucoup,
mais je ne utilise pas
le coût de pilotage de config
chaque fois. Je le fais peut-être
en plus de temps.
Parce que je trouve que je peux utiliser
un test file ou un ggc file
ou un readme file
pour protéger ce contexte.
Donc sur la version 3
de coût de pilotage, vous avez un contexte
très limité. Et puis
vous l'aurez, je peux utiliser
la mémoire de ce que vous faites.
Donc vous devez créer un nouveau chat.
Sur la version 3, vous avez
un contexte plus largement limité.
Je ne l'ai pas pu exercer,
mais je suis toujours
le plus sûr de ce que je fais
dans ce file. Et je le remarque
que le coût de pilotage
aussi crée des idées
où il garde les traités
de ses résilés. Par exemple, si il faut
travailler sur des très grands numéros de file,
le coût de pilotage crée
des test files
dans le background, et puis il update
le processus résilier
comme un cache
où il y a des idées et il read.
Maintenant, je suis en ligne 75,
et je dois procéder
de ligne 75 à 400.
Et puis il updates le file.
Donc il fait ça même dans le background
sans garantir
que la configuration file
est très, très épuisée.
Donc, je me suis dit
que je vais pouvoir
faire un test
sur les deux numéros de file.
Et puis je me suis dit
que je vais pouvoir
faire un test
sur les deux numéros de file.
Et puis il est pas important de
Donc, je me suis dit
que je vais pouvoir
faire un test.
Je pense que Microsoft a décidé
de
de faire le
le concept sematique
pour soutenir le système de développement.
Et c'est un très, très intéressant mouvement
où, parce que
beaucoup de service AI
ont offert les tools qui ont aidé les développeurs.
Et le Microsoft a offert
un SDK, en fait,
qui aide les ingénieurs.
Et qui a bien interprété les modèles de live.
J'ai joué avec ça, j'ai construit un demo app
pour
utiliser le système sematique
et pouvoir parler
sur l'AI, sur les modèles AI
et sur les modèles AI
et ça fait que c'est très, très facile
de composer vos prompts
pour obtenir des résultats
de toutes les modèles de langues que j'ai.
Donc, c'est tout de suite le bon travail
spécifiquement pour les ingénieurs.
Et c'est l'un des meilleurs.
En passant, quand il y a une nouvelle innovation
dans le marché, c'est très tard.
Le système dotnet
est très tard.
Il y a beaucoup de support.
Quelqu'un de mes start
a construit cette support
dans la communauté d'Opponsalt.
Mais le Microsoft a décidé
de construire cette première chaîne
et d'imprové la base
sur le web.Net. Et je pense que c'est très, très fantastique.
Et bien sûr, les MCPs
sont aussi là.
Ils ont construit un service
qui connecte à un code
de code de code
pour parler d'un projet API.
Et puis le projet API
parle de mon database.
Donc, pour exemple,
quand je vais essayer de
céder le code
ou je vais essayer de obtenir
des insights que je veux pour mon data,
je peux utiliser un service de service
pour connecter mon code de code.
C'est un moyen de bridger votre IDE
à votre data
ou peut-être
un API standard
ou quelque chose. Et quand vous faites
ce bruit,
c'est un peu comme un agent.
Quand vous vous packagez
votre service de service, et puis
de votre prompt, vous pouvez obtenir
des données de votre corporation.
Puis, il devient un agent
car il a brisé cette gamme
de votre source de data,
de votre courte, de votre data
et il a mis cette power à votre IDE
ou à votre application AI.
Donc, c'est un très, très bon service
pour des développeurs
de l'AutoDiplo,
qui est assez intéressant.
Oui, le service de service de service
a juste été bloqué
et il y a beaucoup de gens créant
des entreprises et des intégrations.
Le moyen de penser à un service de service de service de service
qui est très bien expliqué est
qu'il y a un API web qui explose des endpoints.
C'est comme un de ces,
mais il explose des tools
d'une manière ou d'autre.
Mais les différences, ces tools
ou d'endpoints, lesquels vous voulez les coller.
Ce sont des tutoriels
qui sont créé pour un model de langue
pour décider de coller.
Le modèle de langue n'est pas collé
mais par exemple,
par exemple, un code pilote
et vous connectez à un service de service de service de service de service de service de service de service.
Parce que ces tutoriels,
ils se sont toujours exposés à la description,
mais la description
du truc est créé pour l'Ellalam.
L'Ellalam a une requise
qui est un problème,
et ça, il y a un liste de tools qu'on peut apporter.
Et puis, parce que c'est le description de chaque des tools de la service de l'AMCP,
le LLM peut dire, OK, pour profiter de ce requimant,
je dois apporter ce tool.
Et ce tool peut performer une action ou il peut obtenir des données
d'un service en dessous de base, c'est tellement fort.
Parce que le service de l'AMCP est juste code, il peut faire tout ce qu'il veut.
C'est comme si le service de l'AMCP était un playwright.
Il peut lancer un browser, c'est juste code.
C'est tellement fort.
Oui, je pense que c'est très fantastique,
parce que même l'intégration avec le système de Windows,
ou tout le système d'automation, c'est aussi fantastique.
Par exemple, il pourrait lancer le processus,
lancer un browser,
il pourrait faire quelque chose sur la ligne de command.
Et je pense que c'est assez intéressant aussi.
Il ouvre la porte pour beaucoup de desktop automation,
et puis créer des flows d'IAPS,
par exemple, les testers de software,
ils font beaucoup d'automation, des desktop automation,
et je pense que ça va aider à improving ça aussi.
Oui, bien sûr.
En revanche, sur le kernel de Symante,
je sais que dans .NET, on a maintenant
un package de Microsoft Extensions AI,
qui fait ce que vous avez dit,
c'est un moyen très simple,
que votre code peut parler de différents modèles.
Qu'est-ce que le kernel de Symante a sur le top?
Ce que ça fait, c'est que le kernel de Symante
a été en train de faire un bon travail,
et vous avez des nouvelles versions de .NET,
comme le 9, où le desktop a été pressé dans la stratégie AI.
Le kernel de Symante a aidé à trouver un prompt,
pour avoir l'advance de choses comme chien,
pour skies,
de vari parfumaux,
des recours de centaines de conformes hollows,
des prières polypouостs,
d'autres prongs pour faire des kindly de Lashedes,
des ýדיres,
des Tradingploids,
des consisting d'un thu ET Gizans,
qui Completely
Par exemple, dans l'image manipulation, ou la manipulation vidéo et la synchronisation,
le symantecarné permet de faire cela en ligne.
Sans cela, vous devez être en train de réutiliser les API restants,
par exemple, avec les méthodes public restants,
avec des modèles langues.
Mais dans le symantecarné, vous pouvez le faire dans le C-SHAF,
et c'est le moyen de vous donner l'advantage.
Vous avez les impôts C-SHAF.
L'advantage est que les objectifs appréciés sont cool,
et les mémoires de management, avec la stream, et les vidéos de manipulation.
Vous le faites facilement dans le système.
Sans cela, vous devez être en train de réutiliser les restants.
Donc, ça semble que l'extension Microsoft AI est un peu comme si vous voulez parler,
si vous voulez prendre un point de vue, c'est un bon bon choix.
Mais si vous voulez plus de frameworks pour faire plus de choses,
vous pouvez peut-être faire quelque chose comme le symantecarné.
Oui, définitivement.
Mais le symantecarné permet d'intégrer les integrations de dotnet.
Et l'introduction de l'extension dotnet 9,
même de plus de officiels,
comme ce système se trouve dans les prochains mois.
Vous avez les generaux de workflows,
vous avez des détails directeurs,
et bien sûr, vous le faites intégrer plus en plus,
avec votre code base.
C'est très cool.
C'est intéressant de voir comment ça va.
Je ne sais pas si vous avez vu les vidéos
que Steve Sandserson a fait avec le blazer,
où il est en fait...
Il y avait quelque chose de comme...
de la forme de reportage,
quelque chose de la car,
si vous vous rapportez un problème avec votre car.
Non, non, je pense que c'est de la car,
si vous vous rapportez de la car,
et quand il utilise l'UI de ce démon,
il en a dit,
« Oh, oui, mon car a un...
le rouleau à gauche,
il a un peu de la hauteur,
la porte à droite,
il a un peu d'un bonbon,
et ce genre de choses. »
Et comme il en a dit,
la forme de la car a été remplie,
et il a été remplie dans des déchets et des compagnons,
et c'était allé par la AI,
je vais inclure le lien dans les notes de la show,
si il y a des personnes qui n'ont pas vu ça.
Mais oui, c'est juste que c'est de la utilisation
de toutes ces libraires de dotnet
pour faire la AI,
mais en fait, comme je l'ai dit,
beaucoup de choses que j'ai faites dans la AI
sont juste moi en train de être plus productive
comme un développeur,
comme en utilisant des codes à la droite,
mais ça va être plus comme
l'app itself en utilisant la AI,
qui est très, très, très cool.
Donc, nous sommes très rapidement en train de faire la time.
Qu'est-ce que vous voulez que nous couvriremment
avant de faire la paix ?
Donc, j'ai l'impression de créer
d'autres langues, les langues de plus en plus
les langues les plus efficaces.
Si le but est de faire la paix,
la paix de la maix, la paix de la maix
j'ai l'impression de construire
dans leur façon,
qui, bien sûr, nous ne pourrions pas comprendre
et nous ne pourrions pas être
comptables pour,
et c'est un problème que je pense
que ça doit être discuté plus tard.
Donc, ce manque de transparence
peut-être ça fait du difficile
de apporter des contrôles
de vélo et de hippo
pour interpréter
les
pigeon
problème
c'est Hammer
mobilisé
Et puis, évidemment, les langues programmes sont ensuite compilées
à des choses comme machine code.
Mais si l'AI est en train de faire la maîtrise,
il ne faut pas être en forme de la forme que les humains peuvent faire et lire.
Je parle un peu plus loin de la ligne maintenant,
mais c'est une chose intéressante.
Le langage programme est l'optimisme pour un AI à faire.
Oui, je pense que la fissure va être en vétable.
Et comme vous l'avez dit avant,
il va faire la scale des développeurs,
où les développeurs ne seraient pas nécessaires
pour faire la maîtrise pour les services efficaces.
Et, bien sûr, il va avoir besoin d'une faible de la maîtrise.
L'AI va avoir une faible de la maîtrise,
des codes en plus,
et cela va créer une différence au marché de la maîtrise.
Et puis, il y a aussi d'autres implications de la maîtrise,
et des développements qui peuvent aussi être élevés
en plus de la sécurité des services,
de la propagation de la maîtrise,
et bien sûr, de la production de la maîtrise,
quand les développeurs sont en train de faire la maîtrise,
et je pense que ce que les développeurs doivent faire,
c'est d'involver,
pour qu'ils ne soient plus en train de faire les services.
Oui, je vous en prie.
Je suis très heureux,
nous avons presque besoin de temps.
Je pense que, en plus d'une discussion de conversation avec les copains,
il y a été incroyable,
il est intégré dans les Windows 11,
et sur le browser,
où je parle avec les copains,
et il peut y avoir une raison.
Je sais que il y a encore des bandes,
où il n'aime pas discuter des topics,
mais c'est presque comme la fiction de science,
pour moi,
quand vous pouvez réveiller et prendre des copains.
Je pense que c'est très intéressant,
d'être en train de parler avec votre âge,
et de discuter vos jours,
et en discuter vos jours,
le background est sur le calendrier,
il y a des emails cadouillés,
des meetings créatifs,
et des emails qui sont en train de drape,
je pense que c'est fantastique.
C'est quelque chose que je regarde pour plus d'improvementation.
Oui, je l'ai appris.
Je suis commencé à utiliser des meetings avec AI,
et de faire des meetings,
et les actions claires,
et les points de main-d'aider.
C'est tellement powerful,
on peut voir que l'AI a été introduit
dans toutes les appels.
Je pense que c'est un peu gimmicky,
mais il y a des choses qui sont vraiment utiles,
comme ce genre de choses.
Oui, c'est vraiment très utile,
et c'était une des fichiers
que j'ai testé,
d'autres ont été là où vous pouvez partager votre écran
avec l'aie, et ça peut
vous dire ce que vous avez dans votre écran,
et ça peut vous aider à apprécier le bouton de presse.
Donc, le moment où nous nous donnons l'objet
de l'opérer au computer,
c'est très intéressant.
Je n'ai pas de projet
qui est en train de faire ça,
et qui donne le contrôle de la masse
pour l'AI.
Il peut donc lancer les programmes,
car il peut voir les images sur votre écran.
Il peut lancer les programmes type,
input,
la cour de l'aie, et tout.
Je pense que quelqu'un de vous pourrait travailler
sur ce que vous avez fait,
mais c'est quelque chose que nous nous cherchons.
Qu'est-ce qui pourrait aller wrong ?
C'est la sécurité,
quelqu'un de vous a acheté le computer.
Vous allez en faire un truc,
et puis vous vous revenez,
et vous avez payé
2 millions de pounds de choses,
et vous avez fait des business pour vous.
Oui, peut-être.
Peut-être,
sur YouTube, je vois beaucoup de gens
qui ont utilisé un code VIP
pour créer des outils d'utilisation
très utiles.
Je pense que c'est fantastique
d'être dans les deux ou trois jours.
Et c'est très utile
de trouver une haine.
Les gens sont utilisés, et le tool
fait le travail,
et ça a un problème.
Je pense que c'est fantastique.
Oui, très cool.
Donc mon tip est, et ce n'est pas vraiment
l'AI qui est en train de faire,
mais j'ai récentement commencé
à utiliser un site appels de software
qui s'appelle Raycast,
et je n'ai pas entendu l'utiliser
jusqu'à maintenant, car je utilise les windows,
et c'est seulement récentement disponible sur les windows.
Mais c'est l'une des apps
où vous pouvez presser le space alternatif
dans les windows, et vous avez un pop-up
et vous pouvez le mettre.
Et vous voulez lancer, et c'est super,
une manière de lancer les apps,
ou vous pouvez avoir des shortcuts,
ou faire des sites,
et je sais pas que les powertoys
sont les uns des commands,
ça est comme ça,
il y a des choses similaires
je n'ai pas l'invite,
parce que c'est en beta pour les windows.
Je pense que je vais essayer ça,
et c'est très bien.
C'est juste immédiat,
plus rapidement que
les commands, et c'est
très clean et tout.
C'est vraiment super.
c'est un message et je peux vous envoyer un message.
Mais oui, c'est mon tip de la vie.
Donc, avant de nous rassembler,
où est le meilleur place pour les listeners
pour s'acheter si vous voulez se toucher avec vous ?
LinkedIn.
LinkedIn, oui.
Je suis très apprécié à l'accepter les connections sur LinkedIn.
Oui, c'est le meilleur place pour me acheter.
J'ai vu que vous avez appris
notre discrétion de la communication
et je suis très content.
Je suis très content.
Je vous remercie à les listeners.
Si vous avez appris le site de podcast,
il y a un lien de discrétion.
Nous essayons de créer la communauté.
Bienvenue, merci pour vous joindre.
C'est très intéressant de vous avoir regardé.
Je vous invite à vous joindre.
Je suis content.
Merci d'avoir regardé.
Et je vous remercie
que ce podcast est envoyé à Everstack,
qui est mon propre company,
qui a offert des services de développement de software
et de consultation pour plus d'informations.
Visit Everstack.com
Si vous pouvez me demander un grand favori,
si vous avez aimé le podcast,
vous pouvez me faire ajouter le nom de la social.
Je n'ai pas utilisé le hashtag
UnhandledException et je peux être trouvé
sur le main, Blue Sky,
qui est dans DanClock.com
et sur Blue Sky.
Je suis également disponible sur le discord
et sur notre communauté discord.
Nous allons inclure les liens
de tous les choses que nous avons mentionnées
aujourd'hui dans les notes de la show,
qui peuvent être trouvées sur
www.UnhandledException.com
www.UnhandledException.com
Episode suivant:
Les infos glanées
TheUnhandledExceptionPodcast
Tags