Eric Elliott - SudoLang
Durée: 70m34s
Date de sortie: 02/10/2023
This week we talk with Eric Elliot about his new project SudoLang. SudoLang is a pseudo code programming language that runs on top of AI language models like GPT-4. By leveraging the power of AI, SudoLang enables you to just write what you want your program to do in plain english and it will write the code for you. We also discuss the future of coding with AI and how it can help you be more productive.
Sponsored By Raycast (https://www.raycast.com/)
Become a paid subscriber our patreon, spotify, or apple podcasts for the full episode.
- https://www.patreon.com/devtoolsfm
- https://podcasters.spotify.com/pod/show/devtoolsfm/subscribe
- https://podcasts.apple.com/us/podcast/devtools-fm/id1566647758
- https://www.youtube.com/@devtoolsfm/membership
Tooltips
Andrew
Justin
Eric
- VS Code
- GitHub Co-Pilot
- ChatGPT Advanced Data Analysis (GPT-4 + Python Interpreter)
- DailyBot https://www.dailybot.com/
- SonarCloud https://sonarcloud.io/
Sudoleng est une language de programming sur le code pseudo-code qui fonctionne sur les modèles AI-languages comme GPT-4.
Vous ne devriez pas donner le spec de Sudoleng pour l'AI à comprendre.
En other words, ça connaît tout les features que Sudoleng a déjà,
parce que les features sont vraiment élevées du vers le plus grand univers de ce que les autres languages de programming
ont déjà fait pour comprendre la language de programming.
Ça fait tout ça, ça se fait naturellement.
Bonjour, bienvenue à la podcast de DevTools FM.
C'est un podcast sur les tools de développement et les gens vont les faire.
Je suis Andrew et c'est mon co-host Justin.
Salut tout le monde, nous sommes vraiment excitées d'avoir Eric Elliott sur le podcast aujourd'hui.
Si vous avez été sur Twitter pour un certain nombre de temps,
et surtout dans le texte, vous avez probablement vu Eric s'en aller.
Il vous a dit beaucoup d'éducation et on avait juste parlé de ça avant,
c'est super fun de vous avoir vu, parce que nous avons vu vous en ligne,
donc vraiment excitées d'avoir vous et vraiment excitées de vous parler d'un projet que vous avez travaillé sur,
qui s'appelle Sudoleng.
Mais avant de nous en parler,
vous voulez dire à nos listeners un peu plus sur vous-même?
Bien sûr.
Bonjour, je suis Eric Elliott.
J'ai été en cours depuis que j'étais 6 ans et j'ai construit beaucoup d'interessants.
J'ai aidé à construire beaucoup de cool trucs, comme Adobe Creative Cloud,
j'ai aidé à construire des pages YouTube artistes,
un bunch d'interessants petits projets.
J'ai fait une expérience à Stanford Research Institute AI, je suis un lead en tech.
Nous avons été nominés pour notre travail sur le journal Wall Street World Stream.
Je pense que c'était comme un Tiktok avant le Tiktok.
J'ai été utilisé par NBC, CBS, BBC, ESPN, un bunch de grands broadcasters
pour faire des vidéos pendant leurs shows par les fans.
Les fans auraient regardé le show live, récourdié les petits vidéos,
posté leurs accounts, et les broadcasters auraient pu prendre les vidéos de fan
et les jouer sur air.
Je suis content d'être ici.
J'ai été intéressé par l'A.I. depuis que j'étais petit.
J'ai appris à l'A.I. parce que quand j'étais 6 ans,
j'ai voulu faire des vidéos, mais je n'ai pas de la maison.
J'ai demandé à mon ami, et mon ami m'a dit que je ne sais pas.
On s'est demandé à son père.
Il a pu s'y arriver sur une haute shelf et nous a donné un livre.
Dans ce livre, il était full de source codes pour les vidéos,
pour les enfants de la vidéo, pour les faire, et les jouer.
C'est ce que j'ai appris.
Les jeux graphiques étaient plus longs que les jeux textes.
J'ai pensé que ça m'a rendu plus difficile.
J'ai pas pu savoir.
J'ai décidé de concentrer sur les jeux de texte d'adventure.
J'ai construit un bunch de jeux de texte d'adventure
qui m'aident à l'A.I.,
qui m'aident à construire mes propres modèles en tant que teenager.
J'ai été à l'A.I. depuis que j'étais un enfant,
pour que je puisse le souvenir.
Avec le récent,
un grand interest dans l'A.I.,
et je dirais que ça m'a fait le plus de temps
de faire des choses avec l'A.I.,
qu'est-ce que l'état de l'A.I. de la code d'aimant,
avant de faire le pseudo-l'attention et tout ça,
c'est que, comment peut l'A.I. m'aider à me faire des codes?
L'A.I. peut m'aider dans beaucoup de façon.
Bien sûr, le pilot de Github
a été réveillé pendant un temps,
et je pense que la plupart des gens
connaissent ceci, et les restants
ont eu l'expérience de l'A.I.
d'assister à la code d'assistance.
Si vous n'avez pas pu le faire,
et que vous commencez à l'utiliser,
car même si vous utilisez le pilot de Github,
les utilisateurs de l'A.I.
sont aussi productifs que les gens qui ne l'utilisent pas.
Et aussi, plus probablement,
d'être successeux dans leur code.
Il y a un Github
qui a été réveillé pour étudier,
qui a démontré ceci.
Donc, vous devez l'utiliser, si vous n'avez pas.
Et puis, le Github,
surtout le G.P.T.4,
le modèle de G.P.T.4,
est bien à l'écoute pour vous.
Donc, très souvent, si vous avez un problème
petit, et vous le décrivez,
et vous dites, hey, je serai un fonctionnel JavaScript
qui fait ceci,
une bonne chance de pouvoir le faire pour vous.
Ce qui est fantastique.
Et ce que je trouve le plus intéressant,
c'est que quand je suis approchant d'une fréquence
ou d'une langue infamilienne,
mes skills Python ne sont pas
pas très bien mes skills JavaScript,
par exemple.
Je peux aller en choc G.P.T.
et dire, hey, je dois avoir une fonction Python
qui fait ceci.
Et ça va se faire en tant que
j'ai des compétences standardes
qui sont les plus commones libraries
et des choses comme ça, et les poursuivre pour vous.
Donc, j'ai eu de tous les trucs
d'intéressant, des visualisations data
et tout comme ça.
D'habitude, si vous voulez faire
quelque chose comme un analyse graphique
d'un file MP3
ou quelque chose d'un file de musique
ou d'un file audio,
d'abord, vous devez trouver un framework
qui fait des graphiques et apprendre l'API.
Mais je peux juste hopper en choc G.P.T.
et dire, hey,
fais-moi un histogramme pour cet audio.
Et ça fait ça.
Fais-moi un histogramme 3D de cet audio
ici et aidez-moi à analyser.
Et ça fait ça pour vous.
C'est assez drôle.
C'est un changement de jeu.
Oui, j'ai eu la même expérience.
Je faisais
des AI-stuffes
et j'ai besoin d'utiliser Python parce que tout est
construit en Python et je n'ai pas un developer Python
tout le temps.
Et la possibilité
d'en prendre mon knowledge
de JavaScript et de web-programming
et d'utiliser
ça pour promper
l'AI et donner le truc en Python
est juste incroyable.
J'ai pu construire un truc
qui regarde une direction de images,
et qui tient chaque image
et qui me laisse me sélectionner
une certaine zone de l'image
et faire ça dans des différentes manières.
Et je n'ai pas besoin de trouver
comment je ferais ça.
C'est juste que vous voulez utiliser OpenCV
et que ça a des choses cool
que ça peut faire.
Et je suis capable de faire ça
immédiatement.
C'est un expérience incroyable.
C'est un code interpreter
qui fait ça pour vous.
Il a un code built-in Python.
Il va écrire le code Python
et écrire le code Python.
Il va avoir des réponses
pour le consul,
pour que ça soit en mode
de la mode de la mode de la mode
et que ça soit en mode de la mode
d'envoyer des réponses.
Il va essayer de fixer des bugs
si ça a été écrit,
il va essayer de fixer eux automatiquement
et donc ça a un model agent
de task built-in.
C'est vraiment cool.
Je pense que ces groupes de feedback
sont devenus les choses
qui sont vraiment poweraux.
Donc même si c'est le cas
fifthörien
et le temps accepted
d'�데voir等HHH
et quуль minutes
Excel
de premièreouter
et
genre
et ça se fait dire que je vais juste le faire jusqu'à la fin du test et que c'est exactement ce que je veux.
Oui, ou même juste, je vais très souvent utiliser le chat d'HPT et je vais juste dire,
hey, j'ai des unitesses pour cette fonction.
Je vais définir une fonction et je ne vais pas même le speler, je vais juste dire,
je veux une fonction qui fait cette input et produise cette sorte d'outre,
et le laisser dans le reste et je vais dire,
s'il vous plait, figurez-vous combien de unitesses,
quels types de unitesses nous avons besoin,
quels cas de cas de cas on a mis,
laissez-le faire un pass et dire,
n'est-ce que nous n'avons pas les cas de cas que nous devons vérifier?
Et puis, on va probablement ajouter deux ou trois tests,
et puis dire, ok, maintenant,
rassurez-vous sur le code que nous testons.
Oui, c'est TDD sur les steroids,
vous n'avez pas besoin de venir avec les tests.
Oui, alors je n'appelle pas l'aider de développement,
et j'ai TDD dans le processus, c'est AITDD, basically.
Nous aimons remercier Raycast pour sponsorir notre podcast.
Raycast est une app pour Mac qui est comme spotlight,
mais plutôt mieux.
Ainsi de pouvoir rapidement ouvrir les files,
switcher entre les apps,
managing les windows,
et même votre schedule,
ça a aussi une très cool API de React,
et une whole extention store où vous pouvez trouver
et distribuer vos propres extensions.
Un des extensions que j'ai joué cette semaine
sont le Color Picker,
ce qui est un base,
c'est écrit par Thomas, le CEO.
Le Color Picker laisse vous prendre une couleur
à l'écran et vous pouvez le faire via l'extension
ou organiser vos couleurs.
C'est une app pour vous,
si vous voulez avoir une valeur de couleur.
Un autre très intéressant extension
est la extension Bru.
Si vous avez fait Bru install,
il y a aussi une façon de chercher
les formules de Bru à la base
directement de Raycast.
Donc, deux très simples integrations
qui sont en qualité de la surface.
Vous pouvez aussi vérifier la Pro de Raycast.
Avec la Pro vous pouvez prendre l'adaptation de Raycast AI
pour faire un tout petit peu de cool choses sur votre computer.
Il vous donne aussi accès à leur feature Cloud Sync
pour vous garder vos settings et le Sync
à travers tous vos devines.
Pour apprendre plus, vous pouvez visiter raycast.com
ou vous pouvez vérifier l'épisode 38
où nous interviewerons Thomas, le CEO,
de la production et de pourquoi ils l'ont construit.
Vous voulez avoir l'adaptation avec le DevTools FM?
Headez sur le DevTools FM.
C'est vraiment cool.
Une des choses très grandes
qui peut être déclinée ici
est que nous sommes allés
de la langue naturelle
qui est très très lente et très expressive
pour quelque chose que nous voulons
faire sur le computer pour faire une purpose spécifique.
Et parfois, en définissant
ce pipeline de obtenir
des résultats consistentes
entre la langue naturelle et le code output,
ça peut être un peu inconsistant,
parfois.
C'est une des raisons
de la question de la langue naturelle.
Vous voulez dire
ce que la langue naturelle est
et ce sont les problèmes que ça essaie de se faire?
Bien sûr.
La langue naturelle est une langue
de programming de code pseudo-codes
qui se trouve sur le top de les models
de la langue naturelle, comme les GPT-4.
Vous pouvez penser de la langue GPT-4
comme un interpreter de code pseudo-codes.
Et l'un des goals des design de la langue naturelle
est que vous ne besoinz pas
de donner la specé de la langue naturelle
pour l'AI pour comprendre.
En other words,
c'est le cas de toutes les features
que la langue naturelle a déjà
parce que les features sont vraiment
élevées du grand
univers de
ce que les autres languages de programming
ont déjà été faites avant.
C'est donc
une collection curée
de seulement les bonnes parts
des meilleures languages de programming
dans le monde.
Et c'est pour les choses
qui ont été les plus grandes
des choses dans l'une des spécifications.
Il y a une spécification
qui vous dit
sur ces features
pour comprendre comment utiliser
et ce qui est disponible.
Mais il n'a pas besoin
de la spécification
pour comprendre le pseudo-lang et le faire.
C'est vraiment cool.
L'une des meilleures advantages
de cette série
sur les autres languages de pseudo-lang
où les gens ont découvert leurs
customes syntaxes et des choses comme ça
c'est que
vous n'avez pas besoin de le dire
pour comprendre le lang de programming.
C'est juste
un peu naturellement
qui est super cool.
C'est très utile.
Il y a un couple de choses
que vous pourrez comprendre sur pseudo-lang
avant d'utiliser.
Une des choses
qui est utile
c'est un paradigm complètement différent
d'autres languages que vous avez utilisées avant.
C'est un lang de programming constrainable.
C'est inspiré
par l'Ivan Sutherland
sketchpad
qui était 1961
et 1963.
Ivan Sutherland était un genius.
C'est le homme qui a
inventé la directe-screen interaction
dans les années 1960.
Le homme
qui a inventé VR goggles
en l'année 1960,
en l'année de la fin de 1960.
Il a inventé
un bunch de paradigmes qui sont crues
et très, très rélevants
aujourd'hui.
Un des paradigmes était le programming constrainable.
En sketchpad,
il y avait un lang de programming
graphique
qui était fait
pour enlever des diagrams.
Mais il pouvait enlever
des diagrams,
pour les simulations
que l'on a créées.
Il pouvait enlever un circuit
pour simuler
l'opération des circuits.
Ou il pouvait enlever
un lang de programming
qui simulait le impact
de la weight, de l'air et de la wind.
Pour la stabilité structurelle.
Il était un lang de programming,
mais il était graphique.
Il n'était pas en texte.
Les constrains étaient contrôlés
par des petites séparements.
Il se tournait un petit lang de programming
qui se tournait
sur des lignes,
des arcs et des diagrams.
Il tournait un petit lang de programming
qui se tournait
par des choses mutuelles et
perpendiculaires.
Il se tournait par des constraints.
Et puis, à ce point,
ce constrain est actif.
Si vous changez tout ce que vous avez dans le diagramme,
il resolve les constraints.
Le code de la suite
a des constrains dynamiques
et de la suite
à l'aie.
Vous dites que
vous voulez que le programme
soit en train de se faire
dans des constraints naturelles.
Et puis, ça ajuste
les variables et
des choses comme ça
en réponse à des changements
dans le programme.
C'est cool.
Il y a un peu de choses qui vous font
une paradise complètement différente
de ce que les gens utilisent
pour le programme.
Il y a une autre différence
qui n'est pas objectif.
Il est interface-orienté.
La distinction est vraiment importante.
Un objecte a une implementation concrète
avec des détails de la implementation concrète.
Une interface
est une définition type.
Et tout peut
complier ou non.
Mais ce qui est intéressant
est que vous pouvez prendre
une interface
et créer de
différentes implementations de cette interface.
Et en fait, avec Sudolink
vous pouvez faire ça
dans des langues programmées.
Par exemple,
j'ai travaillé dans des contracts smarts
et très souvent
quand vous travaillez avec des contracts smarts
dans Web3, vous avez un logiciel
qui doit être implémenté sur la chaine.
Mais vous avez un UI
qui peut être créé sans attendre
pour le changer, vous voulez le réactiver
optimistiquement.
Ce qui veut dire que vous devez reproduire
le logiciel qui est dans le contracte smart
en JavaScript. Vous avez la même logiciel
dans deux langues programmées.
Avec Sudolink, vous pouvez définir
l'interface en même temps, transpire
à les langues, et puis vous êtes en business.
Donc c'est assez cool.
Ce concept
de l'interface
de langues agnostiques
a été first discuté en détail
par Barbara Liskov en 1870
quand elle travaillait sur la langue
de langues programmées.
Si vous ne savez pas qui Barbara Liskov était,
elle est une compétition d'un
compétition d'amélioration de la
qui est le principal
de l'interface de l'aérone
qui est nommée à la compétition.
Et ce qu'elle a dit
avec le principal de l'interface de l'aérone
était que
toutes les deux choses
qui utilisent la même interface
devraient être substitutables
pour l'un de vos programmes
sans qu'ils ne le débrouillent pas.
Et souvent,
le programme se débrouille.
C'est vraiment bien.
J'ai été lire cet
livre, HCI Remixed,
qui va passer
par des documents de l'interface.
Donc, comme vous parlez de ce truc,
je suis en train de
les résiduels
de
ces papiers.
C'est vraiment cool de entendre
comment la histoire a inspiré
des décisions.
Et puis,
sous la haine,
donc,
pour les interfaces
qui sont translatées
entre les languages de programme,
c'est juste fait
par la LLM,
c'est juste que vous avez
cette interface
et que vous êtes
basically
construit une promesse
par rapport à ce que vous avez
translaté
dans le Python.
Oui,
donc, mon préféré
de fonction
dans le pseudo-ling
est la fonction de la transpire.
Et,
basiquement,
comme un paramètre,
vous pouvez dire
le langage que vous voulez transpire,
mais vous pouvez aussi
faire des autres choses
dans ce paramètre,
juste avec le constrain de la LLM.
Donc, vous pouvez dire
que chaque constrain de la LLM
sera le plus dur.
Donc, vous pouvez dire
transpire
à JavaScript
en utilisant le JAS
et en utilisant le programme
fonctionnel.
Et ça va faire tout ça.
Donc,
c'est assez fun.
Donc,
quand est-ce que la transpiration
se passe?
Comme,
je fais un service
qui a la prompter
et qui intervient
avec la LLM
via la prompter
ou avec la LLM
d'outre code
que je commette
à ma repository.
Donc,
très souvent,
quand je fais
développement de l'AI,
je veux chanter l'interface.
Donc,
je suis généralement en chat
en fait,
quand je fais ça.
Dans le futur,
ça peut devenir
plus agent-based.
Dans quel cas,
vous orchestrez
les agents
de la langue
comme le JAS
et vous avez un agent-loop
et un framework
qui dit,
ok,
c'est le agent-contrôler
et le agent-contrôler
a le plan
pour le travail
et puis le délégateur
pour d'autres agents
avec des spécialités.
Et ces autres agents
avec des spécialités,
c'est juste
le même
AI-engin,
qui est passé
à une prompter
qui a
des instructions
pour une particularité.
Maintenant,
vous voulez ces proms
dans une séparation
parce que
il y a
beaucoup de détails
que vous voulez.
Vous voulez que je me
tourne ça
dans un comment-de-garde
à l'aie
pour faire une discussion
ou un peu de discussion
parce que je peux le faire,
oui?
Mais vous pouvez
faire votre prompter
dans des petites proms
et puis
utiliser
la langue
comme le JAS
ou le Python
pour orchestrer
les proms différents
et vous pouvez avoir
une prompter contrôlée
qui dit
ok,
passons-le
à cet agent-là
et puis
juste
javascript
ou Python
faire ça
pour ça.
Donc,
votre javascript
et Python
sont juste
un relayage
entre les agents-aïe
et les messages passés
en dehors de eux.
Oui,
on a
parlé
un peu
dans les précédents épisodes.
C'est très légèrement
sur la langue
et des outils
qui vous permettent
de faire
cette composition
agent-based.
c'est toujours
vraiment fascinant
pour moi
comment
les spaces s'évoluent
et
comment les petits prématifs
peuvent se devenir
si c'est
comme
en
enregistrer
ceci
pour le pseudo-lang
un peu.
Comment
quelqu'un
peut-il
en utilisant
le pseudo-lang
et puis
quels problèmes
sont-ils
vraiment
bien
récourus?
Ok,
alors,
on va parler
les problèmes
et je vais
parler
comment
il faut commencer.
Ok,
donc les problèmes
qu'il n'est pas
bien
souleur
sont
juste des questions
et des choses
comme si
tu veux
avoir une chute
avec votre
modèle de langue AI
juste en utilisant
la langue naturelle, c'est bien.
Si tu veux
le modèle de langue AI
pour
basicement
faire un programme
qui signifie
de la state
qui peut changer
de temps,
utiliser des interfaces
spécifiques
avec des spécifiques
et des spécifiques
là.
Le système interface
de la langue
fonctionne vraiment
bien pour contrôler
la forme
de son output
et des choses comme ça.
Les constraints
et le système constrain
sont
pour que tu puisses
l'instruire
assez facilement
pour
toujours
délire
une espèce
spécifique
d'une réponse
par exemple
je m'ai
souvent
promis
pour
toujours
donner
ses réponses
dans le format
yaml
et puis
le yaml
est interprété
par un Python
JavaScript
et
c'est
assez difficile
de faire
juste en utilisant la langue naturelle
mais c'est beaucoup plus facile
avec
le soudoling
et des constraints
et parmi
si tu
t'as essayé
de faire ça
tu probablement
connaissais
que c'est pas
facile
que je le faisais
juste
pour que
le yaml
soit
facile
mais
avec des constraints
et des interfaces
très souvent
tu dois
répéter
les instructions
dans des
différentes
méthodes
pour que
tu
faisais
le
yaml
jason
et le
yaml
sans
explication
et tout
si tu ne fais pas ça
tu vas avoir un
plus de
faillite
qui signifie que tu dois
retracer
qui signifie que tu as
des tokens
et des money
parce que l'influence
est expensif
donc les problèmes
que tu veux
adresser
sont les
qui
tu as des
spécifiques
requirements
ou
tu as
un state
d'involve
que tu veux
de la
langue naturelle
et
je veux juste
raconter
le code
sous-dol
juste
en utilisant le code
sous-dol
pour promener
l'anglais
qui a un couple
d'interessants
les
AI
naturellement
pensent
que
il est
le contexte
que tu as
et qui
intervient
l'understand
du monde
c'est le model
mental
beaucoup de gens
ne sont pas
les AI
et ne pensent pas
qu'ils ont ces
mais ils ont des modèles
et
il y a des associations
qui sont
les contrées
dans différents contextes
et quand c'est le code
l'une des associations
qui est
l'intervient
c'est
ce qui
ressemble
à un type
ou un type
que je dois payer attention
à
et il y a
des clés
et des propriétés
sur ce type
que je dois payer attention
à ces clés
et faire sure
que je suis
venu
耗上
des
clés
et
un
non
homeland
est
associated
un
d'informal et vous avez des choses à dire, ce que vous pensez, à l'intérieur de votre tête,
en fait, en pensant à la pensée très bien. Mais en regardant les brises curles,
et en particulier, cela fonctionne mieux avec les langues comme JavaScript ou les langues
qui ont des brises curles que les langues qui ne l'ont pas, comme Python. Il est très bon
à écrire la code Python et tout comme ça, mais si vous voulez comprendre un problème et
penser à cela comme un problème, comme un problème technique, vous mettez les brises curles
que magique mode fait 10 à 15 % plus probable d'y répondre correctement aux
prombes. C'est-à-dire quelque chose que vous aimez que c'est dans le pseudo-lang prompt ou est-ce que c'est
juste comme une propre de lm lm que vous avez juste trouvé et que ça aide pour le pseudo-lang.
C'est une propre de lm lm qui a été découvert par moi et des autres researchers qui ont été
en train de faire des modèles à lm et de les faire des résultats.
Il y a un whole field de lm lm, qui s'appelle prompt engineering, où il y a un
peu de nerds comme moi qui sont en train de faire des résultats en récourant et de
faire des résultats en récourant et de les faire en récourant et de les faire en récourant et de les faire en récourant et de les faire en récourant et de les faire en récourant et de les faire en récourant et de les faire en récourant et de les faire en récourant et de les faire en récourant et de les faire en récourant et de les faire en récourant et de les faire en récourant et de les faire en récourant et de les faire en récourant et de les faire en récourant et de les faire en récourant et de les faire en récourant et de les faire en récourant et de les faire en récourant et de les faire en récourant et de les faire en récourant et de les faire en récourant et de les faire en récourant et de les faire en
récourant.
Kelly est parti d'avoir un Hakim du
moment s'il tavalla son
Partix
on github et je me suis dit que je l'ai fait depuis longtemps, je l'ai appris beaucoup
sur ce qui ne marche pas quand je suis promis des modèles de maillons avec code et
4 code, en utilisant le code pseudo pour me détenir ce que je veux.
Je dois récourir des choses que j'ai appris et faire une specification de langue.
C'est comme ça que ça s'est passé.
C'était le mars de cette année, je pense.
Et c'était tellement successeux et formelant cette langue et en commençant à utiliser
cette langue en particulier, en fait, comme ad hoc avec tout nouveau prompt.
C'était tellement successeux, c'était tellement bon que je fais maintenant, je fais pas la
plupart, plus de 100% de mon programmation, commence avec un prompt de soudoling et
ensuite, il se termine en JavaScript ou Python ou un code de solidité smart contract
ou quelque chose comme ça.
Si on a fait ça avec C, ça ne marche pas avec toute la langue.
Donc, en utilisant le soudoling comme la structure de la scaffolding pour commencer
avec un grand programme, tu es sorti comme en détenant ton domaine ou exactement
comme les interfaces que tu veux voir ou quelque chose.
Et puis, c'est comme en faisant la transpiration et tout et en sortant de vous
pour cet autre programme.
C'est ça votre fonctionnement ou quoi est-ce que tu vois quand tu es en train de utiliser?
Tu peux penser que le soudoling est en train de avoir trois différents workflows.
Un de ces est de produire un programme qui est créé pour
faire le grand programme de langue large comme un programme de chat interactive.
Donc, par exemple, des choses comme les moderateurs de communauté pour les
chatrooms ou des bots qui sont supposedes interagir avec les utilisateurs,
des questions et des réponses pour les websites, ces trucs.
Ces choses sont créées pour des sessions interactives qui devolvent en temps
et ont une histoire de toute conversation.
Et le soudoling est vraiment, vraiment bien en faisant ces choses.
Il y a un programme, il y a un exemple de soudoling, un programme
appelé AI-FRIEND qui vous guide à la création d'un prompt pour un chatbot.
Et ça va créer le prompt de chatbot pour vous,
en basant sur vos spécifications.
Et puis, tu peux juste passer ça dans le character.ai ou quelque chose comme ça.
Et ça fonctionne vraiment bien.
Et puis, il y a un autre mode que je n'appelle AI-DRIVED DEVELOPMENT ou AI-TDD.
Et dans ce mode, je utilise l'AI pour faire des programmes qui vont
se passer en JavaScript ou en Solidity ou Python ou C ou autre.
Et donc, c'est un processus de développement AI-DRIVED.
Et j'ai un grand processus pour ça qui va faire de
la map de la histoire, de la histoire, de la décision de la histoire et des
priorités, de ce que vous faites d'abord.
Et en écrit la documentation, on fait un processus de développement
de redevue, qui signifie que nous avons écrit la documentation pour
toutes les interfaces avant de nous impliquer les interfaces.
Et puis, nos équipes peuvent travailler en parallèle.
Maintenant, imaginez que vous faites la même chose,
except que tout ceci est écrit par l'AI,
incluant la documentation, incluant les requises et tout ceci.
Et puis, l'AI délégate ces tasks à l'AI.
Et ils font les choses comme en écrit.
Donc, nous avons un module spécial pour en寄 des réductes
pour les clients de l'Etat.
Nous avons un module spécial pour en寄 des réactions, des compagnons
et un module spécial pour en寄 des contracts smarts,
et de la Solidity, et tout.
Et c'est juste que chaque un de ceux a une spécialité particulière
et l'AI délégate ce processus.
Et nous travaillons en travaillant dans un framework d'agent,
et, en espérant que, dans le futur,
cela va devenir un workflow très important.
C'est un peu plus tard pour les frameworks d'agent,
parce qu'ils nécessitent encore beaucoup d'héros,
ils font encore beaucoup de erreurs,
les modèles de langage se hallucinent beaucoup,
et c'est quelque chose d'attendre,
et ils peuvent aussi se déranger.
Et il y a beaucoup de défis avec contexte et des windows d'attention,
et tout comme ça, que je pourrais aller dans un peu de détails techniques,
mais je ne vous ferai pas de vous en parler maintenant.
Mais si vous êtes curieux,
vous pouvez vous en parler.
Et puis, un autre mode est...
Ce que je disais, je n'appelle pas « métaprogramming »
où vous vous dites « programmes » et que vous dites « programmes »
et puis, la dernière mode est juste transpiémant,
où vous vous promptez l'AI avec un code pseudo
qui est créé pour être transpiété dans une autre langue
et vous transpile le pseudo dans un Python ou un JavaScript.
Donc, vous vous dites que vous avez écrit le programme
que vous avez créé, mais vous vous dites le code pseudo
dans votre langue target, et puis, ça transpire automatiquement.
Et c'est vraiment bon pour les choses que je vous disais,
où vous avez des logiques dans les deux JavaScript
et des programmes smarts,
et vous voulez transpire les deux places,
et vous voulez juste les écrire.
Et vous vous dites que vous avez créé un code pseudo
qui est créé pour être transpiémant,
et vous vous dites que vous avez créé un code pseudo
Et vous vous dites que vous avez créé un code pseudo
qui est créé pour être transpiémant.
Et vous vous dites que vous avez créé un code pseudo
qui est créé pour être transpiémant,
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que vous avez créé un code pseudo
et vous vous dites que les choses que je veux être truie sur ce code
tout le monde est sur le GPT
ou même moins, pas de constraints, juste le nom de la fonction
ça peut généralement se faire en contact avec les autres
donc, vous avez juste les constraints
quand vous faites quelque chose d'accord et vous avez besoin de correcter
vous avez besoin de guide votre output
pour un output plus successful
c'est quand vous ajoutez les constraints
une des choses intéressantes
quand je faisais cette documentation pseudo
et vous avez mentionné ça un peu plus tard
mais
comme le code pseudo est utile pour certaines applications
des applications de chute
ou des applications de structure structure
vous avez cette feature command
qui est, si les gens ont utilisé un bot de discord
ou quelque chose comme ça, c'est comme un command slash
ou un slack, c'est un interface très commun
donc c'est intéressant de voir
ce que c'est bundlé ensemble
dans cette specification pseudo-lang
quels sont les commandes et quel est le point d'adaptation
pour ajouter ça dans cette specification
très souvent je vais utiliser
si je fais quelque chose de programmes, que je vais avoir
je vais avoir beaucoup de phases
de programmes pour avoir le contexte
dans le modèle de langue
pour tout ce qu'il faut savoir pour faire un bon travail
pour moi le plus naturel
c'est les commandes slash
et en disant les commandes slash
c'est un moment où il reconnaît
exactement ce qu'ils sont sans les commandes
et si vous ajoutez un command slash
pour que vous puissiez avoir des commandes
et que vous ne le dites pas
ce que l'aide est supposede faire
c'est juste de lister les commandes
j'ai eu l'idée, j'ai essayé
et ça a été le premier moment où je me suis dit
ok, ça va dans cette specification, c'est génial
et je les ai utilisé tout le temps
c'est comme si c'était un rêve pour faire une CLI
vous avez juste de la spécifier
la forme de ce que ça fait
et un truc qui fait tout pour moi
ça me semble comme un rêve
une chose intéressante, quand je faisais la construction
d'un orchestre d'agent en JavaScript
je voulais éditer mes prompts sur le sous-delant
et dans le format sous-delant
et dans le file naturel
mais je voulais aussi être capable d'importer
ces prompts en JavaScript
j'ai eu l'idée d'écrire un CLI
j'ai créé une interface sous-delant
qui a spécifié un CLI
pour que ça soit automatiquement en train de faire la conversion
et ça fonctionne bien
et je suis allé
et j'ai eu un code de watch
qui regarde mes directrices de prompts
et automatiquement convertit-les
dans les modules de JavaScript
donc maintenant mes prompts sont en JavaScript
c'est génial
je veux aller en parler un peu plus de la langue
on a dit le code de sous-delant
mais comment est-ce que le sous-delant est sous-delant ?
comment est-ce que je peux être en code ?
comme un langage régulier ?
comme un error syntax ?
peut-être que le sous-delant ne t'a pas du tout
carrément ?
oui, il n'a pas de problème
il va juste continuer à faire le bon travail
tu ne pourras pas même noter les errors
je vais faire des erreurs sans sous-delant
je vais oublier un bruit de trahie
et ça fait le bon travail
je n'aime pas les erreurs
car pour moi
je me sens juste d'erreur
pour avoir des erreurs comme ça
mais ça les dégâche
c'est comme le point de la prochaine logique
les langages ont un lsp, le syntaxe
est-ce que le sous-delant a quelque chose de similaire ?
le sous-delant a un point de syntaxe
c'est que le sous-delant utilise des constraints naturelles
et ça fait beaucoup de temps
le sous-delant
commence avec un preuve
c'est le programme
et ça fait que ça acte comme un rôle pour le AI
et un peu plus de contexte
tout ça est dans la langue naturelle
et ça commence à apporter des interfaces
et des fonctions pour votre interface
et le bout du bout est votre interface
et puis un point de départ
et pour moi, je type « welcome »
avec des parenthèses
donc ça s'appelle « welcome »
et ça vous explique ce que c'est
et vous montre les commandes
parce que le langage naturel
et les rues de syntaxe
c'est vraiment difficile
à faire un système de langue
qui comprend le sous-delant
sans aussi faire un système de langue
un modèle de langue large
qui s'infuse et qui vous intervient
ce qui est probablement possible
mais maintenant je pense que c'est probablement un procès prohibitaire
pour faire ça sur tous les clés
pour envoyer votre source code
pour ce file, comme vous avez essayé de changer le code
je pense qu'on va devoir attendre pour une technologie
pour avancer un peu plus avant d'avoir des récits interactions
mais quand nous avons des récits,
ils vont se débrouiller chaque autre code intelligence
que vous avez vu, c'est juste de se débrouiller les portes
de tous lesquels ils sont allés
c'est vraiment très bien, maintenant
vous devez vivre presque sans syntaxe
vous devez utiliser des récits simple
qui sont en train de se débrouiller les portes
et au moins vous pouvez voir si les portes sont en train de se débrouiller
c'est vraiment intéressant de voir le futur
surtout avec l'intégration de l'AI
si vous pouvez faire des choses comme la backfill
ou des syntaxe qui ont fait le code
parce que, vous savez, on peut avoir des spécifications
de choses qui sont en train de relier les textes
que vous avez besoin de l'IOLM
comme vous le dites, il y a une opportunité
d'avoir des tools de l'AI pour générer
je ne sais pas, des trucs de tout genre
comme syntaxe ou un code-hint
vous pouvez imaginer que je suis en train de couper
et que je fasse un lm
et que je peux pouvoir évaluer l'IOLM
je veux juste toucher sur le futur
où ça va
je pense que dans le futur pas très distant
on va voir des tools de l'AI
qui vont être complètement aware
de votre base de code, votre branch,
tout ça
et on va pouvoir
regarder votre code, regarder un problème
que c'est supposed à se résoudre, travailler sur ce problème
et puis ouvrir des requises en plus
sans l'interaction humaine
et je pense que ça va devenir plus comme
des directeurs créatifs pour nos programmes
que pour le manque de un meilleur mot
juste comme un code-machin,
laisser l'AI être le code-machin
et leur faire travailler sur le code
et nous pouvons faire attention à les problèmes de l'aéroport
comme si ça ne se résoudrait pas les besoins
et que dans le futur
il y aura une capacité pour quelqu'un
d'aller dans un model AI
ou un pipeline d'agent
et dire, « Bile-moi quelque chose qui est inspiré
par ce autre chose, mais je veux faire ces choses
et vous pouvez remettre
tout ce qu'il y a, including le software
including les applications de software. »
Il y a beaucoup d'autres gens
donc maintenant, il y a
ce genre d'inherent de gaites en software
où vous devez apprendre
un peu d'applications pour être productifs
et dans le futur, je pense que c'est un peu
si vous avez une bonne idée et que vous avez un tool AI
vous pouvez construire des appels et
personne ne va pouvoir le faire et je ne peux pas
vous dire que vous avez des appels
et vous avez des appels et vous avez des appels
et vous avez des appels et vous avez des appels
et vous avez des appels et vous avez des appels
et vous avez des appels et vous avez des appels
et vous avez des appels et vous avez des appels
et vous avez des appels et vous avez des appels
et vous avez des appels et vous avez des appels
et vous avez des appels et vous avez des appels
et vous avez des appels et vous avez des appels
et vous avez des appels et vous avez des appels
et vous avez des appels et vous avez des appels
et vous avez des appels et vous avez des appels
et vous avez des appels et vous avez des appels
et vous avez des appels et vous avez des appels
et vous avez des appels et vous avez des appels
et vous avez des appels et vous avez des appels
c'est un peu de la même temps, que mon skill ne tient plus la créativité
c'est un peu de la même temps, que mon skill ne tient plus la créativité
c'est un peu de la même temps, que mon skill ne tient plus la créativité
c'est un peu de la même temps, que mon skill ne tient plus la créativité
c'est un peu de la même temps, que mon skill ne tient plus la créativité
c'est un peu de la même temps, que mon skill ne tient plus la créativité
c'est un peu de la même temps, que mon skill ne tient plus la créativité
c'est un peu de la même temps, que mon skill ne tient plus la créativité
c'est un peu de la même temps, que mon skill ne tient plus la créativité
c'est un peu de la même temps, que mon skill ne tient plus la créativité
c'est un peu de la même temps, que mon skill ne tient plus la créativité
c'est un peu de la même temps, que mon skill ne tient plus la créativité
c'est un peu de la même temps, que mon skill ne tient plus la créativité
c'est un peu de la même temps, que mon skill ne tient plus la créativité
c'est un peu de la même temps, que mon skill ne tient plus la créativité
c'est un peu de la même temps, que mon skill ne tient plus la créativité
c'est un peu de la même temps, que mon skill ne tient plus la créativité
c'est un peu de la même temps, que mon skill ne tient plus la créativité
c'est un peu de la même temps, que mon skill ne tient plus la créativité
c'est un peu de la même temps, que mon skill ne tient plus la créativité
c'est un peu de la même temps, que mon skill ne tient plus la créativité
c'est un peu de la même temps, que mon skill ne tient plus la créativité
c'est un peu de la même temps, que mon skill ne tient plus la créativité
c'est un peu de la même temps, que mon skill ne tient plus la créativité
c'est un peu de la même temps, que mon skill ne tient plus la créativité
c'est un peu de la même temps, que mon skill ne tient plus la créativité
c'est un peu de la même temps, que mon skill ne tient plus la créativité
c'est un peu de la même temps, que mon skill ne tient plus la créativité
c'est un peu de la même temps, que mon skill ne tient plus la créativité
c'est un peu de la même temps, que mon skill ne tient plus la créativité
tu connais стéritre T par ts
tu connais ST c'est tu la T
ts
de me m' Krit
de
mais un peu de risques pour des displacements de...
Oui, on va devoir ajuster les skills que nous fâchons.
Et comment nous travaillons ces jours-ci.
Mais si vous pensez à ça,
le challenge n'a pas changé beaucoup pour les gens
qui viennent de l'école.
Parce que dans les années 1990, les 2000s,
ils ont été frais à l'école,
ils ont fait des javas,
et comme...
Il y a des gens qui font des javas,
je ne vais pas le faire,
mais personne ne fait des javas
que lesquels ils ont fait des collèges.
C'est juste que ça n'a pas été passé dans l'industrie.
Donc vous allez avec un peu de skills
que les universités ont fait dans votre tête,
et vous vous inquiétez,
et vous inquiétez, et voilà, et voilà.
Et personne ne fait ça,
tout le monde dans l'industrie
utilise son compositions sur l'inheritance,
ils fâchent sur le programme fonctionnel,
ils ont ajouté un link à C-Sharp,
ils ont ajouté Lambda, Java,
tout ce genre de choses.
Non, personne ne fait des codes
dans le style qu'ils apprécient,
qu'ils apprécient dans l'école,
donc les gens viennent de l'école
et ils trouvent que beaucoup de ce qu'ils ont appris
n'est pas utile dans le workplace.
Et les collèges aussi ont une tendance
à se concentrer sur un peu de détails de haut niveau.
C'est comme, ici est la compétition,
ici est la binarie,
vous vous inquiétez dans le monde réel,
et personne ne fait des codes dans la binarie.
Non, personne.
Même les programmes de systèmes
utilisent des assemblables
et des choses comme ça,
et ils ne l'apprennent pas directement dans la binarie,
ils ne calculent pas la différence
entre les digiètes binaires
et les digiètes Hex.
Personne ne fait ça,
c'est utile conceptuellement,
mais c'est pas utile.
C'est pas un programme meilleur
si vous ne faites pas de code
de haut niveau.
Ce n'est pas utile,
ce n'est pas utile.
Mais dans les derniers jours de la science,
c'était la seule chose qui m'a appris,
parce que vous avez toujours
à la direction de ces choses,
et les systèmes universaux ne l'ont pas appris.
Donc,
ce que vous devez faire
quand vous êtes venu à la collège,
c'est que vous devez comprendre,
ok, toute cette science de sciences de la science
que j'ai étudie,
toute cette knowledge de sciences de la computer
que j'ai appris,
ça ne s'est pas utile,
mais c'est un truc qui est très, très important.
De savoir comment implementer
un fruit de la binary,
et marcher en Java,
ça ne va pas faire quelque chose pour mon travail.
Mais, ici est le truc,
beaucoup de les enfants de la collège,
ils sont en chat GPT,
ils utilisent le chat GPT
pour les aider avec leur travail,
et ces skills sont les skills
qu'ils vont avoir quand ils viennent de la collège.
Donc,
je pense que c'est un peu ironique,
mais beaucoup de gens
sont déjà en train de gérer l'AI,
et d'apprendre à faire l'AI-driven
et d'apprendre à
aller en promptant l'AI
et dire, hey,
write me this documentation
that my teacher wants me to turn in next Friday.
So ironically,
like cheating on your college homework
is probably the best thing you can do
to prepare for your career.
It's going to be a big transition,
I think,
do we have more time to talk about
AI language models in general?
Oh yeah,
I'm down to talk.
So there's a concept
that I want to touch on.
I think that a lot of people
are underestimating AI language models
in a lot of ways.
so the AI researchers
who were talking the most about this
a few years ago
when GPT-3 came out
and chat GPT now,
a lot of researchers
who were chiming in on this
are researchers who've been beaten down
by three or four decades
de failures
en language models
et de comprendre
l'anglais naturel.
Donc ils viennent
avec ce
burden
de failures.
Et je sais ça
parce que je suis un de ces.
J'ai commencé à travailler
avec les models AI
quand j'étais enfant.
J'étais un étudiant.
Donc j'ai été en train de faire
des décennies,
et je comprends
où ils viennent.
Mais ils sont
en train de faire des assumptions
sur les models de l'anglais
qui ne sont pas les vrais.
Et des assumptions
je veux que ce soit
des misconceptions.
Donc
en fait
un modèle de l'anglais
comprend vous.
Ils ne sont pas des paroles stochastiques.
Ils comprendent
ce que vous dites.
Et ce que je veux dire
c'est que vous pouvez
décrire un problème
pour un modèle de l'anglais.
Ça peut expliquer le problème
dans ses propres mots.
Réussir des questions
sur l'anglais.
Et cela peut écrire
une solution à la problème
dans des codes
ou dans des designs.
Et cela peut expliquer
en détail
comment cela fonctionne.
Réussir des questions
sur l'anglais
ou la solution.
Si quelqu'un
pouvait faire tout ça,
on aurait absolument pas d'absolu.
Les gens ont compris
le problème.
Ils comprendent l'assignement.
C'est vrai.
L'heure où
votre modèle de l'anglais
comprend vous.
Ils comprendent le contexte.
Donc
une autre chose
que les gens ont une misconception
de ce que
ils pensent
que l'anglais
n'a pas de
information sur
comment le monde fonctionne.
En autres mots,
ils pensent que l'anglais
n'a pas un modèle mental
de l'anglais
qui apporte à l'anglais
comme un humain.
C'est aussi
le problème.
Et ce que je veux dire
c'est que
l'anglais
a leur apprendre
comme leur réseau neural
est étendu
avec la propagation de la back.
Ce n'est pas juste
un peu de statistiques
en faisant des tables de look-up.
C'est construire un grapho
un map semant
du monde.
Et ce que je veux dire
semantique, c'est juste
un mot de sens.
C'est donc construire
un map de sens
des mots
et le sens
des
des objets
ou des objets dans le monde.
C'est
comme nous
utiliser
les symboles
pour comprendre le monde
et rappeler les signes.
Donc, pour exemple,
si je vous dis un mot
et il y a des synonymes
à ce mot,
vous pourrez me donner
un synonym,
souvent si l'un existe.
Vous pourrez me remettre
un synonym à moi
parce que
vous avez un
map de
la semantique
de ce mot
dans votre cerveau.
Les modèles AI-langue
ont aussi
ces mapes de semantique.
Ils ont appris les semantiques
et ils ont
des mécanismes d'attention.
Et ce mécanisme d'attention
est
poursuivant
l'input
dans le prompt
et en disant
que ce mot
s'y rapprochera
dans ce mot.
Et il apprend
par la propagation et le train
de trouver des features
dans le langage
et des features
de l'univers,
des features extractées
de l'univers
de ce langage.
Et il utilise ça
pour construire les modèles
mentaux de l'univers.
Et vous pouvezstellung
que de donner
des expériences
dans le初 bake
Il peut praising
que j' JOE
pour B.
dans la
besPop
les normes de la quantité correspondent à la densité.
Et assume que toutes ces choses sont des sphères de la même dimension.
La même volume de la sphère.
Maintenant, mets deux sphères sur une scale et me dis quelles sont les sphères sur la scale.
Et ça peut vous dire, parce que c'est le fait que la gravité est,
et que la gravité est liée à la densité,
et que ça a un modèle mental de physique.
Et le modèle mental de physique, par contre, est plus riche que moi.
Ça peut construire un meilleur enjeu de physique que moi.
En source code.
Donc, ils ont des modèles mentales de l'univers.
Et une autre chose, les researchers de l'A.I. ont eu cette conception
que vous ne pouvez pas étudier un A.I. sur le texte.
Et, à un moment, c'est vrai, mais ils ont dit qu'il y avait beaucoup de misinformation.
Parce que les humains ont dit que vous avez un sens commun
quand ils vous parlez, donc ils ne disent pas beaucoup de ce qu'il faut être dit
pour les computer à comprendre.
Mais, vous vous rappelez que les modèles de l'A.I. ont été traités
sur l'internet de tout le fric.
Ils ont appris beaucoup de choses, et ça leur donne un sens commun.
Et vous pouvez prouver ça à vous-même par aller dans le chat d'un T.P.T.
et vous vous dites quelque chose comme,
imaginez que vous entendez les mots,
table 3 a besoin d'un refil de café.
Regardez-le sur table 3 et dis-moi ce que vous voyez.
Et ça vous décrivera des gens qui sont à la table,
pas juste des tables et de café,
des gens qui sont à la table.
Et ça sait que les gens veulent drinker le café,
pas les tables, les tables ne drinkent pas de café.
Et ça sait que ces gens sont probablement engagés en conversation
et peut-être qu'ils ont des autres sacs
qui sont à la table et ça peut arriver avec cet entire scénario.
C'est un truc qui se passe bien,
il sait que les tables sont souvent associées
avec des cafés ou des restaurants,
etc.
Donc ça correctement infert la situation
et tout ça.
Donc le problème de la information n'existe pas
dans les langues large.
Il existe dans les langues small,
mais il n'existe pas dans les langues large.
Pas au niveau que beaucoup de researches pensent.
Oui, je peux le faire.
Je peux mettre un livre sur ça.
C'est tout très excitant et très grave,
tout à l'heure, je suis content de voir
où la code s'est mise,
même si j'ai mis mes dernières 10 ans dans ça.
Mais avec ça, on va transporter les petits trucs.
Ok, donc mon premier petit truc de la journée
est un nouveau éditor de code qui s'appelle Cursor.
Cursor est un code de VS,
c'est un grand moyen d'en commencer un éditor,
un que tout le monde aime déjà.
Mais c'est un éditor avec AI comme la main focus.
Vous devez en savoir que je suis en chat GBT,
je suis en GBTX,
ou en co-pilot X.
Comment ça se passe?
Ce n'est probablement pas tout le monde différent,
mais c'est ici et vous pouvez l'utiliser maintenant.
Il y a des features très belles
pour la code générant.
Vous pouvez avoir le tout de la conversation avec la code.
Mais ce que j'ai vraiment aimé
c'est la façon dont vous éditez des codes existants.
Vous vous highlightz un code,
vous vous mettez command K,
vous vous arrêtez un prompt,
vous vous remercie un peu,
et ça va changer votre code
dans l'éditor et vous pouvez l'accepter et dénier.
C'est une belle expérience.
Ce n'est pas trop trop de codes,
si vous vous dites
que vous avez des commentaires,
ça va passer et ne vous changez pas
et vous ajoutez un peu de commentaires.
Une autre feature cool
c'est que ça fonctionne avec votre propre
API Key.
Vous pouvez basiquement déloyer
ceci et vous avez déjà un access GBT4.
Vous pouvez mettre votre API Key
dans l'éditor et vous utilisez.
Si vous avez regardé un code éditor
qui est plus AI-focused,
vous devez définitivement donner un look curseur.
Vous avez utilisé le curseur Eric?
Je l'ai entendu mais je n'ai pas essayé.
Je l'ai utilisé
via code.
Ils ont une version preview
d'Insiders Edition.
Je l'ai utilisé avec une chute
qui est construite dans la barre de l'écran
et des trucs comme ça.
Je n'ai pas essayé.
Je l'ai utilisé.
Je l'ai utilisé pour les codes highlight
command-k.
Ils ont un code highlight
et vous avez utilisé le code
et vous vous appuyez dans la chute
et vous le dites pour faire quelque chose.
Et ça peut faire ça.
La prochaine chose, on a
Nifty.
Je l'aime.
Les petits outils simples.
C'est toujours un truc que je viens de faire.
Et
ce nifty tool, c'est
juste un service de notification
que vous pouvez utiliser sur le show.
Vous pouvez faire un call
pour Nifty et
vous envisagez une notification pour votre téléphone.
C'est ça.
C'est génial.
C'est vraiment cool pour
faire avec des petits outils.
Je l'utilise
un Spoon Hammer
pour Mac, qui est un
lua, comme le scripting environnement
et c'est vraiment facile pour faire un call
pour Nifty, pour envisager
une notification, quand un script est complet.
C'est juste un cool service.
Vous pouvez vous envoyer
un service payé
pour 3 $ par mois.
C'est vraiment simple.
C'est cool. Je vois comment ça serait
utile dans le space de l'automation.
J'ai regardé un truc similaire.
La dernière fois que je l'ai essayé
d'automation, j'ai
essayé de mettre un service payé
pour beaucoup de choses différentes.
Je vais juste utiliser mon service discord.
Je vais probablement prendre un look
pour que je t'automise mon maison.
Ensuite, on a Dailybot.
Yeah.
Dailybot est fun.
C'est pour vous
que vous utilisez Slack pour communiquer
avec votre équipe. C'est un bon
moyen de remplir votre vidéo
ou des meetings de stand-up
en matin.
C'est juste
un interview
avec ce petit bot.
Il y a des rapports
pour tout le monde qui travaille
dans leur status.
C'est juste un moyen
de communiquer et de
savoir ce que vous travaillez.
C'est mon préféré
de check-in.
C'est cool.
Ensuite,
on a View Transitions.
Surtout
l'Astro Implementation de View Transitions.
Ouais,
Astro 3.0 a juste déclaré
et ils ont eu la soutien
pour les transitions de View.
Si vous n'avez pas écrit sur View Transitions,
c'est une capacité de browser relativement
pour que vous puissiez
faire des transitions
sans relancer
beaucoup sur JavaScript.
Ça fait possible
pour les appes traditionnelles
et les apps rendus
pour faire des transitions
plus phantastiques.
C'est vraiment cool.
Svelte a juste déclaré
la soutien similaire et les autres frameworks
sont en train de suivre.
Mais je pensais vraiment que l'Astro
version de ça est bien faite et leurs docs
sont excellents.
Donc même si vous voulez juste apprendre
les transitions de View, c'est vraiment bien
de vérifier leurs docs.
C'est un fonction que je vois sur Twitter
et ça se trouve
très cool et très fort.
Je n'ai pas été tout le temps
dans le cadre de ça, mais
j'ai hâte de voir où je peux ajouter
les choses que je fais.
Maintenant, on a
Sonar Cloud.
Oui.
J'ai été en train de utiliser Sonar
pour un moment maintenant, mais
Sonar Cloud est une version hostée.
Ça donne la source code
de qualité, de visibilité
dans votre base de code.
Il y a un peu de autres outils qui l'aiment.
Mais je n'aime pas
comment c'est facile de commencer
avec Sonar Cloud et de voir
les détenus de leurs
chevaux de qualité.
J'aime l'idée de la qualité
de qualité, où
un peu de autres outils, vous installez
et ça vous montre un million
d'issues qu'il faut fixer.
Sonar Cloud
approche un peu de la
code de qualité.
Je vais juste continuer de
faire sure que, quand vous ajoutez
de nouvelles codes, c'est adhéré
à des standards de qualité.
Et quand vous changez de code,
c'est adhéré à des standards de qualité.
C'est comme je l'ai aimé
d'ajouter mon base de code,
d'une manière interrète
en fait, en fait,
en faisant un développement
pour 3 mois,
alors que vous allez
faire un update sur votre code de qualité.
Donc
je pense que vous avez
une bonne pensée, un très clair
pensée sur les UIs, les
les workflows, les designs et tout
sur Sonar Cloud. Donc, vériez-vous, c'est cool.
Oui, c'est cool. On a
découvert un tour ici un peu de temps,
qui est un peu plus meilleur,
où c'est la même idée de
que votre code de qualité est bien,
ne le fait pas mal.
C'est un cool approche pour
l'Aripo, pour sûr.
Et puis, le dernier
tour de la journée,
je pense que
il y a une question, Eric.
Donc, le fait d'établir le data
de l'avance, c'est probablement le meilleur moyen
de le faire, c'est juste de aller à la châte GPT
et de le montrer,
parce que c'est vraiment cool.
Donc, c'est un feature de châte GPT
qui est un feature beta,
qui signifie que vous devez aller
dans vos settings de châte GPT,
les trois petites dots
à votre nom à la bas, cliquez
sur settings in beta, et puis
tournez le beta,
tournez l'avance data analysis.
Il used to be called code interpreter,
mais, c'est tout de suite
le code Python interpreter
qui est bécé dans votre châte GPT.
Et ce que ça veut
c'est que vous avez accès
à un agent, un loop agent,
qui signifie que vous pouvez rassembler
le code, regarder l'output,
et si c'est un erreur, il peut essayer de
essayer de l'attendre et de
l'interpréter sur le problème
que vous avez donné. Et c'est
si bien que je l'ai appris
basiquement en books
dans quelques heures.
C'est vraiment cool.
Donc, c'est un très puissant,
très capable chose que vous devez vérifier.
Et si vous voulez apprendre comment
utiliser, vous pouvez aller
vers devineware.io et signer
pour la track AI Whisperer.
C'est super, je pense que ça
s'arrête pour les outils de la week-end.
Merci d'avoir regardé Eric.
C'est une conversation
que je vais devoir
s'y assurer pour un moment
pour pouvoir comprendre les choses.
Et je suis très content de
essayer le soudoling. Je ne sais pas
où je vais essayer, mais c'est un concept
très nouveau.
Oui, juste commencez et commencez à jouer avec ça.
D'ici, le soudoling repo me lève
et il y a un bunch de
articles et des choses pour
apprendre le soudoling et les concepts
comme interface-orientation et
programmation en base constraint et
choses. Et vous pouvez
jouer avec ça.
Oui, j'aime juste
échoer ce que l'Andrew a dit. Eric,
c'est très bien de vous avoir
en place.
C'est vraiment cool de vous mettre
en place la face que j'ai signé
sur Twitter pour tout ce temps.
C'est super bien de vous parler.
Et oui, je suis super
content de
apprendre plus de choses
en plus de jouer avec le soudoling
ou si vous avez des gens qui
ne vous en dites pas, c'est super cool.
Mais oui, merci d'avoir regardé.
Episode suivant:
Les infos glanées
devtools.fm:DeveloperTools,OpenSource,SoftwareDevelopment
A podcast about developer tools and the people who make them. Join us as we embark on a journey to explore modern developer tooling and interview the people who make it possible. We love talking to the creators front-end frameworks (React, Solid, Svelte, Vue, Angular, etc), JavaScript and TypeScript runtimes (Node, Deno, Bun), Languages (Unison, Elixor, Rust, Zig), web tech (WASM, Web Containers, WebGPU, WebGL), database providers (Turso, Planetscale, Supabase, EdgeDB), and platforms (SST, AWS, Vercel, Netlify, Fly.io).
Tags